RU2806728C2 - Equipment and method for image coding based on filtering - Google Patents

Equipment and method for image coding based on filtering Download PDF

Info

Publication number
RU2806728C2
RU2806728C2 RU2023100028A RU2023100028A RU2806728C2 RU 2806728 C2 RU2806728 C2 RU 2806728C2 RU 2023100028 A RU2023100028 A RU 2023100028A RU 2023100028 A RU2023100028 A RU 2023100028A RU 2806728 C2 RU2806728 C2 RU 2806728C2
Authority
RU
Russia
Prior art keywords
alf
information
samples
component
cross
Prior art date
Application number
RU2023100028A
Other languages
Russian (ru)
Other versions
RU2023100028A (en
Inventor
Дзангвон ЧОЙ
Дзунгхак НАМ
Original Assignee
ЭлДжи ЭЛЕКТРОНИКС ИНК.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ЭлДжи ЭЛЕКТРОНИКС ИНК. filed Critical ЭлДжи ЭЛЕКТРОНИКС ИНК.
Publication of RU2023100028A publication Critical patent/RU2023100028A/en
Application granted granted Critical
Publication of RU2806728C2 publication Critical patent/RU2806728C2/en

Links

Abstract

FIELD: image encoding and decoding.
SUBSTANCE: residual samples for the current block, transform coefficients, and quantized transform coefficients are extracted. Residual information, reconstructed samples, information associated with adaptive loop filtering (ALF), and information associated with cross-component ALF (CCALF) are generated. The ALF filter coefficients for the ALF process of the reconstructed chroma samples are extracted. Filtered reconstructed samples of chrominance signals are generated based on the reconstructed samples of chrominance signals and the coefficients of the ALF filter. The coefficients of the cross-component filter are extracted. Modified filtered reconstructed samples of chrominance signals are generated based on the reconstructed samples of luminance signals, filtered reconstructed samples of chrominance signals and cross-component filter coefficients. The image information includes a sequence parameter set (SPS) including an ALF activation flag, and slice header information.
EFFECT: increased efficiency of encoding.
4 cl, 17 dwg, 30 tbl

Description

Уровень техникиState of the art

Область техники, к которой относится изобретениеField of technology to which the invention relates

[1] Настоящее раскрытие сущности относится к оборудованию и способу для кодирования изображений на основе фильтрации.[1] The present disclosure relates to equipment and method for encoding images based on filtering.

Описание предшествующего уровня техникиDescription of the Prior Art

[2] В последнее время, спрос на высококачественное изображение/видео высокого разрешения, к примеру, изображение/видео сверхвысокой четкости (UHD) формата 4K или 8K либо выше, растет в различных областях техники. Поскольку данные изображений/видео имеют высокое разрешение и высокое качество, объем информации или битов, который должен передаваться, увеличивается относительно существующих данных изображений/видео, и в силу этого, передача данных изображений с использованием носителя, такого как существующая проводная/беспроводная широкополосная линия или существующий носитель хранения данных, либо сохранение данных изображений/видео с использованием существующего носителя хранения данных увеличивает затраты на передачу и затраты на хранение.[2] Recently, demand for high-quality, high-definition image/video, such as ultra-high-definition (UHD) image/video in 4K or 8K or higher, has been growing in various technology fields. Since the image/video data is of high resolution and high quality, the amount of information or bits that must be transmitted increases relative to the existing image/video data, and therefore, transmitting the image data using a medium such as an existing wired/wireless broadband line or existing storage media, or storing image/video data using an existing storage media increases transmission costs and storage costs.

[3] Помимо этого, интерес и спрос на иммерсивное мультимедиа, такое как контент виртуальной реальности (VR) и искусственной реальности (AR) или голограммы, в последнее время растет, и широковещательная передача для изображения/видео, имеющего характеристики, отличающиеся от изображений реальности, таких как игровые изображения, увеличивается.[3] In addition, interest and demand for immersive multimedia such as virtual reality (VR) and artificial reality (AR) content or holograms has recently been increasing, and broadcasting for image/video having characteristics different from reality images , such as game images, increases.

[4] Соответственно, требуется технология высокоэффективного сжатия изображений/видео, чтобы эффективно сжимать, передавать, сохранять и воспроизводить информацию высококачественного изображения/видео высокого разрешения, имеющего различные характеристики, как описано выше.[4] Accordingly, a high-performance image/video compression technology is required to efficiently compress, transmit, store and reproduce high-quality image/video information having various characteristics as described above.

Сущность изобретенияThe essence of the invention

[5] Настоящее раскрытие сущности предоставляет способ и оборудование для повышения эффективности кодирования изображений/видео.[5] The present disclosure provides a method and equipment for improving the efficiency of image/video encoding.

[6] Настоящее раскрытие сущности также предоставляет способ и оборудование для эффективного применения фильтрации.[6] The present disclosure also provides a method and equipment for effectively applying filtering.

[7] Настоящее раскрытие сущности также предоставляет способ и оборудование для эффективного ALF-применения.[7] The present disclosure also provides a method and equipment for efficient use of ALF.

[8] Согласно варианту осуществления настоящего раскрытия сущности, процесс фильтрации может выполняться для восстановленных выборок сигналов цветности на основе восстановленных выборок сигналов яркости.[8] According to an embodiment of the present disclosure, a filtering process may be performed on the reconstructed chroma samples based on the reconstructed luma samples.

[9] Согласно варианту осуществления настоящего раскрытия сущности, фильтрованные восстановленные выборки сигналов цветности могут модифицироваться на основе восстановленных выборок сигналов яркости.[9] According to an embodiment of the present disclosure, the filtered reconstructed chroma samples may be modified based on the reconstructed luma samples.

[10] Согласно варианту осуществления настоящего раскрытия сущности, информация относительно того, доступна или нет CCALF, может передаваться в служебных сигналах в SPS.[10] According to an embodiment of the present disclosure, information regarding whether or not CCALF is available may be signaled to the SPS.

[11] Согласно варианту осуществления настоящего раскрытия сущности, информация относительно значений коэффициентов кросскомпонентного фильтра может извлекаться из ALF-данных (нормальных ALF-данных или CCALF-данных).[11] According to an embodiment of the present disclosure, information regarding the values of the cross-component filter coefficients can be extracted from ALF data (normal ALF data or CCALF data).

[12] Согласно варианту осуществления настоящего раскрытия сущности, идентификационная информация APS, включающая в себя ALF-данные для извлечения коэффициентов кросскомпонентного фильтра в срезе, может передаваться в служебных сигналах.[12] According to an embodiment of the present disclosure, APS identification information including ALF data for extracting cross-component filter coefficients in a slice may be signaled.

[13] Согласно варианту осуществления настоящего раскрытия сущности, информация относительно индекса набора фильтров для CCALF может передаваться в служебных сигналах в единицах CTU (блоков).[13] According to an embodiment of the present disclosure, information regarding a filter bank index for a CCALF may be signaled in CTU units.

[14] Согласно варианту осуществления настоящего документа, предоставляется способ декодирования видео/изображений, осуществляемый посредством оборудования декодирования.[14] According to an embodiment of the present document, a video/image decoding method performed by decoding equipment is provided.

[15] Согласно варианту осуществления настоящего документа, предоставляется оборудование декодирования для выполнения декодирования видео/изображений.[15] According to an embodiment of the present document, decoding equipment for performing video/image decoding is provided.

[16] Согласно варианту осуществления настоящего документа, предоставляется способ кодирования видео/изображений, осуществляемый посредством оборудования кодирования.[16] According to an embodiment of the present document, a video/image encoding method carried out by encoding equipment is provided.

[17] Согласно варианту осуществления настоящего документа, предоставляется оборудование кодирования для выполнения кодирования видео/изображений.[17] According to an embodiment of the present document, encoding equipment for performing video/image encoding is provided.

[18] Согласно одному варианту осуществления настоящего документа, предоставляется компьютерно-читаемый цифровой носитель хранения данных, на котором сохраняется кодированная информация видео/изображений, сформированная согласно способу кодирования видео/изображений, раскрытому, по меньшей мере, в одном из вариантов осуществления настоящего документа.[18] According to one embodiment of the present document, a computer-readable digital storage medium is provided on which encoded video/image information generated according to a video/image encoding method disclosed in at least one embodiment of the present document is stored.

[19] Согласно варианту осуществления настоящего документа, предоставляется компьютерно-читаемый цифровой носитель хранения данных, на котором сохраняется кодированная информация или кодированная информация видео/изображений, инструктирующая оборудованию декодирования осуществлять способ декодирования видео/изображений, раскрытый, по меньшей мере, в одном из вариантов осуществления настоящего документа.[19] According to an embodiment of the present document, a computer-readable digital storage medium is provided on which encoded information or encoded video/image information instructing decoding equipment to perform a video/image decoding method disclosed in at least one embodiment is stored. implementation of this document.

Преимущества изобретенияAdvantages of the invention

[20] Согласно варианту осуществления настоящего документа, может повышаться полная эффективность сжатия изображений/видео.[20] According to an embodiment of the present document, overall image/video compression efficiency can be improved.

[21] Согласно варианту осуществления настоящего документа, субъективное/объективное визуальное качество может повышаться посредством эффективной фильтрации.[21] According to an embodiment of the present document, subjective/objective visual quality can be improved through efficient filtering.

[22] Согласно варианту осуществления настоящего раскрытия сущности, ALF-процесс может эффективно выполняться, и может повышаться производительность фильтрации.[22] According to an embodiment of the present disclosure, the ALF process can be efficiently performed, and filtering performance can be improved.

[23] Согласно варианту осуществления настоящего раскрытия сущности, восстановленные выборки сигналов цветности, фильтрованные на основе восстановленных выборок сигналов яркости, могут модифицироваться, чтобы повышать качество кадров и точность кодирования компонента сигналов цветности декодированного кадра.[23] According to an embodiment of the present disclosure, the reconstructed chrominance samples filtered based on the reconstructed luma samples can be modified to improve frame quality and encoding accuracy of the chroma component of the decoded frame.

[24] Согласно варианту осуществления настоящего раскрытия сущности, CCALF-процесс может эффективно выполняться.[24] According to an embodiment of the present disclosure, the CCALF process can be efficiently executed.

[25] Согласно варианту осуществления настоящего раскрытия сущности, связанная с ALF информация может эффективно передаваться в служебных сигналах.[25] According to an embodiment of the present disclosure, ALF-related information can be efficiently transmitted in signaling signals.

[26] Согласно варианту осуществления настоящего раскрытия сущности, связанная с CCALF информация может эффективно передаваться в служебных сигналах.[26] According to an embodiment of the present disclosure, CCALF-related information can be efficiently transmitted in overhead signals.

[27] Согласно варианту осуществления настоящего раскрытия сущности, ALF и/или CCALF могут адаптивно применяться в единицах кадров, срезов и/или блоков кодирования.[27] According to an embodiment of the present disclosure, ALF and/or CCALF may be adaptively applied in units of frames, slices, and/or coding blocks.

[28] Согласно варианту осуществления настоящего документа, когда CCALF используется в способе и оборудовании кодирования и декодирования для неподвижного изображения или видео, коэффициенты фильтра для CCALF и способ передачи включения-выключения в единице блоков или CTU могут улучшаться, в силу этого повышая эффективность кодирования.[28] According to an embodiment of the present document, when CCALF is used in a still image or video encoding and decoding method and equipment, the filter coefficients for CCALF and the on-off transmission method in a block unit or CTU can be improved, thereby improving encoding efficiency.

Краткое описание чертежейBrief description of drawings

[29] Фиг. 1 схематично показывает пример системы кодирования видео/изображений, которая может применяться к вариантам осуществления настоящего раскрытия сущности.[29] FIG. 1 schematically shows an example of a video/image coding system that may be applied to embodiments of the present disclosure.

[30] Фиг. 2 является схемой, принципиально иллюстрирующей конфигурацию оборудования кодирования видео/изображений, которое может применяться к вариантам осуществления настоящего документа.[30] FIG. 2 is a diagram schematically illustrating the configuration of video/image encoding equipment that may be applied to embodiments of the present document.

[31] Фиг. 3 является схемой, принципиально иллюстрирующей конфигурацию оборудования декодирования видео/изображений, которое может применяться к вариантам осуществления настоящего документа.[31] FIG. 3 is a schematic diagram illustrating a configuration of video/image decoding equipment that may be applied to embodiments of the present document.

[32] Фиг. 4 примерно показывает иерархическую структуру для кодированного изображения/видео.[32] FIG. 4 approximately shows the hierarchical structure for a coded image/video.

[33] Фиг. 5 является блок-схемой последовательности операций, иллюстрирующей способ для восстановления блока на основе внутреннего прогнозирования в оборудовании кодирования.[33] FIG. 5 is a flowchart illustrating a method for recovering a block based on intra prediction in encoding equipment.

[34] Фиг. 6 является блок-схемой последовательности операций, иллюстрирующей способ восстановления блоков на основе внутреннего прогнозирования в оборудовании декодирования.[34] FIG. 6 is a flowchart illustrating a method for recovering blocks based on intra prediction in decoding equipment.

[35] Фиг. 7 является блок-схемой последовательности операций, иллюстрирующей способ восстановления блоков на основе взаимного прогнозирования в оборудовании кодирования.[35] FIG. 7 is a flowchart illustrating a method for recovering blocks based on inter-prediction in encoding equipment.

[36] Фиг. 8 является блок-схемой последовательности операций, иллюстрирующей способ восстановления блоков на основе взаимного прогнозирования в оборудовании декодирования.[36] FIG. 8 is a flowchart illustrating a method for restoring blocks based on inter-prediction in decoding equipment.

[37] Фиг. 9 показывает пример формы ALF-фильтра.[37] FIG. 9 shows an example of an ALF filter shape.

[38] Фиг. 10 является схемой, иллюстрирующей виртуальную границу, применяемую к процессу фильтрации согласно варианту осуществления настоящего документа.[38] FIG. 10 is a diagram illustrating a virtual boundary applied to a filtering process according to an embodiment of the present document.

[39] Фиг. 11 иллюстрирует пример ALF-процесса с использованием виртуальной границы согласно варианту осуществления настоящего раскрытия сущности.[39] FIG. 11 illustrates an example of an ALF process using a virtual boundary according to an embodiment of the present disclosure.

[40] Фиг. 12 является схемой, иллюстрирующей процесс кросскомпонентной адаптивной контурной фильтрации (CCALF) согласно варианту осуществления настоящего раскрытия сущности.[40] FIG. 12 is a diagram illustrating a cross-component adaptive loop filtering (CCALF) process according to an embodiment of the present disclosure.

[41] Фиг. 13 и 14 схематично показывают пример способа кодирования видео/изображений и связанных компонентов согласно варианту(ам) осуществления настоящего раскрытия сущности.[41] FIG. 13 and 14 schematically show an example of a method for encoding video/images and related components according to embodiment(s) of the present disclosure.

[42] Фиг. 15 и 16 схематично показывают пример способа декодирования изображений/видео и связанных компонентов согласно варианту(ам) осуществления настоящего раскрытия сущности.[42] FIG. 15 and 16 schematically show an example of a method for decoding images/videos and related components according to embodiment(s) of the present disclosure.

[43] Фиг. 17 показывает пример системы потоковой передачи контента, к которой могут применяться варианты осуществления, раскрытые в настоящем раскрытии сущности.[43] FIG. 17 shows an example of a content streaming system to which the embodiments disclosed in the present disclosure may be applied.

Подробное описание вариантов осуществленияDetailed Description of Embodiments

[44] Настоящий документ может модифицироваться в различных формах, и его конкретные варианты осуществления описываются и показываются на чертежах. Тем не менее, варианты осуществления не имеют намерение для ограничения настоящего документа. Термины, используемые в нижеприведенном описании, используются для того, чтобы просто описывать конкретные варианты осуществления, но не имеют намерение ограничивать настоящий документ. Выражение единственного числа включает в себя выражение множественного числа до этих пор, до тех пор, пока они четко трактуются по-разному. Такие термины, как "включать в себя" и "иметь", предназначены для того, чтобы указывать то, что существуют признаки, числа, этапы, операции, элементы, компоненты либо комбинации вышеозначенного, используемые в нижеприведенном описании, и в силу этого следует понимать, что не исключается возможность наличия или добавления одного или более других признаков, чисел, этапов, операций, элементов, компонентов либо комбинаций вышеозначенного.[44] The present document may be modified in various forms, and specific embodiments thereof are described and shown in the drawings. However, the embodiments are not intended to limit the present document. The terms used in the following description are used to simply describe specific embodiments, but are not intended to limit this document. The singular expression includes the plural expression as long as they are clearly interpreted differently. Terms such as “include” and “have” are intended to indicate that there are features, numbers, steps, operations, elements, components, or combinations thereof used in the following description, and as such are to be understood that the possibility of the presence or addition of one or more other features, numbers, steps, operations, elements, components or combinations of the above is not excluded.

[45] Между тем, каждая конфигурация на чертежах, описанная в настоящем документе, показывается независимо для удобства описания относительно различных характеристических функций и не означает, что каждая конфигурация реализуется как отдельные аппаратные средства или отдельное программное обеспечение. Например, два или более компонентов для каждого компонента могут комбинироваться, чтобы формировать один компонент, либо один компонент может разделяться на множество компонентов. Варианты осуществления, в которых каждый компонент интегрируется и/или отделяется, также включаются в объем документа настоящего документа.[45] Meanwhile, each configuration in the drawings described herein is shown independently for convenience of description regarding various characteristic functions and does not mean that each configuration is implemented as separate hardware or separate software. For example, two or more components for each component may be combined to form one component, or one component may be divided into multiple components. Embodiments in which each component is integrated and/or separated are also included within the scope of this document.

[46] В дальнейшем в этом документе подробно описываются примеры настоящего варианта осуществления со ссылкой на прилагаемые чертежи. Помимо этого, аналогичные ссылки с номерами используются для того, чтобы указывать аналогичные элементы на всех чертежах, и идентичные описания аналогичных элементов опускаются.[46] Hereinafter, examples of the present embodiment will be described in detail with reference to the accompanying drawings. In addition, like reference numerals are used to identify like elements throughout the drawings, and identical descriptions of like elements are omitted.

[47] Настоящий документ связан с кодированием видео/изображений. Например, способ/вариант осуществления, раскрытый в настоящем раскрытии сущности, представляет собой стандарт универсального кодирования видео (VVC) (ITU-T-рекомендация H.266), стандарт кодирования видео/изображений следующего поколения после VVC либо другие связанные с кодированием видео стандарты (например, он может относиться к стандарту высокоэффективного кодирования видео (HEVC) (ITU-T-рекомендация H.265), к стандарту фундаментального кодирования видео (EVC), к AVS2-стандарту и т.д.).[47] This document deals with video/image coding. For example, the method/embodiment disclosed in the present disclosure is a Versatile Video Coding (VVC) standard (ITU-T Recommendation H.266), a next-generation video/image coding standard after VVC, or other video coding-related standards ( for example, it may refer to the High Efficiency Video Coding (HEVC) standard (ITU-T Recommendation H.265), the fundamental video coding (EVC) standard, the AVS2 standard, etc.).

[48] Настоящее раскрытие сущности представляет различные варианты осуществления, связанные с кодированием видео/изображений, и если не указано иное, варианты осуществления могут комбинироваться между собой.[48] The present disclosure presents various embodiments associated with video/image encoding, and unless otherwise indicated, embodiments may be combined with each other.

[49] В настоящем раскрытии сущности, видео может означать набор последовательности изображений согласно прохождению времени. Кадр, в общем, означает единицу, представляющую одно изображение в конкретный период времени, и срез/плитка представляет собой единицу, составляющую часть кадра при кодировании. Срез/плитка может включать в себя одну или более единиц дерева кодирования (CTU). Один кадр может состоять из одного или более срезов/плиток. Один кадр может включать в себя одну или несколько групп плиток. Одна группа плиток может включать в себя одну или более плиток.[49] In the present disclosure, video may mean a collection of a sequence of images according to the passage of time. A frame generally means a unit representing one image at a particular time period, and a slice/tile is a unit that constitutes part of a frame when encoded. A slice/tile may include one or more coding tree units (CTUs). One frame can consist of one or more slices/tiles. One frame can include one or more groups of tiles. One tile group may include one or more tiles.

[50] Пиксел или пел может означать наименьшую единицу, составляющую один кадр (или изображение). Кроме того, "выборка" может использоваться в качестве термина, соответствующего пикселу. Выборка, в общем, может представлять пиксел или значение пиксела и может представлять только пиксел/пиксельное значение компонента сигналов яркости либо только пиксел/пиксельное значение компонента сигналов цветности. Альтернативно, выборка может означать пиксельное значение в пространственной области, и когда такое пиксельное значение преобразуется в частотную область, это может означать коэффициент преобразования в частотной области.[50] Pixel or pel can mean the smallest unit that makes up one frame (or image). Additionally, "sample" can be used as a term corresponding to a pixel. A sample may generally represent a pixel or a pixel value, and may represent only a pixel/pixel value of a luma component or only a pixel/pixel value of a chrominance component. Alternatively, a sample may refer to a pixel value in the spatial domain, and when such a pixel value is converted to the frequency domain, it may refer to a frequency domain conversion factor.

[51] Единица может представлять базовую единицу обработки изображений. Единица может включать в себя, по меньшей мере, одно из конкретной области кадра и информации, связанной с областью. Одна единица может включать в себя один блок сигналов яркости и два блока сигналов цветности (например, Cb, Cr). Единица может использоваться взаимозаменяемо с такими терминами, как блок или зона в некоторых случаях. В общем случае, блок MxN может включать в себя выборки (или массивы выборок) либо набор (или массив) коэффициентов преобразования из M столбцов и N строк. Альтернативно, выборка может означать пиксельное значение в пространственной области и когда такое пиксельное значение преобразуется в частотную область, это может означать коэффициент преобразования в частотной области.[51] The unit may represent a basic image processing unit. The unit may include at least one of a specific frame area and information associated with the area. One unit may include one block of luma signals and two blocks of chrominance signals (eg, Cb, Cr). Unit may be used interchangeably with terms such as block or zone in some cases. In general, an MxN block may include samples (or arrays of samples) or a set (or array) of transform coefficients of M columns and N rows. Alternatively, a sample may refer to a pixel value in the spatial domain, and when such a pixel value is converted to a frequency domain, it may refer to a frequency domain conversion factor.

[52] В настоящем раскрытии сущности, термин "/" и "," должен интерпретироваться как указывающий "и/или". Например, выражение "A/B" может означать "A и/или B". Дополнительно, "A, B" может означать "A и/или B". Дополнительно, "A/B/C" может означать "по меньшей мере, одно из A, B и/или C". Кроме того, "A/B/C" может означать "по меньшей мере, одно из A, B и/или C".[52] In the present disclosure, the terms “/” and “,” are to be interpreted to indicate “and/or.” For example, the expression "A/B" could mean "A and/or B". Additionally, "A, B" may mean "A and/or B". Additionally, "A/B/C" may mean "at least one of A, B and/or C". In addition, "A/B/C" may mean "at least one of A, B and/or C".

[53] Дополнительно, в документе, термин "или" должен интерпретироваться как указывающий "и/или". Например, выражение "A или B" может содержать 1) только A, 2) только B и/или 3) как A, так и B. Другими словами, термин "или" в настоящем раскрытии сущности должен интерпретироваться как указывающий "дополнительно или альтернативно".[53] Additionally, as used herein, the term “or” should be interpreted to indicate “and/or.” For example, the expression "A or B" may contain 1) only A, 2) only B, and/or 3) both A and B. In other words, the term "or" in this disclosure should be interpreted to indicate "in addition or alternatively ".

[54] При использовании в данном документе, "по меньшей мере, одно из A и B" может означать "только A", "только B" или "как A, так и B". Помимо этого, в этом описании изобретения, выражение "по меньшей мере, одно из A или B" или "по меньшей мере, одно из A и/или B" означает "по меньшей мере, одно". Оно может интерпретироваться идентично с "по меньшей мере, одно из A и B".[54] As used herein, “at least one of A and B” may mean “A only,” “B only,” or “both A and B.” In addition, in this specification, the expression “at least one of A or B” or “at least one of A and/or B” means “at least one”. It may be interpreted identically to "at least one of A and B".

[55] Кроме того, при использовании в данном документе, "по меньшей мере, одно из A, B и C" означает "только A", "только B", "только C" или "A, B и C", "любую комбинацию A, B и C". Кроме того, "по меньшей мере, одно из A, B или C" или "по меньшей мере, одно из A, B и/или C" может означать "по меньшей мере, одно из A, B и C".[55] Additionally, as used herein, "at least one of A, B and C" means "A only", "B only", "C only" or "A, B and C", " any combination of A, B and C." Additionally, “at least one of A, B, or C” or “at least one of A, B, and/or C” may mean “at least one of A, B, and C.”

[56] Помимо этого, круглые скобки, используемые в данном документе, могут означать "например". В частности, когда "прогнозирование (внутреннее прогнозирование)" указывается, "внутреннее прогнозирование" может предлагаться в качестве примера "прогнозирования". Другими словами, "прогнозирование" в настоящем описании изобретения не ограничено "внутренним прогнозированием", и "внутреннее прогнозирование" может предлагаться в качестве примера "прогнозирования". Кроме того, даже когда "прогнозирование (т.е. внутреннее прогнозирование)" указывается, "внутреннее прогнозирование" может предлагаться в качестве примера "прогнозирования".[56] In addition, parentheses used herein may indicate "for example." In particular, when "forecasting (internal forecasting)" is specified, "internal forecasting" may be offered as an example of "forecasting". In other words, “prediction” in the present specification is not limited to “internal prediction,” and “internal prediction” may be offered as an example of “prediction.” Moreover, even when “forecasting (ie, internal forecasting)” is specified, “internal forecasting” may be offered as an example of “forecasting.”

[57] В этом описании изобретения, технические признаки, которые отдельно описываются в рамках одного чертежа, могут реализовываться отдельно или одновременно.[57] In this specification, technical features that are separately described within a single drawing may be implemented separately or simultaneously.

[58] Фиг. 1 иллюстрирует пример системы кодирования видео/изображений, к которой может применяться настоящий документ.[58] FIG. 1 illustrates an example of a video/image coding system to which this document may be applied.

[59] Ссылаясь на фиг. 1, система кодирования видео/изображений может включать в себя исходное устройство и приемное устройство. Исходное устройство может передавать кодированную информацию или данные видео/изображений в приемное устройство через цифровой носитель хранения данных или сеть в форме файла или потоковой передачи.[59] Referring to FIG. 1, the video/image encoding system may include a source device and a receiving device. A source device may transmit encoded information or video/image data to a receiving device via a digital storage medium or network in the form of a file or stream.

[60] Исходное устройство может включать в себя видеоисточник, оборудование кодирования и передатчик. Приемное устройство может включать в себя приемник, оборудование декодирования и модуль рендеринга. Оборудование кодирования может называться "оборудованием кодирования видео/изображений", и оборудование декодирования может называться "оборудованием декодирования видео/изображений". Передатчик может включаться в оборудование кодирования. Приемник может включаться в оборудование декодирования. Модуль рендеринга может включать в себя дисплей, и дисплей может быть сконфигурирован как отдельное устройство или внешний компонент.[60] The source device may include a video source, encoding equipment, and a transmitter. The receiving device may include a receiver, decoding equipment, and a rendering module. The encoding equipment may be referred to as "video/image encoding equipment" and the decoding equipment may be referred to as "video/image decoding equipment". The transmitter may be included in the encoding equipment. The receiver may be included in the decoding equipment. The rendering module may include a display, and the display may be configured as a separate device or an external component.

[61] Видеоисточник может получать видео/изображение посредством процесса захвата, синтезирования или формирования видео/изображения. Видеоисточник может включать в себя устройство захвата видео/изображений и/или устройство формирования видео/изображений. Устройство захвата видео/изображений может включать в себя, например, одну или более камер, архивы видео/изображений, включающие в себя ранее захваченные видео/изображения, и т.п. Устройство формирования видео/изображений может включать в себя, например, компьютеры, планшетные компьютеры и смартфоны и может (электронно) формировать видео/изображения. Например, виртуальное видео/изображение может формироваться через компьютер и т.п. В этом случае, процесс захвата видео/изображений может заменяться посредством процесса формирования связанных данных.[61] A video source may obtain video/image through a video/image capture, synthesis, or shaping process. The video source may include a video/image capture device and/or a video/image generation device. The video/image capturing device may include, for example, one or more cameras, video/image archives including previously captured video/images, and the like. The video/image generating apparatus may include, for example, computers, tablet computers and smartphones and may (electronically) generate video/images. For example, a virtual video/image may be generated via a computer or the like. In this case, the video/image capturing process can be replaced by the associated data generation process.

[62] Оборудование кодирования может кодировать входное видео/изображение. Оборудование кодирования может выполнять последовательность процедур, таких как прогнозирование, преобразование и квантование, для эффективности сжатия и кодирования. Кодированные данные (кодированная информация видео/изображений) могут выводиться в форме потока битов.[62] Encoding equipment can encode the input video/image. Encoding hardware may perform a sequence of procedures such as prediction, transform, and quantization to achieve compression and encoding efficiency. Encoded data (encoded video/image information) may be output in the form of a bitstream.

[63] Передатчик может передавать информацию или данные кодированных изображений/изображений, выводимую в форме потока битов, в приемник приемного устройства через цифровой носитель хранения данных или сеть в форме файла или потоковой передачи. Цифровой носитель хранения данных может включать в себя различные носители хранения данных, такие как USB, SD, CD, DVD, Blu-Ray, HDD, SSD и т.п. Передатчик может включать в себя элемент для формирования мультимедийного файла через предварительно определенный формат файлов и может включать в себя элемент для передачи через широковещательную передачу/сеть связи. Приемник может принимать/извлекать поток битов и передавать принимаемый поток битов в оборудование декодирования.[63] A transmitter may transmit information or encoded image/image data output in the form of a bit stream to a receiver of a receiving device via a digital storage medium or network in the form of a file or streaming. The digital storage medium may include various storage media such as USB, SD, CD, DVD, Blu-Ray, HDD, SSD, and the like. The transmitter may include an element for generating a multimedia file through a predefined file format and may include an element for transmission through a broadcast/communication network. The receiver may receive/extract the bit stream and transmit the received bit stream to decoding equipment.

[64] Оборудование декодирования может декодировать видео/изображение посредством выполнения последовательности процедур, таких как деквантование, обратное преобразование и прогнозирование, соответствующих работе оборудования кодирования.[64] The decoding equipment may decode a video/image by performing a sequence of procedures such as dequantization, deconversion, and prediction corresponding to the operation of the encoding equipment.

[65] Модуль рендеринга может подготавливать посредством рендеринга декодированное видео/изображение. Подготовленное посредством рендеринга видео/изображение может отображаться через дисплей.[65] The rendering module may prepare a decoded video/image by rendering. The video/image prepared by rendering can be displayed through the display.

[66] Фиг. 2 является схемой, принципиально иллюстрирующей конфигурацию оборудования кодирования видео/изображений, к которому может применяться настоящий документ. В дальнейшем в этом документе, то, что называется "оборудованием кодирования видео", может включать в себя оборудование кодирования изображений.[66] FIG. 2 is a diagram schematically illustrating the configuration of video/image encoding equipment to which this document may be applied. Hereinafter in this document, what is referred to as “video encoding equipment” may include image encoding equipment.

[67] Ссылаясь на фиг. 2, оборудование 200 кодирования включает в себя модуль 210 сегментации изображений, модуль 220 прогнозирования, остаточный процессор 230 и энтропийный кодер 240, сумматор 250, фильтр 260 и запоминающее устройство 270. Модуль 220 прогнозирования может включать в себя модуль 221 взаимного прогнозирования и модуль 222 внутреннего прогнозирования. Остаточный процессор 230 может включать в себя преобразователь 232, квантователь 233, деквантователь 234 и обратный преобразователь 235. Остаточный процессор 230 дополнительно может включать в себя вычитатель 231. Сумматор 250 может называться "модулем восстановления" или "формирователем восстановленных блоков". Модуль 210 сегментации изображений, модуль 220 прогнозирования, остаточный процессор 230, энтропийный кодер 240, сумматор 250 и фильтр 260 могут быть сконфигурированы, по меньшей мере, посредством одного аппаратного компонента (например, набора микросхем или процессора кодера) согласно варианту осуществления. Помимо этого, запоминающее устройство 270 может включать в себя буфер декодированных кадров (DPB) или может быть сконфигурировано посредством цифрового носителя хранения данных. Аппаратный компонент дополнительно может включать в себя запоминающее устройство 270 в качестве внутреннего/внешнего компонента.[67] Referring to FIG. 2, the encoding equipment 200 includes an image segmentation module 210, a prediction module 220, a residual processor 230 and an entropy encoder 240, an adder 250, a filter 260, and a memory 270. The prediction module 220 may include an inter-prediction module 221 and an internal prediction module 222. forecasting. Residual processor 230 may include a transformer 232, a quantizer 233, a dequantizer 234, and an inverse transformer 235. Residual processor 230 may further include a subtractor 231. The adder 250 may be referred to as a “recovery module” or a “recovered block generator.” The image segmentation module 210, prediction module 220, residual processor 230, entropy encoder 240, adder 250, and filter 260 may be configured by at least one hardware component (eg, a chipset or encoder processor) according to an embodiment. In addition, storage device 270 may include a decoded frame buffer (DPB) or may be configured with a digital storage medium. The hardware component may further include a storage device 270 as an internal/external component.

[68] Модуль 210 сегментации изображений может сегментировать входное изображение (либо кадр или кинокадр), вводимое в оборудование 200 кодирования, на один или более блоков обработки. Например, блок обработки может называться "единицей кодирования (CU)". В этом случае, единица кодирования может рекурсивно сегментироваться согласно структуре в виде дерева квадрантов, двоичного дерева и троичного дерева (QTBTTT) из единицы дерева кодирования (CTU) или наибольшей единицы кодирования (LCU). Например, одна единица кодирования может сегментироваться на множество единиц кодирования большей глубины на основе структуры в виде дерева квадрантов, структуры в виде двоичного дерева и/или троичной структуры. В этом случае, например, сначала может применяться структура в виде дерева квадрантов, и впоследствии может применяться структура в виде двоичного дерева и троичная структура. Альтернативно, сначала может применяться структура в виде двоичного дерева. Процедура кодирования согласно настоящему документу может выполняться на основе конечной единицы кодирования, которая более не сегментируется. В этом случае, наибольшая единица кодирования может использоваться в качестве конечной единицы кодирования на основе эффективности кодирования согласно характеристикам изображений, или при необходимости, единица кодирования может рекурсивно сегментироваться на единицы кодирования большей глубины, и единица кодирования, имеющая оптимальный размер, может использоваться в качестве конечной единицы кодирования. Здесь, процедура кодирования может включать в себя процедуру прогнозирования, преобразования и восстановления, которая описывается ниже. В качестве другого примера, блок обработки дополнительно может включать в себя единицу прогнозирования (PU) или единицу преобразования (TU). В этом случае, единица прогнозирования и единица преобразования могут разбиваться или сегментироваться из вышеуказанной конечной единицы кодирования. Единица прогнозирования может представлять собой единицу выборочного прогнозирования, и единица преобразования может представлять собой единицу для извлечения коэффициента преобразования и/или единицу для извлечения остаточного сигнала из коэффициента преобразования.[68] The image segmentation module 210 may segment an input image (either a frame or a movie frame) input to the encoding equipment 200 into one or more processing units. For example, a processing unit may be called a "coding unit (CU)". In this case, the coding unit may be recursively segmented according to a quadtree, binary tree, and ternary tree (QTBTTT) structure from a coding tree unit (CTU) or largest coding unit (LCU). For example, one coding unit may be segmented into multiple coding units of greater depth based on a quadtree structure, a binary tree structure, and/or a ternary structure. In this case, for example, a quadtree structure may be applied first, and a binary tree structure and a ternary structure may be subsequently applied. Alternatively, a binary tree structure may be used first. The encoding procedure of this document may be performed based on a final encoding unit that is no longer segmented. In this case, the largest coding unit can be used as the final coding unit based on the coding efficiency according to the characteristics of the images, or if necessary, the coding unit can be recursively segmented into coding units of greater depth, and the coding unit having the optimal size can be used as the final coding units. Here, the encoding procedure may include a prediction, transformation and reconstruction procedure, which is described below. As another example, the processing unit may further include a prediction unit (PU) or a transformation unit (TU). In this case, the prediction unit and the transformation unit may be split or segmented from the above final encoding unit. The prediction unit may be a sample prediction unit, and the transformation unit may be a unit for extracting a transformation coefficient and/or a unit for extracting a residual signal from the transformation coefficient.

[69] Единица может использоваться взаимозаменяемо с такими терминами, как блок или зона в некоторых случаях. В общем случае, блок MxN может представлять набор выборок или коэффициентов преобразования, состоящих из M столбцов и N строк. Выборка, в общем, может представлять пиксел или значение пиксела, может представлять только пиксел/пиксельное значение компонента сигналов яркости либо представлять только пиксел/пиксельное значение компонента сигналов цветности. Выборка может использоваться в качестве термина, соответствующего одному кадру (или изображению) для пиксела или пела.[69] Unit may be used interchangeably with terms such as block or zone in some cases. In general, an MxN block can represent a set of samples or transform coefficients consisting of M columns and N rows. A sample may generally represent a pixel or a pixel value, may represent only a pixel/pixel value of a luma component, or may represent only a pixel/pixel value of a chrominance component. Sampling can be used as a term corresponding to one frame (or image) for a pixel or pel.

[70] Вычитатель 231 вычитает прогнозный сигнал (прогнозированный блок, прогнозные выборки или массив прогнозных выборок), выводимый из модуля 220 прогнозирования, из сигнала входного изображения (исходного блока, исходных выборок или массива исходных выборок), чтобы получать остаток. Сигнал (остаточный блок, остаточные выборки или массив остаточных выборок) может формироваться, и сформированный остаточный сигнал передается в преобразователь 232. Модуль 220 прогнозирования может выполнять прогнозирование относительно целевого блока обработки (в дальнейшем в этом документе, называемого "текущим блоком") и формировать прогнозированный блок, включающий в себя прогнозные выборки для текущего блока. Модуль 220 прогнозирования может определять то, применяется внутреннее прогнозирование или взаимное прогнозирование, на основе текущего блока или CU. Как описано ниже в описании каждого режима прогнозирования, модуль прогнозирования может формировать различную информацию, связанную с прогнозированием, к примеру, информацию режима прогнозирования, и передавать сформированную информацию в энтропийный кодер 240. Информация относительно прогнозирования может кодироваться в энтропийном кодере 240 и выводиться в форме потока битов.[70] The subtractor 231 subtracts the prediction signal (prediction block, prediction samples, or prediction sample array) output from the prediction unit 220 from the input image signal (source block, source samples, or source sample array) to obtain a remainder. A signal (a residual block, residual samples, or an array of residual samples) may be generated, and the generated residual signal is transmitted to transformer 232. Prediction module 220 may perform a prediction regarding a target processing block (hereinafter referred to as a "current block") and generate a predicted a block containing predictive samples for the current block. Prediction module 220 may determine whether intra-prediction or inter-prediction is applied based on the current block or CU. As described below in the description of each prediction mode, the prediction module may generate various prediction-related information, such as prediction mode information, and transmit the generated information to the entropy encoder 240. Information regarding the prediction may be encoded in the entropy encoder 240 and output in the form of a stream bits

[71] Модуль 222 внутреннего прогнозирования может прогнозировать текущий блок посредством ссылки на выборки в текущем кадре. Выборки для ссылки могут быть расположены в окружении текущего блока или могут быть расположены с разнесением согласно режиму прогнозирования. При внутреннем прогнозировании, режимы прогнозирования могут включать в себя множество ненаправленных режимов и множество направленных режимов. Ненаправленный режим может включать в себя, например, DC-режим и планарный режим. Направленный режим может включать в себя, например, 33 режима направленного прогнозирования или 65 режимов направленного прогнозирования согласно степени детальности направления прогнозирования. Тем не менее, это представляет собой просто пример, большее или меньшее число режимов направленного прогнозирования может использоваться в зависимости от настройки. Модуль 222 внутреннего прогнозирования может определять режим прогнозирования, применяемый к текущему блоку, посредством использования режима прогнозирования, применяемого к соседнему блоку.[71] Intra prediction module 222 may predict the current block by reference to samples in the current frame. Samples for reference may be located in the surroundings of the current block or may be spaced according to the prediction mode. In intraprediction, prediction modes may include a plurality of non-directional modes and a plurality of directed modes. The omnidirectional mode may include, for example, DC mode and planar mode. The directional mode may include, for example, 33 directional prediction modes or 65 directional prediction modes according to the granularity of the prediction direction. However, this is merely an example; more or less directional prediction modes may be used depending on the setting. The intra prediction module 222 may determine the prediction mode applied to the current block by using the prediction mode applied to the adjacent block.

[72] Модуль 221 взаимного прогнозирования может извлекать прогнозированный блок для текущего блока на основе опорного блока (массива опорных выборок), указываемого посредством вектора движения для опорного кадра. Здесь, чтобы уменьшать объем информации движения, передаваемой в режиме взаимного прогнозирования, информация движения может прогнозироваться в единицах блоков, субблоков или выборок на основе корреляции информации движения между соседним блоком и текущим блоком. Информация движения может включать в себя вектор движения и индекс опорного кадра. Информация движения дополнительно может включать в себя информацию направления взаимного прогнозирования (L0-прогнозирование, L1-прогнозирование, бипрогнозирование и т.д.). В случае взаимного прогнозирования, соседний блок может включать в себя пространственный соседний блок, присутствующий в текущем кадре, и временной соседний блок, присутствующий в опорном кадре. Опорный кадр, включающий в себя опорный блок, и опорный кадр, включающий в себя временной соседний блок, могут быть идентичными или отличающимися. Временной соседний блок может называться "совместно размещенным опорным блоком", "совместно размещенной CU (colCU)" и т.п., и опорный кадр, включающий в себя временной соседний блок, может называться "совместно размещенным кадром (colPic)". Например, модуль 221 взаимного прогнозирования может конфигурировать список возможных вариантов информации движения на основе соседних блоков и формировать информацию, указывающую то, какой возможный вариант используется для того, чтобы извлекать вектор движения и/или индекс опорного кадра текущего блока. Взаимное прогнозирование может выполняться на основе различных режимов прогнозирования. Например, в случае режима пропуска и режима объединения, модуль 221 взаимного прогнозирования может использовать информацию движения соседнего блока в качестве информации движения текущего блока. В режиме пропуска, в отличие от режима объединения, остаточный сигнал может не передаваться. В случае режима прогнозирования векторов движения (MVP), вектор движения соседнего блока может использоваться в качестве предиктора вектора движения, и вектор движения текущего блока может указываться посредством передачи в служебных сигналах разности векторов движения.[72] The inter-prediction unit 221 can extract a predicted block for the current block based on a reference block (an array of reference samples) indicated by a motion vector for the reference frame. Here, in order to reduce the amount of motion information transmitted in the inter-prediction mode, motion information may be predicted in units of blocks, sub-blocks, or samples based on the correlation of motion information between a neighboring block and the current block. The motion information may include a motion vector and a reference frame index. The motion information may further include inter-prediction direction information (L0-prediction, L1-prediction, bi-prediction, etc.). In the case of inter-prediction, the neighbor block may include a spatial neighbor block present in the current frame and a temporal neighbor block present in the reference frame. The reference frame including the reference block and the reference frame including the temporary adjacent block may be identical or different. A temporary neighbor block may be called a “co-located reference block”, a “col-located CU (colCU)”, etc., and a reference frame including a temporary neighboring block may be called a “col-located frame (colPic)”. For example, the inter-prediction module 221 may configure a list of motion information candidates based on neighboring blocks and generate information indicating which candidate is used to retrieve the motion vector and/or reference frame index of the current block. Mutual prediction can be performed based on different prediction modes. For example, in the case of the skip mode and the merge mode, the inter-prediction unit 221 may use the motion information of the adjacent block as the motion information of the current block. In the skip mode, unlike the combine mode, the residual signal may not be transmitted. In the case of the motion vector prediction (MVP) mode, the motion vector of an adjacent block may be used as a motion vector predictor, and the motion vector of the current block may be indicated by signaling a motion vector difference.

[73] Модуль 220 прогнозирования может формировать прогнозный сигнал на основе различных способов прогнозирования, описанных ниже. Например, модуль прогнозирования может не только применять внутреннее прогнозирование или взаимное прогнозирование для того, чтобы прогнозировать один блок, но также и одновременно применять как внутренние прогнозирование, так и взаимное прогнозирование. Это может называться "комбинированным взаимным и внутренним прогнозированием (CIIP)". Помимо этого, модуль прогнозирования может выполнять внутриблочное копирование (IBC) для прогнозирования блока. Режим IBC-прогнозирования может использоваться для кодирования изображений/видео контента игры и т.п., например, для кодирования экранного контента (SCC). IBC по существу выполняет прогнозирование в текущем кадре, но может выполняться аналогично взаимному прогнозированию, в котором опорный блок извлекается в текущем кадре. Таким образом, IBC может использовать, по меньшей мере, одну из технологий взаимного прогнозирования, описанных в настоящем документе.[73] The prediction module 220 may generate a prediction signal based on various prediction methods described below. For example, the prediction module may not only apply intra-prediction or inter-prediction to predict one block, but also simultaneously apply both intra-prediction and inter-prediction. This may be referred to as "combined inter-intraprediction (CIIP)". In addition, the prediction module can perform intra-block copying (IBC) to predict a block. The IBC prediction mode can be used to encode game image/video content and the like, such as screen content encoding (SCC). IBC essentially performs prediction in the current frame, but can be performed similarly to inter-prediction in which the reference block is retrieved in the current frame. Thus, the IBC may use at least one of the inter-prediction technologies described herein.

[74] Прогнозный сигнал, сформированный посредством модуля 221 взаимного прогнозирования и/или модуля 222 внутреннего прогнозирования, может использоваться для того, чтобы формировать восстановленный сигнал или формировать остаточный сигнал. Преобразователь 232 может формировать коэффициенты преобразования посредством применения технологии преобразования к остаточному сигналу. Например, технология преобразования может включать в себя дискретное косинусное преобразование (DCT), дискретное синусное преобразование (DST), преобразование Карунена-Лоэва (KLT), преобразование на основе графа (GBT) или условно нелинейное преобразование (CNT). Здесь, GBT означает преобразование, полученное из графа, когда информация взаимосвязи между пикселами представляется посредством графа. CNT означает преобразование, сформированное на основе прогнозного сигнала, сформированного с использованием всех ранее восстановленных пикселов. Помимо этого, процесс преобразования может применяться к квадратным пиксельным блокам, имеющим идентичный размер, или может применяться к блокам, имеющим переменный размер, а не квадратный.[74] The prediction signal generated by the inter prediction module 221 and/or the intra prediction module 222 can be used to generate a reconstructed signal or generate a residual signal. Converter 232 may generate conversion coefficients by applying conversion technology to the residual signal. For example, the transform technology may include discrete cosine transform (DCT), discrete sine transform (DST), Karhunen-Loeve transform (KLT), graph-based transform (GBT), or conditionally nonlinear transform (CNT). Here, GBT means a graph-derived transformation when the relationship information between pixels is represented by the graph. CNT means a transform generated based on a prediction signal generated using all previously reconstructed pixels. In addition, the conversion process can be applied to square pixel blocks that are identical in size, or can be applied to blocks that are variable in size rather than square.

[75] Квантователь 233 может квантовать коэффициенты преобразования и передавать их в энтропийный кодер 240, и энтропийный кодер 240 может кодировать квантованный сигнал (информацию относительно квантованных коэффициентов преобразования) и выводить поток битов. Информация относительно квантованных коэффициентов преобразования может называться "остаточной информацией". Квантователь 233 может перекомпоновывать блочные квантованные коэффициенты преобразования в одномерную векторную форму на основе порядка сканирования коэффициентов и формировать информацию относительно квантованных коэффициентов преобразования на основе квантованных коэффициентов преобразования в одномерной векторной форме. Информация относительно коэффициентов преобразования может формироваться. Энтропийный кодер 240 может осуществлять различные способы кодирования, такие как, например, кодирование экспоненциальным кодом Голомба, контекстно-адаптивное кодирование переменной длины (CAVLC), контекстно-адаптивное двоичное арифметическое кодирование (CABAC) и т.п. Энтропийный кодер 240 может кодировать информацию, необходимую для восстановления видео/изображений, отличную от квантованных коэффициентов преобразования (например, значений синтаксических элементов и т.д.), вместе или отдельно. Кодированная информация (например, кодированная информация видео/изображений) может передаваться или сохраняться в единицах NAL (слоя абстрагирования от сети) в форме потока битов. Информация видео/изображений дополнительно может включать в себя информацию относительно различных наборов параметров, таких как набор параметров адаптации (APS), набор параметров кадра (PPS), набор параметров последовательности (SPS) или набор параметров видео (VPS). Помимо этого, информация видео/изображений дополнительно может включать в себя общую информацию ограничений. В настоящем документе, передача служебных сигналов/передаваемая информация и/или синтаксические элементы, описанные далее в настоящем раскрытии сущности, могут кодироваться через вышеуказанный процесс кодирования и включаться в поток битов. Поток битов может передаваться по сети или может сохраняться на цифровом носителе хранения данных. Сеть может включать в себя широковещательную сеть и/или сеть связи, и цифровой носитель хранения данных может включать в себя различные носители хранения данных, такие как, USB, SD, CD, DVD, Blu-Ray, HDD, SSD и т.п. Передатчик (не показан), передающий сигнал, выводимый из энтропийного кодера 240, и/или модуль хранения (не показан), сохраняющий сигнал, могут включаться в качестве внутреннего/внешнего элемента оборудования 200 кодирования, и альтернативно, передатчик может включаться в энтропийный кодер 240.[75] Quantizer 233 may quantize the transform coefficients and transmit them to entropy encoder 240, and entropy encoder 240 may encode the quantized signal (information regarding the quantized transform coefficients) and output a bit stream. Information regarding the quantized transform coefficients may be referred to as "residual information". Quantizer 233 may re-arrange the block quantized transform coefficients into one-dimensional vector form based on the scanning order of the coefficients, and generate information regarding the quantized transform coefficients based on the quantized transform coefficients in one-dimensional vector form. Information regarding conversion factors can be generated. The entropy encoder 240 may implement various encoding techniques, such as, for example, exponential Golomb coding, context adaptive variable length coding (CAVLC), context adaptive binary arithmetic coding (CABAC), and the like. Entropy encoder 240 may encode information needed to reconstruct video/images other than quantized transform coefficients (eg, syntax element values, etc.), together or separately. Encoded information (eg, encoded video/image information) may be transmitted or stored in NAL (Network Abstraction Layer) units in the form of a bit stream. The video/image information may further include information regarding various parameter sets, such as an adaptation parameter set (APS), a frame parameter set (PPS), a sequence parameter set (SPS), or a video parameter set (VPS). In addition, the video/image information may further include general restriction information. Herein, the signaling/transmitted information and/or syntax elements described later in the present disclosure may be encoded through the above encoding process and included in the bitstream. The bit stream may be transmitted over a network or may be stored on a digital storage medium. The network may include a broadcast network and/or a communications network, and the digital storage medium may include various storage media such as USB, SD, CD, DVD, Blu-Ray, HDD, SSD, and the like. A transmitter (not shown) transmitting the signal output from the entropy encoder 240 and/or a storage module (not shown) storing the signal may be included as an internal/external element of the encoding equipment 200, and alternatively, the transmitter may be included in the entropy encoder 240 .

[76] Квантованные коэффициенты преобразования, выводимые из квантователя 233, могут использоваться для того, чтобы формировать прогнозный сигнал. Например, остаточный сигнал (остаточный блок или остаточные выборки) может восстанавливаться посредством применения деквантования и обратного преобразования к квантованным коэффициентам преобразования через деквантователь 234 и обратный преобразователь 235. Сумматор 250 суммирует восстановленный остаточный сигнал с прогнозным сигналом, выводимым из модуля 220 прогнозирования, чтобы формировать восстановленный сигнал (восстановленный кадр, восстановленные выборки или массив восстановленных выборок). Если отсутствует остаток для блока, который должен обрабатываться, к примеру, в случае, в котором режим пропуска применяется, прогнозированный блок может использоваться в качестве восстановленного блока. Сформированный восстановленный сигнал может использоваться для внутреннего прогнозирования следующего блока, который должен обрабатываться в текущем кадре, и может использоваться для взаимного прогнозирования следующего кадра посредством фильтрации, как описано ниже.[76] The quantized transform coefficients output from quantizer 233 can be used to generate a predictive signal. For example, a residual signal (residual block or residual samples) may be reconstructed by applying dequantization and inverse transform to the quantized transform coefficients through dequantizer 234 and inverter 235. Adder 250 adds the reconstructed residual signal with the predicted signal output from prediction module 220 to generate a reconstructed signal (reconstructed frame, reconstructed samples, or array of reconstructed samples). If there is no remainder for a block to be processed, for example in a case in which the skip mode is applied, the predicted block can be used as a reconstructed block. The generated reconstructed signal can be used to internally predict the next block to be processed in the current frame, and can be used to inter-predict the next frame through filtering, as described below.

[77] Между тем, преобразование сигнала яркости с масштабированием сигнала цветности (LMCS) может применяться во время кодирования и/или восстановления кадров.[77] Meanwhile, luma conversion with chrominance scaling (LMCS) can be applied during encoding and/or reconstruction of frames.

[78] Фильтр 260 может повышать субъективное/объективное качество изображений посредством применения фильтрации к восстановленному сигналу. Например, фильтр 260 может формировать модифицированный восстановленный кадр посредством применения различных способов фильтрации к восстановленному кадру и сохранять модифицированный восстановленный кадр в запоминающем устройстве 270, а именно, в DPB запоминающего устройства 270. Различные способы фильтрации могут включать в себя, например, фильтрацию для удаления блочности, фильтрацию на основе дискретизированного адаптивного смещения (SAO), адаптивный контурный фильтр, билатеральный фильтр и т.п. Фильтр 260 может формировать различную информацию, связанную с фильтрацией, и передавать сформированную информацию в энтропийный кодер 240, как описано ниже в описании каждого способа фильтрации. Информация, связанная с фильтрацией, может кодироваться посредством энтропийного кодера 240 и выводиться в форме потока битов.[78] Filter 260 may enhance the subjective/objective quality of images by applying filtering to the reconstructed signal. For example, filter 260 may generate a modified reconstructed frame by applying various filtering techniques to the reconstructed frame and store the modified reconstructed frame in storage device 270, namely, a DPB of storage device 270. Various filtering techniques may include, for example, deblocking filtering. , sampled adaptive offset (SAO) filtering, adaptive loop filter, bilateral filter, etc. The filter 260 may generate various filtering-related information and transmit the generated information to the entropy encoder 240, as described below in the description of each filtering method. Information associated with filtering may be encoded by entropy encoder 240 and output in the form of a bitstream.

[79] Модифицированный восстановленный кадр, передаваемый в запоминающее устройство 270, может использоваться в качестве опорного кадра в модуле 221 взаимного прогнозирования. Когда взаимное прогнозирование применяется посредством оборудования кодирования, рассогласование прогнозирования между оборудованием 200 кодирования и оборудованием 300 декодирования может исключаться, и эффективность кодирования может повышаться.[79] The modified reconstructed frame transferred to the storage device 270 can be used as a reference frame in the inter-prediction unit 221. When inter prediction is applied by the encoding equipment, prediction mismatch between the encoding equipment 200 and the decoding equipment 300 can be eliminated, and the encoding efficiency can be improved.

[80] DPB запоминающего устройства 270 может сохранять модифицированный восстановленный кадр для использования в качестве опорного кадра в модуле 221 взаимного прогнозирования. Запоминающее устройство 270 может сохранять информацию движения блока, из которой информация движения в текущем кадре извлекается (или кодируется), и/или информацию движения блоков в кадре, которые уже восстановлены. Сохраненная информация движения может передаваться в модуль 221 взаимного прогнозирования и использоваться в качестве информации движения пространственного соседнего блока или информации движения временного соседнего блока. Запоминающее устройство 270 может сохранять восстановленные выборки восстановленных блоков в текущем кадре и может передавать восстановленные выборки в модуль 222 внутреннего прогнозирования.[80] The DPB of the storage device 270 may store the modified reconstructed frame for use as a reference frame in the inter-prediction module 221. Memory 270 may store block motion information from which motion information in the current frame is retrieved (or encoded) and/or motion information of blocks in a frame that have already been reconstructed. The stored motion information may be transmitted to the inter-prediction unit 221 and used as spatial neighbor block motion information or temporal neighbor block motion information. Memory 270 may store reconstructed samples of reconstructed blocks in the current frame and may transmit reconstructed samples to intra prediction module 222.

[81] Фиг. 3 является принципиальной схемой, иллюстрирующей конфигурацию оборудования декодирования видео/изображений, к которому может применяться настоящий документ.[81] FIG. 3 is a circuit diagram illustrating the configuration of video/image decoding equipment to which this document can be applied.

[82] Ссылаясь на фиг. 3, оборудование 300 декодирования может включать в себя энтропийный декодер 310, остаточный процессор 320, модуль 330 прогнозирования, сумматор 340, фильтр 350, запоминающее устройство 360. Модуль 330 прогнозирования может включать в себя модуль 331 взаимного прогнозирования и модуль 332 внутреннего прогнозирования. Остаточный процессор 320 может включать в себя деквантователь 321 и обратный преобразователь 321. Энтропийный декодер 310, остаточный процессор 320, модуль 330 прогнозирования, сумматор 340 и фильтр 350 могут быть сконфигурированы посредством аппаратного компонента (например, набора микросхем или процессора декодера) согласно варианту осуществления. Помимо этого, запоминающее устройство 360 может включать в себя буфер декодированных кадров (DPB) или может быть сконфигурировано посредством цифрового носителя хранения данных. Аппаратный компонент дополнительно может включать в себя запоминающее устройство 360 в качестве внутреннего/внешнего компонента.[82] Referring to FIG. 3, the decoding equipment 300 may include an entropy decoder 310, a residual processor 320, a prediction module 330, an adder 340, a filter 350, a memory 360. The prediction module 330 may include an inter-prediction module 331 and an intra-prediction module 332. Residual processor 320 may include a dequantizer 321 and an inverse converter 321. Entropy decoder 310, residual processor 320, prediction module 330, adder 340, and filter 350 may be configured by a hardware component (eg, a chipset or decoder processor) according to an embodiment. In addition, storage device 360 may include a decoded frame buffer (DPB) or may be configured with a digital storage medium. The hardware component may further include storage device 360 as an internal/external component.

[83] Когда поток битов, включающий в себя информацию видео/изображений, вводится, оборудование 300 декодирования может восстанавливать изображение, соответствующее процессу, в котором информация видео/изображений обрабатывается в оборудовании кодирования по фиг. 2. Например, оборудование 300 декодирования может извлекать единицы/блоки на основе связанной с сегментацией на блоки информации, полученной из потока битов. Оборудование 300 декодирования может выполнять декодирование с использованием блока обработки, применяемого в оборудовании кодирования. Таким образом, блок обработки декодирования, например, может представлять собой единицу кодирования, и единица кодирования может сегментироваться согласно структуре в виде дерева квадрантов, структуре в виде двоичного дерева и/или структуре в виде троичного дерева из единицы дерева кодирования или наибольшей единицы кодирования. Одна или более единиц преобразования могут извлекаться из единицы кодирования. Восстановленный сигнал изображения, декодированный и выводимый посредством оборудования 300 декодирования, может воспроизводиться посредством оборудования воспроизведения.[83] When a bit stream including video/image information is input, the decoding equipment 300 can reconstruct an image corresponding to the process in which the video/image information is processed in the encoding equipment of FIG. 2. For example, decoding equipment 300 may extract units/blocks based on block segmentation-related information obtained from the bitstream. The decoding equipment 300 may perform decoding using a processing unit used in the encoding equipment. Thus, the decoding processing unit, for example, may be a coding unit, and the coding unit may be segmented according to a quadtree structure, a binary tree structure, and/or a ternary tree structure from a coding tree unit or a largest coding unit. One or more transformation units may be derived from a coding unit. The reconstructed image signal decoded and output by the decoding equipment 300 can be reproduced by the playback equipment.

[84] Оборудование 300 декодирования может принимать сигнал, выводимый из оборудования кодирования по фиг. 2 в форме потока битов, и принимаемый сигнал может декодироваться через энтропийный декодер 310. Например, энтропийный декодер 310 может синтаксически анализировать поток битов, чтобы извлекать информацию (например, информацию видео/изображений), необходимую для восстановления изображений (или восстановления кадров). Информация видео/изображений дополнительно может включать в себя информацию относительно различных наборов параметров, таких как набор параметров адаптации (APS), набор параметров кадра (PPS), набор параметров последовательности (SPS) или набор параметров видео (VPS). Помимо этого, информация видео/изображений дополнительно может включать в себя общую информацию ограничений. Оборудование декодирования дополнительно может декодировать кадр на основе информации относительно набора параметров и/или общей информации ограничений. Передаваемая в служебных сигналах/принимаемая информация и/или синтаксические элементы, описанные далее в настоящем документе, могут декодироваться, могут декодировать процедуру декодирования и получаться из потока битов. Например, энтропийный декодер 310 декодирует информацию в потоке битов на основе способа кодирования, такого как кодирование экспоненциальным кодом Голомба, CAVLC или CABAC, и выходных синтаксических элементов, требуемых для восстановления изображений, и квантованных значений коэффициентов преобразования для остатка. Более конкретно, способ энтропийного CABAC-декодирования может принимать элемент разрешения, соответствующий каждому синтаксическому элементу в потоке битов, определять контекстную модель с использованием информации целевого синтаксического элемента декодирования, информации декодирования целевого блока декодирования или информации символа/элемента разрешения, декодированного на предыдущей стадии, и выполнять арифметическое декодирование для элемента разрешения посредством прогнозирования вероятности появления элемента разрешения согласно определенной контекстной модели и формировать символ, соответствующий значению каждого синтаксического элемента. В этом случае, способ энтропийного CABAC-декодирования может обновлять контекстную модель посредством использования информации декодированного символа/элемента разрешения для контекстной модели следующего символа/элемента разрешения после определения контекстной модели. Информация, связанная с прогнозированием, из информации, декодированной посредством энтропийного декодера 310, может предоставляться в модуль 330 прогнозирования, и информация относительно остатка, для которого энтропийное декодирование выполнено в энтропийном декодере 310, т.е. квантованные коэффициенты преобразования и связанная информация параметров, может вводиться в деквантователь 321. Помимо этого, информация относительно фильтрации из информации, декодированной посредством энтропийного декодера 310, может предоставляться в фильтр 350. Между тем, приемник (не показан) для приема сигнала, выводимого из оборудования кодирования, может быть дополнительно сконфигурирован в качестве внутреннего/внешнего элемента оборудования 300 декодирования, или приемник может представлять собой компонент энтропийного декодера 310. Между тем, оборудование декодирования согласно настоящему документу может называться "оборудованием декодирования видео/изображений/кадров", и оборудование декодирования может классифицироваться на информационный декодер (декодер информации видео/изображений/кадров) и выборочный декодер (декодер выборок видео/изображений/кадров). Информационный декодер может включать в себя энтропийный декодер 310, и выборочный декодер может включать в себя, по меньшей мере, одно из деквантователя 321, обратного преобразователя 322, модуля 330 прогнозирования, сумматора 340, фильтра 350 и запоминающего устройства 360.[84] The decoding equipment 300 may receive a signal output from the encoding equipment of FIG. 2 in the form of a bit stream, and the received signal may be decoded through entropy decoder 310. For example, entropy decoder 310 may parse the bit stream to extract information (eg, video/image information) needed for image reconstruction (or frame reconstruction). The video/image information may further include information regarding various parameter sets, such as an adaptation parameter set (APS), a frame parameter set (PPS), a sequence parameter set (SPS), or a video parameter set (VPS). In addition, the video/image information may further include general restriction information. The decoding equipment may further decode the frame based on information regarding the parameter set and/or general constraint information. The signaling/receiving information and/or syntax elements described later herein may be decoded, may be decoded by a decoding procedure, and obtained from the bitstream. For example, entropy decoder 310 decodes information in a bitstream based on an encoding method, such as exponential Golomb, CAVLC, or CABAC encoding, and the output syntax elements required for image reconstruction and the quantized values of the transform coefficients for the remainder. More specifically, the entropy CABAC decoding method may receive a resolution element corresponding to each syntax element in the bitstream, determine a context model using information of a target decoding syntax element, decoding information of a target decoding block, or information of a symbol/resolution element decoded in a previous stage, and perform arithmetic decoding for the permission element by predicting the probability of occurrence of the permission element according to the determined context model and generating a symbol corresponding to the meaning of each syntactic element. In this case, the entropy CABAC decoding method can update the context model by using the decoded symbol/grant element information for the context model of the next symbol/grant element after determining the context model. Prediction-related information from the information decoded by the entropy decoder 310 may be provided to the prediction module 330, and information regarding the remainder for which entropy decoding is performed in the entropy decoder 310, i.e. quantized conversion coefficients and related parameter information may be input to the dequantizer 321. In addition, information regarding filtering from information decoded by the entropy decoder 310 may be provided to the filter 350. Meanwhile, a receiver (not shown) for receiving a signal output from the equipment encoding may be further configured as an internal/external element of the decoding equipment 300, or the receiver may be a component of the entropy decoder 310. Meanwhile, the decoding equipment herein may be referred to as “video/image/frame decoding equipment”, and the decoding equipment may classified into information decoder (video/image/frame information decoder) and sample decoder (video/image/frame sample decoder). The information decoder may include an entropy decoder 310, and the sample decoder may include at least one of a dequantizer 321, an inverter 322, a predictor 330, an adder 340, a filter 350, and a memory 360.

[85] Деквантователь 321 может деквантовать квантованные коэффициенты преобразования и выводить коэффициенты преобразования. Деквантователь 321 может перекомпоновывать квантованные коэффициенты преобразования в форме двумерной блочной формы. В этом случае, перекомпоновка может выполняться на основе порядка сканирования коэффициентов, выполняемого в оборудовании кодирования. Деквантователь 321 может выполнять деквантование для квантованных коэффициентов преобразования посредством использования параметра квантования (например, информации размера шага квантования) и получать коэффициенты преобразования.[85] The dequantizer 321 may dequantize the quantized transform coefficients and output the transform coefficients. The dequantizer 321 may re-arrange the quantized transform coefficients into a two-dimensional block form. In this case, re-arrangement may be performed based on the order of coefficient scanning performed in the encoding equipment. The dequantizer 321 may perform dequantization on the quantized transform coefficients by using a quantization parameter (eg, quantization step size information) and obtain the transform coefficients.

[86] Обратный преобразователь 322 обратно преобразует коэффициенты преобразования, чтобы получать остаточный сигнал (остаточный блок, массив остаточных выборок).[86] The inverse converter 322 inversely converts the transform coefficients to obtain a residual signal (residual block, residual sample array).

[87] Модуль 230 прогнозирования может выполнять прогнозирование для текущего блока и может формировать прогнозированный блок, включающий в себя прогнозные выборки для текущего блока. Модуль прогнозирования может определять то, применяется внутреннее прогнозирование или взаимное прогнозирование к текущему блоку, на основе информации относительно прогнозирования, выводимой из энтропийного декодера 310, и может определять конкретный режим внутреннего/взаимного прогнозирования.[87] Prediction module 230 may perform prediction for the current block and may generate a predicted block including prediction samples for the current block. The prediction module may determine whether intra prediction or inter prediction is applied to the current block based on the prediction information output from the entropy decoder 310, and may determine a particular intra/inter prediction mode.

[88] Модуль прогнозирования может формировать прогнозный сигнал на основе различных способов прогнозирования, описанных ниже. Например, модуль прогнозирования может не только применять внутреннее прогнозирование или взаимное прогнозирование для того, чтобы прогнозировать один блок, но также и одновременно применять внутреннее прогнозирование и взаимное прогнозирование. Это может называться "комбинированным взаимным и внутренним прогнозированием (CIIP)". Помимо этого, модуль прогнозирования может выполнять внутриблочное копирование (IBC). Внутриблочное копирование может использоваться для кодирования изображений/видео контента игры и т.п., например, для кодирования экранного контента (SCC). IBC по существу выполняет прогнозирование в текущем кадре, но может выполняться аналогично взаимному прогнозированию, в котором опорный блок извлекается в текущем кадре. Таким образом, IBC может использовать, по меньшей мере, одну из технологий взаимного прогнозирования, описанных в настоящем документе.[88] The prediction module may generate a prediction signal based on various prediction methods described below. For example, the prediction module may not only apply intra-prediction or inter-prediction to predict one block, but also simultaneously apply intra-prediction and inter-prediction. This may be referred to as "combined inter-intraprediction (CIIP)". In addition, the prediction engine can perform intra-block copying (IBC). In-block copying can be used to encode game image/video content and the like, such as screen content encoding (SCC). IBC essentially performs prediction in the current frame, but can be performed similarly to inter-prediction in which the reference block is retrieved in the current frame. Thus, the IBC may use at least one of the inter-prediction technologies described herein.

[89] Модуль 331 внутреннего прогнозирования может прогнозировать текущий блок посредством ссылки на выборки в текущем кадре. Выборки для ссылки могут быть расположены в окружении текущего блока или могут быть расположены с разнесением согласно режиму прогнозирования. При внутреннем прогнозировании, режимы прогнозирования могут включать в себя множество ненаправленных режимов и множество направленных режимов. Модуль 331 внутреннего прогнозирования может определять режим прогнозирования, применяемый к текущему блоку, посредством использования режима прогнозирования, применяемого к соседнему блоку.[89] The intra prediction module 331 may predict the current block by reference to the samples in the current frame. Samples for reference may be located in the surroundings of the current block or may be spaced according to the prediction mode. In intraprediction, prediction modes may include a plurality of non-directional modes and a plurality of directed modes. The intra prediction unit 331 may determine the prediction mode applied to the current block by using the prediction mode applied to the adjacent block.

[90] Модуль 332 взаимного прогнозирования может извлекать прогнозированный блок для текущего блока на основе опорного блока (массива опорных выборок), указываемого посредством вектора движения для опорного кадра. В этом случае, чтобы уменьшать объем информации движения, передаваемой в режиме взаимного прогнозирования, информация движения может прогнозироваться в единицах блоков, субблоков или выборок на основе корреляции информации движения между соседним блоком и текущим блоком. Информация движения может включать в себя вектор движения и индекс опорного кадра. Информация движения дополнительно может включать в себя информацию направления взаимного прогнозирования (L0-прогнозирование, L1-прогнозирование, бипрогнозирование и т.д.). В случае взаимного прогнозирования, соседний блок может включать в себя пространственный соседний блок, присутствующий в текущем кадре, и временной соседний блок, присутствующий в опорном кадре. Например, модуль 332 взаимного прогнозирования может конфигурировать список возможных вариантов информации движения на основе соседних блоков и извлекать вектор движения текущего блока и/или индекс опорного кадра на основе принимаемой информации выбора возможных вариантов. Взаимное прогнозирование может выполняться на основе различных режимов прогнозирования, и информация относительно прогнозирования может включать в себя информацию, указывающую режим взаимного прогнозирования для текущего блока.[90] The inter-prediction unit 332 may extract a predicted block for the current block based on a reference block (an array of reference samples) indicated by a motion vector for the reference frame. In this case, in order to reduce the amount of motion information transmitted in the inter-prediction mode, the motion information may be predicted in units of blocks, sub-blocks or samples based on the correlation of the motion information between a neighboring block and the current block. The motion information may include a motion vector and a reference frame index. The motion information may further include inter-prediction direction information (L0-prediction, L1-prediction, bi-prediction, etc.). In the case of inter-prediction, the neighbor block may include a spatial neighbor block present in the current frame and a temporal neighbor block present in the reference frame. For example, the inter-prediction module 332 may configure a motion information candidate list based on neighboring blocks and extract the current block's motion vector and/or reference frame index based on the received candidate selection information. The inter-prediction may be performed based on various prediction modes, and the information regarding the prediction may include information indicating the inter-prediction mode for the current block.

[91] Сумматор 340 может формировать восстановленный сигнал (восстановленный кадр, восстановленный блок, массив восстановленных выборок) посредством суммирования полученного остаточного сигнала с прогнозным сигналом (прогнозированным блоком, массивом прогнозированных выборок), выводимым из модуля 330 прогнозирования. Если отсутствует остаток для блока, который должен обрабатываться, к примеру, когда режим пропуска применяется, прогнозированный блок может использоваться в качестве восстановленного блока.[91] The adder 340 can generate a reconstructed signal (reconstructed frame, reconstructed block, reconstructed sample array) by adding the resulting residual signal with a predicted signal (predicted block, predicted sample array) output from prediction unit 330. If there is no remainder for a block to be processed, for example when a skip mode is applied, the predicted block can be used as the reconstructed block.

[92] Сумматор 340 может называться "модулем восстановления" или "формирователем восстановленных блоков". Сформированный восстановленный сигнал может использоваться для внутреннего прогнозирования следующего блока, который должен обрабатываться в текущем кадре, может выводиться посредством фильтрации, как описано ниже, или может использоваться для взаимного прогнозирования следующего кадра.[92] The adder 340 may be referred to as a “recovery module” or a “recovered block generator.” The generated reconstructed signal may be used to internally predict the next block to be processed in the current frame, may be output by filtering as described below, or may be used to inter-predict the next frame.

[93] Между тем, преобразование сигнала яркости с масштабированием сигнала цветности (LMCS) может применяться в процессе декодирования кадров.[93] Meanwhile, luma conversion with chrominance scaling (LMCS) can be applied in the frame decoding process.

[94] Фильтр 350 может повышать субъективное/объективное качество изображений посредством применения фильтрации к восстановленному сигналу. Например, фильтр 350 может формировать модифицированный восстановленный кадр посредством применения различных способов фильтрации к восстановленному кадру и сохранять модифицированный восстановленный кадр в запоминающем устройстве 360, а именно, в DPB запоминающего устройства 360. Различные способы фильтрации могут включать в себя, например, фильтрацию для удаления блочности, фильтрацию на основе дискретизированного адаптивного смещения, адаптивный контурный фильтр, билатеральный фильтр и т.п.[94] Filter 350 may enhance the subjective/objective quality of images by applying filtering to the reconstructed signal. For example, filter 350 may generate a modified reconstructed frame by applying various filtering techniques to the reconstructed frame and store the modified reconstructed frame in storage device 360, namely, a DPB of storage device 360. Various filtering techniques may include, for example, deblocking filtering. , filtering based on sampled adaptive offset, adaptive loop filter, bilateral filter, etc.

[95] (Модифицированный) восстановленный кадр, сохраненный в DPB запоминающего устройства 360, может использоваться в качестве опорного кадра в модуле 332 взаимного прогнозирования. Запоминающее устройство 360 может сохранять информацию движения блока, из которой информация движения в текущем кадре извлекается (или декодируется), и/или информацию движения блоков в кадре, которые уже восстановлены. Сохраненная информация движения может передаваться в модуль 260 взаимного прогнозирования, так что она используется в качестве информации движения пространственного соседнего блока или информации движения временного соседнего блока. Запоминающее устройство 360 может сохранять восстановленные выборки восстановленных блоков в текущем кадре и передавать восстановленные выборки в модуль 331 внутреннего прогнозирования.[95] The (modified) reconstructed frame stored in the DPB of the storage device 360 can be used as a reference frame in the inter-prediction unit 332. Storage device 360 may store block motion information from which motion information in the current frame is retrieved (or decoded) and/or motion information of blocks in a frame that have already been reconstructed. The stored motion information may be transmitted to the inter-prediction unit 260 so that it is used as spatial neighbor block motion information or temporal neighbor block motion information. Storage device 360 may store reconstructed samples of reconstructed blocks in the current frame and transmit the reconstructed samples to intra prediction module 331.

[96] В этом подробном описании, варианты осуществления, описанные в модуле 330 прогнозирования, деквантователе 321, обратном преобразователе 322 и фильтре 350 оборудования 300 декодирования, представляют собой модуль 220 прогнозирования, деквантователь 234, обратный преобразователь 235 и фильтр 260 и могут применяться идентичным или соответствующим способом.[96] In this detailed description, the embodiments described in prediction module 330, dequantizer 321, inverse converter 322, and filter 350 of decoding equipment 300 are prediction module 220, dequantizer 234, inverse converter 235, and filter 260 and may be used identically or in an appropriate way.

[97] Как описано выше, при кодировании видео, прогнозирование выполняется для того, чтобы повышать эффективность сжатия. Через это, можно формировать прогнозированный блок, включающий в себя прогнозные выборки для текущего блока, который представляет собой блок, который должен кодироваться. Здесь, прогнозированный блок включает в себя прогнозные выборки в пространственной области (или пиксельной области). Прогнозированный блок извлекается одинаково из устройства кодирования и устройства декодирования, и устройство кодирования декодирует информацию (остаточную информацию) относительно остатка между исходным блоком и прогнозированным блоком, а не исходное выборочное значение самого исходного блока. Посредством передачи служебных сигналов в устройство, может повышаться эффективность кодирования изображений. Оборудование декодирования может извлекать остаточный блок, включающий в себя остаточные выборки на основе остаточной информации, и формировать восстановленный блок, включающий в себя восстановленные выборки, посредством суммирования остаточного блока с прогнозированным блоком и формировать восстановленный кадр, включающий в себя восстановленные блоки.[97] As described above, when encoding video, prediction is performed in order to improve compression efficiency. Through this, a predicted block can be generated including predictive samples for the current block, which is the block to be encoded. Here, the predicted block includes predictive samples in a spatial domain (or pixel domain). The predicted block is retrieved equally from the encoding apparatus and the decoding apparatus, and the encoding apparatus decodes information (residual information) regarding the remainder between the original block and the predicted block, rather than the original sample value of the original block itself. By transmitting overhead signals to the device, the efficiency of image encoding can be improved. The decoding equipment can extract a residual block including residual samples based on the residual information, and generate a reconstructed block including the reconstructed samples by adding the residual block with the predicted block, and generate a reconstructed frame including the reconstructed blocks.

[98] Остаточная информация может формироваться через процессы преобразования и квантования. Например, оборудование кодирования может извлекать остаточный блок между исходным блоком и прогнозированным блоком и выполнять процесс преобразования для остаточных выборок (массива остаточных выборок), включенных в остаточный блок, чтобы извлекать коэффициенты преобразования, и после этого, посредством выполнения процесса квантования для коэффициентов преобразования, извлекать квантованные коэффициенты преобразования, чтобы передавать в служебных сигналах остаточную связанную информацию в оборудование декодирования (через поток битов). Здесь, остаточная информация может включать в себя информацию местоположения, технологию преобразования, ядро преобразования и параметр квантования, информацию значений квантованных коэффициентов преобразования и т.д. Оборудование декодирования может выполнять процесс деквантования/обратного преобразования на основе остаточной информации и извлекать остаточные выборки (или остаточные блоки). Оборудование декодирования может формировать восстановленный кадр на основе прогнозированного блока и остаточного блока. Оборудование кодирования также может деквантовать/обратно преобразовывать квантованные коэффициенты преобразования для ссылки для взаимного прогнозирования более позднего кадра, чтобы извлекать остаточный блок и формировать восстановленный кадр на его основе.[98] Residual information can be generated through transformation and quantization processes. For example, the encoding equipment may extract a residual block between an original block and a predicted block, and perform a transform process on the residual samples (an array of residual samples) included in the residual block to extract transform coefficients, and then, by performing a quantization process on the transform coefficients, extract quantized transform coefficients to signal the residual associated information to the decoding equipment (via the bit stream). Here, the residual information may include location information, transformation technology, transformation kernel and quantization parameter, quantized transformation coefficient value information, etc. The decoding equipment may perform a dequantization/deconversion process based on the residual information and extract the residual samples (or residual blocks). The decoding equipment may generate a reconstructed frame based on the predicted block and the residual block. The encoding equipment may also dequantize/de-quantize the quantized transform coefficients for the inter-prediction reference of a later frame to extract the residual block and generate a reconstructed frame based on it.

[99] В настоящем документе, по меньшей мере, одно из квантования/деквантования и/или преобразования/обратного преобразования может опускаться. Когда квантование/деквантование опускается, квантованный коэффициент преобразования может называться "коэффициентом преобразования". Когда преобразование/обратное преобразование опускается, коэффициенты преобразования могут называться "коэффициентами" или "остаточными коэффициентами" либо по-прежнему могут называться "коэффициентами преобразования" для единообразности выражения.[99] Herein, at least one of quantize/dequantize and/or transform/de-transform may be omitted. When quantization/dequantization is omitted, the quantized conversion factor may be referred to as a "transformation factor". When the transform/inverse transform is omitted, the transform coefficients may be called "coefficients" or "residual coefficients" or may still be called "transform coefficients" for consistency of expression.

[100] В настоящем документе, квантованный коэффициент преобразования и коэффициент преобразования могут называться "коэффициентом преобразования" и "масштабированным коэффициентом преобразования", соответственно. В этом случае, остаточная информация может включать в себя информацию относительно коэффициента(ов) преобразования, и информация относительно коэффициента(ов) преобразования может передаваться в служебных сигналах через синтаксис остаточного кодирования. Коэффициенты преобразования могут извлекаться на основе остаточной информации (или информации относительно коэффициента(ов) преобразования), и масштабированные коэффициенты преобразования могут извлекаться через обратное преобразование (масштабирование) для коэффициентов преобразования. Остаточные выборки могут извлекаться на основе обратного преобразования (преобразования) масштабированных коэффициентов преобразования. Это также может применяться/выражаться в других частях настоящего документа.[100] Herein, the quantized transform coefficient and the transform coefficient may be referred to as the “transform coefficient” and the “scaled transform coefficient,” respectively. In this case, the residual information may include information regarding the transform coefficient(s), and the information regarding the transform coefficient(s) may be signaled through a residual encoding syntax. Transform coefficients can be extracted based on residual information (or information regarding the transform coefficient(s)), and scaled transform coefficients can be extracted via inverse transform (scaling) of the transform coefficients. Residual samples can be extracted based on the inverse transform (transform) of the scaled transform coefficients. This may also be applied/expressed elsewhere in this document.

[101] Модуль прогнозирования оборудования кодирования/оборудования декодирования может извлекать прогнозную выборку посредством выполнения взаимного прогнозирования в единицах блоков. Взаимное прогнозирование может представлять собой прогнозирование, извлекаемое таким способом, который зависит от элементов данных (например, выборочных значений или информации движения и т.д.) кадра(ов), отличного от текущего кадра. Когда взаимное прогнозирование применяется к текущему блоку, прогнозированный блок (массив прогнозных выборок) для текущего блока может извлекаться на основе опорного блока (массива опорных выборок), указываемого посредством вектора движения в опорном кадре, указываемом посредством индекса опорного кадра. Здесь, чтобы уменьшать объем информации движения, передаваемой в режиме взаимного прогнозирования, информация движения текущего блока может прогнозироваться в единицах блоков, субблоков или выборок на основе корреляции информации движения между соседним блоком и текущим блоком. Информация движения может включать в себя вектор движения и индекс опорного кадра. Информация движения дополнительно может включать в себя информацию типа взаимного прогнозирования (L0-прогнозирование, L1-прогнозирование, бипрогнозирование и т.д.). В случае взаимного прогнозирования, соседний блок может включать в себя пространственный соседний блок, присутствующий в текущем кадре, и временной соседний блок, присутствующий в опорном кадре. Опорный кадр, включающий в себя опорный блок, и опорный кадр, включающий в себя временной соседний блок, могут быть идентичными или отличающимися. Временной соседний блок может называться "совместно размещенным опорным блоком", "совместно размещенной CU (colCU)" и т.п., и опорный кадр, включающий в себя временной соседний блок, может называться "совместно размещенным кадром (colPic)". Например, список возможных вариантов информации движения может быть сконфигурирован на основе соседних блоков текущего блока, и информация флага или индекса, указывающая то, какой возможный вариант выбирается (используется), может передаваться в служебных сигналах, чтобы извлекать вектор движения и/или индекс опорного кадра текущего блока. Взаимное прогнозирование может выполняться на основе различных режимов прогнозирования. Например, в случае режима пропуска и режима объединения, информация движения текущего блока может быть идентичной информации движения соседнего блока. В режиме пропуска, в отличие от режима объединения, остаточный сигнал может не передаваться. В случае режима прогнозирования векторов движения (MVP), вектор движения выбранного соседнего блока может использоваться в качестве предиктора вектора движения, и вектор движения текущего блока может передаваться в служебных сигналах. В этом случае, вектор движения текущего блока может извлекаться с использованием суммы предиктора вектора движения и разности векторов движения.[101] The encoding equipment/decoding equipment prediction module may extract the prediction sample by performing inter-prediction in units of blocks. The inter-prediction may be a prediction derived in a manner that depends on data elements (eg, sample values or motion information, etc.) of frame(s) other than the current frame. When inter-prediction is applied to the current block, a predicted block (prediction sample array) for the current block can be retrieved based on the reference block (reference sample array) indicated by the motion vector in the reference frame indicated by the reference frame index. Here, in order to reduce the amount of motion information transmitted in the inter-prediction mode, the motion information of the current block may be predicted in units of blocks, sub-blocks, or samples based on the correlation of the motion information between a neighboring block and the current block. The motion information may include a motion vector and a reference frame index. The motion information may further include inter-prediction type information (L0 prediction, L1 prediction, bi-prediction, etc.). In the case of inter-prediction, the neighbor block may include a spatial neighbor block present in the current frame and a temporal neighbor block present in the reference frame. The reference frame including the reference block and the reference frame including the temporary adjacent block may be identical or different. A temporary neighbor block may be called a “co-located reference block”, a “col-located CU (colCU)”, etc., and a reference frame including a temporary neighboring block may be called a “col-located frame (colPic)”. For example, a list of motion information candidates may be configured based on neighboring blocks of the current block, and flag or index information indicating which candidate is selected (used) may be signaled to retrieve a motion vector and/or reference frame index current block. Mutual prediction can be performed based on different prediction modes. For example, in the case of the skip mode and the merge mode, the motion information of the current block may be identical to the motion information of the adjacent block. In the skip mode, unlike the combine mode, the residual signal may not be transmitted. In the case of a motion vector prediction (MVP) mode, the motion vector of a selected neighboring block can be used as a motion vector predictor, and the motion vector of the current block can be signaled. In this case, the motion vector of the current block can be extracted using the sum of the motion vector predictor and the motion vector difference.

[102] Информация движения может включать в себя L0-информацию движения и/или L1-информацию движения согласно типу взаимного прогнозирования (L0-прогнозирование, L1-прогнозирование, бипрогнозирование и т.д.). Вектор движения в L0-направлении может называться "L0-вектором движения" или "MVL0", и вектор движения в L1-направлении может называться "L1-вектором движения" или "MVL1". Прогнозирование на основе L0-вектора движения может называться "L0-прогнозированием", прогнозирование на основе L1-вектора движения может называться "L1-прогнозированием", и прогнозирование на основе как L0-вектора движения, так и L1-вектора движения может называться "бипрогнозированием". Здесь, L0-вектор движения может указывать вектор движения, ассоциированный со списком L0 опорных кадров (L0), и L1-вектор движения может указывать вектор движения, ассоциированный со списком L1 опорных кадров (L1). Список L0 опорных кадров может включать в себя кадры, которые находятся раньше в порядке вывода, чем текущий кадр, в качестве опорных кадров, и список L1 опорных кадров может включать в себя кадры, которые находятся позже в порядке вывода, чем текущий кадр. Предыдущие кадры могут называться "прямыми (опорными) кадрами", и последующие кадры могут называться "обратными (опорными) кадрами". Список L0 опорных кадров дополнительно может включать в себя кадры, которые находятся позже в порядке вывода, чем текущий кадр, в качестве опорных кадров. В этом случае, предыдущие кадры могут индексироваться сначала в списке L0 опорных кадров, и последующие кадры могут индексироваться позже. Список L1 опорных кадров дополнительно может включать в себя предыдущие кадры в порядке вывода относительно текущего кадра в качестве опорных кадров. В этом случае, последующие кадры могут индексироваться сначала в списке 1 опорных кадров, и предыдущие кадры могут индексироваться позже. Порядок вывода может соответствовать порядку номеров в последовательности кадров (POC).[102] The motion information may include L0 motion information and/or L1 motion information according to a type of inter-prediction (L0 prediction, L1 prediction, bi-prediction, etc.). The motion vector in the L0 direction may be referred to as the "L0 motion vector" or "MVL0", and the motion vector in the L1 direction may be referred to as the "L1 motion vector" or "MVL1". Prediction based on L0 motion vector may be referred to as “L0 prediction,” prediction based on L1 motion vector may be referred to as “L1 prediction,” and prediction based on both L0 motion vector and L1 motion vector may be referred to as “biprediction.” ". Here, the L0 motion vector may indicate a motion vector associated with a reference frame list (L0) L0, and the L1 motion vector may indicate a motion vector associated with a reference frame list (L1) L1. The reference frame list L0 may include frames that are earlier in output order than the current frame as reference frames, and the reference frame list L1 may include frames that are later in output order than the current frame. Previous frames may be referred to as "forward (reference) frames" and subsequent frames may be referred to as "reverse (reference) frames". The reference frame list L0 may further include frames that are later in the output order than the current frame as reference frames. In this case, previous frames may be indexed first in the reference frame list L0, and subsequent frames may be indexed later. The reference frame list L1 may further include previous frames in output order relative to the current frame as reference frames. In this case, subsequent frames may be indexed first in reference frame list 1, and previous frames may be indexed later. The order of output may correspond to the order of numbers in the sequence of frames (POC).

[103] Фиг. 4 примерно показывает иерархическую структуру для кодированного изображения/видео.[103] FIG. 4 approximately shows the hierarchical structure for a coded image/video.

[104] Ссылаясь на фиг. 4, кодированное изображение/видео разделяется на слой кодирования видео (VCL), который обрабатывает процесс декодирования изображения/видео и себя, подсистему, которая передает и сохраняет кодированную информацию, и NAL (слой абстрагирования от сети), отвечающий за функцию и присутствующий между VCL и подсистемой.[104] Referring to FIG. 4, the encoded image/video is divided into a video coding layer (VCL) which handles the decoding process of the image/video and itself, a subsystem which transmits and stores the encoded information, and a NAL (network abstraction layer) responsible for the function and present between the VCL and subsystem.

[105] В VCL, формируются VCL-данные, включающие в себя сжатые данные изображений (данные срезов), либо может формироваться набор параметров, включающий в себя набор параметров кадра (PSP), набор параметров последовательности (SPS) и набор параметров видео (VPS), или сообщение с дополнительной улучшающей информацией (SEI), дополнительно требуемое для процесса декодирования изображений.[105] In VCL, VCL data including compressed image data (slice data) is generated, or a parameter set including a frame parameter set (PSP), a sequence parameter set (SPS) and a video parameter set (VPS) can be generated ), or an additional enhancement information (SEI) message additionally required for the image decoding process.

[106] В NAL, NAL-единица может формироваться посредством добавления информации заголовка (заголовка NAL-единицы) в первичную байтовую последовательность данных (RBSP), сформированную в VCL. В этом случае, RBSP означает данные срезов, набор параметров, SEI-сообщение и т.д., сформированные в VCL. Заголовок NAL-единицы может включать в себя информацию типа NAL-единиц, указываемую согласно RBSP-данным, включенным в соответствующую NAL-единицу.[106] In NAL, a NAL unit may be generated by adding header information (NAL unit header) to a primary byte sequence data (RBSP) generated in the VCL. In this case, RBSP means the slice data, parameter set, SEI message, etc. generated in the VCL. The NAL unit header may include NAL unit type information indicated according to the RBSP data included in the corresponding NAL unit.

[107] Как показано на чертеже, NAL-единица может классифицироваться на VCL NAL-единицу и не-VCL NAL-единицу согласно RBSP, сформированной в VCL. VCL NAL-единица может означать NAL-единицу, которая включает в себя информацию относительно изображения (данных срезов) в изображении, и не-VCL NAL-единица может означать NAL-единицу, которая включает в себя информацию (набор параметров или SEI-сообщение) требуемый для декодирования изображения.[107] As shown in the drawing, a NAL unit can be classified into a VCL NAL unit and a non-VCL NAL unit according to the RBSP generated in the VCL. A VCL NAL unit can mean a NAL unit that includes information regarding an image (slice data) in the image, and a non-VCL NAL unit can mean a NAL unit that includes information (a set of parameters or an SEI message) required for image decoding.

[108] Вышеуказанные VCL NAL-единица и не-VCL NAL-единица могут передаваться через сеть посредством присоединения информации заголовка согласно стандарту данных подсистемы. Например, NAL-единица может преобразовываться в формат данных предварительно определенного стандарта, такого как формат файлов H.266/VVC, транспортный протокол реального времени (RTP), транспортный поток (TS) и т.д., и передаваться через различные сети.[108] The above VCL NAL unit and non-VCL NAL unit can be transmitted through the network by attaching header information according to the subsystem data standard. For example, a NAL unit may be converted to a predefined standard data format, such as H.266/VVC file format, Real Time Transport Protocol (RTP), Transport Stream (TS), etc., and transmitted over various networks.

[109] Как описано выше, NAL-единица может указываться с типом NAL-единицы согласно структуре RBSP-данных, включенной в соответствующую NAL-единицу, и информация относительно типа NAL-единицы может сохраняться и передаваться в служебных сигналах в заголовке NAL-единицы.[109] As described above, a NAL unit may be indicated with a NAL unit type according to an RBSP data structure included in the corresponding NAL unit, and information regarding the NAL unit type may be stored and signaled in a NAL unit header.

[110] Например, NAL-единица может классифицироваться на тип VCL NAL-единицы и тип не-VCL NAL-единицы согласно тому, включает или нет NAL-единица в себя информацию (данные срезов) относительно изображения. Тип VCL NAL-единицы может классифицироваться согласно природе и типу кадров, включенных в VCL NAL-единицу, и тип не-VCL NAL-единицы может классифицироваться согласно типам наборов параметров.[110] For example, a NAL unit can be classified into a VCL NAL unit type and a non-VCL NAL unit type according to whether or not the NAL unit includes information (slice data) regarding an image. The VCL type of a NAL unit can be classified according to the nature and type of frames included in the VCL NAL unit, and the type of a non-VCL NAL unit can be classified according to the types of parameter sets.

[111] Ниже приводится пример типа NAL-единицы, указываемого согласно типу набора параметров, включенного в тип не-VCL NAL-единицы.[111] The following is an example of a NAL unit type specified according to the type of a parameter set included in a non-VCL NAL unit type.

[112] - NAL-единица APS (набора параметров адаптации): Тип для NAL-единицы, включающей в себя APS[112] - NAL unit APS (Adaptation Parameter Set): Type for NAL unit including APS

[113] - NAL-единица DPS (набора параметров декодирования): Тип для NAL-единицы, включающей в себя DPS[113] - DPS (Decode Parameter Set) NAL unit: Type for a NAL unit including a DPS

[114] - NAL-единица VPS (набора параметров видео): Тип для NAL-единицы, включающей в себя VPS[114] - VPS (Video Parameter Set) NAL unit: Type for the NAL unit including the VPS

[115] - NAL-единица SPS (набора параметров последовательности): Тип для NAL-единицы, включающей в себя SPS[115] - SPS (Sequence Parameter Set) NAL unit: Type for a NAL unit including an SPS

[116] - NAL-единица PPS (набора параметров кадра): Тип для NAL-единицы, включающей в себя PPS[116] - NAL unit PPS (frame parameter set): Type for NAL unit including PPS

[117] - NAL-единица PH (заголовка кадра): Тип для NAL-единицы, включающей в себя PH[117] - NAL unit PH (frame header): Type for NAL unit including PH

[118] Вышеуказанные типы NAL-единиц могут иметь синтаксическую информацию для типа NAL-единицы, и синтаксическая информация может сохраняться и передаваться в служебных сигналах в заголовке NAL-единицы. Например, синтаксическая информация может быть nal_unit_type, и типы NAL-единиц могут указываться посредством значения nal_unit_type.[118] The above NAL unit types may have syntax information for the NAL unit type, and the syntax information may be stored and signaled in a NAL unit header. For example, the syntax information may be nal_unit_type, and the NAL unit types may be indicated by the nal_unit_type value.

[119] Между тем, как описано выше, один кадр может включать в себя множество срезов, и один срез может включать в себя заголовок среза и данные срезов. В этом случае, один заголовок кадра дополнительно может добавляться во множество срезов (заголовок среза и набор данных срезов) в одном кадре. Заголовок кадра (синтаксис заголовков кадра) может включать в себя информацию/параметры, обычно применимую к кадру. В настоящем документе, срез может смешиваться или заменяться группой плиток. Кроме того, в настоящем документе, заголовок среза может смешиваться или заменяться заголовком группы плиток.[119] Meanwhile, as described above, one frame may include a plurality of slices, and one slice may include a slice header and slice data. In this case, one frame header may further be added to multiple slices (slice header and slice data set) in one frame. The frame header (frame header syntax) may include information/parameters typically applicable to the frame. As used herein, a slice may be mixed or replaced by a group of tiles. Additionally, as used herein, the slice title may be mixed or replaced with the tile group title.

[120] Заголовок среза (синтаксис заголовка среза, информация заголовка среза) может включать в себя информацию/параметры, которая может применяться обобщенно к срезу. APS (APS-синтаксис) или PPS (PPS-синтаксис) может включать в себя информацию/параметры, которая может применяться обобщенно к одному или более срезов или кадров. SPS (SPS-синтаксис) может включать в себя информацию/параметры, которая может применяться обобщенно к одной или более последовательностей. VPS (VPS-синтаксис) может включать в себя информацию/параметры, которая может применяться обобщенно к нескольким слоям. DPS (DPS-синтаксис) может включать в себя информацию/параметры, которая может применяться обобщенно к полному видео. DPS может включать в себя информацию/параметры, связанную с конкатенацией кодированной видеопоследовательности (CVS). Высокоуровневый синтаксис (HLS) в настоящем документе может включать в себя, по меньшей мере, одно из APS-синтаксиса, PPS-синтаксиса, SPS-синтаксиса, VPS-синтаксиса, DPS-синтаксиса и синтаксиса заголовков срезов.[120] The slice header (slice header syntax, slice header information) may include information/parameters that may be applied generically to the slice. APS (APS Syntax) or PPS (PPS Syntax) may include information/parameters that can be applied generically to one or more slices or frames. SPS (SPS syntax) may include information/parameters that may be applied generically to one or more sequences. VPS (VPS syntax) may include information/parameters that may be applied generically to multiple layers. DPS (DPS syntax) may include information/parameters that may be applied generally to the entire video. The DPS may include information/parameters associated with coded video sequence (CVS) concatenation. The high-level syntax (HLS) herein may include at least one of APS syntax, PPS syntax, SPS syntax, VPS syntax, DPS syntax, and slice header syntax.

[121] В настоящем документе, изображение/информация изображений, кодированная из оборудования кодирования и передаваемая в служебных сигналах в оборудование декодирования в форме потока битов, включает в себя не только связанную с сегментацией информацию в кадре, информацию внутреннего/взаимного прогнозирования, остаточную информацию, информацию внутриконтурной фильтрации и т.п., но также и информацию, включенную в заголовок среза, информацию, включенную в APS, информацию, включенную в PPS, информацию, включенную в SPS, и/или информацию, включенную в VPS.[121] Herein, the image/image information encoded from the encoding equipment and signaled to the decoding equipment in the form of a bitstream includes not only segmentation-related information in a frame, intra/inter-prediction information, residual information, in-loop filtering information and the like, but also information included in the slice header, information included in the APS, information included in the PPS, information included in the SPS, and/or information included in the VPS.

[122] Между тем, чтобы компенсировать разность между исходным изображением и восстановленным изображением вследствие ошибки, возникающей в процессе кодирования со сжатием, таком как, квантование, процесс внутриконтурной фильтрации может выполняться для восстановленных выборок или восстановленных кадров, как описано выше. Как описано выше, внутриконтурная фильтрация может выполняться посредством фильтра оборудования кодирования и фильтра оборудования декодирования, и может применяться фильтр удаления блочности, SAO и/или адаптивный контурный фильтр (ALF). Например, ALF-процесс может выполняться после того, как процесс фильтрации для удаления блочности и/или SAO-процесс завершаются. Тем не менее, даже в этом случае, процесс фильтрации для удаления блочности и/или SAO-процесс могут опускаться.[122] Meanwhile, in order to compensate for the difference between the original image and the reconstructed image due to an error occurring in a compression encoding process such as quantization, an in-loop filtering process may be performed on the reconstructed samples or reconstructed frames as described above. As described above, in-loop filtering may be performed by an encoding equipment filter and a decoding equipment filter, and a deblocking filter, SAO, and/or an adaptive loop filter (ALF) may be applied. For example, the ALF process may be executed after the deblocking filtering process and/or the SAO process completes. However, even in this case, the deblocking filtering process and/or the SAO process may be omitted.

[123] В дальнейшем в этом документе приводится подробное описание восстановления и фильтрации кадров. При кодировании изображений/видео, восстановленный блок может формироваться на основе внутреннего прогнозирования/взаимного прогнозирования для каждого блока, и может формироваться восстановленный кадр, включающий в себя восстановленные блоки. Когда текущий кадр/срез представляет собой I-кадр/срез, блоки, включенные в текущий кадр/срез, могут восстанавливаться только на основе внутреннего прогнозирования. Между тем, когда текущий кадр/срез представляет собой P- или B-кадр/срез, блоки, включенные в текущий кадр/срез, могут восстанавливаться на основе внутреннего прогнозирования или взаимного прогнозирования. В этом случае, внутреннее прогнозирование может применяться к некоторым блокам в текущем кадре/срезе, и взаимное прогнозирование может применяться к оставшимся блокам.[123] Frame recovery and filtering are described in detail later in this document. When encoding images/videos, a reconstructed block may be generated based on intra prediction/inter prediction for each block, and a reconstructed frame including the reconstructed blocks may be generated. When the current frame/slice is an I-frame/slice, blocks included in the current frame/slice can only be reconstructed based on intra-prediction. Meanwhile, when the current frame/slice is a P- or B-frame/slice, blocks included in the current frame/slice can be reconstructed based on intra prediction or inter prediction. In this case, intra prediction can be applied to some blocks in the current frame/slice, and inter prediction can be applied to the remaining blocks.

[124] Внутреннее прогнозирование может означать прогнозирование, которое формирует прогнозные выборки для текущего блока на основе опорных выборок в кадре, которому принадлежит текущий блок (далее называется "текущим кадром"). Когда внутреннее прогнозирование применяется к текущему блоку, соседние опорные выборки, которые должны использоваться для внутреннего прогнозирования текущего блока, могут извлекаться. Соседние опорные выборки текущего блока могут включать в себя выборки, смежные с левой границей относительно текущего блока, имеющего размер nWxnH, и в сумме 2xnH выборок, граничащих с левой нижней частью, выборки, смежные с верхней границей относительно текущего блока, и в сумме 2xnW выборок, граничащих с правой верхней частью, и одну выборку, граничащую с левой верхней частью относительно текущего блока. Альтернативно, соседние опорные выборки текущего блока могут включать в себя множество верхних соседних выборок и множество левых соседних выборок. Помимо этого, соседние опорные выборки текущего блока могут включать в сумме nH выборок, смежных с правой границей относительно текущего блока, имеющего размер nWxnH, в сумме nW выборок, смежных с нижней границей относительно текущего блока, и одну выборку, смежную с правой нижней частью относительно текущего блока.[124] Intra prediction may refer to prediction that generates prediction samples for the current block based on reference samples in the frame to which the current block belongs (hereinafter referred to as the “current frame”). When intra prediction is applied to the current block, neighboring reference samples that should be used for intra prediction of the current block can be retrieved. The current block's adjacent reference samples may include samples adjacent to the left border of the current block having size nWxnH and a total of 2xnH samples bordering the bottom left, samples adjacent to the top border of the current block, and a total of 2xnW samples , bordering the top right part, and one selection bordering the top left part relative to the current block. Alternatively, the neighboring reference samples of the current block may include a plurality of top neighboring samples and a plurality of left neighboring samples. In addition, the adjacent reference samples of the current block may include a total of nH samples adjacent to the right border relative to the current block having size nWxnH, a total of nW samples adjacent to the lower border relative to the current block, and one sample adjacent to the lower right relative to current block.

[125] Тем не менее, некоторые соседние опорные выборки текущего блока могут еще не декодироваться или не быть доступными. В этом случае, декодер может конфигурировать соседние опорные выборки, которые следует использовать для прогнозирования, посредством подстановки вместо выборок, которые не доступны, доступных выборок. Альтернативно, соседние опорные выборки, которые должны использоваться для прогнозирования, могут быть сконфигурированы через интерполяцию доступных выборок.[125] However, some adjacent reference samples of the current block may not yet be decoded or available. In this case, the decoder can configure adjacent reference samples to be used for prediction by substituting available samples for samples that are not available. Alternatively, neighboring reference samples to be used for prediction can be configured through interpolation of the available samples.

[126] Когда соседние опорные выборки извлекаются, прогнозная выборка может извлекаться на основе среднего или интерполяции соседних опорных выборок текущего блока и (ii) прогнозирования из соседних опорных выборок текущего блока. Прогнозная выборка может извлекаться на основе опорной выборки, присутствующей в конкретном направлении (прогнозирования) относительно выборки. Случай (i) может называться "ненаправленным режимом" или "неугловым режимом", и случай (ii) может называться "направленным режимом" или "угловым режимом". Кроме того, на основе прогнозной выборки текущего блока из соседних опорных выборок, вторая соседняя выборка, расположенная в противоположном направлении относительно направления прогнозирования режима внутреннего прогнозирования текущего блока, и первая соседняя выборка интерполируются. Прогнозная выборка может формироваться. Вышеописанный случай может называться "внутренним прогнозированием с линейной интерполяцией (LIP)". Помимо этого, выборки прогнозирования сигналов цветности могут формироваться на основе выборок сигнала яркости с использованием линейной модели. Этот случай может называться "LM-режимом". Помимо этого, временная прогнозная выборка текущего блока может извлекаться на основе фильтрованных соседних опорных выборок и, по меньшей мере, одной опорной выборки, извлекаемой согласно режиму внутреннего прогнозирования из существующих соседних опорных выборок, т.е. нефильтрованные соседние опорные выборки и временная прогнозная выборка могут суммироваться со взвешиванием, чтобы извлекать прогнозную выборку текущего блока. Вышеописанный случай может называться "позиционно-зависимым внутренним прогнозированием (PDPC)". Помимо этого, линия опорных выборок, имеющая наибольшую точность прогнозирования из соседних множественных опорных примерных линий текущего блока, может выбираться, чтобы извлекать прогнозную выборку посредством использования опорной выборки, расположенной в направлении прогнозирования на соответствующей линии, и затем линия опорных выборок, используемая в данном документе, может указываться (передаваться в служебных сигналах) в оборудование декодирования, за счет этого выполняя внутреннее прогнозирующее кодирование. Вышеописанный случай может называться "внутренним прогнозированием на основе множественной опорной линии (MRL)" или "внутренним прогнозированием на основе MRL". Помимо этого, внутреннее прогнозирование может выполняться на основе идентичного режима внутреннего прогнозирования посредством разделения текущего блока на вертикальные или горизонтальные субсегменты, и соседние опорные выборки могут извлекаться и использоваться в единице субсегментов. Таким образом, в этом случае, режим внутреннего прогнозирования для текущего блока в равной степени применяется к субсегментам, и производительность внутреннего прогнозирования может повышаться в некоторых случаях посредством извлечения и использования соседних опорных выборок в единице субсегментов. Такой способ прогнозирования может называться "внутренним прогнозированием на основе внутренних субсегментов (ISP) или на основе ISP". Вышеуказанные способы внутреннего прогнозирования могут называться "типом внутреннего прогнозирования" отдельно от режима внутреннего прогнозирования. Тип внутреннего прогнозирования может называться с помощью различных терминов, таких как "технология внутреннего прогнозирования" или "дополнительный режим внутреннего прогнозирования". Например, тип внутреннего прогнозирования (или дополнительный режим внутреннего прогнозирования) может включать в себя, по меньшей мере, одно из вышеуказанных LIP, PDPC, MRL и ISP. Общий способ внутреннего прогнозирования, за исключением конкретного типа внутреннего прогнозирования, такого как LIP, PDPC, MRL или ISP, может называться "типом нормального внутреннего прогнозирования". Тип нормального внутреннего прогнозирования, в общем, может применяться, когда конкретный тип внутреннего прогнозирования не применяется, и прогнозирование может выполняться на основе режима внутреннего прогнозирования, описанного выше. Между тем, постфильтрация может выполняться для прогнозированной выборки, извлекаемой по мере необходимости.[126] When neighboring reference samples are retrieved, the prediction sample may be retrieved based on an average or interpolation of the current block's neighboring reference samples and (ii) a prediction from the current block's neighboring reference samples. The predictive sample may be retrieved based on a reference sample present in a particular direction (prediction) relative to the sample. Case (i) may be referred to as "non-directional mode" or "non-angular mode", and case (ii) may be referred to as "directional mode" or "angular mode". In addition, based on the prediction sample of the current block from the neighboring reference samples, the second neighboring sample located in the opposite direction to the prediction direction of the intra prediction mode of the current block and the first neighboring sample are interpolated. A predictive sample can be formed. The above case may be called "linear interpolation intraprediction (LIP)". In addition, chroma prediction samples can be generated from the luminance samples using a linear model. This case may be called "LM mode". In addition, the temporary prediction sample of the current block may be extracted based on the filtered neighboring reference samples and at least one reference sample extracted according to the intra prediction mode from the existing neighboring reference samples, i.e. the unfiltered neighboring reference samples and the temporary prediction sample can be summed with weighting to extract the current block's prediction sample. The above case may be called "position-dependent intraprediction (PDPC)". In addition, the reference sample line having the highest prediction accuracy from the adjacent multiple reference sample lines of the current block may be selected to extract the prediction sample by using the reference sample located in the prediction direction on the corresponding line, and then the reference sample line used herein , may be indicated (signalled) to the decoding equipment, thereby performing internal predictive coding. The above-described case may be called "multiple reference line (MRL) intra-prediction" or "MRL-based intra-prediction". In addition, intra-prediction can be performed based on the same intra-prediction mode by dividing the current block into vertical or horizontal sub-segments, and adjacent reference samples can be retrieved and used in a sub-segment unit. Thus, in this case, the intra-prediction mode for the current block is equally applied to the sub-segments, and the intra-prediction performance can be improved in some cases by retrieving and using adjacent reference samples in a unit of sub-segments. This forecasting method may be referred to as "internal subsegment-based (ISP) or ISP-based forecasting." The above intra prediction methods may be called "intra prediction type" separately from the intra prediction mode. The intra-prediction type may be referred to by various terms such as “intra-prediction technology” or “additional intra-prediction mode”. For example, the intra prediction type (or additional intra prediction mode) may include at least one of the above LIP, PDPC, MRL and ISP. The general intra-prediction method, excluding a specific intra-prediction type such as LIP, PDPC, MRL or ISP, may be referred to as a “normal intra-prediction type”. The normal intra prediction type can generally be applied when a specific intra prediction type is not applied, and prediction can be performed based on the intra prediction mode described above. Meanwhile, post-filtering can be performed on the predicted sample, retrieved as needed.

[127] В частности, процедура внутреннего прогнозирования может включать в себя этап определения режима/типа внутреннего прогнозирования, этап извлечения соседних опорных выборок и этап извлечения прогнозных выборок на основе режима/типа внутреннего прогнозирования. Помимо этого, этап постфильтрации может выполняться для прогнозированной выборки, извлекаемой по мере необходимости.[127] In particular, the intra prediction procedure may include a step of determining an intra prediction mode/type, a step of retrieving neighboring reference samples, and a step of retrieving prediction samples based on the intra prediction mode/type. In addition, a post-filtering step can be performed on the predicted sample, extracted as needed.

[128] Фиг. 5 является блок-схемой последовательности операций, иллюстрирующей способ для восстановления блока на основе внутреннего прогнозирования в оборудовании кодирования. Способ по фиг. 5 может включать в себя этапы S500, S510, S520, S530 и S540.[128] FIG. 5 is a flowchart illustrating a method for recovering a block based on intra prediction in encoding equipment. The method according to FIG. 5 may include steps S500, S510, S520, S530 and S540.

[129] S500 может выполняться посредством модуля 222 внутреннего прогнозирования оборудования кодирования, и S510-S530 могут выполняться посредством остаточного процессора 230 оборудования кодирования. В частности, S510 может выполняться посредством вычитателя 231 оборудования кодирования, S520 может выполняться посредством преобразователя 232 и квантователя 233 оборудования кодирования, и S530 может выполняться посредством деквантователя 234 и обратного преобразователя 235 оборудования кодирования. На S500, информация прогнозирования может извлекаться посредством модуля 222 внутреннего прогнозирования и кодироваться посредством энтропийного кодера 240. Остаточная информация может извлекаться на S510 и S520 и кодироваться посредством энтропийного кодера 240. Остаточная информация представляет собой информацию относительно остаточных выборок. Остаточная информация может включать в себя информацию относительно квантованных коэффициентов преобразования для остаточных выборок. Как описано выше, остаточные выборки могут извлекаться в качестве коэффициентов преобразования через преобразователь 232 оборудования кодирования, и коэффициенты преобразования могут извлекаться в качестве квантованных коэффициентов преобразования через квантователь 2330. Информация относительно квантованных коэффициентов преобразования может кодироваться посредством энтропийного кодера 240 через процедуру остаточного кодирования.[129] S500 may be executed by the encoding equipment intra prediction unit 222, and S510 to S530 may be executed by the encoding equipment residual processor 230. Specifically, S510 may be performed by the encoding equipment subtractor 231, S520 may be performed by the encoding equipment converter 232 and quantizer 233, and S530 may be performed by the encoding equipment dequantizer 234 and inverse converter 235. At S500, prediction information may be retrieved by intra prediction unit 222 and encoded by entropy encoder 240. Residual information may be retrieved by S510 and S520 and encoded by entropy encoder 240. Residual information is information regarding residual samples. The residual information may include information regarding quantized transform coefficients for the residual samples. As described above, the residual samples can be extracted as transform coefficients through the encoding equipment transformer 232, and the transform coefficients can be extracted as quantized transform coefficients through the quantizer 2330. Information regarding the quantized transform coefficients can be encoded by the entropy encoder 240 through a residual encoding procedure.

[130] Оборудование кодирования выполняет внутреннее прогнозирование для текущего блока (S500). Оборудование кодирования может извлекать режим внутреннего прогнозирования для текущего блока, извлекать соседние опорные выборки текущего блока и формировать прогнозные выборки в текущем блоке на основе режима внутреннего прогнозирования и соседних опорных выборок. Здесь, процедуры определения режима внутреннего прогнозирования, извлечения периферийных опорных выборок и формирования прогнозных выборок могут выполняться одновременно, или одна процедура может выполняться перед другой процедурой. Например, модуль 222 внутреннего прогнозирования устройства кодирования может включать в себя модуль определения режима/типа прогнозирования, модуль извлечения опорных выборок и модуль извлечения прогнозных выборок, и модуль определения режима/типа прогнозирования может определять режим/тип внутреннего прогнозирования для текущего блока, модуль извлечения опорных выборок может извлекать соседние опорные выборки текущего блока, и модуль извлечения прогнозных выборок может извлекать выборки движения текущего блока. Между тем, хотя не показано, когда вышеописанная процедура фильтрации прогнозных выборок выполняется, модуль 222 внутреннего прогнозирования дополнительно может включать в себя фильтр прогнозных выборок (не показан). Оборудование кодирования может определять режим, применяемый к текущему блоку, из множества режимов внутреннего прогнозирования. Оборудование кодирования может сравнивать RD-затраты для режимов внутреннего прогнозирования и определять оптимальный режим внутреннего прогнозирования для текущего блока.[130] The encoding equipment performs intra prediction for the current block (S500). The encoding equipment may extract the intra prediction mode for the current block, extract adjacent reference samples of the current block, and generate prediction samples in the current block based on the intra prediction mode and the adjacent reference samples. Here, the procedures for determining the internal prediction mode, extracting peripheral reference samples, and generating prediction samples may be performed simultaneously, or one procedure may be performed before the other procedure. For example, the encoder intra prediction unit 222 may include a prediction mode/type determining unit, a reference sample extracting unit, and a prediction sample extracting unit, and the prediction mode/type determining unit may determine the intra prediction mode/type for the current block, the reference extracting unit. The samples can retrieve adjacent reference samples of the current block, and the predictive sample extractor can retrieve motion samples of the current block. Meanwhile, although not shown, when the above-described predictive sample filtering procedure is performed, the intra prediction unit 222 may further include a predictive sample filter (not shown). The encoding equipment may determine a mode applied to the current block from a plurality of intra prediction modes. The encoding hardware may compare the RD costs of the intra prediction modes and determine the optimal intra prediction mode for the current block.

[131] Между тем, оборудование кодирования может выполнять процедуру фильтрации прогнозных выборок. Фильтрация прогнозных выборок может называться "постфильтрацией". Некоторые или все прогнозные выборки могут фильтроваться посредством процедуры фильтрации прогнозных выборок. В некоторых случаях, процедура фильтрации прогнозных выборок может опускаться.[131] Meanwhile, the encoding equipment may perform a filtering procedure on the prediction samples. Filtering predictive samples can be called "post-filtering." Some or all of the predictive samples may be filtered through the predictive sample filtering procedure. In some cases, the procedure for filtering predictive samples may be omitted.

[132] Оборудование кодирования извлекает остаточные выборки для текущего блока на основе прогнозных выборок (S510). Оборудование кодирования может сравнивать прогнозные выборки в исходных выборках текущего блока на основе фазы и извлекать остаточные выборки.[132] The encoding equipment extracts residual samples for the current block based on the predictive samples (S510). The encoding hardware can compare the predicted samples in the original samples of the current block based on the phase and extract the residual samples.

[133] Оборудование кодирования может преобразовывать/квантовать остаточные выборки, чтобы извлекать квантованные коэффициенты преобразования (S520), и после этого деквантует/обратно преобразует квантованные коэффициенты преобразования снова, чтобы извлекать (модифицированные) остаточные выборки (S530). Причина выполнения деквантования/обратного преобразования снова после преобразования/квантования состоит в том, чтобы извлекать остаточные выборки, идентичные остаточным выборкам, извлекаемым из оборудования декодирования, как описано выше.[133] The encoding equipment may dequantize/quantize the residual samples to extract quantized transform coefficients (S520), and thereafter dequantize/dequantize the quantized transform coefficients again to extract (modified) residual samples (S530). The reason for performing dequantization/deconversion again after conversion/quantization is to extract residual samples identical to the residual samples extracted from the decoding equipment as described above.

[134] Оборудование кодирования может формировать восстановленный блок, включающий в себя восстановленные выборки для текущего блока, на основе прогнозных выборок и (модифицированных) остаточных выборок (S540). Восстановленный кадр для текущего кадра может формироваться на основе восстановленного блока.[134] The encoding equipment may generate a reconstructed block including reconstructed samples for the current block based on the predictive samples and (modified) residual samples (S540). A reconstructed frame for the current frame may be generated based on the reconstructed block.

[135] Оборудование кодирования может кодировать информацию изображений, включающую в себя информацию прогнозирования относительно внутреннего прогнозирования (например, информацию режима прогнозирования, указывающую режим прогнозирования) и остаточную информацию относительно внутренних и остаточных выборок, и выводить кодированную информацию изображений в форме потока битов, как описано выше. Остаточная информация может включать в себя синтаксис остаточного кодирования. Оборудование кодирования может преобразовывать/квантовать остаточные выборки с тем, чтобы извлекать квантованные коэффициенты преобразования. Остаточная информация может включать в себя информацию относительно квантованных коэффициентов преобразования.[135] The encoding equipment can encode image information including prediction information regarding intra prediction (eg, prediction mode information indicating a prediction mode) and residual information regarding intra and residual samples, and output the encoded image information in the form of a bit stream, as described higher. The residual information may include residual encoding syntax. The encoding hardware may transform/quantize the residual samples so as to extract the quantized transform coefficients. The residual information may include information regarding the quantized transform coefficients.

[136] Фиг. 6 является блок-схемой последовательности операций, иллюстрирующей способ восстановления блоков на основе внутреннего прогнозирования в оборудовании декодирования. Способ по фиг. 6 может включать в себя этапы S600, S610, S620, S630 и S640. Оборудование декодирования может выполнять операцию, соответствующую операции, выполняемой в оборудовании кодирования.[136] FIG. 6 is a flowchart illustrating a method for recovering blocks based on intra prediction in decoding equipment. The method according to FIG. 6 may include steps S600, S610, S620, S630, and S640. The decoding equipment may perform an operation corresponding to an operation performed in the encoding equipment.

[137] S600-S620 могут выполняться посредством модуля 331 внутреннего прогнозирования оборудования декодирования, и информация прогнозирования по S600 и остаточная информация по S630 могут получаться из потока битов посредством энтропийного декодера 310 оборудования декодирования. Остаточный процессор 320 оборудования декодирования может извлекать остаточные выборки для текущего блока на основе остаточной информации. В частности, деквантователь 321 остаточного процессора 320 извлекает коэффициенты преобразования посредством выполнения деквантования на основе квантованных коэффициентов преобразования, извлекаемых на основе остаточной информации, и обратный преобразователь 322 остаточного процессора может извлекать остаточные выборки для текущего блока посредством выполнения обратного преобразования для коэффициентов преобразования. S640 может выполняться посредством сумматора 340 или модуля восстановления оборудования декодирования.[137] S600 to S620 may be performed by the decoding equipment intra prediction unit 331, and the prediction information of S600 and residual information of S630 may be obtained from the bit stream by the entropy decoder 310 of the decoding equipment. Residual decoding equipment processor 320 may extract residual samples for the current block based on the residual information. Specifically, the dequantizer 321 of the residual processor 320 extracts transform coefficients by performing dequantization based on the quantized transform coefficients extracted based on the residual information, and the inverse transformer 322 of the residual processor may extract the residual samples for the current block by performing an inverse transform on the transform coefficients. S640 may be performed by an adder 340 or a decoding hardware recovery module.

[138] В частности, оборудование декодирования может извлекать режим внутреннего прогнозирования для текущего блока на основе принимаемой информации режима прогнозирования (S600). Оборудование декодирования может извлекать периферийные опорные выборки текущего блока (S610). Оборудование декодирования формирует прогнозные выборки в текущем блоке на основе режима внутреннего прогнозирования и соседних опорных выборок (S620). В этом случае, оборудование декодирования изображений может выполнять процедуру фильтрации прогнозных выборок. Фильтрация прогнозных выборок может называться "постфильтрацией". Некоторые или все прогнозные выборки могут фильтроваться посредством процедуры фильтрации прогнозных выборок. В некоторых случаях, процедура фильтрации прогнозных выборок может опускаться.[138] Specifically, the decoding equipment can extract the intra prediction mode for the current block based on the received prediction mode information (S600). The decoding equipment may extract peripheral reference samples of the current block (S610). The decoding equipment generates prediction samples in the current block based on the intra prediction mode and adjacent reference samples (S620). In this case, the image decoding equipment may perform a filtering procedure on the prediction samples. Filtering predictive samples can be called "post-filtering." Some or all of the predictive samples may be filtered through the predictive sample filtering procedure. In some cases, the procedure for filtering predictive samples may be omitted.

[139] Оборудование декодирования формирует остаточные выборки для текущего блока на основе принимаемой остаточной информации (S630). Оборудование декодирования может формировать восстановленные выборки для текущего блока на основе прогнозных выборок и остаточных выборок и извлекать восстановленный блок, включающий в себя восстановленные выборки (S640). Восстановленный кадр для текущего кадра может формироваться на основе восстановленного блока.[139] The decoding equipment generates residual samples for the current block based on the received residual information (S630). The decoding equipment can generate reconstructed samples for the current block based on the predicted samples and residual samples, and extract the reconstructed block including the reconstructed samples (S640). A reconstructed frame for the current frame may be generated based on the reconstructed block.

[140] Здесь, модуль 331 внутреннего прогнозирования оборудования декодирования может включать в себя модуль определения режима/типа прогнозирования, модуль извлечения опорных выборок и модуль извлечения прогнозных выборок, и модуль определения режима/типа прогнозирования может определять режим внутреннего прогнозирования для текущего блока на основе информации режима прогнозирования, полученной посредством энтропийного декодера 310 оборудования декодирования, модуль извлечения опорных выборок может извлекать периферийные опорные выборки текущего блока, и модуль извлечения прогнозных выборок может извлекать прогнозные выборки текущего блока. Между тем, хотя не показано, когда процедура фильтрации прогнозных выборок, описанная выше, выполняется, модуль 331 внутреннего прогнозирования дополнительно может включать в себя фильтр прогнозных выборок (не показан).[140] Here, the decoding equipment intra prediction unit 331 may include a prediction mode/type determining unit, a reference sample extracting unit, and a prediction sample extracting unit, and the prediction mode/type determining unit may determine the intra prediction mode for the current block based on the information prediction mode obtained by the entropy decoder 310 of the decoding equipment, the reference sample extractor may extract peripheral reference samples of the current block, and the prediction sample extractor may extract prediction samples of the current block. Meanwhile, although not shown, when the prediction sample filtering procedure described above is performed, the intra prediction unit 331 may further include a prediction sample filter (not shown).

[141] Информация прогнозирования может включать в себя информацию режима внутреннего прогнозирования и/или информацию типа внутреннего прогнозирования. Информация режима внутреннего прогнозирования может включать в себя, например, информацию флага (например, Intra_luma_mpm_flag), указывающую то, применяется либо нет наиболее вероятный режим (MPM) к текущему блоку, либо оставшийся режим применяется, и когда MPM применяется к текущему блоку, информация режима прогнозирования дополнительно может включать в себя информацию индекса (например, intra_luma_mpm_idx), указывающую один из возможных вариантов режимов внутреннего прогнозирования (возможных MPM-вариантов). Возможные варианты режимов внутреннего прогнозирования (возможные MPM-варианты) могут включать в себя список возможных MPM-вариантов или MPM-список. Помимо этого, когда MPM не применяется к текущему блоку, информация режима внутреннего прогнозирования дополнительно может включать в себя информацию оставшихся режимов (например, Intra_luma_mpm_remainder), указывающую один из оставшихся режимов внутреннего прогнозирования, за исключением возможных вариантов режимов внутреннего прогнозирования (возможных MPM-вариантов). Оборудование декодирования может определять режим внутреннего прогнозирования текущего блока на основе информации режима внутреннего прогнозирования. Отдельный MPM-список может быть сконфигурирован для вышеуказанного MIP.[141] The prediction information may include intra prediction mode information and/or intra prediction type information. The intra prediction mode information may include, for example, flag information (eg, Intra_luma_mpm_flag) indicating whether the most probable mode (MPM) is applied to the current block or the remaining mode is applied, and when the MPM is applied to the current block, the mode information The prediction may further include index information (eg, intra_luma_mpm_idx) indicating one of the intra prediction mode options (MPM options). Possible options for internal prediction modes (possible MPM options) may include a list of possible MPM options or an MPM list. In addition, when MPM is not applied to the current block, the intra prediction mode information may further include remaining mode information (e.g., Intra_luma_mpm_remainder) indicating one of the remaining intra prediction modes excluding the intra prediction mode options (MPM options) . The decoding equipment may determine the intra prediction mode of the current block based on the intra prediction mode information. A separate MPM list can be configured for the above MIP.

[142] Помимо этого, информация типа внутреннего прогнозирования может реализовываться в различных формах. Например, информация типа внутреннего прогнозирования может включать в себя информацию индекса типа внутреннего прогнозирования, указывающую один из типов внутреннего прогнозирования. В качестве другого примера, информация типа внутреннего прогнозирования может включать в себя, по меньшей мере, одно из информации опорной выборочной линии (например, Intra_luma_ref_idx), указывающей то, применяется или нет MRL к текущему блоку, и если применяется, то, какая опорная выборочная линия используется, информации ISP-флага (например, Intra_subpartitions_mode_flag), указывающей то, применяется или нет ISP к текущему блоку, информации ISP-типа (например, Intra_subpartitions_split_flag), указывающей тип разбиения субсегментов, когда ISP применяется, информации флага, указывающей то, применяется или нет PDCP, либо информации флага, указывающей то, применяется или нет LIP. Помимо этого, информация типа внутреннего прогнозирования может включать в себя MIP-флаг, указывающий то, применяется или нет MIP к текущему блоку.[142] In addition, intraprediction type information may be implemented in various forms. For example, the intra-prediction type information may include intra-prediction type index information indicating one of the intra-prediction types. As another example, the intra prediction type information may include at least one of reference sample line information (e.g., Intra_luma_ref_idx) indicating whether or not the MRL is applied to the current block, and if applied, which reference sample line is used, ISP flag information (eg, Intra_subpartitions_mode_flag) indicating whether or not ISP is applied to the current block, ISP type information (eg, Intra_subpartitions_split_flag) indicating the type of subpartitioning when ISP is applied, flag information indicating whether or no PDCP, or flag information indicating whether or not LIP is applied. In addition, the intra prediction type information may include a MIP flag indicating whether or not a MIP is applied to the current block.

[143] Информация режима внутреннего прогнозирования и/или информация типа внутреннего прогнозирования могут кодироваться/декодироваться через способ кодирования, описанный в настоящем раскрытии сущности. Например, информация режима внутреннего прогнозирования и/или информация типа внутреннего прогнозирования могут кодироваться/декодироваться посредством энтропийного кодирования (например, CABAC, CAVLC) на основе усеченного двоичного кода (Райса).[143] The intra prediction mode information and/or intra prediction type information may be encoded/decoded through the encoding method described in the present disclosure. For example, intra prediction mode information and/or intra prediction type information may be encoded/decoded by entropy coding (eg, CABAC, CAVLC) based on a truncated binary code (Rice).

[144] Модуль прогнозирования оборудования кодирования/оборудования декодирования может извлекать прогнозные выборки посредством выполнения взаимного прогнозирования на поблочной основе. Взаимное прогнозирование может представлять собой прогнозирование, извлекаемое таким способом, который зависит от элементов данных (например, выборочных значений или информаций движения) кадра(ов), отличного от текущего кадра. Когда взаимное прогнозирование применяется к текущему блоку, прогнозированный блок (массив прогнозных выборок) для текущего блока может извлекаться на основе опорного блока (массива опорных выборок), указываемого посредством вектора движения в опорном кадре, указываемом посредством индекса опорного кадра. В этом случае, чтобы уменьшать объем информации движения, передаваемой в режиме взаимного прогнозирования, информация движения текущего блока может прогнозироваться в единицах блоков, субблоков или выборок на основе корреляции информации движения между соседним блоком и текущим блоком. Информация движения может включать в себя вектор движения и индекс опорного кадра. Информация движения дополнительно может включать в себя информацию типа взаимного прогнозирования (L0-прогнозирование, L1-прогнозирование, бипрогнозирование и т.д.). Когда взаимное прогнозирование применяется, соседний блок может включать в себя пространственный соседний блок, который присутствует в текущем кадре, и временной соседний блок, который присутствует в опорном кадре. Опорный кадр, включающий в себя опорный блок, и опорный кадр, включающий в себя временной соседний блок, могут быть идентичными друг другу или отличающимися друг от друга. Временной соседний блок может упоминаться под таким названием, как "совместно размещенный опорный блок", "совместно размещенная CU (colCU)", и т.д., и опорный кадр, включающий в себя временной соседний блок, может называться "совместно размещенным кадром (colPic)". Например, список возможных вариантов информации движения может быть сконфигурирован на основе соседних блоков текущего блока, и информация флага или индекса, указывающая то, какой возможный вариант выбирается (используется) для того, чтобы извлекать вектор движения и/или индекс опорного кадра текущего блока, может передаваться в служебных сигналах. Взаимное прогнозирование может выполняться на основе различных режимов прогнозирования и, например, в случае режима пропуска и режима объединения, информация движения текущего блока может быть идентичной информации движения соседнего блока. В случае режима пропуска, остаточный сигнал может не передаваться, в отличие от режима объединения. В случае режима прогнозирования векторов движения (MVP), вектор движения выбранного соседнего блока используется в качестве предиктора вектора движения, и разность векторов движения может передаваться в служебных сигналах. В этом случае, вектор движения текущего блока может извлекаться с использованием суммы предиктора вектора движения и разности векторов движения.[144] The encoding equipment/decoding equipment prediction module can extract prediction samples by performing inter-prediction on a block-by-block basis. The inter-prediction may be a prediction derived in a manner that depends on data elements (eg, sample values or motion information) of frame(s) other than the current frame. When inter-prediction is applied to the current block, a predicted block (prediction sample array) for the current block can be retrieved based on the reference block (reference sample array) indicated by the motion vector in the reference frame indicated by the reference frame index. In this case, in order to reduce the amount of motion information transmitted in the inter-prediction mode, the motion information of the current block may be predicted in units of blocks, sub-blocks or samples based on the correlation of the motion information between a neighboring block and the current block. The motion information may include a motion vector and a reference frame index. The motion information may further include inter-prediction type information (L0 prediction, L1 prediction, bi-prediction, etc.). When mutual prediction is applied, the neighbor block may include a spatial neighbor block that is present in the current frame and a temporal neighbor block that is present in the reference frame. The reference frame including the reference block and the reference frame including the temporary adjacent block may be identical to each other or different from each other. A temporary neighbor block may be referred to by a name such as a "co-located reference block", a "co-located CU (colCU)", etc., and a reference frame including a temporary neighboring block may be called a "co-located frame ( colPic)". For example, a list of motion information candidates may be configured based on neighboring blocks of the current block, and flag or index information indicating which candidate is selected (used) to retrieve the motion vector and/or reference frame index of the current block may transmitted in service signals. Mutual prediction may be performed based on different prediction modes, and, for example, in the case of a skip mode and a merge mode, the motion information of the current block may be identical to the motion information of a neighboring block. In the case of the skip mode, the residual signal may not be transmitted, unlike the combine mode. In the case of the motion vector prediction (MVP) mode, the motion vector of the selected neighboring block is used as a motion vector predictor, and the motion vector difference may be signaled. In this case, the motion vector of the current block can be extracted using the sum of the motion vector predictor and the motion vector difference.

[145] Фиг. 7 является блок-схемой последовательности операций, иллюстрирующей способ восстановления блоков на основе взаимного прогнозирования в оборудовании кодирования. Способ по фиг. 7 может включать в себя этапы S700, S710, S720, S730 и S740.[145] FIG. 7 is a flowchart illustrating a method for restoring blocks based on inter-prediction in encoding equipment. The method according to FIG. 7 may include steps S700, S710, S720, S730, and S740.

[146] S700 может выполняться посредством модуля 221 взаимного прогнозирования оборудования кодирования, и S710-S730 могут выполняться посредством остаточного процессора 230 оборудования кодирования. В частности, S710 может выполняться посредством вычитателя 231 оборудования кодирования, S720 может выполняться посредством преобразователя 232 и квантователя 233 оборудования кодирования, и S730 может выполняться посредством деквантователя 234 и обратного преобразователя 235 оборудования кодирования. На S700, информация прогнозирования может извлекаться посредством модуля 221 взаимного прогнозирования и кодироваться посредством энтропийного кодера 240. Остаточная информация может извлекаться через S710 и S720 и кодироваться посредством энтропийного кодера 240. Остаточная информация представляет собой информацию относительно остаточных выборок. Остаточная информация может включать в себя информацию относительно квантованных коэффициентов преобразования для остаточных выборок. Как описано выше, остаточные выборки могут извлекаться в качестве коэффициентов преобразования через преобразователь 232 оборудования кодирования, и коэффициенты преобразования могут извлекаться в качестве квантованных коэффициентов преобразования через квантователь 233. Информация относительно квантованных коэффициентов преобразования может кодироваться посредством энтропийного кодера 240 через процедуру остаточного кодирования.[146] S700 may be executed by the encoding equipment inter-prediction unit 221, and S710 to S730 may be executed by the encoding equipment residual processor 230. Specifically, S710 may be performed by the encoding equipment subtractor 231, S720 may be performed by the encoding equipment converter 232 and quantizer 233, and S730 may be performed by the encoding equipment dequantizer 234 and inverse converter 235. At S700, prediction information may be retrieved by the inter prediction unit 221 and encoded by the entropy encoder 240. Residual information may be retrieved by S710 and S720 and encoded by the entropy encoder 240. The residual information is information regarding the residual samples. The residual information may include information regarding quantized transform coefficients for the residual samples. As described above, the residual samples can be extracted as transform coefficients through the encoding equipment transformer 232, and the transform coefficients can be extracted as quantized transform coefficients through the quantizer 233. Information regarding the quantized transform coefficients can be encoded by the entropy encoder 240 through a residual encoding procedure.

[147] Оборудование кодирования выполняет взаимное прогнозирование для текущего блока (S700). Оборудование кодирования может извлекать режим взаимного прогнозирования и информацию движения текущего блока и формировать прогнозные выборки текущего блока. Здесь, процедуры для определения режима взаимного прогнозирования, извлечения информации движения и формирования прогнозных выборок могут выполняться одновременно, или одна процедура может выполняться перед другой процедурой. Например, модуль 221 взаимного прогнозирования оборудования кодирования может включать в себя модуль определения режима прогнозирования, модуль извлечения информации движения и модуль извлечения прогнозных выборок, и модуль определения режима прогнозирования может определять режим прогнозирования для текущего блока, модуль извлечения информации движения может извлекать информацию движения текущего блока, и модуль извлечения прогнозных выборок может извлекать выборки движения текущего блока. Например, модуль 221 взаимного прогнозирования оборудования кодирования может выполнять поиск блока, аналогичного текущему блоку, в предварительно определенной зоне (зоне поиска) опорных кадров через оценку движения, и может извлекать опорный блок, в котором разность относительно текущего блока является минимальной либо составляет предварительно определенное опорное значение или меньше. На основе этого, индекс опорного кадра, указывающий опорный кадр, в котором расположен опорный блок, может извлекаться, и вектор движения может извлекаться на основе разности позиций между опорным блоком и текущим блоком. Оборудование кодирования может определять режим, применяемый к текущему блоку, из числа различных режимов прогнозирования. Оборудование кодирования может сравнивать функции затрат на искажение в зависимости от скорости передачи (RD) для различных режимов прогнозирования и определять оптимальный режим прогнозирования для текущего блока.[147] The encoding equipment performs inter-prediction for the current block (S700). The encoding equipment can extract the inter-prediction mode and motion information of the current block and generate predictive samples of the current block. Here, procedures for determining the mutual prediction mode, extracting motion information, and generating prediction samples may be performed simultaneously, or one procedure may be performed before another procedure. For example, the encoding equipment inter-prediction unit 221 may include a prediction mode determining unit, a motion information extracting unit, and a prediction sample extracting unit, and a prediction mode determining unit may determine a prediction mode for the current block, a motion information extracting unit may extract motion information of the current block. , and the prediction sample extractor may extract motion samples of the current block. For example, the encoding equipment inter-prediction module 221 can search for a block similar to the current block in a predetermined area (search area) of reference frames through motion estimation, and can extract a reference block in which the difference with respect to the current block is minimal or equal to a predetermined reference value or less. Based on this, a reference frame index indicating the reference frame in which the reference block is located can be retrieved, and a motion vector can be retrieved based on the position difference between the reference block and the current block. The encoding equipment may determine a mode applied to the current block from among various prediction modes. The encoding hardware can compare the distortion cost functions as a function of the bit rate (RD) for different prediction modes and determine the optimal prediction mode for the current block.

[148] Например, когда режим пропуска или режим объединения применяется к текущему блоку, оборудование кодирования может конструировать список возможных вариантов объединения, который описывается ниже, и извлекать опорный блок, в котором разность относительно текущего блока является минимальной либо составляет предварительно определенное опорное значение или меньше, из опорных блоков, указываемых посредством возможных вариантов объединения, включенных в список возможных вариантов объединения. В этом случае, возможный вариант объединения, ассоциированный с извлеченным опорным блоком, может выбираться, и информация индекса объединения, указывающая выбранный возможный вариант объединения, может формироваться и передаваться в служебных сигналах в оборудование декодирования. Информация движения текущего блока может извлекаться с использованием информации движения выбранного возможного варианта объединения.[148] For example, when a skip mode or a merge mode is applied to a current block, the encoding equipment may construct a list of possible merge options, which is described below, and extract a reference block in which the difference with respect to the current block is minimal or equal to or less than a predetermined reference value , from the reference blocks indicated by the join options included in the list of join options. In this case, a combine candidate associated with the extracted reference block can be selected, and combine index information indicating the selected combine candidate can be generated and signaled to the decoding equipment. The motion information of the current block may be extracted using the motion information of the selected combining candidate.

[149] В качестве другого примера, когда (A)MVP-режим применяется к текущему блоку, оборудование кодирования конструирует список возможных (A)MVP-вариантов, который описывается ниже, и использует вектор движения выбранного возможного MVP-варианта, из возможных вариантов предикторов векторов движения (MVP), включенных в список возможных (A)MVP-вариантов, в качестве MVP текущего блока. В этом случае, например, вектор движения, указывающий опорный блок, извлекаемый посредством оценки движения, описанной выше, может использоваться в качестве вектора движения текущего блока, и возможный MVP-вариант, имеющий вектор движения, имеющий наименьшую разность относительно вектора движения текущего блока, из возможных MVP-вариантов, может представлять собой выбранный возможный MVP-вариант. Разность векторов движения (MVD), которая представляет собой разность, полученную посредством вычитания MVP из вектора движения текущего блока, может извлекаться. В этом случае, информация относительно MVD может передаваться в служебных сигналах в оборудование декодирования. Помимо этого, когда (A)MVP-режим применяется, значение индекса опорного кадра может быть сконфигурировано как информация индекса опорного кадра и отдельно передаваться в служебных сигналах в оборудование декодирования.[149] As another example, when the (A)MVP mode is applied to the current block, the encoding equipment constructs a list of (A)MVP candidates, which is described below, and uses the motion vector of the selected MVP candidate from the candidate predictors motion vectors (MVPs) included in the list of possible (A)MVP options as the MVP of the current block. In this case, for example, a motion vector indicating a reference block extracted by the motion estimation described above can be used as a motion vector of the current block, and a possible MVP variant having a motion vector having the smallest difference with respect to the motion vector of the current block of possible MVP options may represent the selected possible MVP option. A motion vector difference (MVD), which is a difference obtained by subtracting the MVP from the motion vector of the current block, can be extracted. In this case, information regarding the MVD may be signaled to the decoding equipment. In addition, when the (A)MVP mode is applied, the reference frame index value can be configured as reference frame index information and separately signaled to the decoding equipment.

[150] Оборудование кодирования может извлекать остаточные выборки на основе прогнозных выборок (S710). Оборудование кодирования может извлекать остаточные выборки посредством сравнения исходных выборок текущего блока с прогнозными выборками.[150] The encoding equipment may extract residual samples based on the predictive samples (S710). The encoding hardware may extract residual samples by comparing the original samples of the current block with the predicted samples.

[151] Оборудование кодирования преобразует/квантует остаточные выборки, чтобы извлекать квантованные коэффициенты преобразования (S720), и затем деквантует/обратно преобразует квантованные коэффициенты преобразования снова, чтобы извлекать (модифицированные) остаточные выборки (S730). Причина выполнения деквантования/обратного преобразования снова после преобразования/квантования состоит в том, чтобы извлекать остаточные выборки, идентичные остаточным выборкам, извлекаемым из оборудования декодирования, как описано выше.[151] The encoding equipment transforms/quantizes the residual samples to extract quantized transform coefficients (S720), and then dequantizes/de-quantizes the quantized transform coefficients again to extract (modified) residual samples (S730). The reason for performing dequantization/deconversion again after conversion/quantization is to extract residual samples identical to the residual samples extracted from the decoding equipment as described above.

[152] Оборудование кодирования может формировать восстановленный блок, включающий в себя восстановленные выборки для текущего блока, на основе прогнозных выборок и (модифицированных) остаточных выборок (S740). Восстановленный кадр для текущего кадра может формироваться на основе восстановленного блока.[152] The encoding equipment may generate a reconstructed block including reconstructed samples for the current block based on the predictive samples and (modified) residual samples (S740). A reconstructed frame for the current frame may be generated based on the reconstructed block.

[153] Хотя не показано, как описано выше, оборудование 100 кодирования может кодировать видеоинформацию, включающую в себя информацию прогнозирования и остаточную информацию. Оборудование 100 кодирования может выводить кодированную информацию изображений в форме потока битов. Информация прогнозирования может представлять собой информацию, связанную с процедурой прогнозирования, и может включать в себя информацию режима прогнозирования (например, флаг пропуска, флаг объединения или индекс режима) и информацию движения. Информация движения может включать в себя информацию выбора возможных вариантов (например, индекс объединения, MVP-флаг или MVP-индекс), которая представляет собой информацию для извлечения вектора движения. Помимо этого, информация относительно информации движения может включать в себя вышеуказанную MVD-информацию и/или информацию индекса опорного кадра. Помимо этого, информация относительно информации движения может включать в себя информацию, указывающую то, применяется либо нет L0-прогнозирование, L1-прогнозирование или бипрогнозирование. Остаточная информация представляет собой информацию относительно остаточных выборок. Остаточная информация может включать в себя информацию относительно квантованных коэффициентов преобразования для остаточных выборок.[153] Although not shown as described above, the encoding equipment 100 can encode video information including prediction information and residual information. The encoding equipment 100 may output encoded image information in the form of a bitstream. The prediction information may be information associated with a prediction procedure and may include prediction mode information (eg, a skip flag, a merge flag, or a mode index) and motion information. The motion information may include candidate selection information (eg, a pooling index, an MVP flag, or an MVP index), which is information for extracting a motion vector. In addition, information regarding the motion information may include the above-mentioned MVD information and/or reference frame index information. In addition, information regarding the motion information may include information indicating whether L0 prediction, L1 prediction, or bi-prediction is applied. Residual information is information regarding the residual samples. The residual information may include information regarding quantized transform coefficients for the residual samples.

[154] Выходной поток битов может сохраняться на (цифровом) носителе хранения данных и передаваться в оборудование декодирования либо может передаваться в оборудование декодирования через сеть.[154] The output bitstream may be stored on a (digital) storage medium and transmitted to the decoding equipment, or may be transmitted to the decoding equipment via a network.

[155] Фиг. 8 является блок-схемой последовательности операций, иллюстрирующей способ восстановления блоков на основе взаимного прогнозирования в оборудовании декодирования. Способ по фиг. 8 может включать в себя этапы S800, S810, S820, S830 и S840. Оборудование декодирования может выполнять операцию, соответствующую операции, выполняемой посредством оборудования кодирования.[155] FIG. 8 is a flowchart illustrating a method for restoring blocks based on inter-prediction in decoding equipment. The method according to FIG. 8 may include steps S800, S810, S820, S830, and S840. The decoding equipment may perform an operation corresponding to an operation performed by the encoding equipment.

[156] S800-S820 могут выполняться посредством модуля 332 взаимного прогнозирования оборудования декодирования, и информация прогнозирования по S800 и остаточная информация по S830 могут получаться из потока битов посредством энтропийного декодера 310 оборудования декодирования. Остаточный процессор 320 оборудования декодирования может извлекать остаточные выборки для текущего блока на основе остаточной информации. В частности, деквантователь 321 остаточного процессора 320 может извлекать коэффициенты преобразования посредством выполнения деквантования на основе квантованных коэффициентов преобразования, извлекаемых на основе остаточной информации, и обратный преобразователь 322 остаточного процессора может извлекать остаточные выборки для текущего блока посредством выполнения обратного преобразования для коэффициентов преобразования. S840 может выполняться посредством сумматора 340 или модуля восстановления оборудования декодирования.[156] S800 to S820 may be performed by the decoding equipment inter-prediction unit 332, and the prediction information of S800 and residual information of S830 may be obtained from the bitstream by the entropy decoder 310 of the decoding equipment. Residual decoding equipment processor 320 may extract residual samples for the current block based on the residual information. In particular, the dequantizer 321 of the residual processor 320 may extract transform coefficients by performing dequantization based on the quantized transform coefficients extracted based on the residual information, and the inverse transformer 322 of the residual processor may extract the residual samples for the current block by performing an inverse transform on the transform coefficients. S840 may be performed by an adder 340 or a decoding hardware recovery module.

[157] В частности, оборудование декодирования может определять режим прогнозирования для текущего блока на основе принимаемой информации прогнозирования (S800). Оборудование декодирования может определять то, какой режим взаимного прогнозирования должен применяться к текущему блоку, на основе информации режима прогнозирования в информации прогнозирования.[157] Specifically, the decoding equipment may determine a prediction mode for the current block based on the received prediction information (S800). The decoding equipment may determine which inter-prediction mode should be applied to the current block based on the prediction mode information in the prediction information.

[158] Например, может определяться то, применяется или нет режим объединения к текущему блоку, или то, определяется или нет (A)MVP-режим, на основе флага объединения. Альтернативно, один из различных возможных вариантов режимов взаимного прогнозирования может выбираться на основе индекса режима. Возможные варианты режима взаимного прогнозирования могут включать в себя режим пропуска, режим объединения и/или (A)MVP-режим либо могут включать в себя различные режимы взаимного прогнозирования, которые описываются ниже.[158] For example, it may be determined whether or not an aggregation mode is applied to the current block, or whether or not an (A)MVP mode is determined based on the aggregation flag. Alternatively, one of the various possible inter-prediction mode options may be selected based on the mode index. Options for the inter-prediction mode may include a skip mode, an aggregation mode, and/or an (A)MVP mode, or may include various inter-prediction modes, which are described below.

[159] Оборудование декодирования извлекает информацию движения текущего блока на основе определенного режима взаимного прогнозирования. Например, когда режим пропуска или режим объединения применяется к текущему блоку, оборудование декодирования может конфигурировать список возможных вариантов объединения, который описывается ниже, и выбирать один возможный вариант объединения из числа возможных вариантов объединения, включенных в список возможных вариантов объединения. Выбор может выполняться на основе вышеуказанной информации выбора (индекса объединения). Информация движения текущего блока может извлекаться с использованием информации движения выбранного возможного варианта объединения. Информация движения выбранного возможного варианта объединения может использоваться как информация движения текущего блока.[159] The decoding equipment extracts motion information of the current block based on a certain inter-prediction mode. For example, when a skip mode or a combine mode is applied to a current block, the decoding equipment may configure a list of combine candidates, which is described below, and select one combine candidate from among the combine candidates included in the list of combine candidates. The selection may be made based on the above selection information (merging index). The motion information of the current block may be extracted using the motion information of the selected combining candidate. The motion information of the selected combining candidate can be used as the motion information of the current block.

[160] В качестве другого примера, когда (A)MVP-режим применяется к текущему блоку, оборудование декодирования может конструировать список возможных (A)MVP-вариантов, который описывается ниже, и использовать вектор движения выбранного возможного MVP-варианта из числа возможных вариантов предикторов векторов движения (MVP), включенных в список возможных (A)MVP-вариантов, в качестве MVP текущего блока. Выбор может выполняться на основе вышеописанной информации выбора (MVP-флага или MVP-индекса), описанной выше. В этом случае, MVD текущего блока может извлекаться на основе информации относительно MVD, и вектор движения текущего блока может извлекаться на основе MVP текущего блока и MVD. Кроме того, индекс опорного кадра текущего блока может извлекаться на основе информации индекса опорного кадра. Кадр, указываемый посредством индекса опорного кадра в списке опорных кадров для текущего блока, может извлекаться в качестве опорного кадра, на который ссылаются для взаимного прогнозирования текущего блока.[160] As another example, when the (A)MVP mode is applied to the current block, the decoding equipment may construct a list of (A)MVP candidates, which is described below, and use the motion vector of the selected MVP candidate from among the candidates motion vector predictors (MVPs) included in the list of possible (A)MVP options as the MVP of the current block. The selection may be made based on the above-described selection information (MVP flag or MVP index) described above. In this case, the MVD of the current block can be extracted based on information regarding the MVD, and the motion vector of the current block can be extracted based on the MVP of the current block and the MVD. In addition, the reference frame index of the current block may be retrieved based on the reference frame index information. The frame indicated by the reference frame index in the list of reference frames for the current block may be retrieved as a reference frame referred to for inter-prediction of the current block.

[161] Между тем, как описано ниже, информация движения текущего блока может извлекаться без конфигурирования списка возможных вариантов. В этом случае, информация движения текущего блока может извлекаться согласно процедуре, раскрытой в режиме прогнозирования, который описывается ниже. В этом случае, конфигурирование списка возможных вариантов, как описано выше, может опускаться.[161] Meanwhile, as described below, motion information of the current block can be retrieved without configuring the candidate list. In this case, the movement information of the current block can be retrieved according to the procedure disclosed in the prediction mode, which is described below. In this case, configuring the list of possible options as described above may be omitted.

[162] Оборудование декодирования может формировать прогнозные выборки для текущего блока на основе информации движения текущего блока (S820). В этом случае, опорный кадр может извлекаться на основе индекса опорного кадра текущего блока, и прогнозные выборки текущего блока могут извлекаться с использованием выборок опорного блока, указываемого посредством вектора движения текущего блока в опорном кадре. В этом случае, как описано ниже, процедура фильтрации прогнозных выборок дополнительно может выполняться для всех или некоторых прогнозных выборок текущего блока в некоторых случаях.[162] The decoding equipment may generate predictive samples for the current block based on motion information of the current block (S820). In this case, the reference frame can be retrieved based on the reference frame index of the current block, and the prediction samples of the current block can be retrieved using the samples of the reference block indicated by the motion vector of the current block in the reference frame. In this case, as described below, the prediction sample filtering procedure may further be performed on all or some of the prediction samples of the current block in some cases.

[163] Например, модуль 332 взаимного прогнозирования оборудования декодирования может включать в себя модуль определения режима прогнозирования, модуль извлечения информации движения и модуль извлечения прогнозных выборок, и модуль определения режима прогнозирования может определять режим прогнозирования для текущего блока на основе принимаемой информации режима прогнозирования, модуль извлечения информации движения может извлекать информацию движения (вектор движения и/или индекс опорного кадра и т.д.) текущего блока на основе принимаемой информации относительно информации движения, и модуль извлечения прогнозных выборок может извлекать прогнозные выборки текущего блока.[163] For example, the decoding equipment inter-prediction unit 332 may include a prediction mode determining unit, a motion information extracting unit, and a prediction sample extracting unit, and the prediction mode determining unit may determine the prediction mode for the current block based on the received prediction mode information, module The motion information extractor may extract motion information (motion vector and/or reference frame index, etc.) of the current block based on received information regarding the motion information, and the prediction sample extractor may extract prediction samples of the current block.

[164] Оборудование декодирования формирует остаточные выборки для текущего блока на основе принимаемой остаточной информации (S830). Оборудование декодирования может формировать восстановленные выборки для текущего блока на основе прогнозных выборок и остаточных выборок и может извлекать восстановленный блок, включающий в себя восстановленные выборки (S840). Восстановленный кадр для текущего кадра может формироваться на основе восстановленного блока.[164] The decoding equipment generates residual samples for the current block based on the received residual information (S830). The decoding equipment can generate reconstructed samples for the current block based on the predicted samples and residual samples, and can extract the reconstructed block including the reconstructed samples (S840). A reconstructed frame for the current frame may be generated based on the reconstructed block.

[165] Различные режимы взаимного прогнозирования могут использоваться для прогнозирования текущего блока в кадре. Например, могут использоваться различные режимы, такие как режим объединения, режим пропуска, режим прогнозирования векторов движения (MVP), аффинный режим, режим объединения на основе субблоков и режим объединения с MVD (MMVD) и т.п. Режим детализации векторов движения на стороне декодера (DMVR), режим адаптивного разрешения векторов движения (AMVR), бипрогнозирование с помощью весовых коэффициентов уровня CU (BCW), двунаправленный оптический поток (BDOF) и т.п. также могут использоваться в качестве дополнительных режимов дополнительно или вместо этого. Аффинный режим может называться "режимом аффинного прогнозирования движения". MVP-режим может называться "режимом усовершенствованного прогнозирования векторов движения (AMVP)". В этом документе, некоторые режимы и/или возможные варианты информации движения, извлекаемые посредством некоторых режимов, могут включаться в качестве одного из возможных вариантов информации движения других режимов. Например, возможный HMVP-вариант может добавляться в качестве возможного варианта объединения в режиме объединения/пропуска или может добавляться в качестве возможного MVP-варианта в MVP-режиме.[165] Various inter-prediction modes can be used to predict the current block in a frame. For example, various modes may be used, such as a fusion mode, a skip mode, a motion vector prediction (MVP) mode, an affine mode, a sub-block fusion mode, and a MVD fusion mode (MMVD), and the like. Decoder Motion Vector Resolution (DMVR), Adaptive Motion Vector Resolution (AMVR), Bi-Prediction with CU Weights (BCW), Bidirectional Optical Flow (BDOF), etc. can also be used as additional modes in addition to or instead. The affine mode may be called "affine motion prediction mode". The MVP mode may be referred to as "Advanced Motion Vector Prediction (AMVP) mode". Herein, some modes and/or motion information options extracted by some modes may be included as one of the motion information options of other modes. For example, an HMVP candidate may be added as a merge candidate in merge/skip mode, or may be added as an MVP candidate in MVP mode.

[166] Информация режима прогнозирования, указывающая режим взаимного прогнозирования текущего блока, может передаваться в служебных сигналах из оборудования кодирования в оборудование декодирования. Информация режима прогнозирования может включаться в поток битов и приниматься посредством оборудования декодирования. Информация режима прогнозирования может включать в себя информацию индекса, указывающую один из множества возможных вариантов режимов. Альтернативно, режим взаимного прогнозирования может указываться через иерархическую передачу в служебных сигналах информации флага. В этом случае, информация режима прогнозирования может включать в себя один или более флагов. Например, флаг пропуска может передаваться в служебных сигналах, чтобы указывать то, применяется или нет режим пропуска, и если режим пропуска не применяется, флаг объединения может передаваться в служебных сигналах, чтобы указывать то, применяется или нет режим объединения, и если режим объединения не применяется, указывается необходимость применять MVP-режим, или флаг для дополнительной классификации дополнительно может передаваться в служебных сигналах. Аффинный режим может передаваться в служебных сигналах в независимом режиме или может передаваться в служебных сигналах в режиме, зависимом от режима объединения или MVP-режима. Например, аффинный режим может включать в себя аффинный режим объединения и аффинный MVP-режим.[166] Prediction mode information indicating the inter-prediction mode of the current block may be signaled from the encoding equipment to the decoding equipment. Prediction mode information may be included in the bit stream and received by decoding equipment. The prediction mode information may include index information indicating one of a plurality of possible mode options. Alternatively, the inter-prediction mode may be indicated via hierarchical signaling of flag information. In this case, the prediction mode information may include one or more flags. For example, a skip flag may be signaled to indicate whether or not a skip mode is applied, and if a skip mode is not applied, a merge flag may be signaled to indicate whether or not a merge mode is applied, and if a merge mode is not applied. is applied, the need to use the MVP mode is indicated, or a flag for additional classification may additionally be transmitted in service signals. The affine mode may be signaled in an independent mode or may be signaled in a mode dependent on aggregation mode or MVP mode. For example, an affine mode may include an affine union mode and an affine MVP mode.

[167] Между тем, информация, указывающая то, используется либо нет прогнозирование на основе списка 0 (L0), прогнозирование на основе списка 1 (L1) или бипрогнозирование, описанные выше, в текущем блоке (текущей единице кодирования), может передаваться в служебных сигналах в текущем блоке. Информация может называться "информацией направления прогнозирования движения", "информацией направления взаимного прогнозирования" или "информацией индикатора взаимного прогнозирования" и может конфигурироваться/кодироваться/передаваться в служебных сигналах, например, в форме синтаксического элемента inter_pred_idc. Таким образом, синтаксический элемент inter_pred_idc может указывать то, используется либо нет вышеуказанное прогнозирование на основе списка 0 (L0), прогнозирование на основе списка 1 (L1) или бипрогнозирование для текущего блока (текущей единицы кодирования). В этом документе, для удобства описания, тип взаимного прогнозирования (L0-прогнозирование, L1-прогнозирование или бипрогнозирование), указываемый посредством синтаксического элемента inter_pred_idc, может указываться как направление прогнозирования движения. L0-прогнозирование может представляться как pred_L0, L1-прогнозирование как pred_L1, и парное прогнозирование как pred_BI. Например, следующие типы прогнозирования могут определяться согласно значению синтаксического элемента inter_pred_idc.[167] Meanwhile, information indicating whether list 0 (L0) prediction, list 1 (L1) prediction or bi-prediction described above is used in the current block (current coding unit) may be transmitted in overhead signals in the current block. The information may be called "motion prediction direction information", "inter prediction direction information" or "inter prediction indicator information" and may be configured/encoded/transmitted in signaling, for example, in the form of an inter_pred_idc syntax element. Thus, the inter_pred_idc syntax element may indicate whether or not the above list-0 (L0) prediction, list-1 (L1) prediction, or bi-prediction is used for the current block (current encoding unit). In this document, for convenience of description, the inter-prediction type (L0-prediction, L1-prediction, or bi-prediction) indicated by the inter_pred_idc syntax element may be indicated as the motion prediction direction. L0 prediction can be represented as pred_L0, L1 prediction as pred_L1, and pairwise prediction as pred_BI. For example, the following prediction types may be determined according to the value of the inter_pred_idc syntax element.

[168] Табл. 1[168] Tab. 1

Name of - НазваниеName of - Name

n.a. - Н/дn.a. - N/A

[169] Как описано выше, один кадр может включать в себя один или более срезов. Срез может иметь одни из типов срезов, включающих в себя внутренний (I) срез, прогнозирующий (P) срез и бипрогнозирующий (B) срез. Тип среза может указываться на основе информации типа среза. Для блоков в I-срезе, взаимное прогнозирование может не использоваться для прогнозирования, и только внутреннее прогнозирование может использоваться. Конечно, даже в этом случае, исходное выборочное значение может кодироваться и передаваться в служебных сигналах без прогнозирования. Внутреннее прогнозирование или взаимное прогнозирование может использоваться для блоков в P-срезе, и только унипрогнозирование может использоваться, когда используется взаимное прогнозирование. Между тем, внутреннее прогнозирование или взаимное прогнозирование может использоваться для блоков в B-срезе, и вплоть до бипрогнозирования может использоваться, когда используется взаимное прогнозирование.[169] As described above, one frame may include one or more slices. A slice may have any of the slice types including an internal (I) slice, a predictive (P) slice, and a bipredictive (B) slice. The slice type may be specified based on the slice type information. For blocks in an I-slice, inter-prediction may not be used for prediction, and only intra-prediction may be used. Of course, even in this case, the original sample value may be encoded and signaled without prediction. Intra prediction or inter prediction can be used for blocks in a P-slice, and only uni prediction can be used when inter prediction is used. Meanwhile, intra prediction or inter prediction can be used for blocks in the B-slice, and up to bi prediction can be used when inter prediction is used.

[170] L0 и L1 могут включать в себя опорные кадры, которые ранее кодируются/декодируются до текущего кадра. Например, L0 может включать в себя опорные кадры перед и/или после текущего кадра в POC-порядке, и L1 может включать в себя опорные кадры после и/или перед текущим кадром в POC-порядке. В этом случае, L0 может назначаться меньший индекс опорного кадра относительно предыдущих опорных кадров в POC-порядке, чем относительно текущих опорных кадров, и L1 может назначаться меньший индекс опорного кадра относительно предыдущих опорных кадров в POC-порядке, чем относительно текущего кадра. В случае B-среза, бипрогнозирование может применяться, и в этом случае, однонаправленное бипрогнозирование может применяться, либо двунаправленное бипрогнозирование может применяться. Двунаправленное бипрогнозирование может называться "истинным бипрогнозированием".[170] L0 and L1 may include reference frames that were previously encoded/decoded before the current frame. For example, L0 may include reference frames before and/or after the current frame in POC order, and L1 may include reference frames after and/or before the current frame in POC order. In this case, L0 may be assigned a smaller reference frame index relative to previous reference frames in POC order than relative to current reference frames, and L1 may be assigned a smaller reference frame index relative to previous reference frames in POC order than relative to the current frame. In the case of a B-slice, bi-prediction can be applied, in which case, unidirectional bi-prediction can be used, or bi-directional bi-prediction can be used. Bidirectional biforecasting may be referred to as "true biforecasting."

[171] Как описано выше, остаточный блок (остаточные выборки) может извлекаться на основе прогнозированного блока (прогнозных выборок), извлекаемого через прогнозирование в каскаде кодирования, и остаточные выборки преобразуются/квантуются посредством остаточной информации, могут формироваться. Остаточная информация может включать в себя информацию относительно квантованных коэффициентов преобразования. Остаточная информация может включаться в информацию видео/изображений, и информация видео/изображений может кодироваться и передаваться в оборудование декодирования в форме потока битов. Оборудование декодирования может получать остаточную информацию из потока битов и может извлекать остаточные выборки на основе остаточной информации. В частности, оборудование декодирования может извлекать квантованные коэффициенты преобразования на основе остаточной информации и может извлекать остаточные блоки (остаточные выборки) через процесс деквантования/обратного преобразования.[171] As described above, the residual block (residual samples) can be retrieved based on the predicted block (prediction samples) extracted through prediction in the encoding stage, and the residual samples are transformed/quantized by the residual information can be generated. The residual information may include information regarding the quantized transform coefficients. The residual information may be included in the video/image information, and the video/image information may be encoded and transmitted to the decoding equipment in the form of a bit stream. The decoding equipment can obtain residual information from the bitstream and can extract residual samples based on the residual information. In particular, decoding equipment can extract quantized transform coefficients based on residual information and can extract residual blocks (residual samples) through a dequantization/inverse transform process.

[172] Между тем, по меньшей мере, один процесс из (обратного) преобразования и/или (де)-квантования может опускаться.[172] Meanwhile, at least one process of (inverse) transformation and/or (de)-quantization may be omitted.

[173] В дальнейшем в этом документе описывается процесс внутриконтурной фильтрации, выполняемый для восстановленного кадра. Модифицированная восстановленная выборка, блок, кадр (или модифицированная фильтрованная выборка, блок, кадр) могут формироваться через процесс внутриконтурной фильтрации, и модифицированный (модифицированный и фильтрованный) восстановленный кадр может выводиться в качестве декодированного кадра в оборудовании декодирования и также может сохраняться в буфере декодированных кадров или запоминающем устройстве оборудования кодирования/оборудования декодирования и использоваться в качестве опорного кадра в процессе взаимного прогнозирования во время кодирования/декодирования кадра впоследствии. Процесс внутриконтурной фильтрации может включать в себя процесс фильтрации для удаления блочности, процесс фильтрации на основе дискретизированного адаптивного смещения (SAO) и/или процесс адаптивной контурной фильтрации (ALF), как описано выше. В этом случае, один или некоторые из процесса фильтрации для удаления блочности, процесса фильтрации на основе дискретизированного адаптивного смещения (SAO), процесса адаптивной контурной фильтрации (ALF) и процесса билатеральной фильтрации могут последовательно применяться, либо все могут последовательно применяться. Например, SAO-процесс может выполняться после того, как процесс фильтрации для удаления блочности применяется к восстановленному кадру. Альтернативно, например, ALF-процесс может выполняться после того, как процесс фильтрации для удаления блочности применяется к восстановленному кадру. Это также может выполняться в оборудовании кодирования.[173] The in-loop filtering process performed on the reconstructed frame is described later in this document. The modified reconstructed sample, block, frame (or modified filtered sample, block, frame) may be generated through an in-loop filtering process, and the modified (modified and filtered) reconstructed frame may be output as a decoded frame in the decoding equipment and may also be stored in a decoded frame buffer or a memory of the encoding/decoding equipment and used as a reference frame in the inter-prediction process during encoding/decoding of the frame subsequently. The in-loop filtering process may include a deblocking filtering process, a sampled adaptive offset (SAO) filtering process, and/or an adaptive loop filtering (ALF) process as described above. In this case, one or some of the deblocking filtering process, the sampled adaptive offset (SAO) filtering process, the adaptive loop filtering (ALF) process, and the bilateral filtering process may be sequentially applied, or all may be sequentially applied. For example, the SAO process may be executed after the deblocking filtering process is applied to the reconstructed frame. Alternatively, for example, the ALF process may be performed after the deblocking filtering process is applied to the reconstructed frame. This can also be done in encoding hardware.

[174] Фильтрация для удаления блочности представляет собой технологию фильтрации, которая удаляет искажение на границах между блоками в восстановленном кадре. Процесс фильтрации для удаления блочности, например, может извлекать целевую границу из восстановленного кадра, определять граничную интенсивность (bS) для целевой границы и выполнять фильтрацию для удаления блочности для целевой границы на основе bS; bS может определяться на основе режима прогнозирования, разности векторов движения, того, является или нет опорный кадр идентичным, того, существует или нет ненулевой значимый коэффициент и т.д., для двух блоков, смежных с целевой границей.[174] Deblocking filtering is a filtering technique that removes distortion at the boundaries between blocks in a reconstructed frame. The deblocking filtering process, for example, may extract a target edge from the reconstructed frame, determine a boundary intensity (bS) for the target edge, and perform deblocking filtering for the target edge based on the bS; bS may be determined based on the prediction mode, the difference of motion vectors, whether or not the reference frame is identical, whether or not a non-zero significant coefficient exists, etc., for two blocks adjacent to the target boundary.

[175] SAO представляет собой способ для компенсации разности смещения между восстановленным кадром и исходным кадром на основе выборок. Например, SAO может применяться на основе типа, к примеру, как полосовое смещение, краевое смещение и т.п. Согласно SAO, выборки могут классифицироваться на различные категории согласно каждому SAO-типу, и значение смещения может суммироваться с каждой выборкой на основе категории. Информация фильтрации для SAO может включать в себя информацию относительно того, применяется или нет SAO, информацию SAO-типа и информацию значений SAO-смещения. SAO может применяться к восстановленному кадру после того, как фильтрация для удаления блочности применяется.[175] SAO is a method for compensating the offset difference between a reconstructed frame and an original frame based on samples. For example, SAO can be applied on a type basis, such as band offset, edge offset, and the like. According to SAO, samples can be classified into different categories according to each SAO type, and the bias value can be summed with each sample based on the category. The filtering information for SAO may include information regarding whether or not SAO is applied, SAO type information, and SAO offset value information. SAO can be applied to the reconstructed frame after deblocking filtering is applied.

[176] Адаптивный контурный фильтр (ALF) представляет собой технологию для фильтрации восстановленного кадра на основе выборок на основе коэффициентов фильтра согласно форме фильтра. Оборудование кодирования может определять то, следует или нет применять ALF, ALF-форму и/или коэффициент ALF-фильтра и т.д., посредством сравнения восстановленного кадра и исходного кадра и может передавать в служебных сигналах в оборудование декодирования. Таким образом, информация фильтрации для ALF может включать в себя информацию относительно того, применяется или нет ALF, информацию формы ALF-фильтра, информацию коэффициентов ALF-фильтра и т.п. ALF может применяться к восстановленному кадру после того, как применяется фильтрация для удаления блочности.[176] An adaptive loop filter (ALF) is a technique for filtering a reconstructed frame based on samples based on filter coefficients according to the shape of the filter. The encoding equipment can determine whether or not to apply the ALF, the ALF shape and/or the ALF filter coefficient, etc., by comparing the reconstructed frame and the original frame, and can signal it to the decoding equipment. That is, the filtering information for ALF may include information regarding whether or not ALF is applied, ALF filter shape information, ALF filter coefficient information, and the like. ALF can be applied to the reconstructed frame after deblocking filtering is applied.

[177] Фиг. 9 показывает пример формы ALF-фильтра.[177] FIG. 9 shows an example of an ALF filter shape.

[178] На фиг. 9, (a) показывает форму ромбовидного фильтра 7×7, (b) показывает форму ромбовидного фильтра 5×5. На фиг. 9, Cn в форме фильтра представляет коэффициент фильтра. Когда n в Cn является идентичным, это указывает то, что идентичные коэффициенты фильтра могут назначаться. В настоящем раскрытии сущности, позиция и/или единица, которой назначаются коэффициенты фильтра согласно форме фильтра ALF, может называться "отводом фильтра". В этом случае, один коэффициент фильтра может назначаться каждому отводу фильтра, и компоновка отводов фильтра может соответствовать форме фильтра. Отвод фильтра, расположенный в центре формы фильтра, может называться "центральным отводом фильтра". Идентичные коэффициенты фильтра могут назначаться двум отводам фильтра, имеющим идентичное значение n, существующим в позициях, соответствующих друг другу относительно центрального отвода фильтра. Например, в случае ромбовидной формы фильтра 7×7, 25 отводов фильтра включаются, и поскольку коэффициенты C0-C11 фильтра назначаются в центрально симметричной форме, коэффициенты фильтра могут назначаться 25 отводам фильтра с использованием только 13 коэффициентов фильтра. Кроме того, например, в случае ромбовидной формы фильтра 5×5, 13 отводов фильтра включаются, и поскольку коэффициенты C0-C5 фильтра назначаются в централизованно симметричной форме, коэффициенты фильтра назначаются 13 отводам фильтра с использованием только 7 коэффициентов фильтра. Например, чтобы уменьшать объем данных информации относительно передаваемых в служебных сигналах коэффициентов фильтра, 12 из 13 коэффициентов фильтра для ромбовидной формы фильтра 7×7 могут передаваться в служебных сигналах (явно), и 1 коэффициент фильтра может (неявно) извлекаться. Кроме того, например, 6 из 7 коэффициентов фильтра для ромбовидной формы фильтра 5×5 могут передаваться в служебных сигналах (явно), и 1 коэффициент фильтра может извлекаться (неявно).[178] In FIG. 9, (a) shows the shape of a 7x7 diamond filter, (b) shows the shape of a 5x5 diamond filter. In fig. 9, Cn in filter form represents the filter coefficient. When n in Cn is identical, this indicates that identical filter coefficients can be assigned. In the present disclosure, the position and/or unit to which the filter coefficients are assigned according to the filter shape ALF may be referred to as a "filter tap". In this case, one filter coefficient may be assigned to each filter tap, and the arrangement of the filter taps may correspond to the shape of the filter. A filter tap located in the center of the filter mold may be referred to as a "center filter tap". Identical filter coefficients may be assigned to two filter taps having an identical n value existing at positions corresponding to each other relative to the central filter tap. For example, in the case of a 7x7 diamond shape filter, 25 filter taps are turned on, and since the filter coefficients C0-C11 are assigned in a centrally symmetrical manner, the filter coefficients can be assigned to the 25 filter taps using only 13 filter coefficients. Moreover, for example, in the case of a 5x5 diamond shape filter, 13 filter taps are turned on, and since filter coefficients C0-C5 are assigned in a centrally symmetrical manner, filter coefficients are assigned to 13 filter taps using only 7 filter coefficients. For example, to reduce the amount of information data regarding filter coefficients signaled, 12 of 13 filter coefficients for a 7x7 diamond shape filter may be signaled (explicitly) and 1 filter coefficient may be (implicitly) extracted. In addition, for example, 6 of 7 filter coefficients for a 5x5 diamond shape filter may be signaled (explicitly) and 1 filter coefficient may be extracted (implicitly).

[179] Согласно варианту осуществления настоящего раскрытия сущности, ALF-параметр, используемый для ALF-процесса, может передаваться в служебных сигналах через набор параметров адаптации (APS). ALF-параметр может извлекаться из информации фильтра или ALF-данных для ALF.[179] According to an embodiment of the present disclosure, an ALF parameter used for an ALF process may be signaled through an adaptation parameter set (APS). The ALF parameter may be derived from the filter information or the ALF data for the ALF.

[180] ALF представляет собой тип технологии внутриконтурной фильтрации, которая может применяться при кодировании видео/изображений, как описано выше. ALF может выполняться с использованием адаптивного фильтра Винера. Это может служить для того, чтобы минимизировать среднеквадратическую ошибку (MSE) между исходными выборками и декодированными выборками (или восстановленными выборками). Высокоуровневое проектирование для инструментального ALF-средства может включать синтаксические элементы, доступные в SPS и/или в заголовке среза (либо в заголовке группы плиток).[180] ALF is a type of in-loop filtering technology that can be used in video/image encoding as described above. ALF can be performed using an adaptive Wiener filter. This may serve to minimize the mean square error (MSE) between the original samples and the decoded samples (or reconstructed samples). High-level design for an ALF tool may include syntax elements available in the SPS and/or slice header (or tile group header).

[181] В примере, перед фильтрацией для каждого блока сигналов яркости 4×4, геометрические преобразования, такие как вращение или диагональное и вертикальное переворачивание, могут применяться к коэффициентам f(k, l) фильтра в зависимости от значений градиентов, вычисленных для блока, и соответствующих значений c(k, l) отсечения в фильтре. Это является эквивалентным применению этих преобразований к выборкам в зоне носителя фильтра. Создание других блоков, к которым применяется ALF, может быть аналогичным размещению этих блоков согласно их направленности.[181] In the example, before filtering for each 4x4 block of luminance signals, geometric transformations such as rotation or diagonal and vertical flipping can be applied to the filter coefficients f(k, l) depending on the gradient values computed for the block, and the corresponding cutoff values c(k, l) in the filter. This is equivalent to applying these transformations to samples in the filter media region. Creating other blocks to which ALF applies can be similar to placing those blocks according to their directionality.

[182] Например, три преобразования, диагональное, вертикальное переворачивание и вращение, могут выполняться на основе следующих уравнений.[182] For example, three transformations, diagonal, vertical flip and rotation, can be performed based on the following equations.

[183] уравнение 1[183] equation 1

Диагональное: f_D(k, l)=f(l, k), c_D(k, l)=c(l, k)Diagonal: f_D(k, l)=f(l, k), c_D(k, l)=c(l, k)

[184] уравнение 2[184] equation 2

Вертикальное переворачивание: f_V(k, l)=f(k, K-l-1), c_V(k, l)=c(k, K-l-1)Vertical flip: f_V(k, l)=f(k, K-l-1), c_V(k, l)=c(k, K-l-1)

[185] уравнение 3[185] equation 3

Вращение: f_R(k, l)=f(K-l-1, k), c_R(k, l)=c(K-l-1, k)Rotation: f_R(k, l)=f(K-l-1, k), c_R(k, l)=c(K-l-1, k)

[186] В уравнениях 1-3, K может представлять собой размер фильтра. 0≤k и 1≤K-1 могут представлять собой координаты коэффициентов. Например, (0, 0) может представлять собой левую верхнюю угловую координату, и/или (K-1, K-1) может представлять собой правую нижнюю угловую координату. Взаимосвязь между преобразованиями и четырьмя градиентами в четырех направлениях может обобщаться в следующей таблице.[186] In Equations 1-3, K may represent the filter size. 0≤k and 1≤K-1 can represent the coordinates of the coefficients. For example, (0, 0) may represent the upper left corner coordinate, and/or (K-1, K-1) may represent the lower right corner coordinate. The relationship between the transformations and the four gradients in the four directions can be summarized in the following table.

[187] Табл. 2[187] Tab. 2

Значения градиентовGradient values ПреобразованиеConversion gd2<gd1 и gh<gv g d2 <g d1 and g h <g v Отсутствие преобразованияNo conversion gd2<gd1 и gv<gh g d2 <g d1 and g v <g h ДиагональноеDiagonal gd1<gd2 и gh<gv g d1 <g d2 and g h <g v Вертикальное переворачиваниеVertical inversion gd1<gd2 и gv<gh g d1 <g d2 and g v <g h ВращениеRotation

[188] Параметры ALF-фильтра могут передаваться в служебных сигналах в APS и заголовке среза. В одном APS, вплоть до 25 коэффициентов фильтра сигналов яркости и индексов значений отсечения могут передаваться в служебных сигналах. В одном APS, вплоть до 8 коэффициентов фильтра сигналов цветности и индексов значений отсечения могут передаваться в служебных сигналах. Чтобы уменьшать дополнительное число битов, коэффициенты фильтра различных классификаций для компонента сигналов яркости могут объединяться. В заголовке среза, могут передаваться в служебных сигналах индексы APS (указываемые по ссылке посредством текущего среза), используемых для текущего среза.[188] ALF filter parameters may be signaled in the APS and slice header. In one APS, up to 25 luminance signal filter coefficients and cutoff value indices can be signaled. In one APS, up to 8 chrominance filter coefficients and cutoff value indices can be signaled. To reduce the additional number of bits, the filter coefficients of the different classifications for the luminance signal component may be combined. In the slice header, APS indices (indicated by reference by the current slice) used for the current slice may be signaled.

[189] Индексы значений отсечения, декодированные из APS, могут позволять определять значения отсечения с использованием таблицы сигналов яркости значений отсечения и таблицы сигналов цветности значений отсечения. Эти значения отсечения могут зависеть от внутренней битовой глубины. Более конкретно, таблица сигналов яркости значений отсечения и таблица сигналов цветности значений отсечения могут извлекаться на основе следующих уравнений.[189] The cutoff value indices decoded from the APS may allow the cutoff values to be determined using the cutoff value luma signal table and the cutoff value chrominance signal table. These cutoff values may depend on the internal bit depth. More specifically, the luminance signal table of the cutoff values and the chrominance signal table of the cutoff values can be extracted based on the following equations.

[190] уравнение 4[190] equation 4

AlfClipL={round(2^(B(N-n+1)/N)) для n∈[1…N]}AlfClipL={round(2^(B(N-n+1)/N)) for n∈[1…N]}

[191] уравнение 5[191] equation 5

AlfClipC={round(2^((B-8)+8((N-n))/(N-1))) для n∈[1…N]}AlfClipC={round(2^((B-8)+8((N-n))/(N-1))) for n∈[1…N]}

[192] В вышеприведенных уравнениях, B может быть внутренней битовой глубиной, и N может быть числом разрешенных значений отсечения (предварительно определенным числом). Например, N может быть равным 4.[192] In the above equations, B may be the internal bit depth, and N may be the number of allowed cutoff values (a predetermined number). For example, N could be 4.

[193] В заголовке среза, вплоть до 7 APS-индексов могут передаваться в служебных сигналах, чтобы указывать наборы фильтров сигналов яркости, используемые для текущего среза. Процесс фильтрации дополнительно может управляться на CTB-уровне. Например, флаг, указывающий то, применяется или нет ALF к CTB сигналов яркости, может передаваться в служебных сигналах. CTB сигналов яркости может выбирать один из 16 наборов фиксированных фильтров и наборов фильтров из APS. Индекс набора фильтров может передаваться в служебных сигналах для CTB сигналов яркости, чтобы указывать то, какой набор фильтров применяется. 16 наборов фиксированных фильтров могут предварительно задаваться и жестко кодироваться в кодере и декодере.[193] In the slice header, up to 7 APS indices may be signaled to indicate the luminance filter sets used for the current slice. The filtering process can additionally be controlled at the CTB level. For example, a flag indicating whether or not ALF is applied to the CTB of luma signals may be signaled. The luminance CTB can select from 16 fixed filter sets and APS filter sets. A filter bank index may be signaled for CTB luminance signals to indicate which filter bank is being applied. 16 sets of fixed filters can be preset and hard-coded in the encoder and decoder.

[194] Для компонента сигналов цветности, APS-индекс может передаваться в служебных сигналах в заголовке среза, чтобы указывать наборы фильтров сигналов цветности, используемые для текущего среза. На CTB-уровне, когда имеется два или более наборов фильтров сигналов цветности в APS, индекс фильтра может передаваться в служебных сигналах для каждого CTB сигналов цветности.[194] For the chrominance component, the APS index may be signaled in the slice header to indicate the chrominance filter sets used for the current slice. At the CTB layer, when there are two or more chrominance filter banks in the APS, the filter index may be signaled for each chrominance CTB.

[195] Коэффициенты фильтра могут квантоваться с 128 в качестве нормы. Чтобы ограничивать сложность умножения, соответствие потока битов может применяться таким образом, что значения коэффициентов нецентральной позиции могут варьироваться в диапазоне от 0 до 28, и/или значения коэффициентов оставшихся позиций могут составлять в диапазоне от -27 до 27-1. Коэффициент центральной позиции может не передаваться в служебных сигналах в потоке битов и может предварительно определяться (рассматриваться) равным 128.[195] Filter coefficients can be quantized with 128 as the norm. To limit the complexity of the multiplication, bitstream matching may be applied such that the coefficient values of the off-center position may range from 0 to 28, and/or the coefficient values of the remaining positions may range from -27 to 27-1. The center position coefficient may not be signaled in the bit stream and may be predetermined (considered) to be 128.

[196] Когда ALF доступна для текущего блока, каждая выборка R(i, j) может фильтроваться, и фильтрованный результат R'(i, j) может выражаться посредством следующего уравнения.[196] When ALF is available for the current block, each sample R(i, j) can be filtered, and the filtered result R'(i, j) can be expressed by the following equation.

[197] уравнение 6[197] equation 6

[198] В вышеприведенном уравнении, f(k, l) может представлять собой декодированные коэффициенты фильтра, K (x, y) может представлять собой функцию отсечения, и c(k, l) может представлять собой декодированные параметры отсечения. Например, переменные k и/или l могут варьироваться от -L/2 до L/2. Здесь, L может представлять длину фильтра. Функция отсечения K(x, y)=min (y, max(-y, x)) может соответствовать функции Clip3(-y, y, x).[198] In the above equation, f(k, l) may represent decoded filter coefficients, K(x, y) may represent a cutoff function, and c(k, l) may represent decoded cutoff parameters. For example, the variables k and/or l can range from -L/2 to L/2. Here, L may represent the length of the filter. The clipping function K(x, y)=min (y, max(-y, x)) can correspond to the function Clip3(-y, y, x).

[199] В примере, чтобы уменьшать требование по линейному буферу ALF, классификация модифицированных блоков и фильтрация могут применяться для выборок, смежных с горизонтальными CTU-границами. С этой целью, виртуальные границы могут задаваться.[199] In an example, to reduce the ALF linear buffer requirement, modified block classification and filtering may be applied to samples adjacent to horizontal CTU boundaries. For this purpose, virtual boundaries can be specified.

[200] Фиг. 10 является схемой, иллюстрирующей виртуальную границу, применяемую к процессу фильтрации согласно варианту осуществления настоящего документа. Фиг. 11 иллюстрирует пример ALF-процесса с использованием виртуальной границы согласно варианту осуществления настоящего раскрытия сущности. В дальнейшем описывается фиг. 11 в сочетании с фиг. 10.[200] FIG. 10 is a diagram illustrating a virtual boundary applied to a filtering process according to an embodiment of the present document. Fig. 11 illustrates an example of an ALF process using a virtual boundary according to an embodiment of the present disclosure. Next, FIG. 11 in combination with FIG. 10.

[201] Ссылаясь на фиг. 10, виртуальная граница может представлять собой линию, заданную посредством сдвига горизонтальной CTU-границы на N выборок. В примере, N может быть равным 4 для компонента сигнала яркости, и/или N может быть равным 2 для компонента сигналов цветности.[201] Referring to FIG. 10, the virtual boundary may be a line defined by shifting the horizontal CTU boundary by N samples. In an example, N may be equal to 4 for the luma component, and/or N may be equal to 2 for the chrominance component.

[202] На фиг. 10, классификация модифицированных блоков может применяться к компоненту сигналов яркости. Для одномерного лапласова градиентного вычисления блока 4×4 на виртуальной границе, могут использоваться только выборки выше виртуальной границы. Аналогично, для вычисления одномерного лапласова градиента блока 4×4 ниже виртуальной границы, могут использоваться только выборки ниже виртуальной границы. Квантование значения A активности может масштабироваться, соответственно, с учетом сокращенного числа выборок, используемых в одномерном лапласовом градиентном вычислении.[202] In FIG. 10, the modified block classification may be applied to the luminance signal component. For one-dimensional Laplacian gradient computation of a 4x4 block on a virtual boundary, only samples above the virtual boundary can be used. Similarly, to calculate the one-dimensional Laplacian gradient of a 4x4 block below the virtual boundary, only samples below the virtual boundary can be used. The quantization of the activity A value can be scaled accordingly to account for the reduced number of samples used in the one-dimensional Laplacian gradient calculation.

[203] Для процесса фильтрации, операция симметричного дополнения на виртуальных границах может использоваться для компонентов сигналов яркости и сигналов цветности. Ссылаясь на фиг. 10, когда фильтрованная выборка расположена ниже виртуальной границы, соседние выборки, расположенные выше виртуальной границы, могут дополняться. Между тем, соответствующие выборки на другой стороне также могут симметрично дополняться.[203] For the filtering process, a symmetrical padding operation on virtual boundaries can be used for the luma and chrominance signal components. Referring to FIG. 10, when a filtered sample is located below the virtual boundary, neighboring samples located above the virtual boundary may be complemented. Meanwhile, the corresponding samples on the other side can also be symmetrically complemented.

[204] Процесс, описанный согласно фиг. 11, также может использоваться для границ срезов, кирпичей и/или плиток, когда фильтр не доступен на границах. Для классификации ALF-блоков, могут использоваться только выборки, содержащиеся в идентичном срезе, кирпиче и/или плитке, и значение активности может масштабироваться, соответственно. Для ALF-фильтрации, симметричное дополнение может применяться для каждого из горизонтальных и/или вертикальных направлений относительно горизонтальных и/или вертикальных границ.[204] The process described in FIG. 11 can also be used for slice, brick and/or tile boundaries when a filter is not available at the boundaries. To classify ALF blocks, only samples contained in an identical slice, brick and/or tile can be used, and the activity value can be scaled accordingly. For ALF filtering, symmetric padding can be applied to each of the horizontal and/or vertical directions relative to the horizontal and/or vertical boundaries.

[205] Фиг. 12 является схемой, иллюстрирующей процесс кросскомпонентной адаптивной контурной фильтрации (CCALF) согласно варианту осуществления настоящего документа. CCALF-процесс может называться "процессом кросскомпонентной фильтрации".[205] FIG. 12 is a diagram illustrating a cross-component adaptive loop filtering (CCALF) process according to an embodiment of the present document. The CCALF process may be called a "cross-component filtering process".

[206] В аспекте, ALF-процесс может включать в себя общий ALF-процесс и CCALF-процесс. Таким образом, CCALF-процесс может означать некоторые процессы ALF-процесса. В другом аспекте, процесс фильтрации может включать в себя процесс удаления блочности, SAO-процесс, ALF-процесс и/или CCALF-процесс.[206] In an aspect, an ALF process may include a general ALF process and a CCALF process. Thus, a CCALF process can mean some processes of an ALF process. In another aspect, the filtering process may include a deblocking process, an SAO process, an ALF process, and/or a CCALF process.

[207] CCALF может детализировать каждый компонент сигналов цветности с использованием выборочных значений сигналов яркости. CCALF управляется посредством информации (изображений) потока битов, которая включает в себя (a) информацию относительно коэффициентов фильтра для каждого компонента сигналов цветности и (b) информацию относительно маски, которая управляет применением фильтрации к блокам выборок. Коэффициенты фильтра могут передаваться в служебных сигналах в APS, и размер блока и маска может передаваться в служебных сигналах на уровне среза.[207] CCALF can detail each component of the chrominance signals using sampled values of the luminance signals. The CCALF is controlled by bitstream information (images) that includes (a) information regarding filter coefficients for each chroma component and (b) information regarding a mask that controls the application of filtering to blocks of samples. The filter coefficients may be signaled in the APS, and the block size and mask may be signaled at the slice level.

[208] Ссылаясь на фиг. 12, CCALF может работать посредством применения линейного ромбовидного фильтра ((b) по фиг. 12) к каналу сигналов яркости для каждого компонента сигналов цветности. Коэффициенты фильтра передаются в APS, масштабируются на коэффициент 210 и округляются в большую сторону для представления с фиксированной запятой. Применение фильтра может управляться при переменном размере блока и передаваться в служебных сигналах посредством флага контекстного кодирования, принимаемого для блоков каждой выборки. Размер блока наряду с флагом CCALF-активации может приниматься на уровне среза для каждого компонента сигналов цветности. Размер блока (для выборок сигналов цветности) может составлять 16×16, 32×32, 64×64 или 128×128.[208] Referring to FIG. 12, CCALF may operate by applying a linear diamond filter ((b) of FIG. 12) to the luma signal channel for each chrominance signal component. The filter coefficients are passed to APS, scaled by a factor of 210, and rounded up for fixed-point representation. The application of the filter may be controlled at a variable block size and signaled via a context encoding flag received for blocks of each sample. The block size along with the CCALF enable flag may be received at the slice level for each chroma component. The block size (for chroma samples) can be 16x16, 32x32, 64x64, or 128x128.

[209] В нижеприведенных вариантах осуществления, предлагается способ повторной фильтрации или модификации восстановленных выборок сигналов цветности, фильтрованных посредством ALF на основе восстановленных выборок сигналов яркости.[209] In the following embodiments, a method is provided for refiltering or modifying reconstructed chroma samples filtered by ALF based on the reconstructed luminance samples.

[210] Вариант осуществления настоящего раскрытия сущности относится к передаче включения-выключения фильтрации и передаче коэффициентов фильтра в CCALF. Как описано выше, информация (синтаксический элемент) в синтаксической таблице, раскрытой в настоящем раскрытии сущности, может включаться в информацию изображений/видео, может конфигурироваться/кодироваться в устройстве кодирования и передаваться в устройство декодирования в форме потока битов. Оборудование декодирования может синтаксически анализировать/декодировать информацию (синтаксический элемент) в соответствующей синтаксической таблице. Оборудование декодирования может выполнять процесс декодирования кадров/изображений/видео (в частности, например, CCALF-процесс) на основе декодированной информации. Это применимо далее в этом документе к другим вариантам осуществления.[210] An embodiment of the present disclosure relates to transmitting filtering on/off and transmitting filter coefficients to CCALF. As described above, information (syntax element) in the syntax table disclosed in the present disclosure may be included in image/video information, configured/encoded in an encoding device, and transmitted to a decoding device in the form of a bit stream. The decoding equipment can parse/decode information (syntax element) in the corresponding syntax table. The decoding equipment may perform a frame/image/video decoding process (particularly, for example, a CCALF process) based on the decoded information. This applies to other embodiments later in this document.

[211] Следующая таблица показывает некоторый синтаксис информации заголовка среза согласно варианту осуществления настоящего раскрытия сущности.[211] The following table shows some syntax of slice header information according to an embodiment of the present disclosure.

[212] Табл. 3[212] Tab. 3

[213] Следующая таблица показывает примерную семантику для синтаксических элементов, включенных в вышеприведенную таблицу.[213] The following table shows approximate semantics for the syntactic elements included in the table above.

[214] Табл. 4[214] Tab. 4

slice_cross_component_alf_cb_enabled_flag, равный 0, указывает то, что кросскомпонентный Cb-фильтр не применяется к цветовому Cb-компоненту; slice_cross_component_alf_cb_enabled_flag, равный 1, указывает то, что кросскомпонентный Cb-фильтр применяется к цветовому Cb-компоненту.slice_cross_component_alf_cb_enabled_flag equal to 0 indicates that the cross-component Cb filter is not applied to the Cb color component; slice_cross_component_alf_cb_enabled_flag equal to 1 indicates that the cross component Cb filter is applied to the Cb color component.

slice_cross_component_alf_cr_enabled_flag, равный 0, указывает то, что кросскомпонентный Cr-фильтр не применяется к цветовому Cr-компоненту; slice_cross_component_alf_cb_enabled_flag, равный 1, указывает то, что кросскомпонентный Cr-фильтр применяется к цветовому Cr-компоненту.slice_cross_component_alf_cr_enabled_flag equal to 0 indicates that the cross component Cr filter is not applied to the color Cr component; slice_cross_component_alf_cb_enabled_flag equal to 1 indicates that the cross component Cr filter is applied to the color Cr component.

slice_cross_component_alf_cb_reuse_temporal_layer_filter, равный 1, указывает то, что коэффициенты кросскомпонентного Cb-фильтра, причем j=0...13, включительно, задаются равными AlfCCTemporalCoeffcb[TemporalId][j].slice_cross_component_alf_cb_reuse_temporal_layer_filter equal to 1 indicates that the coefficients of the cross-component Cb filter, with j=0...13 inclusive, are set equal to AlfCCTemporalCoeffcb[TemporalId][j].

slice_cross_component_alf_cb_reuse_temporal_layer_filter, равный 0, и slice_cross_component_alf_cb_enabled_flag, равный 1, указывают то, что синтаксический элемент slice_cross_component_alf_cb_aps_id присутствует в заголовке среза.slice_cross_component_alf_cb_reuse_temporal_layer_filter equal to 0 and slice_cross_component_alf_cb_enabled_flag equal to 1 indicate that the slice_cross_component_alf_cb_aps_id syntax element is present in the slice header.

Когда slice_cross_component_alf_cb_enabled_flag равен 1, и slice_cross_component_alf_cb_reuse_temporal_layer_filter равен 0, элементы AlfCCTemporalCoeffcb[TemporalId][j], причем j=0...13, извлекаются следующим образом:When slice_cross_component_alf_cb_enabled_flag is 1 and slice_cross_component_alf_cb_reuse_temporal_layer_filter is 0, the elements of AlfCCTemporalCoeffcb[TemporalId][j], with j=0...13, are extracted as follows:

AlfCCTemporalCoeffcb[TemporalId][j]=AlfCCCoeffcb[slice_cross_component_alf_cb_aps_id][j]AlfCCTemporalCoeffcb[TemporalId][j]=AlfCCCoeffcb[slice_cross_component_alf_cb_aps_id][j]

slice_cross_component_alf_cr_reuse_temporal_layer_filter, равный 1, указывает то, что коэффициенты кросскомпонентного Cr-фильтра, причем j=0...13, включительно, задаются равными AlfCCTemporalCoeffcr[TemporalId][j].slice_cross_component_alf_cr_reuse_temporal_layer_filter equal to 1 indicates that the coefficients of the cross-component Cr filter, with j=0...13 inclusive, are set equal to AlfCCTemporalCoeffcr[TemporalId][j].

slice_cross_component_alf_cr_reuse_temporal_layer_filter, равный 0, и slice_cross_component_alf_cr_enabled_flag, равный 1, указывают то, что синтаксический элемент slice_cross_component_alf_cr_aps_id присутствует в заголовке среза.slice_cross_component_alf_cr_reuse_temporal_layer_filter equal to 0 and slice_cross_component_alf_cr_enabled_flag equal to 1 indicate that the slice_cross_component_alf_cr_aps_id syntax element is present in the slice header.

Когда slice_cross_component_alf_cr_enabled_flag равен 1, и slice_cross_component_alf_cr_reuse_temporal_layer_filter равен 0, элементы AlfCCTemporalCoeffcr[TemporalId][j], причем j=0...13, извлекаются следующим образом:When slice_cross_component_alf_cr_enabled_flag is 1 and slice_cross_component_alf_cr_reuse_temporal_layer_filter is 0, the elements of AlfCCTemporalCoeffcr[TemporalId][j], with j=0...13, are extracted as follows:

AlfCCTemporalCoeffcr[TemporalId][j]=AlfCCCoeffcr[slice_cross_component_alf_cr_aps_id][j]AlfCCTemporalCoeffcr[TemporalId][j]=AlfCCCoeffcr[slice_cross_component_alf_cr_aps_id][j]

slice_cross_component_alf_cb_aps_id указывает adaptation_parameter_set_id, на который ссылается цветовой Cb-компонент среза для кросскомпонентного Cb-фильтра. Когда slice_cross_component_alf_cb_aps_id не присутствует, он логически выводится равным slice_alf_aps_id_luma[0]. TemporalId ALF APS NAL-единицы, имеющей adaptation_parameter_set_id, равный slice_cross_component_alf_cb_aps_id, должен быть меньше или равным TemporalId кодированной NAL-единицы среза.slice_cross_component_alf_cb_aps_id specifies the adaptation_parameter_set_id referenced by the slice color Cb component for the cross component Cb filter. When slice_cross_component_alf_cb_aps_id is not present, it is logically deduced to be slice_alf_aps_id_luma[0]. The TemporalId of an ALF APS NAL unit having an adaptation_parameter_set_id equal to slice_cross_component_alf_cb_aps_id shall be less than or equal to the TemporalId of the encoded slice NAL unit.

slice_cross_component_alf_cr_aps_id указывает adaptation_parameter_set_id, на который ссылается цветовой Cr-компонент среза для кросскомпонентного Cr-фильтра. Когда slice_cross_component_alf_cr_aps_id не присутствует, он логически выводится равным slice_alf_aps_id_luma[0]. TemporalId ALF APS NAL-единицы, имеющей adaptation_parameter_set_id, равный slice_cross_component_alf_cr_aps_id, должен быть меньше или равным TemporalId кодированной NAL-единицы среза.slice_cross_component_alf_cr_aps_id specifies the adaptation_parameter_set_id referenced by the slice color Cr component for the cross component Cr filter. When slice_cross_component_alf_cr_aps_id is not present, it is logically deduced to be slice_alf_aps_id_luma[0]. The TemporalId of an ALF APS NAL unit having an adaptation_parameter_set_id equal to slice_cross_component_alf_cr_aps_id shall be less than or equal to the TemporalId of the encoded slice NAL unit.

slice_cross_component_alf_cb_log2_control_size_minus4 указывает значение размеров квадратных блоков в числе выборок следующим образом:slice_cross_component_alf_cb_log2_control_size_minus4 specifies the value of the square block sizes in the number of samples as follows:

AlfCCSamplesCbW=AlfCCSamplesCbH=2(slice_cross_component_alf_cb_log2_control_size_minus4 | 4)AlfCCSamplesCbW=AlfCCSamplesCbH=2(slice_cross_component_alf_cb_log2_control_size_minus4 | 4)

slice_cross_component_alf_cb_log2_control_size_minus4 должен составлять в диапазоне 0-3, включительно.slice_cross_component_alf_cb_log2_control_size_minus4 must be in the range 0-3, inclusive.

slice_cross_component_alf_cr_log2_control_size_minus4 указывает значение размеров квадратных блоков в числе выборок следующим образом:slice_cross_component_alf_cr_log2_control_size_minus4 specifies the value of the square block sizes in the number of samples as follows:

AlfCCSamplesCrW=AlfCCSamplesCrH=2 (slice_cross_component_alf_cr_log2_control_size_minus4 | 4), slice_cross_component_alf_cr_log2_control_size_minus4 должен составлять в диапазоне 0-3, включительно.AlfCCSamplesCrW=AlfCCSamplesCrH=2 (slice_cross_component_alf_cr_log2_control_size_minus4 | 4), slice_cross_component_alf_cr_log2_control_size_minus4 must be in the range 0-3, inclusive.

[215] Ссылаясь на вышеприведенные две таблицы, когда sps_cross_component_alf_enabled_flag равен 1 в заголовке среза, синтаксический анализ slice_cross_component_alf_cb_enabled_flag может выполняться для того, чтобы определять то, применяется или нет Cb CCALF в срезе. Когда slice_cross_component_alf_cb_enabled_flag равен 1, CCALF применяется к соответствующему Cb-срезу, и когда slice_cross_component_alf_cb_reuse_temporal_layer_filter равен 1, фильтр идентичного существующего временного слоя может многократно использоваться. Когда slice_cross_component_alf_cb_enabled_flag равен 0, CCALF может применяться с использованием фильтра в соответствующем идентификаторе набора параметров адаптации (APS) через синтаксический анализ slice_cross_component_alf_cb_aps_id. Slice_cross_component_alf_cb_log2_control_size_minus4 может означать то, что CCALF применяет единицу блока в Cb-срезе.[215] Referring to the above two tables, when sps_cross_component_alf_enabled_flag is equal to 1 in the slice header, slice_cross_component_alf_cb_enabled_flag parsing can be performed to determine whether or not Cb CCALF is applied in the slice. When slice_cross_component_alf_cb_enabled_flag is 1, CCALF is applied to the corresponding Cb slice, and when slice_cross_component_alf_cb_reuse_temporal_layer_filter is 1, the filter of an identical existing temporal layer can be reused. When slice_cross_component_alf_cb_enabled_flag is 0, CCALF can be applied using a filter on the corresponding adaptation parameter set (APS) identifier via slice_cross_component_alf_cb_aps_id parsing. Slice_cross_component_alf_cb_log2_control_size_minus4 may mean that CCALF applies a block unit in the Cb slice.

[216] Например, когда значение slice_cross_component_alf_cb_log2_control_size_minus4 равно 0, то, применяется или нет CCALF, определяется в единицах 16×16. Когда значение slice_cross_component_alf_cb_log2_control_size_minus4 равно 1, то, применяется или нет CCALF, определяется в единицах 32×32. Когда значение slice_cross_component_alf_cb_log2_control_size_minus4 равно 2, то, применяется или нет CCALF, определяется в единицах 64×64. Когда значение slice_cross_component_alf_cb_log2_control_size_minus4 равно 3, то, применяется или нет CCALF, определяется в единицах 128×128. Помимо этого, синтаксис структуры, идентичной структуре, описанной выше, используется для Cr CCALF.[216] For example, when the value of slice_cross_component_alf_cb_log2_control_size_minus4 is 0, then whether or not CCALF is applied is determined in units of 16×16. When the value of slice_cross_component_alf_cb_log2_control_size_minus4 is 1, then whether or not CCALF is applied is determined in units of 32x32. When the value of slice_cross_component_alf_cb_log2_control_size_minus4 is 2, then whether CCALF is applied or not is determined in 64x64 units. When the value of slice_cross_component_alf_cb_log2_control_size_minus4 is 3, then whether or not CCALF is applied is determined in units of 128x128. In addition, a structure syntax identical to the structure described above is used for Cr CCALF.

[217] Следующая таблица показывает примерный синтаксис для ALF-данных.[217] The following table shows example syntax for ALF data.

[218] Табл. 5[218] Tab. 5

[219] Следующая таблица показывает примерную семантику для синтаксических элементов, включенных в вышеприведенную таблицу.[219] The following table shows approximate semantics for the syntactic elements included in the table above.

[220] Табл. 6[220] Tab. 6

alf_luma_filter_signal_flag, равный 1, указывает то, что набор фильтров сигналов яркости передается в служебных сигналах; alf_luma_filter_signal_flag, равный 0, указывает то, что набор фильтров сигналов яркости не передается в служебных сигналах. Когда alf_luma_filter_signal_flag не присутствует, он логически выводится равным 0.alf_luma_filter_signal_flag equal to 1 indicates that the luminance signal filter set is signaled; alf_luma_filter_signal_flag equal to 0 indicates that the luminance signal filter set is not signaled. When alf_luma_filter_signal_flag is not present, it is logically output to 0.

alf_chroma_filter_signal_flag, равный 1, указывает то, что фильтр сигналов цветности передается в служебных сигналах; alf_chroma_filter_signal_flag, равный 0, указывает то, что фильтр сигналов цветности не передается в служебных сигналах. Когда alf_chroma_filter_signal_flag не присутствует, он логически выводится равным 0.alf_chroma_filter_signal_flag equal to 1 indicates that a chroma filter is signaled; alf_chroma_filter_signal_flag equal to 0 indicates that the chroma filter is not signaled. When alf_chroma_filter_signal_flag is not present, it is logically output to 0.

alf_cross_component_cb_filter_signal_flag, равный 1, указывает то, что набор кросскомпонентных Cb-фильтров передается в служебных сигналах; alf_cross_component_cb_filter_signal_flag, равный 0, указывает то, что набор кросскомпонентных Cb-фильтров не передается в служебных сигналах. Когда alf_cross_component_cb_filter_signal_flag не присутствует, он логически выводится равным 0.alf_cross_component_cb_filter_signal_flag equal to 1 indicates that a set of cross-component Cb filters is transmitted in the service signals; alf_cross_component_cb_filter_signal_flag equal to 0 indicates that the cross-component Cb filter set is not signaled. When alf_cross_component_cb_filter_signal_flag is not present, it is logically output to 0.

alf_cross_component_cr_filter_signal_flag, равный 1, указывает то, что набор кросскомпонентных Cr-фильтров передается в служебных сигналах; alf_cross_component_cb_filter_signal_flag, равный 0, указывает то, что набор кросскомпонентных Cr-фильтров не передается в служебных сигналах. Когда alf_cross_component_cr_filter_signal_flag не присутствует, он логически выводится равным 0,alf_cross_component_cr_filter_signal_flag equal to 1 indicates that a set of cross-component Cr filters is transmitted in the service signals; alf_cross_component_cb_filter_signal_flag equal to 0 indicates that the cross-component Cr filter set is not signaled. When alf_cross_component_cr_filter_signal_flag is not present, it is logically output to 0.

alf_cross_component_cb_min_eg_order_minusl плюс 1 указывает минимальный порядок экспоненциального кода Голомба для передачи в служебных сигналах коэффициентов кросскомпонентного Cb-фильтра. Значение alf_cross_component_cb_min_eg_order_minus1 должно составлять в диапазоне 0-9, включительно.alf_cross_component_cb_min_eg_order_minusl plus 1 specifies the minimum exponential Golomb code order for signaling cross-component Cb filter coefficients. The value of alf_cross_component_cb_min_eg_order_minus1 must be in the range 0-9, inclusive.

alf_cross_component_cr_min_eg_order_minus1 плюс 1 указывает минимальный порядок экспоненциального кода Голомба для передачи в служебных сигналах коэффициентов кросскомпонентного Cr-фильтра. Значение alf_cross_component_cb_min_eg_order_minus1 должно составлять в диапазоне 0-9, включительно.alf_cross_component_cr_min_eg_order_minus1 plus 1 specifies the minimum exponential Golomb code order for signaling cross-component Cr filter coefficients. The value of alf_cross_component_cb_min_eg_order_minus1 must be in the range 0-9, inclusive.

alf_cross_component_cb_eg_order_increase_flag[i], равный 1, указывает то, что минимальный порядок экспоненциального кода Голомба для передачи в служебных сигналах коэффициентов кросскомпонентного Cb-фильтра постепенно увеличивается на 1; alf_cross_component_cb_eg_order_increase_flag[i], равный 0, указывает то, что минимальный порядок экспоненциального кода Голомба для передачи в служебных сигналах коэффициентов кросскомпонентного Cb-фильтра не увеличивается постепенно на 1.alf_cross_component_cb_eg_order_increase_flag[i] equal to 1 indicates that the minimum exponential Golomb code order for transmitting cross-component Cb filter coefficients in service signals is gradually increased by 1; alf_cross_component_cb_eg_order_increase_flag[i] equal to 0 indicates that the minimum exponential Golomb code order for signaling cross-component Cb filter coefficients is not incrementally increased by 1.

Порядок expGoOrderCb[i] экспоненциального кода Голомба, используемого для того, чтобы декодировать значения alf_cross_component_cb_coeff_abs[j], извлекается следующим образом:The expGoOrderCb[i] order of the exponential Golomb code used to decode the alf_cross_component_cb_coeff_abs[j] values is extracted as follows:

expGoOrdcrCb[i]=(i==0?alf_cross_component_cb_min_eg_order_minus1+1:expGoOrderCb[i-1])+alf_cross_component_cb_eg_order_increase_flag[i]expGoOrdcrCb[i]=(i==0?alf_cross_component_cb_min_eg_order_minus1+1:expGoOrderCb[i-1])+alf_cross_component_cb_eg_order_increase_flag[i]

alf_cross_component_cr_eg_order_increase_flag[i], равный 1, указывает то, что минимальный порядок экспоненциального кода Голомба для передачи в служебных сигналах коэффициентов кросскомпонентного Cr-фильтра постепенно увеличивается на 1; alf_cross_component_cr_eg_order_increase_flag[i], равный 0, указывает то, что минимальный порядок экспоненциального кода Голомба для передачи в служебных сигналах коэффициентов кросскомпонентного Cr-фильтра не увеличивается постепенно на 1.alf_cross_component_cr_eg_order_increase_flag[i] equal to 1 indicates that the minimum exponential Golomb code order for transmitting cross-component Cr filter coefficients in service signals is gradually increased by 1; alf_cross_component_cr_eg_order_increase_flag[i] equal to 0 indicates that the minimum exponential Golomb code order for signaling cross-component Cr filter coefficients is not incrementally increased by 1.

Порядок expGoOrderCr[i] экспоненциального кода Голомба, используемого для того, чтобы декодировать значения alf_cross_component_cb_coeff_abs[j], извлекается следующим образом:The expGoOrderCr[i] order of the exponential Golomb code used to decode the alf_cross_component_cb_coeff_abs[j] values is extracted as follows:

expGoOrderCr[i]=(i==0?alf_cross_component_cr_min_eg_order_minus1+1:expGoOrderCr [i-1])+alf_cross_component_cr_eg_order_increase_flag[i]expGoOrderCr[i]=(i==0?alf_cross_component_cr_min_eg_order_minus1+1:expGoOrderCr [i-1])+alf_cross_component_cr_eg_order_increase_flag[i]

alf_cross_component_cb_coeff_abs[j] указывает абсолютное значение j-ого коэффициента передаваемого в служебных сигналах кросскомпонентного Cb-фильтра. Когда alf_cross_component_cb_coeff_abs[j] не присутствует, он логически выводится равным 0.alf_cross_component_cb_coeff_abs[j] indicates the absolute value of the j-th coefficient transmitted in the service signals of the cross-component Cb filter. When alf_cross_component_cb_coeff_abs[j] is not present, it is logically output to 0.

Порядок k экспоненциального преобразования в двоичную форму Голомба uek(v) извлекается следующим образом:The order k of exponential conversion to binary Golomb form uek(v) is extracted as follows:

golombOrderIdxCb[]={0,2,2,2,1,2,2,2,2,2,2,1,2,1} [это может представлять собой классификацию коэффициента на 3 категории, каждая категория использует идентичный экспоненциальный код Голомба порядка k]golombOrderIdxCb[]={0,2,2,2,1,2,2,2,2,2,2,1,2,1} [this could represent a classification of the coefficient into 3 categories, each category using an identical exponential code Golomb order k]

k=expGoOrderCb[golombOrderIdxCb[j]]k=expGoOrderCb[golombOrderIdxCb[j]]

[221] alf_cross_component_cr_coeff_abs[j] указывает абсолютное значение j-ого коэффициента передаваемого в служебных сигналах кросскомпонентного Cr-фильтра. Когда alf_cross_component_cr_coeff_abs[j] не присутствует, он логически выводится равным 0.[221] alf_cross_component_cr_coeff_abs[j] indicates the absolute value of the j-th coefficient transmitted in the service signals of the cross-component Cr filter. When alf_cross_component_cr_coeff_abs[j] is not present, it is logically output to 0.

Порядок k экспоненциального преобразования в двоичную форму Голомба uck(v) извлекается следующим образом:The order k of the exponential conversion to binary Golomb form uck(v) is extracted as follows:

golombOrderIdxCr []={0,1,2,1,0,1,2,2,2,2,2,1,2,1} [это может представлять собой классификацию коэффициента на 3 категории, каждая категория использует идентичный экспоненциальный код Голомба порядка k]golombOrderIdxCr []={0,1,2,1,0,1,2,2,2,2,2,1,2,1} [this could represent a classification of the coefficient into 3 categories, each category using an identical exponential code Golomb order k]

k=expGoOrderCr [golombOrderIdxCr[j]]k=expGoOrderCr [golombOrderIdxCr[j]]

alf_cross_component_cb_coeff_sign[j] указывает знак j-ого коэффициента кросскомпонентного Cb-фильтра следующим образом:alf_cross_component_cb_coeff_sign[j] specifies the sign of the j-th cross-component Cb filter coefficient as follows:

Если alf_cross_component_cb_coeff_sign[j] равен 0, соответствующий коэффициент кросскомпонентного Cb-фильтра имеет положительное значение.If alf_cross_component_cb_coeff_sign[j] is 0, the corresponding cross-component Cb filter coefficient has a positive value.

Иначе (alf_cross_component_cb_coeff_sign[j] равен 1), соответствующий коэффициент кросскомпонентного Cb-фильтра имеет отрицательное значение.Otherwise (alf_cross_component_cb_coeff_sign[j] is equal to 1), the corresponding cross-component Cb filter coefficient has a negative value.

Когда alf_cross_component_cb_coeff_sign[j] не присутствует, он логически выводится равным 0.When alf_cross_component_cb_coeff_sign[j] is not present, it is logically output to 0.

Коэффициенты AlfCCCoeffcb[adaptation_parameter_set_id] кросскомпонентного Cb-фильтра с элементами AlfCCCoeffcb[adaptation_parameter_set_id][j], причем j=0...13, извлекаются следующим образом:The coefficients AlfCCCoeffcb[adaptation_parameter_set_id] of the cross-component Cb filter with elements AlfCCCoeffcb[adaptation_parameter_set_id][j], with j=0...13, are extracted as follows:

AlfCCCoeffcb[adaptation_parameter_set_id][j]=alf_cross_component_cb_coeff_abs[j]*(l-2*alf_cross_component_cb_coeff_sign[j])AlfCCCoeffcb[adaptation_parameter_set_id][j]=alf_cross_component_cb_coeff_abs[j]*(l-2*alf_cross_component_cb_coeff_sign[j])

Требование соответствия потока битов заключается в том, что значения AlfCCCoeffcb[adaptation_parameter_set_id][j], причем j=0...13, должны составлять в диапазоне от -210-1 до 210-1, включительно.The bitstream compliance requirement is that the values of AlfCCCoeffcb[adaptation_parameter_set_id][j], with j=0...13, must be in the range -2 10 -1 to 2 10 -1, inclusive.

alf_cross_component_cr_coeff_sign[j] указывает знак j-ого коэффициента кросскомпонентного Cr-фильтра следующим образом:alf_cross_component_cr_coeff_sign[j] indicates the sign of the j-th cross-component Cr filter coefficient as follows:

Если alf_cross_component_cr_coeff_sign[j] равен 0, соответствующий коэффициент кросскомпонентного Cr-фильтра имеет положительное значение.If alf_cross_component_cr_coeff_sign[j] is 0, the corresponding cross component Cr filter coefficient has a positive value.

Иначе (alf_cross_componcnt_cr_coeff_sign[j] равен 1), соответствующий коэффициент кросскомпонентного Cr-фильтра имеет отрицательное значение.Otherwise (alf_cross_componcnt_cr_coeff_sign[j] is equal to 1), the corresponding cross-component Cr filter coefficient has a negative value.

Когда alf_cross_component_cr_coeff_sign[j] не присутствует, он логически выводится равным 0.When alf_cross_component_cr_coeff_sign[j] is not present, it is logically output to 0.

Коэффициенты AlfCCCoeffcr[adaptation_parameter_set_id] кросскомпонентного Cr-фильтра с элементами AlfCCCoeffcr[adaptation_parameter_set_id][j], причем j=0...13, извлекаются следующим образом:The coefficients AlfCCCoeffcr[adaptation_parameter_set_id] of the cross-component Cr filter with elements AlfCCCoeffcr[adaptation_parameter_set_id][j], with j=0...13, are extracted as follows:

AlfCCCoeffcr[adaptation_parameter_set_id][j]=alf_cross_component_cr_coeff_abs[j]*(l-2*alf_cross_component_cr_coeff_sign[j])AlfCCCoeffcr[adaptation_parameter_set_id][j]=alf_cross_component_cr_coeff_abs[j]*(l-2*alf_cross_component_cr_coeff_sign[j])

Требование соответствия потока битов заключается в том, что значения AlfCCCoeffcr[adaptation_parameter_set_id][j], причем j=0...13, должны составлять в диапазоне от -210-1 до 210-1, включительно.The bitstream compliance requirement is that the values of AlfCCCoeffcr[adaptation_parameter_set_id][j], with j=0...13, must be in the range -2 10 -1 to 2 10 -1, inclusive.

TemporalId является временным идентификатором текущей NAL-единицы.TemporalId is the temporary identifier of the current NAL unit.

[222] Ссылаясь на вышеприведенные две таблицы, синтаксические CCALF-элементы не придерживаются существующей (общей) синтаксической ALF-структуры, а передаются независимо и выполнены с возможностью независимо применяться. Таким образом, CCALF может применяться, даже когда инструментальное ALF-средство в SPS выключено. Новое аппаратное проектное решение по конвейеру требуется, поскольку CCALF должна иметь возможность работать независимо от существующей ALF-структуры. Это приводит к увеличению затрат на аппаратную реализацию и к увеличению аппаратной задержки.[222] Referring to the above two tables, the CCALF syntax elements do not adhere to the existing (common) ALF syntax structure, but are transmitted independently and are designed to be independently applicable. Thus, CCALF can be applied even when the ALF tool in SPS is disabled. A new hardware pipeline design is required because CCALF must be able to operate independently of the existing ALF structure. This results in increased hardware implementation costs and increased hardware latency.

[223] Помимо этого, в ALF, то, применяются или нет изображения на основе сигналов яркости и сигналов цветности, определяется в единицах CTU, и результат определения передается в декодер посредством передачи служебных сигналов. Тем не менее, то, переменная или нет CCALF применяется, определяется в единицах 16×16-128×128, и это применение может вызывать коллизию между существующей ALF-структурой и CCALF. Это вызывает проблемы в аппаратной реализации и в то же время вызывает увеличение линейных буферов для различных переменных CCALF-вариантов применения.[223] In addition, in ALF, whether or not images based on luma signals and chrominance signals are applied is determined in units of CTU, and the determination result is transmitted to the decoder through signaling. However, whether or not a CCALF variable is applied is determined in units of 16x16-128x128, and this application may cause a collision between the existing ALF structure and the CCALF. This causes problems in the hardware implementation and at the same time causes the linear buffers to increase for various CCALF variable applications.

[224] В настоящем раскрытии сущности, вышеуказанные проблемы в аппаратной реализации CCALF разрешаются посредством интегрального применения синтаксической CCALF-структуры к синтаксической ALF-структуре.[224] In the present disclosure, the above problems in a hardware implementation of CCALF are resolved by integrally applying a CCALF syntax structure to an ALF syntax structure.

[225] Согласно варианту осуществления настоящего раскрытия сущности, чтобы определять то, используется (применяется) или нет CCALF, набор параметров последовательности (SPS) может включать в себя флаг CCALF-активации (sps_ccalf_enable_flag). Флаг CCALF-активации может передаваться независимо от флага ALF-активации (sps_alf_enabled_flag) для определения того, используется (применяется) или нет ALF.[225] According to an embodiment of the present disclosure, in order to determine whether CCALF is used or not, the sequence parameter set (SPS) may include a CCALF enable flag (sps_ccalf_enable_flag). The CCALF enable flag may be sent independently of the ALF enable flag (sps_alf_enabled_flag) to determine whether ALF is used (enabled) or not.

[226] Следующая таблица показывает часть примерного синтаксиса SPS согласно настоящему варианту осуществления.[226] The following table shows part of the exemplary SPS syntax according to the present embodiment.

[227] Табл. 7[227] Tab. 7

[228] Ссылаясь на вышеприведенную таблицу, CCALF может применяться только тогда, когда ALF всегда работает. Таким образом, только когда флаг ALF-активации (sps_alf_enabled_flag) равен 1, флаг CCALF-активации (sps_ccalf_enabled_flag) может синтаксически анализироваться. CCALF и ALF могут комбинироваться согласно вышеприведенной таблице. Флаг CCALF-активации может указывать (и может быть связан) то/с тем, доступна или нет CCALF.[228] Referring to the table above, CCALF can only be used when ALF is always running. Thus, only when the ALF enable flag (sps_alf_enabled_flag) is 1 can the CCALF enable flag (sps_ccalf_enabled_flag) be parsed. CCALF and ALF can be combined according to the table above. The CCALF enable flag may indicate (and may be associated with) whether or not CCALF is available.

[229] Следующая таблица показывает часть примерного синтаксиса для заголовков срезов.[229] The following table shows some of the example syntax for slice headers.

[230] Табл. 8[230] Tab. 8

[231] Ссылаясь на вышеприведенную таблицу, синтаксический анализ sps_ccalf_enabled_flag может выполняться только тогда, когда sps_alf_enabled_flag равен 1. Синтаксические элементы, включенные в таблицу, могут описываться на основе таблицы 4. В примере, информация изображений, кодированная посредством устройства кодирования или полученная (принимаемая) посредством устройства декодирования, может включать в себя информацию заголовка среза (slice_header()). На основе определения того, что значение флага CCALF-активации (sps_ccalf_flag) равно 1, информация заголовка среза включает в себя первый флаг (slice_cross_component_alf_cb_enabeld_flag), связанный с тем, доступна или нет CCALF для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности, и второй флаг (slice_cross_component_alf_cr_enabeld_flag), связанный с тем, доступна или нет CCALF для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности.[231] Referring to the above table, parsing sps_ccalf_enabled_flag can be performed only when sps_alf_enabled_flag is 1. Syntax elements included in the table can be described based on Table 4. In an example, image information encoded by an encoder or received (received) via the decoding device, may include slice header information (slice_header()). Based on the determination that the value of the CCALF enable flag (sps_ccalf_flag) is 1, the slice header information includes a first flag (slice_cross_component_alf_cb_enabeld_flag) associated with whether or not CCALF is available for the Cb color component of the filtered reconstructed chroma samples, and a second flag (slice_cross_component_alf_cr_enabeld_flag) associated with whether or not CCALF is available for the Cr color component of the filtered reconstructed chroma samples.

[232] В примере, на основе определения того, что значение первого флага (slice_cross_component_alf_cb_enabeld_flag) равно 1, информация заголовка среза может включать в себя идентификационную информацию (slice_cross_component_alf_cb_aps_id) первого APS для извлечения коэффициентов кросскомпонентного фильтра для цветового Cb-компонента. На основе определения того, что значение второго флага (slice_cross_component_alf_cr_enabeld_flag) равно 1, информация заголовка среза может включать в себя идентификационную информацию (slice_cross_component_alf_cr_aps_id) второго APS для извлечения коэффициентов кросскомпонентного фильтра для цветового Cr-компонента.[232] In an example, based on determining that the value of the first flag (slice_cross_component_alf_cb_enabeld_flag) is 1, the slice header information may include identification information (slice_cross_component_alf_cb_aps_id) of the first APS for extracting cross-component filter coefficients for the Cb color component. Based on the determination that the value of the second flag (slice_cross_component_alf_cr_enabeld_flag) is 1, the slice header information may include identification information (slice_cross_component_alf_cr_aps_id) of the second APS for extracting cross-component filter coefficients for the Cr color component.

[233] Следующая таблица показывает часть SPS-синтаксиса согласно другому примеру настоящего варианта осуществления.[233] The following table shows part of the SPS syntax according to another example of the present embodiment.

[234] Табл. 9[234] Tab. 9

[235] Следующая таблица примерно показывает часть синтаксиса заголовков срезов.[235] The following table roughly shows some of the slice header syntax.

[236] Табл. 10[236] Tab. 10

[237] Ссылаясь на таблицу 9, когда ChromaArrayType не равен 0, и флаг ALF-активации (sps_alf_enabled_flag) равен 1, SPS может включать в себя флаг CCALF-активации (sps_ccalf_enabled_flag). Например, если ChromaArrayType не равен 0, формат сигналов цветности может не быть монохромным, и флаг CCALF-активации может передаваться через SPS на основе случая, в котором формат сигналов цветности не является монохромным.[237] Referring to Table 9, when ChromaArrayType is not equal to 0 and the ALF enable flag (sps_alf_enabled_flag) is equal to 1, the SPS may include a CCALF enable flag (sps_ccalf_enabled_flag). For example, if ChromaArrayType is not 0, the format of the chroma signals may not be monochrome, and the CCALF enable flag may be transmitted through the SPS based on the case in which the format of the chroma signals is not monochrome.

[238] Ссылаясь на таблицу 9, на основе случая, в котором ChromaArrayType не равен 0, информация относительно CCALF (slice_cross_component_alf_cb_enabled_flag, slice_cross_component_alf_cb_aps_id, slice_cross_component_alf_cr_enabled_flag, slice_cross_component_alf_cr) может включаться в информацию заголовка среза.[238] Referring to Table 9, based on the case in which ChromaArrayType is not 0, information regarding CCALF (slice_cross_component_alf_cb_enabled_flag, slice_cross_component_alf_cb_aps_id, slice_cross_component_alf_cr_enabled_flag, slice_cross_component_alf_cr) may be included in the slice header information.

[239] В примере, информация изображений, кодированная посредством устройства кодирования или полученная посредством устройства декодирования, может включать в себя SPS. SPS может включать в себя первый флаг ALF-активации (sps_alf_enabled_flag), связанный с тем, доступна или нет ALF. Например, на основе определения того, что значение первого флага ALF-активации равно 1, SPS может включать в себя флаг CCALF-активации, связанный с тем, доступна или нет кросскомпонентная фильтрация. В другом примере, если sps_ccalf_enabled_flag не используется, и sps_alf_enabled_flag равен 1, CCALF может всегда применяться (sps_ccalf_enabled_flag==1).[239] In an example, image information encoded by an encoding apparatus or obtained by a decoding apparatus may include an SPS. The SPS may include a first ALF enable flag (sps_alf_enabled_flag) associated with whether ALF is enabled or not. For example, based on determining that the value of the first ALF enable flag is 1, the SPS may include a CCALF enable flag associated with whether cross-component filtering is available or not. In another example, if sps_ccalf_enabled_flag is not used and sps_alf_enabled_flag is 1, CCALF can always be applied (sps_ccalf_enabled_flag==1).

[240] Следующая таблица показывает часть синтаксиса заголовков срезов согласно другому примеру этого варианта осуществления.[240] The following table shows part of the slice header syntax according to another example of this embodiment.

[241] Табл. 11[241] Tab. eleven

[242] Ссылаясь на вышеприведенную таблицу, синтаксический анализ флага CCALF-активации (sps_ccalf_enabled_flag) может выполняться только тогда, когда флаг ALF-активации (sps_alf_enabled_flag) равен 1.[242] Referring to the table above, parsing of the CCALF enable flag (sps_ccalf_enabled_flag) can only be performed when the ALF enable flag (sps_alf_enabled_flag) is 1.

[243] Следующая таблица показывает примерную семантику для синтаксических элементов, включенных в вышеприведенную таблицу.[243] The following table shows approximate semantics for the syntactic elements included in the table above.

[244] Табл. 12[244] Tab. 12

slice_ccalf_enabled_flag, равный 1, указывает то, что кросскомпонентный адаптивный контурный фильтр активируется и может применяться к цветовому Cb- или Cr-компоненту в срезе; slice_ccalf_enabled_flag, равный 0, указывает то, что кросскомпонентный адаптивный контурный фильтр деактивируется для всех цветовых компонентов в срезе.slice_ccalf_enabled_flag equal to 1 indicates that the cross-component adaptive contour filter is enabled and can be applied to the Cb or Cr color component in the slice; slice_ccalf_enabled_flag equal to 0 indicates that the cross-component adaptive edge filter is disabled for all color components in the slice.

slice_ccalf_chroma_idc, равный 0, указывает то, что кросскомпонентный адаптивный контурный фильтр не применяется к цветовым Cb- и Cr-компонентам; slice_ccalf_chroma_idc, равный 1, указывает то, что кросскомпонентный адаптивный контурный фильтр применяется к цветовому Cb-компоненту; slice_ccalf_chroma_idc, равный 2, указывает то, что кросскомпонентный адаптивный контурный фильтр применяется к цветовому Cr-компоненту; slice_ccalf_chroma_idc, равный 3, указывает то, что кросскомпонентный адаптивный контурный фильтр применяется к цветовым Cb- и Cr-компонентам. Когда slice_ccalf_chroma_idc не присутствует, он логически выводится равным 0.slice_ccalf_chroma_idc equal to 0 indicates that the cross-component adaptive contour filter is not applied to the Cb and Cr chroma components; slice_ccalf_chroma_idc equal to 1 indicates that a cross-component adaptive edge filter is applied to the Cb chroma component; slice_ccalf_chroma_idc equal to 2 indicates that a cross-component adaptive edge filter is applied to the Cr color component; slice_ccalf_chroma_idc equal to 3 indicates that a cross-component adaptive contour filter is applied to the Cb and Cr chroma components. When slice_ccalf_chroma_idc is not present, it is inferred to be 0.

slice_ccalf_aps_id_chroma указывает adaptation_parameter_set_id CCALF APS, на который ссылается компонент сигналов цветности среза. TemporalId NAL-единицы APS, имеющей aps_params_type, равный CC_ALF_APS, и adaptation_parameter_set_id, равный slice_ccalf_aps_id_chroma, должен быть меньше или равным TemporalId кодированной NAL-единицы среза.slice_ccalf_aps_id_chroma indicates the adaptation_parameter_set_id CCALF APS referenced by the slice chroma signal component. The TemporalId of an APS NAL unit having an aps_params_type equal to CC_ALF_APS and an adaptation_parameter_set_id equal to slice_ccalf_aps_id_chroma shall be less than or equal to the TemporalId of the encoded slice NAL unit.

Для внутренних срезов и срезов в IRAP-кадре, slice_ccalf_aps_id_chroma не должен ссылаться на CCALF APS, ассоциированный с другими кадрами, а не с кадром, содержащим внутренние срезы, или с IRAP-кадром.For internal slices and slices in an IRAP frame, slice_ccalf_aps_id_chroma shall not refer to a CCALF APS associated with frames other than the frame containing the internal slices or the IRAP frame.

[245] slice_ccalf_chroma_idc вышеприведенной таблицы может описываться посредством семантики нижеприведенной таблицы.[245] slice_ccalf_chroma_idc of the table above can be described by the semantics of the table below.

[246] Табл. 13[246] Tab. 13

slice_ccalf_chroma_idc, равный 0, указывает то, что кросскомпонентный адаптивный контурный фильтр применяется к цветовому Cb-компоненту; slice_ccalf_chroma_idc, равный 1, указывает то, что кросскомпонентный адаптивный контурный фильтр применяется к цветовому Cr-компоненту; slice_ccalf_chroma_idc, равный 2, указывает то, что кросскомпонентный адаптивный контурный фильтр применяется к цветовым Cb- и Cr-компонентам. Когда slice_ccalf_chroma_idc не присутствует, он логически выводится равным 0.slice_ccalf_chroma_idc equal to 0 indicates that a cross-component adaptive edge filter is applied to the Cb chroma component; slice_ccalf_chroma_idc equal to 1 indicates that a cross-component adaptive edge filter is applied to the Cr color component; slice_ccalf_chroma_idc equal to 2 indicates that a cross-component adaptive edge filter is applied to the Cb and Cr chroma components. When slice_ccalf_chroma_idc is not present, it is inferred to be 0.

[247] Следующая таблица показывает часть синтаксиса заголовков срезов согласно другому примеру этого варианта осуществления.[247] The following table shows part of the slice header syntax according to another example of this embodiment.

[248] Табл. 14[248] Tab. 14

[249] Синтаксические элементы, включенные в таблицу, могут описываться согласно таблице 12 или таблице 13. Помимо этого, когда формат сигналов цветности не является монохромным, связанная с CCALF информация может включаться в заголовок среза.[249] The syntax elements included in the table may be described according to Table 12 or Table 13. In addition, when the chrominance signal format is not monochrome, CCALF-related information may be included in the slice header.

[250] Следующая таблица показывает часть синтаксиса заголовков срезов согласно другому примеру этого варианта осуществления.[250] The following table shows part of the slice header syntax according to another example of this embodiment.

[251] Табл. 15[251] Tab. 15

[252] Следующая таблица показывает примерную семантику для синтаксических элементов, включенных в вышеприведенную таблицу.[252] The following table shows approximate semantics for the syntactic elements included in the table above.

[253] Табл. 16[253] Tab. 16

slice_ccalf_chroma_idc, равный 0, указывает то, что кросскомпонентный адаптивный контурный фильтр не применяется к цветовым Cb- и Cr-компонентам; slice_ccalf_chroma_idc, равный 1, указывает то, что кросскомпонентный адаптивный контурный фильтр применяется к цветовому Cb-компоненту; slice_ccalf_chroma_idc, равный 2, указывает то, что кросскомпонентный адаптивный контурный фильтр применяется к цветовому Cr-компоненту; slice_ccalf_chroma_idc, равный 3, указывает то, что кросскомпонентный адаптивный контурный фильтр применяется к цветовым Cb- и Cr-компонентам. Когда slice_ccalf_chroma_idc не присутствует, он логически выводится равным 0.slice_ccalf_chroma_idc equal to 0 indicates that the cross-component adaptive contour filter is not applied to the Cb and Cr chroma components; slice_ccalf_chroma_idc equal to 1 indicates that a cross-component adaptive edge filter is applied to the Cb chroma component; slice_ccalf_chroma_idc equal to 2 indicates that a cross-component adaptive edge filter is applied to the Cr color component; slice_ccalf_chroma_idc equal to 3 indicates that a cross-component adaptive contour filter is applied to the Cb and Cr chroma components. When slice_ccalf_chroma_idc is not present, it is inferred to be 0.

slice_ccalf_aps_id_chroma указывает adaptation_paramctcr_sct_id CCALF APS, на который ссылается компонент сигналов цветности среза. TemporalId NAL-единицы APS, имеющей aps_params_type, равный CC_ALF_APS, и adaptation_parameter_set_id, равный slice_ccalf_aps_id_chroma, должен быть меньше или равным TemporalId кодированной NAL-единицы среза.slice_ccalf_aps_id_chroma indicates the adaptation_paramctcr_sct_id CCALF APS referenced by the slice chroma signal component. The TemporalId of an APS NAL unit having an aps_params_type equal to CC_ALF_APS and an adaptation_parameter_set_id equal to slice_ccalf_aps_id_chroma shall be less than or equal to the TemporalId of the encoded slice NAL unit.

Для внутренних срезов и срезов в IRAP-кадре, slice_ccalf_aps_id_chroma не должен ссылаться на CCALF APS, ассоциированный с другими кадрами, а не с кадром, содержащим внутренние срезы, или с IRAP-кадром.For internal slices and slices in an IRAP frame, slice_ccalf_aps_id_chroma shall not refer to a CCALF APS associated with frames other than the frame containing the internal slices or the IRAP frame.

[254] Следующая таблица показывает часть синтаксиса заголовков срезов согласно другому примеру этого варианта осуществления. Синтаксические элементы, включенные в следующую таблицу, могут описываться согласно таблице 12 или таблице 13.[254] The following table shows part of the slice header syntax according to another example of this embodiment. The syntax elements included in the following table may be described according to Table 12 or Table 13.

[255] Табл. 17[255] Tab. 17

[256] Ссылаясь на вышеприведенную таблицу, то, применяются или нет ALF и CCALF на основе единиц срезов, может определяться сразу через slice_alf_enabled_flag. После синтаксического анализа slice_alf_chroma_idc, когда первый флаг ALF-активации (sps_alf_enabled_flag) равен 1, может синтаксически анализироваться slice_ccalf_chroma_idc.[256] Referring to the above table, whether or not ALF and CCALF are applied based on slice units can be determined directly via slice_alf_enabled_flag. After slice_alf_chroma_idc is parsed, when the first ALF enable flag (sps_alf_enabled_flag) is 1, slice_ccalf_chroma_idc can be parsed.

[257] Ссылаясь на вышеприведенную таблицу, то, равен или нет sps_ccalf_enabeld_flag 1 в информации заголовка среза, может определяться только тогда, когда slice_alf_enabled_flag равен 1. Информация заголовка среза может включать в себя второй флаг ALF-активации (slice_alf_enabled_flag), связанный с тем, доступна или нет ALF. На основе определения того, что значение второго флага ALF-активации (slice_alf_enabled_flag) равно 1, CCALF может быть доступной для среза.[257] Referring to the above table, whether sps_ccalf_enabeld_flag is equal to 1 in the slice header information can only be determined when slice_alf_enabled_flag is equal to 1. The slice header information may include a second ALF enable flag (slice_alf_enabled_flag) associated with ALF is available or not. Based on the determination that the value of the second ALF enable flag (slice_alf_enabled_flag) is 1, CCALF can be sliced enabled.

[258] Следующая таблица примерно показывает часть APS-синтаксиса. Синтаксический элемент adaptation_parameter_set_id может указывать информацию идентификатора (идентификационную информацию) APS.[258] The following table roughly shows some of the APS syntax. The adaptation_parameter_set_id syntax element may indicate APS identifier information.

[259] Табл. 18[259] Tab. 18

[260] Следующая таблица показывает примерный синтаксис для ALF-данных.[260] The following table shows example syntax for ALF data.

[261] Табл. 19[261] Tab. 19

[262] Ссылаясь на вышеприведенные две таблицы, APS может включать в себя ALF-данные (alf_data). APS, включающий в себя ALF-данные, может называться "ALF APS" ("APS ALF-типа"). Таким образом, тип APS, включающий в себя ALF-данные, может представлять собой ALF-тип. Тип APS может определяться в качестве информации относительно APS-типа или синтаксического элемента (aps_params_type). ALF-данные могут включать в себя флаг передачи в служебных сигналах Cb-фильтров (alf_cross_component_cb_filter_signal_flag или alf_cc_cb_filter_signal_flag), связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cb-компонента. ALF-данные могут включать в себя флаг передачи в служебных сигналах Cr-фильтров (alf_cross_component_cr_filter_signal_flag или alf_cc_cr_filter_signal_flag), связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cr-компонента.[262] Referring to the above two tables, the APS may include ALF data (alf_data). An APS including ALF data may be referred to as "ALF APS" ("ALF-type APS"). Thus, an APS type including ALF data may be an ALF type. The APS type may be specified as information regarding an APS type or a syntax element (aps_params_type). The ALF data may include a Cb filter signal transmission flag (alf_cross_component_cb_filter_signal_flag or alf_cc_cb_filter_signal_flag) associated with whether or not cross component filters for the Cb color component are signaled. The ALF data may include a Cr filter signaling flag (alf_cross_component_cr_filter_signal_flag or alf_cc_cr_filter_signal_flag) associated with whether or not cross component filters for the Cr color component are signaled.

[263] В примере, на основе флага передачи в служебных сигналах Cr-фильтров, ALF-данные могут включать в себя информацию (alf_cross_component_cr_coeff_abs) относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информацию относительно знаков (alf_cross_component_cr_coeff_sign) относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента. На основе информации относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента, могут извлекаться коэффициенты кросскомпонентного фильтра для цветового Cr-компонента.[263] In an example, based on the transmit flag in the Cr filter overhead signals, the ALF data may include information (alf_cross_component_cr_coeff_abs) regarding the absolute values of the cross component filter coefficients for the Cr color component and sign information (alf_cross_component_cr_coeff_sign) regarding the signs of the cross component coefficients filter for the Cr color component. Based on information regarding the absolute values of the cross-component filter coefficients for the Cr color component and information regarding the signs of the cross-component filter coefficients for the Cr color component, the cross-component filter coefficients for the Cr color component can be extracted.

[264] В примере, ALF-данные могут включать в себя информацию (alf_cross_component_cb_coeff_abs) относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информацию (alf_cross_component_cb_coeff_sign) относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента. На основе информации относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента, могут извлекаться коэффициенты кросскомпонентного фильтра для цветового Cb-компонента.[264] In an example, the ALF data may include information (alf_cross_component_cb_coeff_abs) regarding the absolute values of the cross-component filter coefficients for the Cb color component and information (alf_cross_component_cb_coeff_sign) regarding the signs of the cross-component filter coefficients for the Cb color component. Based on information regarding the absolute values of the cross-component filter coefficients for the Cb color component and information regarding the signs of the cross-component filter coefficients for the Cb color component, the cross-component filter coefficients for the Cb color component can be extracted.

[265] Следующая таблица показывает синтаксис, связанный с ALF-данными согласно другому примеру.[265] The following table shows the syntax associated with ALF data according to another example.

[266] Табл. 20[266] Tab. 20

[267] Ссылаясь на вышеприведенную таблицу, после передачи сначала alf_cross_component_filter_signal_flag, когда alf_cross_component_filter_signal_flag равен 1, флаг передачи в служебных сигналах Cb/Cr-фильтров может передаваться. Таким образом, alf_cross_component_filter_signal_flag интегрирует Cb/Cr, чтобы определять то, следует или нет передавать коэффициенты CCALF-фильтра.[267] Referring to the above table, after transmitting the alf_cross_component_filter_signal_flag first, when the alf_cross_component_filter_signal_flag is 1, the transmission flag in the Cb/Cr filter overhead signals can be transmitted. Thus, alf_cross_component_filter_signal_flag integrates Cb/Cr to determine whether or not the CCALF filter coefficients should be transmitted.

[268] Следующая таблица показывает синтаксис, связанный с ALF-данными согласно другому примеру.[268] The following table shows the syntax associated with ALF data according to another example.

[269] Табл. 21[269] Tab. 21

[270] Следующая таблица показывает примерную семантику для синтаксических элементов, включенных в вышеприведенную таблицу.[270] The following table shows approximate semantics for the syntactic elements included in the table above.

[271] Табл. 22[271] Tab. 22

alf_cross_component_cb_filter_signal_flag, равный 1, указывает то, что набор кросскомпонентных Cb-фильтров передается в служебных сигналах; alf_cross_component_cb_filter_signal_flag, равный 0, указывает то, что набор кросскомпонентных Cb-фильтров не передается в служебных сигналах. Когда alf_cross_component_cb_filter_signal_flag не присутствует, он логически выводится равным 0.alf_cross_component_cb_filter_signal_flag equal to 1 indicates that a set of cross-component Cb filters is transmitted in the service signals; alf_cross_component_cb_filter_signal_flag equal to 0 indicates that the cross-component Cb filter set is not signaled. When alf_cross_component_cb_filter_signal_flag is not present, it is logically output to 0.

alf_cross_component_cr_filter_signal_flag, равный 1, указывает то, что набор кросскомпонентных Cr-фильтров передается в служебных сигналах; alf_cross_component_cr_filler_signal_nag, равный 0, указывает то, что набор кросскомпонентных Cr-фильтров не передается в служебных сигналах. Когда alf_cross_component_cr_filter_signal_flag не присутствует, он логически выводится равным 0.alf_cross_component_cr_filter_signal_flag equal to 1 indicates that a set of cross-component Cr filters is transmitted in the service signals; alf_cross_component_cr_filler_signal_nag equal to 0 indicates that the set of cross-component Cr filters is not transmitted in service signals. When alf_cross_component_cr_filter_signal_flag is not present, it is logically output to 0.

alf_cross_component_cb_coeff_abs[j] указывает абсолютное значение j-ого коэффициента передаваемого в служебных сигналах кросскомпонентного Cb-фильтра. Когда alf_cross_component_cb_coeff_abs[j] не присутствует, он логически выводится равным 0.alf_cross_component_cb_coeff_abs[j] indicates the absolute value of the j-th coefficient transmitted in the service signals of the cross-component Cb filter. When alf_cross_component_cb_coeff_abs[j] is not present, it is logically output to 0.

Порядок k экспоненциального преобразования uek(v) в двоичную форму Голомба задается равным 3.The order k of the exponential transformation uek(v) into binary Golomb form is set to 3.

alf_cross_component_cb_coeff_sign[j] указывает знак j-ого коэффициента кросскомпонентного Cb-фильтра следующим образом:alf_cross_component_cb_coeff_sign[j] specifies the sign of the j-th cross-component Cb filter coefficient as follows:

Если alf_cross_componcnt_cb_cocff_sign[j] равен 0, соответствующий коэффициент кросскомпонентного Cb-фильтра имеет положительное значение.If alf_cross_componcnt_cb_cocff_sign[j] is 0, the corresponding cross-component Cb filter coefficient has a positive value.

Иначе (alf_cross_component_cb_coeff_sign[j] равен 1), соответствующий коэффициент кросскомпонентного Cb-фильтра имеет отрицательное значение.Otherwise (alf_cross_component_cb_coeff_sign[j] is equal to 1), the corresponding cross-component Cb filter coefficient has a negative value.

Когда alf_cross_component_cb_coeff_sign[j] не присутствует, он логически выводится равным 0.When alf_cross_component_cb_coeff_sign[j] is not present, it is logically output to 0.

Коэффициенты AlfCCCoeffCb[adaptation_paramctcr_set_id] кросскомпонентного Cb-фильтра с элементами AlfCCCoeffCb[adaptation_parameter_set_id][j], причем j=0...13, извлекаются следующим образом:The coefficients AlfCCCoeffCb[adaptation_paramctcr_set_id] of the cross-component Cb filter with elements AlfCCCoeffCb[adaptation_parameter_set_id][j], with j=0...13, are extracted as follows:

AlfCCCoeffCb[adaplation_parameter_set_id][j]=alf_cross_component_cb_coeff_abs[j]*(l-2*alf_cross_component_cb_coeff_sign[j])AlfCCCoeffCb[adaplation_parameter_set_id][j]=alf_cross_component_cb_coeff_abs[j]*(l-2*alf_cross_component_cb_coeff_sign[j])

Требование соответствия потока битов заключается в том, что значения AlfCCCoeffCb[adaptation_parameter_set_id][j], причем j=0...13, должны составлять в диапазоне от -210-1 до 210-1, включительно.The bitstream compliance requirement is that the values of AlfCCCoeffCb[adaptation_parameter_set_id][j], with j=0...13, must be in the range -2 10 -1 to 2 10 -1, inclusive.

alf_cross_component_cr_coeff_abs[j] указывает абсолютное значение j-ого коэффициента передаваемого в служебных сигналах кросскомпонентного Cr-фильтра. Когда alf_cross_component_cr_coeff_abs[j] не присутствует, он логически выводится равным 0.alf_cross_component_cr_coeff_abs[j] indicates the absolute value of the j-th coefficient transmitted in the service signals of the cross-component Cr filter. When alf_cross_component_cr_coeff_abs[j] is not present, it is logically output to 0.

Порядок k экспоненциального преобразования uek(v) в двоичную форму Голомба задается равным 3.The order k of the exponential transformation uek(v) into binary Golomb form is set to 3.

[272] alf_cross_component_cr_coeff_sign[j] указывает знак j-ого коэффициента кросскомпонентного Cr-фильтра следующим образом:[272] alf_cross_component_cr_coeff_sign[j] specifies the sign of the j-th cross-component Cr filter coefficient as follows:

Если alf_cross_component_cr_coeff_sign[j] равен 0, соответствующий коэффициент кросскомпонентного Cr-фильтра имеет положительное значение.If alf_cross_component_cr_coeff_sign[j] is 0, the corresponding cross component Cr filter coefficient has a positive value.

Иначе (alf_cross_component_cr_coeff_sign[j] равен 1), соответствующий коэффициент кросскомпонентного Cr-фильтра имеет отрицательное значение.Otherwise (alf_cross_component_cr_coeff_sign[j] is equal to 1), the corresponding coefficient of the cross-component Cr filter has a negative value.

Когда alf_cross_component_cr_coeff_sign[j] не присутствует, он логически выводится равным 0.When alf_cross_component_cr_coeff_sign[j] is not present, it is logically output to 0.

Коэффициенты AlfCCCoeffCr[adaplalion_parameter_set_id] кросскомпонентного Cr-фильтра с элементами AlfCCCoeffcr[adaptation_parameter_set_id][j], причем j=0...13, извлекаются следующим образом:The coefficients AlfCCCoeffCr[adaplalion_parameter_set_id] of the cross-component Cr filter with elements AlfCCCoeffcr[adaptation_parameter_set_id][j], with j=0...13, are extracted as follows:

AlfCCCoeffcr[adaptation_parameter_set_id][j]=alf_cross_component_cr_coeff_abs[j]*(l-2*alf_cross_component_cr_coeff_sign[j])AlfCCCoeffcr[adaptation_parameter_set_id][j]=alf_cross_component_cr_coeff_abs[j]*(l-2*alf_cross_component_cr_coeff_sign[j])

Требование соответствия потока битов заключается в том, что значения AlfCCCoeffCr[adaptation_parameter_set_id][j], причем j=0...13, должны составлять в диапазоне от -210-1 до 210-1, включительно.The bitstream compliance requirement is that the values of AlfCCCoeffCr[adaptation_parameter_set_id][j], with j=0...13, must be in the range -2 10 -1 to 2 10 -1, inclusive.

[273] Следующая таблица показывает синтаксис, связанный с ALF-данными согласно другому примеру.[273] The following table shows the syntax associated with ALF data according to another example.

[274] Табл. 23[274] Tab. 23

[275] Следующая таблица показывает примерную семантику для синтаксических элементов, включенных в вышеприведенную таблицу.[275] The following table shows approximate semantics for the syntactic elements included in the table above.

[276] Табл. 24[276] Tab. 24

alf_cross_component_cb_filter_signal_flag, равный i, указывает то, что набор кросскомпонентных Cb-фильтров передается в служебных сигналах; alf_cross_componenl_cb_filter_signal_flag, равный 0, указывает то, что кросскомпонентный набор Cb-фильтров не передается в служебных сигналах. Когда alf_cross_component_cb_filter_signal_flag не присутствует, он логически выводится равным 0.alf_cross_component_cb_filter_signal_flag equal to i indicates that a set of cross-component Cb filters is transmitted in service signals; alf_cross_componenl_cb_filter_signal_flag equal to 0 indicates that the cross-component Cb filter set is not transmitted in service signals. When alf_cross_component_cb_filter_signal_flag is not present, it is logically output to 0.

alf_cross_cotnponent_cr_filter_signal_flag, равный 1, указывает то, что набор кросскомпонентных Cr-фильтров передается в служебных сигналах, alf_cross_component_cr_filter_signal_flag, равный 0, указывает то, что набор кросскомпонентных Cr-фильтров не передается в служебных сигналах. Когда alf_cross_component_cr_filter_signal_flag не присутствует, он логически выводится равным 0.alf_cross_cotnponent_cr_filter_signal_flag equal to 1 indicates that a set of cross-component Cr filters is transmitted in service signals, alf_cross_component_cr_filter_signal_flag equal to 0 indicates that a set of cross-component Cr filters is not transmitted in service signals. When alf_cross_component_cr_filter_signal_flag is not present, it is logically output to 0.

alf_cb_num_alt_filters_minus1 плюс 1 указывает число альтернативных кросскомпонентных адаптивных контурных фильтров для Cb-компонентов.alf_cb_num_alt_filters_minus1 plus 1 indicates the number of alternative cross-component adaptive loop filters for the Cb components.

alf_cross_component_cb_coeff_abs[j] указывает абсолютное значение j-ого коэффициента передаваемого в служебных сигналах кросскомпонентного Cb-фильтра. Когда alf_cross_component_cb_coeff_abs[j] не присутствует, он логически выводится равным 0.alf_cross_component_cb_coeff_abs[j] indicates the absolute value of the j-th coefficient transmitted in the service signals of the cross-component Cb filter. When alf_cross_component_cb_coeff_abs[j] is not present, it is logically output to 0.

Порядок k экспоненциального преобразования uek(v) в двоичную форму Голомба задается равным 3.The order k of the exponential transformation uek(v) into binary Golomb form is set to 3.

alf_cross_component_cb_coeff_sign[j] указывает знак j-ого коэффициента кросскомпонентного Cb-фильтра следующим образом:alf_cross_component_cb_coeff_sign[j] specifies the sign of the j-th cross-component Cb filter coefficient as follows:

Если alf_cross_componcnt_cb_cocff_sign[j] равен 0, соответствующий коэффициент кросскомпонентного Cb-фильтра имеет положительное значение.If alf_cross_componcnt_cb_cocff_sign[j] is 0, the corresponding cross-component Cb filter coefficient has a positive value.

Иначе (alf_cross_component_cb_coeff_sign[j] равен 1), соответствующий коэффициент кросскомпонентного Cb-фильтра имеет отрицательное значение.Otherwise (alf_cross_component_cb_coeff_sign[j] is equal to 1), the corresponding cross-component Cb filter coefficient has a negative value.

Когда alf_cross_component_cb_coeff_sign[j] не присутствует, он логически выводится равным 0.When alf_cross_component_cb_coeff_sign[j] is not present, it is logically output to 0.

Коэффициенты AlfCCCoeffCb[adaptation_parameter_set_id] кросскомпонентного Cb-фильтра с элементами AlfCCCoeffCb[adaptation_parameter_set_id][j], причем j=0...13, извлекаются следующим образом:The coefficients AlfCCCoeffCb[adaptation_parameter_set_id] of the cross-component Cb filter with elements AlfCCCoeffCb[adaptation_parameter_set_id][j], with j=0...13, are extracted as follows:

AlfCCCoeffCb[adaptation_parameter_set_id][j]=alf_cross_component_cb_coeff_abs[j]*(l-2*alf_cross_component_cb_coeff_sign[j])AlfCCCoeffCb[adaptation_parameter_set_id][j]=alf_cross_component_cb_coeff_abs[j]*(l-2*alf_cross_component_cb_coeff_sign[j])

Требование соответствия потока битов заключается в том, что значения AlfCCCoeffCb[adaptation_parameter_sel_id][j], причем j=0...13, должны составлять в диапазоне от -210-1 до 210-1, включительно.The bitstream compliance requirement is that the values of AlfCCCoeffCb[adaptation_parameter_sel_id][j], with j=0...13, must be in the range -2 10 -1 to 2 10 -1, inclusive.

alf_cr_num_alt_filters_minus1 плюс 1 указывает число альтернативных кросскомпонентных адаптивных контурных фильтров для Cr-компонентов.alf_cr_num_alt_filters_minus1 plus 1 indicates the number of alternative cross-component adaptive loop filters for Cr components.

alf_cross_component_cr_coeff_abs[j] указывает абсолютное значение j-ого коэффициента передаваемого в служебных сигналах кросскомпонентного Cr-фильтра. Когда alf_cross_component_cr_coeff_abs[j] не присутствует, он логически выводится равным 0.alf_cross_component_cr_coeff_abs[j] indicates the absolute value of the j-th coefficient transmitted in the service signals of the cross-component Cr filter. When alf_cross_component_cr_coeff_abs[j] is not present, it is logically output to 0.

Порядок k экспоненциального преобразования uek(v) в двоичную форму Голомба задается равным 3.The order k of the exponential transformation uek(v) into binary Golomb form is set to 3.

[277] alf_cross_component_cr_coeff_sign[j] указывает знак j-ого коэффициента кросскомпонентного Cr-фильтра следующим образом:[277] alf_cross_component_cr_coeff_sign[j] specifies the sign of the j-th cross-component Cr filter coefficient as follows:

Если alf_cross_component_cr_coeff_sign[j] равен 0, соответствующий коэффициент кросскомпонентного Cr-фильтра имеет положительное значение.If alf_cross_component_cr_coeff_sign[j] is 0, the corresponding cross component Cr filter coefficient has a positive value.

Иначе (alf_cross_component_cr_coeff_sign[j] равен 1), соответствующий коэффициент кросскомпонентного Cr-фильтра имеет отрицательное значение.Otherwise (alf_cross_component_cr_coeff_sign[j] is equal to 1), the corresponding coefficient of the cross-component Cr filter has a negative value.

Когда alf_cross_component_cr_coeff_sign[j] не присутствует, он логически выводится равным 0.When alf_cross_component_cr_coeff_sign[j] is not present, it is logically output to 0.

Коэффициенты AlfCCCocffCr[adaptation_parameter_set_id] кросскомпонентного Cr-фильтра с элементами AlfCCCoeffCr[adaptation_parameter_set_id][j], причем j=0...13, извлекаются следующим образом:The coefficients AlfCCCocffCr[adaptation_parameter_set_id] of the cross-component Cr filter with elements AlfCCCoeffCr[adaptation_parameter_set_id][j], with j=0...13, are extracted as follows:

AffCCCoeffCr[adaptation_parameter_set_id][j]=alf_cross_component_cr_coeff_abs[j]*(l-2*alf_cross_component_cr_coeff_sign[j])AffCCCoeffCr[adaptation_parameter_set_id][j]=alf_cross_component_cr_coeff_abs[j]*(l-2*alf_cross_component_cr_coeff_sign[j])

Требование соответствия потока битов заключается в том, что значения AlfCCCoeffCr[adaptation_parameter_set_id][j], причем j=0...13, должны составлять в диапазоне от -210-1 до 210-1, включительно.The bitstream compliance requirement is that the values of AlfCCCoeffCr[adaptation_parameter_set_id][j], with j=0...13, must be in the range -2 10 -1 to 2 10 -1, inclusive.

[278] В вышеприведенных двух таблицах, порядок экспоненциального код Голомба преобразования в двоичную форму для синтаксического анализа синтаксиса alf_cross_component_cb_coeff_abs[j] и alf_cross_component_cr_coeff_abs[j] может задаваться посредством одного из значений 0-9.[278] In the above two tables, the order of exponential Golomb code binarization for parsing syntax alf_cross_component_cb_coeff_abs[j] and alf_cross_component_cr_coeff_abs[j] can be specified by one of the values 0-9.

[279] Ссылаясь на вышеприведенные две таблицы, ALF-данные могут включать в себя флаг передачи в служебных сигналах Cb-фильтров (alf_cross_component_cb_filter_signal_flag или alf_cc_cb_filter_signal_flag), связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cb-компонента. На основе флага передачи в служебных сигналах Cb-фильтров (alf_cross_component_cb_filter_signal_flag), ALF-данные могут включать в себя информацию (ccalf_cb_num_alt_filters_minus1), связанную с числом кросскомпонентных фильтров для цветового Cb-компонента. На основе информации, связанной с числом кросскомпонентных фильтров для цветового Cb-компонента, ALF-данные могут включать в себя информацию (alf_cross_component_cb_coeff_abs) относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информацию (alf_cross_component_cr_coeff_sign) относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента. На основе информации относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента, могут извлекаться коэффициенты кросскомпонентного фильтра для цветового Cb-компонента.[279] Referring to the above two tables, the ALF data may include a Cb filter signaling flag (alf_cross_component_cb_filter_signal_flag or alf_cc_cb_filter_signal_flag) associated with whether or not cross-component filters for the Cb color component are signaled. Based on the transmit flag in the Cb filter signal (alf_cross_component_cb_filter_signal_flag), the ALF data may include information (ccalf_cb_num_alt_filters_minus1) associated with the number of cross component filters for the Cb color component. Based on the information associated with the number of cross-component filters for the Cb color component, the ALF data may include information (alf_cross_component_cb_coeff_abs) regarding the absolute values of the cross-component filter coefficients for the Cb color component and information (alf_cross_component_cr_coeff_sign) regarding the signs of the cross-component filter coefficients for the Cb color component -component. Based on information regarding the absolute values of the cross-component filter coefficients for the Cb color component and information regarding the signs of the cross-component filter coefficients for the Cb color component, the cross-component filter coefficients for the Cb color component can be extracted.

[280] В примере, ALF-данные могут включать в себя флаг передачи в служебных сигналах Cr-фильтров (alf_cross_component_cr_filter_signal_flag или alf_cc_cr_filter_signal_flag), связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cr-компонента. На основе флага передачи в служебных сигналах Cr-фильтров (alf_cross_component_cr_filter_signal_flag), ALF-данные могут включать в себя информацию (ccalf_cr_num_alt_filters_minus1), связанную с числом кросскомпонентных фильтров для цветового Cr-компонента. На основе информации, связанной с числом кросскомпонентных фильтров для цветового Cr-компонента, ALF-данные могут включать в себя информацию (alf_cross_component_cr_coeff_abs) относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информацию (alf_cross_component_cr_coeff_sign) относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента. На основе информации относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента, могут извлекаться коэффициенты кросскомпонентного фильтра для цветового Cr-компонента.[280] In an example, the ALF data may include a Cr filter signaling flag (alf_cross_component_cr_filter_signal_flag or alf_cc_cr_filter_signal_flag) associated with whether or not cross component filters for the Cr color component are signaled. Based on the transmit flag in the Cr filter signal (alf_cross_component_cr_filter_signal_flag), the ALF data may include information (ccalf_cr_num_alt_filters_minus1) associated with the number of cross component filters for the Cr color component. Based on the information associated with the number of cross-component filters for the Cr color component, the ALF data may include information (alf_cross_component_cr_coeff_abs) regarding the absolute values of the cross-component filter coefficients for the Cr color component and information (alf_cross_component_cr_coeff_sign) regarding the signs of the cross-component filter coefficients for the Cr color component -component. Based on information regarding the absolute values of the cross-component filter coefficients for the Cr color component and information regarding the signs of the cross-component filter coefficients for the Cr color component, the cross-component filter coefficients for the Cr color component can be extracted.

[281] Следующая таблица показывает синтаксис относительно единицы дерева кодирования согласно варианту осуществления настоящего раскрытия сущности.[281] The following table shows the syntax regarding a coding tree unit according to an embodiment of the present disclosure.

[282] Табл. 25[282] Tab. 25

[283] Следующая таблица показывает примерную семантику для синтаксических элементов, включенных в вышеприведенную таблицу.[283] The following table shows approximate semantics for the syntactic elements included in the table above.

[284] Табл. 26[284] Tab. 26

ccalf_ctb_flag[chromaIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY], равный 1, указывает то, что кросскомпонентный адаптивный контурный фильтр применяется к блоку дерева кодирования компонента сигналов цветности, указываемого посредством chromaIdx, равного 0 для Cb и равного 1 для Cr, для единицы дерева кодирования в местоположении (xCtb, yCtb) сигнала яркости; ccalf_ctb_flag[chromaIdx][xCtb>>CtbLog2SizeY][yCtb>>, CtbLog2SizeY], равный 0, указывает то, что адаптивный контурный фильтр не применяется к блоку дерева кодирования компонента сигналов цветности, указываемого посредством chromaIdx единицы дерева кодирования в местоположении (xCtb, yCtb) сигнала яркости.ccalf_ctb_flag[chromaIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY] equal to 1 indicates that the cross-component adaptive loop filter is applied to the chroma component coding tree block indicated by chromaIdx, equal to 0 for Cb and equal to 1 for Cr , for a coding tree unit at location (xCtb, yCtb) of the luminance signal; ccalf_ctb_flag[chromaIdx][xCtb>>CtbLog2SizeY][yCtb>>, CtbLog2SizeY] equal to 0 indicates that the adaptive loop filter is not applied to the chroma component coding tree block indicated by the chromaIdx of the coding tree unit at location (xCtb, yCtb ) brightness signal.

Когда ccalf_ctb_flag[cIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY] не присутствует, он логически выводится равным 0.When ccalf_ctb_flag[cIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY] is not present, it is logically output to 0.

[285] Следующая таблица показывает синтаксис единиц дерева кодирования согласно другому примеру этого варианта осуществления.[285] The following table shows the syntax of coding tree units according to another example of this embodiment.

[286] Табл. 27[286] Tab. 27

[287] Обращаясь к вышеприведенной таблице, CCALF может применяться в единицах CTU. В примере, информация изображений может включать в себя информацию (coding_tree_unit()) относительно единицы дерева кодирования. Информация относительно единицы дерева кодирования может включать в себя информацию (ccalf_ctb_flag[0) относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cb-компонента, и/или информацию (ccalf_ctb_flag[1]) относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cr-компонента. Помимо этого, информация относительно единицы дерева кодирования может включать в себя информацию (ccalf_ctb_filter_alt_idx[0) относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cb-компонента, и/или информацию (ccalf_ctb_filter_alt_idx[1]) относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cr-компонента. Синтаксис может адаптивно передаваться согласно синтаксису slice_ccalf_enabled_flag и slice_ccalf_chroma_idc.[287] Referring to the above table, CCALF can be applied in CTU units. In an example, the image information may include information (coding_tree_unit()) regarding a coding tree unit. The information regarding the encoding tree unit may include information (ccalf_ctb_flag[0] regarding whether or not a cross-component filter is applied to the current Cb color component block, and/or information (ccalf_ctb_flag[1]) regarding whether or not a cross-component filter is applied to the current Cr color component block. In addition, the information regarding the encoding tree unit may include information (ccalf_ctb_filter_alt_idx[0]) regarding the filter bank index for the cross-component filter applied to the current Cb color component block, and/or information (ccalf_ctb_filter_alt_idx[1]) regarding the filter bank index for cross-component filter applied to the current block of Cr color component. The syntax may be adaptively transmitted according to the slice_ccalf_enabled_flag and slice_ccalf_chroma_idc syntax.

[288] Следующая таблица показывает синтаксис единиц дерева кодирования согласно другому примеру этого варианта осуществления.[288] The following table shows the syntax of coding tree units according to another example of this embodiment.

[289] Табл. 28[289] Tab. 28

[290] Следующая таблица показывает примерную семантику для синтаксических элементов, включенных в вышеприведенную таблицу.[290] The following table shows approximate semantics for the syntactic elements included in the above table.

[291] Табл. 29[291] Tab. 29

ccalf_ctb_flag[chromaIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY], равный 1, указывает то, что кросскомпонентный адаптивный контурный фильтр применяется к блоку дерева кодирования компонента сигналов цветности, указываемого посредством chromaIdx, равного 0 для Cb и равного 1 для Cr, для единицы дерева кодирования в местоположении (xCtb, yCtb) сигнала яркости; ccalf_ctb_flag[cIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY], равный 0, указывает то, что адаптивный контурный фильтр не применяется к блоку дерева кодирования компонента сигналов цветности, указываемого посредством chromaIdx единицы дерева кодирования в местоположении (xCtb, yCtb) сигнала яркости.ccalf_ctb_flag[chromaIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY] equal to 1 indicates that the cross-component adaptive loop filter is applied to the chroma component coding tree block indicated by chromaIdx, equal to 0 for Cb and equal to 1 for Cr , for a coding tree unit at location (xCtb, yCtb) of the luminance signal; ccalf_ctb_flag[cIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY] equal to 0 indicates that the adaptive contour filter is not applied to the chroma component coding tree block indicated by the chromaIdx of the coding tree unit at location (xCtb, yCtb) brightness signal.

Когда ccalf_ctb_flag[cIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY] не присутствует, он логически выводится равным 0.When ccalf_ctb_flag[cIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY] is not present, it is logically output to 0.

ccalf_ctb_filter_alt_idx[chromaIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY] указывает индекс альтернативного кросскомпонентного адаптивного контурного фильтра, применяемого к блоку дерева кодирования компонента сигналов цветности, при этом chromaIdx равен 0 для Cb, и chromaIdx равен 1 для Cr, для единицы дерева кодирования в местоположении (xCtb, yCtb) сигнала яркости. Когда ccalf_ctb_filter_alt_idx[chromaIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY] не присутствует, он логически выводится равным нулю.ccalf_ctb_filter_alt_idx[chromaIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY] specifies the index of an alternative cross-component adaptive loop filter applied to a chroma component coding tree block, with chromaIdx equal to 0 for Cb and chromaIdx equal to 1 for Cr, for one coding tree at the location (xCtb, yCtb) of the luminance signal. When ccalf_ctb_filter_alt_idx[chromaIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY] is not present, it is logically output to zero.

[292] Следующая таблица показывает синтаксис единиц дерева кодирования согласно другому примеру этого варианта осуществления. Синтаксические элементы, включенные в нижеприведенную таблицу, могут описываться согласно таблице 29.[292] The following table shows the syntax of coding tree units according to another example of this embodiment. The syntactic elements included in the table below may be described according to Table 29.

[293] Табл. 30[293] Tab. thirty

[294] В примере, информация изображений может включать в себя информацию относительно единицы дерева кодирования (coding_tree_unit()). Информация относительно единицы дерева кодирования может включать в себя информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cb-компонента (ccalf_ctb_flag[0), и/или информацию (ccalf_ctb_flag[1]) относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cr-компонента. Помимо этого, информация относительно единицы дерева кодирования может включать в себя информацию (ccalf_ctb_filter_alt_idx[0) относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cb-компонента, и/или информацию (ccalf_ctb_filter_alt_idx[1]) относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cr-компонента.[294] In an example, the image information may include information regarding a coding tree unit (coding_tree_unit()). Information regarding a coding tree unit may include information regarding whether or not a cross-component filter is applied to the current Cb color component block (ccalf_ctb_flag[0), and/or information (ccalf_ctb_flag[1]) regarding whether or not a cross-component filter is applied to the current Cr color component block. In addition, the information regarding the encoding tree unit may include information (ccalf_ctb_filter_alt_idx[0]) regarding the filter bank index for the cross-component filter applied to the current Cb color component block, and/or information (ccalf_ctb_filter_alt_idx[1]) regarding the filter bank index for cross-component filter applied to the current block of Cr color component.

[295] Фиг. 13 и 14 схематично показывают пример способа кодирования видео/изображений и связанных компонентов согласно варианту(ам) осуществления настоящего раскрытия сущности.[295] FIG. 13 and 14 schematically show an example of a method for encoding video/images and related components according to embodiment(s) of the present disclosure.

[296] Способ, раскрытый на фиг. 13, может осуществляться посредством оборудования кодирования, раскрытого на фиг. 2 или фиг. 14. В частности, например, S1300-S1330 по фиг. 13 могут выполняться посредством остаточного процессора 230 оборудования кодирования по фиг. 14, S1340 по фиг. 13 может выполняться посредством сумматора 250 оборудования кодирования по фиг. 14, S1350 по фиг. 13 может выполняться посредством фильтра 260 оборудования кодирования по фиг. 14, и S1360 по фиг. 13 может выполняться посредством энтропийного кодера 240 оборудования кодирования по фиг. 14. Помимо этого, хотя не показано на фиг. 13, прогнозные выборки или связанная с прогнозированием информация могут извлекаться посредством модуля 220 прогнозирования оборудования кодирования на фиг. 13, и поток битов может формироваться из остаточной информации или связанной с прогнозированием информации посредством энтропийного кодера 240 оборудования кодирования. Способ, раскрытый на фиг. 13, может включать в себя варианты осуществления, описанные выше, в настоящем раскрытии сущности.[296] The method disclosed in FIG. 13 may be performed by the encoding equipment disclosed in FIG. 2 or fig. 14. In particular, for example, S1300-S1330 of FIG. 13 may be performed by the residual encoding equipment processor 230 of FIG. 14, S1340 according to FIG. 13 may be performed by the encoding equipment adder 250 of FIG. 14, S1350 according to FIG. 13 may be performed by the encoding equipment filter 260 of FIG. 14, and S1360 of FIG. 13 may be performed by the entropy encoder 240 of the encoding equipment of FIG. 14. In addition, although not shown in FIG. 13, prediction samples or prediction-related information may be retrieved by the prediction unit 220 of the encoding equipment in FIG. 13, and the bitstream may be generated from the residual information or prediction-related information by the entropy encoder 240 of the encoding equipment. The method disclosed in FIG. 13 may include the embodiments described above in the present disclosure.

[297] Ссылаясь на фиг. 13, оборудование кодирования может извлекать остаточные выборки (S1300). Оборудование кодирования может извлекать остаточные выборки для текущего блока, и остаточные выборки для текущего блока могут извлекаться на основе исходных выборок и прогнозных выборок текущего блока. В частности, оборудование кодирования может извлекать прогнозные выборки текущего блока на основе режима прогнозирования. В этом случае, могут применяться различные способы прогнозирования, раскрытые в настоящем раскрытии сущности, такие как взаимное прогнозирование или внутреннее прогнозирование. Остаточные выборки могут извлекаться на основе прогнозных выборок и исходных выборок.[297] Referring to FIG. 13, the encoding equipment can extract residual samples (S1300). The encoding equipment may extract residual samples for the current block, and residual samples for the current block may be extracted based on the original samples and predicted samples of the current block. In particular, the encoding equipment may extract prediction samples of the current block based on the prediction mode. In this case, various forecasting methods disclosed in the present disclosure, such as inter-forecasting or intra-forecasting, can be applied. Residual samples can be extracted based on the prediction samples and the original samples.

[298] Оборудование кодирования может извлекать коэффициенты преобразования (S1310). Оборудование кодирования может извлекать коэффициенты преобразования на основе процесса преобразования для остаточных выборок. Например, процесс преобразования может включать в себя, по меньшей мере, одно из DCT, DST, GBT или CNT.[298] The encoding equipment may extract the transformation coefficients (S1310). The encoding hardware can extract transform coefficients based on the transform process for the residual samples. For example, the conversion process may include at least one of DCT, DST, GBT or CNT.

[299] Оборудование кодирования может извлекать квантованные коэффициенты преобразования (S1320). Оборудование кодирования может извлекать квантованные коэффициенты преобразования на основе процесса квантования для коэффициентов преобразования. Квантованные коэффициенты преобразования могут иметь одномерную векторную форму на основе порядка сканирования коэффициентов.[299] The encoding equipment may extract the quantized transform coefficients (S1320). The encoding equipment may extract quantized transform coefficients based on a quantization process for the transform coefficients. The quantized transform coefficients can be in one-dimensional vector form based on the scanning order of the coefficients.

[300] Оборудование кодирования может формировать остаточную информацию (S1330). Оборудование кодирования может формировать остаточную информацию, указывающую квантованные коэффициенты преобразования. Остаточная информация может формироваться через различные способы кодирования, такие как экспоненциальный код Голомба, CAVLC, CABAC и т.п.[300] The encoding equipment may generate residual information (S1330). The encoding equipment may generate residual information indicating the quantized transform coefficients. The residual information can be generated through various encoding methods, such as exponential Golomb code, CAVLC, CABAC, etc.

[301] Оборудование кодирования может формировать восстановленные выборки (S1340). Оборудование кодирования может формировать восстановленные выборки на основе остаточной информации. Восстановленные выборки могут формироваться посредством суммирования остаточных выборок на основе остаточной информации с прогнозной выборкой. В частности, оборудование кодирования может выполнять прогнозирование (внутреннее или взаимное прогнозирование) для текущего блока и может формировать восстановленные выборки на основе исходных выборок и прогнозных выборок, сформированных из прогнозирования.[301] The encoding equipment may generate reconstructed samples (S1340). The encoding equipment can generate reconstructed samples based on the residual information. Reconstructed samples can be formed by summing the residual samples based on the residual information with the predictive sample. In particular, the encoding equipment may perform prediction (intra or inter prediction) for the current block and may generate reconstructed samples based on the original samples and prediction samples generated from the prediction.

[302] Восстановленные выборки могут включать в себя восстановленные выборки сигналов яркости и восстановленные выборки сигналов цветности. В частности, остаточные выборки могут включать в себя остаточные выборки сигналов яркости и остаточные выборки сигналов цветности. Остаточные выборки сигналов яркости могут формироваться на основе исходных выборок сигналов яркости и прогнозированных выборок сигналов яркости. Остаточные выборки сигналов цветности могут формироваться на основе исходных выборок сигналов цветности и прогнозированных выборок сигналов цветности. Оборудование кодирования может извлекать коэффициенты преобразования (коэффициенты преобразования сигналов яркости) для остаточных выборок сигналов яркости и/или коэффициенты преобразования (коэффициенты преобразования сигналов цветности) для остаточных выборок сигналов цветности. Квантованные коэффициенты преобразования могут включать в себя квантованные коэффициенты преобразования сигналов яркости и/или квантованные коэффициенты преобразования сигналов цветности.[302] The reconstructed samples may include reconstructed luma samples and reconstructed chrominance samples. In particular, the residual samples may include luma residual samples and chrominance residual samples. Residual luminance samples may be generated based on the original luminance samples and the predicted luminance samples. Residual chrominance samples may be generated based on the original chrominance samples and the predicted chrominance samples. The encoding equipment may extract transform coefficients (luminance transform coefficients) for the residual luminance signal samples and/or transform coefficients (chrominance transform coefficients) for the residual chrominance signal samples. The quantized transform coefficients may include quantized luma transform coefficients and/or quantized chrominance transform coefficients.

[303] Оборудование кодирования может формировать связанную с ALF информацию и/или связанную с CCALF (CC-ALF) информацию для восстановленных выборок (S1350). Оборудование кодирования может формировать связанную с ALF информацию для восстановленных выборок. Оборудование кодирования извлекает связанный с ALF параметр, который может применяться для фильтрации восстановленных выборок, и формирует связанную с ALF информацию. Например, связанная с ALF информация может включать в себя связанную с ALF информацию, описанную выше в настоящем раскрытии сущности.[303] The encoding equipment may generate ALF-related information and/or CCALF-related (CC-ALF) information for the reconstructed samples (S1350). The encoding equipment may generate ALF-related information for the reconstructed samples. The encoding hardware extracts the ALF-related parameter, which can be used to filter the reconstructed samples, and generates ALF-related information. For example, ALF-related information may include ALF-related information described above in the present disclosure.

[304] Устройство кодирования может кодировать информацию видео/изображений (S1360). Информация изображений может включать в себя остаточную информацию, связанную с ALF информацию и/или связанную с CCALF информацию. Кодированная информация видео/изображений может выводиться в форме потока битов. Поток битов может передаваться в устройство декодирования через сеть или носитель хранения данных.[304] The encoding device can encode video/image information (S1360). The image information may include residual information, ALF-related information and/or CCALF-related information. The encoded video/image information may be output in the form of a bitstream. The bit stream may be transmitted to the decoding device via a network or storage medium.

[305] В примере, связанная с CCALF информация может включать в себя флаг CCALF-активации, флаг, связанный с тем, доступна или нет CCALF для цветового Cb-(или Cr-)компонента, флаг передачи в служебных сигналах Cb-(или Cr-)фильтров, связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cb-(или Cr-)компонента, информацию, связанную с числом кросскомпонентных фильтров для цветового Cb-(или Cr-)компонента, информацию относительно значений коэффициентов кросскомпонентного фильтра для цветового Cb-(или Cr-)компонента, информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-(или Cr-)компонента, информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-(или Cr-)компонента и/или информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cb-(или Cr-)компонента в информации (синтаксисе единиц дерева кодирования) относительно единицы дерева кодирования.[305] In an example, the CCALF-related information may include a CCALF enable flag, a flag associated with whether or not CCALF is available for the Cb-(or Cr-) color component, a transmit flag in the Cb-(or Cr-) signaling -) filters related to whether or not cross-component filters for the Cb-(or Cr-) color component are transmitted in the service signals, information related to the number of cross-component filters for the Cb-(or Cr-) color component, information regarding the values of the cross-component coefficients filter for the Cb-(or Cr-) color component, information regarding the absolute values of the cross-component filter coefficients for the Cb-(or Cr-) color component, information regarding the signs of the cross-component filter coefficients for the Cb-(or Cr-) color component and/or information as to whether or not a cross-component filter is applied to the current block of Cb-(or Cr-) color component in the information (coding tree unit syntax) regarding the coding tree unit.

[306] Информация изображений/видео может включать в себя различные типы информации согласно варианту осуществления настоящего документа. Например, информация изображений/видео может включать в себя информацию, раскрытую, по меньшей мере, в одной из таблиц 1-30, описанных выше.[306] The image/video information may include various types of information according to an embodiment of the present document. For example, the image/video information may include information disclosed in at least one of the tables 1-30 described above.

[307] В варианте осуществления, информация изображений может включать в себя информацию заголовка и набор параметров адаптации (APS). Информация заголовка может включать в себя информацию, связанную с идентификатором APS, включающую в себя ALF-данные. Например, коэффициенты кросскомпонентного фильтра могут извлекаться на основе ALF-данных.[307] In an embodiment, the image information may include header information and an adaptation parameter set (APS). The header information may include information associated with the APS identifier, including ALF data. For example, cross-component filter coefficients can be extracted based on ALF data.

[308] В варианте осуществления, информация изображений может включать в себя набор параметров последовательности (SPS). SPS может включать в себя флаг CCALF-активации, связанный с тем, доступна или нет кросскомпонентная фильтрация.[308] In an embodiment, the image information may include a sequence parameter set (SPS). The SPS may include a CCALF enable flag associated with whether cross-component filtering is available or not.

[309] В варианте осуществления, SPS может включать в себя флаг ALF-активации (sps_alf_enabled_flag), связанный с тем, доступна или нет ALF. На основе определения того, что значение флага ALF-активации равно 1, SPS может включать в себя флаг CCALF-активации, связанный с тем, доступна или нет кросскомпонентная фильтрация.[309] In an embodiment, the SPS may include an ALF enable flag (sps_alf_enabled_flag) associated with whether ALF is available or not. Based on the determination that the value of the ALF enable flag is 1, the SPS may include a CCALF enable flag associated with whether or not cross-component filtering is available.

[310] В варианте осуществления, информация изображений может включать в себя информацию заголовка среза. Информация заголовка среза может включать в себя флаг ALF-активации (slice_alf_enabled_flag), связанный с тем, доступна или нет ALF. На основе определения того, что значение флага ALF-активации равно 1, может определяться то, равно или нет значение флага активации флага, связанное с тем, доступна или нет CCALF, 1. В примере, CCALF может быть доступна для среза на основе определения того, что значение флага ALF-активации равно 1.[310] In an embodiment, the image information may include slice header information. The slice header information may include an ALF enable flag (slice_alf_enabled_flag) associated with whether or not ALF is enabled. Based on the determination that the value of the ALF enable flag is 1, it may be determined whether the value of the enable flag associated with whether or not CCALF is available is 1. In an example, CCALF may be available for the slice based on the determination that that the value of the ALF activation flag is 1.

[311] В варианте осуществления, информация заголовка (информация заголовка среза) может включать в себя первый флаг, связанный с тем, доступна или нет CCALF для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности, и второй флаг, связанный с тем, доступна или нет CCLF для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности. В другом примере, на основе определения того, что значение флага ALF-активации (slice_alf_enabled_flag) равно 1, информация заголовка (информация заголовка среза) может включать в себя первый флаг, связанный с тем, доступна или нет CCALF для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности, и второй флаг, связанный с тем, доступна или нет CCLF для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности.[311] In an embodiment, the header information (slice header information) may include a first flag associated with whether or not CCALF is available for the Cb color component of the filtered reconstructed chrominance signal samples, and a second flag associated with whether or not CCALF is available. no CCLF for the Cr color component of the filtered reconstructed chrominance samples. In another example, based on determining that the value of the ALF enable flag (slice_alf_enabled_flag) is 1, the header information (slice header information) may include a first flag associated with whether or not CCALF is enabled for the Cb color component of the filtered reconstructed chrominance samples, and a second flag associated with whether or not CCLF is available for the Cr color component of the filtered reconstructed chrominance samples.

[312] В варианте осуществления, информация изображений может включать в себя наборы параметров адаптации (APS). В примере, информация заголовка среза может включать в себя идентификационную информацию первого APS (информацию, связанную с идентификатором второго APS) для извлечения коэффициентов кросскомпонентного фильтра для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности. Информация заголовка среза может включать в себя идентификационную информацию (информацию, связанную с идентификатором второго APS) второго APS для извлечения коэффициентов кросскомпонентного фильтра для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности. В другом примере, на основе определения того, что значение первого флага равно 1, информация заголовка среза может включать в себя идентификационную информацию первого APS (информацию относительно идентификатора второго APS) для извлечения коэффициентов кросскомпонентного фильтра для цветового Cb-компонента. На основе определения того, что значение второго флага равно 1, информация заголовка среза может включать в себя идентификационную информацию второго APS (информацию, связанную с идентификатором второго APS) для извлечения коэффициентов кросскомпонентного фильтра для цветового Cr-компонента.[312] In an embodiment, the image information may include adaptation parameter sets (APS). In an example, the slice header information may include first APS identification information (information associated with the second APS identifier) for extracting cross-component filter coefficients for the Cb chroma component of the filtered reconstructed chrominance signal samples. The slice header information may include identification information (information associated with a second APS identifier) of the second APS for extracting cross-component filter coefficients for the Cr color component of the filtered reconstructed chrominance signal samples. In another example, based on determining that the value of the first flag is 1, the slice header information may include identification information of the first APS (information regarding the identification of the second APS) for extracting cross-component filter coefficients for the Cb color component. Based on the determination that the value of the second flag is 1, the slice header information may include second APS identification information (information associated with the second APS ID) for extracting cross-component filter coefficients for the Cr color component.

[313] В варианте осуществления, первые ALF-данные, включенные в первый APS, могут включать в себя флаг передачи в служебных сигналах Cb-фильтров, связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cb-компонента. На основе флага передачи в служебных сигналах Cb-фильтров, первые ALF-данные могут включать в себя информацию, связанную с числом кросскомпонентных фильтров для цветового Cb-компонента. На основе информации, связанной с числом кросскомпонентных фильтров для цветового Cb-компонента, первые ALF-данные могут включать в себя информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента. На основе информации относительно информации относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента, могут извлекаться коэффициенты кросскомпонентного фильтра для цветового Cb-компонента.[313] In an embodiment, the first ALF data included in the first APS may include a Cb filter signaling flag associated with whether or not cross-component filters for the Cb color component are signaled. Based on the transmit flag in the Cb filter overhead, the first ALF data may include information associated with the number of cross-component filters for the Cb color component. Based on the information associated with the number of cross-component filters for the Cb color component, the first ALF data may include information regarding the absolute values of the cross-component filter coefficients for the Cb color component and information regarding the signs of the cross-component filter coefficients for the Cb color component. Based on the information regarding the information regarding the absolute values of the cross-component filter coefficients for the Cb color component and the information regarding the signs of the cross-component filter coefficients for the Cb color component, the cross-component filter coefficients for the Cb color component can be extracted.

[314] В варианте осуществления, информация, связанная с числом кросскомпонентных фильтров для цветового Cb-компонента, может кодироваться экспоненциальным кодом Голомба нулевого порядка (нулевым EG).[314] In an embodiment, information associated with the number of cross-component filters for the Cb color component may be encoded with a zero-order exponential Golomb code (zero EG).

[315] В варианте осуществления, вторые ALF-данные, включенные во второй APS, могут включать в себя флаг передачи в служебных сигналах Cr-фильтров, связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cr-компонента. На основе флага передачи в служебных сигналах Cr-фильтров, вторые ALF-данные могут включать в себя информацию, связанную с числом кросскомпонентных фильтров для цветового Cr-компонента. На основе информации, связанной с числом кросскомпонентных фильтров для цветового Cr-компонента, вторые ALF-данные могут включать в себя информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента. На основе абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента, могут извлекаться коэффициенты кросскомпонентного фильтра для цветового Cr-компонента.[315] In an embodiment, the second ALF data included in the second APS may include a Cr filter signaling flag associated with whether or not cross-component filters for the Cr color component are signaled. Based on the transmit flag in the Cr filter overhead, the second ALF data may include information associated with the number of cross-component filters for the Cr color component. Based on the information associated with the number of cross-component filters for the Cr color component, the second ALF data may include information regarding the absolute values of the cross-component filter coefficients for the Cr color component and information regarding the signs of the cross-component filter coefficients for the Cr color component. Based on the absolute values of the cross-component filter coefficients for the Cr color component and information regarding the signs of the cross-component filter coefficients for the Cr color component, the cross-component filter coefficients for the Cr color component can be extracted.

[316] В варианте осуществления, информация, связанная с числом кросскомпонентных фильтров для цветового Cr-компонента, может кодироваться экспоненциальным кодом Голомба нулевого порядка (нулевым EG).[316] In an embodiment, information associated with the number of cross-component filters for the Cr color component may be encoded with a zero-order exponential Golomb code (zero EG).

[317] В варианте осуществления, информация изображений может включать в себя информацию относительно единицы дерева кодирования. Информация относительно единицы дерева кодирования может включать в себя информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cb-компонента, и/или информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cr-компонента.[317] In an embodiment, the image information may include information regarding a coding tree unit. The information regarding the coding tree unit may include information regarding whether or not a cross-component filter is applied to the current Cb color component block, and/or information regarding whether or not a cross-component filter is applied to the current Cr color component block.

[318] В варианте осуществления, информация относительно единицы дерева кодирования может включать в себя информацию относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cb-компонента, и/или информацию относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cr-компонента.[318] In an embodiment, information regarding a coding tree unit may include information regarding a filterbank index for a cross-component filter applied to the current block of a Cb color component and/or information regarding a filterbank index for a cross-component filter applied to the current block color Cr component.

[319] Фиг. 15 и 16 схематично показывают пример способа декодирования видео/изображений и связанных компонентов согласно варианту(ам) осуществления настоящего раскрытия сущности.[319] FIG. 15 and 16 schematically show an example of a method for decoding videos/images and related components according to embodiment(s) of the present disclosure.

[320] Способ, раскрытый на фиг. 15, может осуществляться посредством оборудования декодирования, проиллюстрированного на фиг. 3 или 16. В частности, например, S1500 по фиг. 15 может выполняться посредством энтропийного декодера 310 оборудования декодирования, S1510 может выполняться посредством сумматора 340 оборудования декодирования, и S1520-S1550 могут выполняться посредством фильтра 350 оборудования декодирования. Способ, раскрытый на фиг. 15, может включать в себя варианты осуществления, описанные выше, в настоящем раскрытии сущности.[320] The method disclosed in FIG. 15 may be performed by the decoding equipment illustrated in FIG. 3 or 16. In particular, for example, S1500 according to FIG. 15 may be performed by the entropy decoder 310 of the decoding equipment, S1510 may be performed by the adder 340 of the decoding equipment, and S1520-S1550 may be performed by the filter 350 of the decoding equipment. The method disclosed in FIG. 15 may include the embodiments described above in the present disclosure.

[321] Ссылаясь на фиг. 15, оборудование декодирования может принимать/получать информацию видео/изображений (S1500). Информация видео/изображений может включать в себя остаточную информацию. Оборудование декодирования может принимать/получать информацию изображений/видео через поток битов. В примере, информация видео/изображений дополнительно может включать в себя CCAL-связанную информацию. Например, в примере, связанная с CCALF информация может включать в себя флаг CCALF-активации, флаг, связанный с тем, доступна или нет CCALF для цветового Cb-(или Cr-)компонента, флаг передачи в служебных сигналах Cb-(или Cr-)фильтров, связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cb-(или Cr-)компонента, информацию, связанную с числом кросскомпонентных фильтров для цветового Cb-(или Cr-)компонента, информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-(или Cr-)компонента, информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-(или Cr-)компонента и/или информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cb-(или Cr-)компонента в информации (синтаксисе единиц дерева кодирования) относительно единицы дерева кодирования.[321] Referring to FIG. 15, the decoding equipment can receive/receive video/image information (S1500). The video/image information may include residual information. The decoding equipment can receive/receive image/video information through a bitstream. In an example, the video/image information may further include CCAL-related information. For example, in an example, the CCALF-related information may include a CCALF enable flag, a flag associated with whether or not CCALF is available for the Cb-(or Cr-) color component, a transmit flag in the Cb-(or Cr-) signaling )filters related to whether or not cross-component filters for the Cb-(or Cr-) color component are transmitted in the service signals, information related to the number of cross-component filters for the Cb-(or Cr-) color component, information regarding the absolute values of the cross-component coefficients filter for a Cb-(or Cr-) color component, information regarding the signs of the cross-component filter coefficients for the Cb-(or Cr-) color component, and/or information regarding whether or not a cross-component filter is applied to the current block of Cb-(or Cr-) color )component in the information (syntax of coding tree units) regarding a coding tree unit.

[322] Информация изображений/видео может включать в себя различные типы информации согласно варианту осуществления настоящего документа. Например, информация изображений/видео может включать в себя информацию, раскрытую, по меньшей мере, в одной из таблиц 1-30, описанных выше.[322] The image/video information may include various types of information according to an embodiment of the present document. For example, the image/video information may include information disclosed in at least one of the tables 1-30 described above.

[323] Оборудование декодирования может извлекать квантованные коэффициенты преобразования. Оборудование декодирования может извлекать квантованные коэффициенты преобразования на основе остаточной информации. Квантованные коэффициенты преобразования могут иметь одномерную векторную форму на основе порядка сканирования коэффициентов. Квантованные коэффициенты преобразования могут включать в себя квантованные коэффициенты преобразования сигналов яркости и/или квантованные коэффициенты преобразования сигналов цветности.[323] The decoding equipment may extract the quantized transform coefficients. The decoding hardware can extract the quantized transform coefficients based on the residual information. The quantized transform coefficients can be in one-dimensional vector form based on the scanning order of the coefficients. The quantized transform coefficients may include quantized luma transform coefficients and/or quantized chrominance transform coefficients.

[324] Оборудование декодирования может извлекать коэффициенты преобразования. Оборудование декодирования может извлекать коэффициенты преобразования на основе процесса деквантования для квантованных коэффициентов преобразования. Оборудование декодирования может извлекать коэффициенты преобразования сигналов яркости через деквантование на основе квантованных коэффициентов преобразования сигналов яркости. Оборудование декодирования может извлекать коэффициенты преобразования сигналов цветности через деквантование на основе квантованных коэффициентов преобразования сигналов цветности.[324] The decoding equipment may extract the transform coefficients. Decoding equipment can extract transform coefficients based on a dequantization process for the quantized transform coefficients. Decoding equipment may extract luminance signal conversion coefficients through dequantization based on the quantized luminance signal conversion coefficients. Decoding equipment may extract chrominance transform coefficients through dequantization based on the quantized chrominance transform coefficients.

[325] Оборудование декодирования может формировать/извлекать остаточные выборки. Оборудование декодирования может извлекать остаточные выборки на основе процесса обратного преобразования для коэффициентов преобразования. Оборудование декодирования может извлекать остаточные выборки сигналов яркости через процесс обратного преобразования на основе коэффициентов преобразования сигналов яркости. Оборудование декодирования может извлекать остаточные выборки сигналов цветности через процесс обратного преобразования на основе коэффициентов преобразования сигналов цветности.[325] Decoding equipment may generate/extract residual samples. The decoding equipment may extract residual samples based on an inverse transform process for the transform coefficients. The decoding equipment may extract the residual luminance signal samples through an inverse transform process based on the luminance signal transform coefficients. Decoding equipment may extract residual chrominance samples through an inverse transform process based on chrominance transform coefficients.

[326] Оборудование декодирования может формировать/извлекать восстановленные выборки сигналов яркости и/или восстановленные выборки сигналов цветности (S1510). Оборудование декодирования может формировать восстановленные выборки сигналов яркости и/или восстановленные выборки сигналов цветности на основе остаточной информации. Оборудование декодирования может формировать восстановленные выборки на основе остаточной информации. Восстановленные выборки могут включать в себя восстановленные выборки сигналов яркости и/или восстановленные выборки сигналов цветности. Компонент сигналов яркости восстановленных выборок может соответствовать восстановленным выборкам сигналов яркости, и компонент сигналов цветности восстановленных выборок может соответствовать восстановленным выборкам сигналов цветности. Оборудование декодирования может формировать прогнозированные выборки сигналов яркости и/или прогнозированные выборки сигналов цветности через процесс прогнозирования. Оборудование декодирования может формировать восстановленные выборки сигналов яркости на основе прогнозированных выборок сигналов яркости и остаточных выборок сигналов яркости. Оборудование декодирования может формировать восстановленные выборки сигналов цветности на основе прогнозированных выборок сигналов цветности и остаточных выборок сигналов цветности.[326] The decoding equipment may generate/extract reconstructed luma samples and/or reconstructed chrominance samples (S1510). The decoding equipment may generate reconstructed luma samples and/or reconstructed chrominance samples based on the residual information. The decoding equipment can generate reconstructed samples based on the residual information. The reconstructed samples may include reconstructed luma samples and/or reconstructed chrominance samples. The luma component of the reconstructed samples may correspond to the reconstructed luma samples, and the chrominance component of the reconstructed samples may correspond to the reconstructed chrominance samples. The decoding equipment may generate predicted luma samples and/or predicted chrominance samples through a prediction process. The decoding equipment may generate reconstructed luminance samples based on the predicted luminance samples and residual luminance samples. The decoding equipment may generate reconstructed chrominance samples based on the predicted chrominance samples and residual chrominance samples.

[327] Оборудование декодирования может извлекать коэффициенты ALF-фильтра для ALF-процесса восстановленных выборок сигналов цветности (S1520). Помимо этого, оборудование декодирования может извлекать коэффициенты ALF-фильтра для ALF-процесса восстановленных выборок сигналов яркости. Коэффициенты ALF-фильтра могут извлекаться на основе ALF-параметров, включенных в ALF-данные в APS.[327] The decoding equipment may extract ALF filter coefficients for the ALF process of reconstructed chroma samples (S1520). In addition, the decoding equipment may extract ALF filter coefficients for the ALF process of the reconstructed luminance signal samples. The ALF filter coefficients can be extracted based on the ALF parameters included in the ALF data in the APS.

[328] Оборудование декодирования может формировать фильтрованные восстановленные выборки сигналов цветности (S1530). Оборудование декодирования может формировать фильтрованные восстановленные выборки на основе восстановленных выборок сигналов цветности и коэффициентов ALF-фильтра.[328] The decoding equipment may generate filtered reconstructed chrominance samples (S1530). The decoding equipment may generate filtered reconstructed samples based on the reconstructed chroma samples and the ALF filter coefficients.

[329] Оборудование декодирования может извлекать коэффициенты кросскомпонентного фильтра для кросскомпонентной фильтрации (S1540). Коэффициенты кросскомпонентного фильтра могут извлекаться на основе связанной с CCALF информации в ALF-данных, включенных в вышеуказанный APS, и идентификационная информация соответствующего APS может включаться в заголовок среза (может передаваться в служебных сигналах через него).[329] The decoding equipment may extract cross-component filter coefficients for cross-component filtering (S1540). The cross-component filter coefficients may be extracted based on the CCALF-related information in the ALF data included in the above APS, and the identification information of the corresponding APS may be included in (may be signaled through) a slice header.

[330] Оборудование декодирования может формировать модифицированные фильтрованные восстановленные выборки сигналов цветности (S1550). Оборудование декодирования может формировать модифицированные и фильтрованные восстановленные выборки сигналов цветности на основе восстановленных выборок сигналов яркости, фильтрованных восстановленных выборок сигналов цветности и коэффициентов кросскомпонентного фильтра. В примере, оборудование декодирования может извлекать разность между двумя выборками из восстановленных выборок сигналов яркости и умножать разность на один коэффициент фильтра из коэффициентов кросскомпонентного фильтра. На основе результата умножения и фильтрованных восстановленных выборок сигналов цветности, оборудование декодирования может формировать модифицированные фильтрованные восстановленные выборки сигналов цветности. Например, оборудование декодирования может формировать модифицированные фильтрованные восстановленные выборки сигналов цветности на основе суммы произведения и одной из фильтрованных восстановленных выборок сигналов цветности.[330] The decoding equipment may generate modified filtered reconstructed chroma samples (S1550). The decoding equipment may generate modified and filtered reconstructed chrominance samples based on the reconstructed luma samples, the filtered reconstructed chrominance samples, and the cross-component filter coefficients. In an example, the decoding equipment may extract the difference between two samples from the reconstructed luminance samples and multiply the difference by one filter coefficient from the cross-component filter coefficients. Based on the result of the multiplication and the filtered reconstructed chrominance samples, the decoding equipment can generate modified filtered reconstructed chrominance samples. For example, the decoding equipment may generate modified filtered reconstructed chrominance samples based on the sum of the product and one of the filtered reconstructed chrominance samples.

[331] В варианте осуществления, информация изображений может включать в себя информацию заголовка и набор параметров адаптации (APS). Информация заголовка может включать в себя информацию, связанную с идентификатором APS, включающую в себя ALF-данные. Например, коэффициенты кросскомпонентного фильтра могут извлекаться на основе ALF-данных.[331] In an embodiment, the image information may include header information and an adaptation parameter set (APS). The header information may include information associated with the APS identifier, including ALF data. For example, cross-component filter coefficients can be extracted based on ALF data.

[332] В варианте осуществления, информация изображений может включать в себя набор параметров последовательности (SPS). SPS может включать в себя флаг CCALF-активации, связанный с тем, доступна или нет кросскомпонентная фильтрация.[332] In an embodiment, the image information may include a sequence parameter set (SPS). The SPS may include a CCALF enable flag associated with whether cross-component filtering is available or not.

[333] В варианте осуществления, SPS может включать в себя флаг ALF-активации (sps_alf_enabled_flag), связанный с тем, доступна или нет ALF. На основе определения того, что значение флага ALF-активации равно 1, SPS может включать в себя флаг CCALF-активации, связанный с тем, доступна или нет кросскомпонентная фильтрация.[333] In an embodiment, the SPS may include an ALF enable flag (sps_alf_enabled_flag) associated with whether or not ALF is available. Based on the determination that the value of the ALF enable flag is 1, the SPS may include a CCALF enable flag associated with whether or not cross-component filtering is available.

[334] В варианте осуществления, информация изображений может включать в себя информацию заголовка среза. Информация заголовка среза может включать в себя флаг ALF-активации (slice_alf_enabled_flag), связанный с тем, доступна или нет ALF. На основе определения того, что значение флага ALF-активации равно 1, может определяться то, равно или нет значение флага CCALF-активации 1. В примере, CCALF может быть доступна для среза на основе определения того, что значение флага ALF-активации равно 1.[334] In an embodiment, the image information may include slice header information. The slice header information may include an ALF enable flag (slice_alf_enabled_flag) associated with whether or not ALF is enabled. Based on the determination that the value of the ALF enable flag is 1, it may be determined whether the value of the CCALF enable flag is 1. In an example, CCALF may be available for slicing based on the determination that the value of the ALF enable flag is 1 .

[335] В варианте осуществления, информация заголовка (информация заголовка среза) может включать в себя первый флаг, связанный с тем, доступна или нет CCALF для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности, и второй флаг, связанный с тем, доступна или нет CCLF для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности. В другом примере, на основе определения того, что значение флага ALF-активации (slice_alf_enabled_flag) равно 1, информация заголовка (информация заголовка среза) может включать в себя первый флаг, связанный с тем, доступна или нет CCALF для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности, и второй флаг, связанный с тем, доступна или нет CCLF для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности.[335] In an embodiment, the header information (slice header information) may include a first flag associated with whether or not CCALF is available for the Cb color component of the filtered reconstructed chrominance signal samples, and a second flag associated with whether or not CCALF is available. no CCLF for the Cr color component of the filtered reconstructed chrominance samples. In another example, based on determining that the value of the ALF enable flag (slice_alf_enabled_flag) is 1, the header information (slice header information) may include a first flag associated with whether or not CCALF is enabled for the Cb color component of the filtered reconstructed chrominance samples, and a second flag associated with whether or not CCLF is available for the Cr color component of the filtered reconstructed chrominance samples.

[336] В варианте осуществления, информация изображений может включать в себя наборы параметров адаптации (APS). В примере, информация заголовка среза может включать в себя идентификационную информацию первого APS (информацию, связанную с идентификатором второго APS) для извлечения коэффициентов кросскомпонентного фильтра для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности. Информация заголовка среза может включать в себя идентификационную информацию (информацию, связанную с идентификатором второго APS) второго APS для извлечения коэффициентов кросскомпонентного фильтра для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности. В другом примере, на основе определения того, что значение первого флага равно 1, информация заголовка среза может включать в себя идентификационную информацию первого APS (информацию относительно идентификатора второго APS) для извлечения коэффициентов кросскомпонентного фильтра для цветового Cb-компонента. На основе определения того, что значение второго флага равно 1, информация заголовка среза может включать в себя идентификационную информацию второго APS (информацию, связанную с идентификатором второго APS) для извлечения коэффициентов кросскомпонентного фильтра для цветового Cr-компонента.[336] In an embodiment, the image information may include adaptation parameter sets (APS). In an example, the slice header information may include first APS identification information (information associated with the second APS identifier) for extracting cross-component filter coefficients for the Cb chroma component of the filtered reconstructed chrominance signal samples. The slice header information may include identification information (information associated with a second APS identifier) of the second APS for extracting cross-component filter coefficients for the Cr color component of the filtered reconstructed chrominance signal samples. In another example, based on determining that the value of the first flag is 1, the slice header information may include identification information of the first APS (information regarding the identification of the second APS) for extracting cross-component filter coefficients for the Cb color component. Based on the determination that the value of the second flag is 1, the slice header information may include second APS identification information (information associated with the second APS ID) for extracting cross-component filter coefficients for the Cr color component.

[337] В варианте осуществления, первые ALF-данные, включенные в первый APS, могут включать в себя флаг передачи в служебных сигналах Cb-фильтров, связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cb-компонента. На основе флага передачи в служебных сигналах Cb-фильтров, первые ALF-данные могут включать в себя информацию, связанную с числом кросскомпонентных фильтров для цветового Cb-компонента. На основе информации, связанной с числом кросскомпонентных фильтров для цветового Cb-компонента, первые ALF-данные могут включать в себя информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента. На основе информации относительно информации относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента, могут извлекаться коэффициенты кросскомпонентного фильтра для цветового Cb-компонента.[337] In an embodiment, the first ALF data included in the first APS may include a Cb filter signaling flag associated with whether or not cross-component filters for the Cb color component are signaled. Based on the transmit flag in the Cb filter overhead, the first ALF data may include information associated with the number of cross-component filters for the Cb color component. Based on the information associated with the number of cross-component filters for the Cb color component, the first ALF data may include information regarding the absolute values of the cross-component filter coefficients for the Cb color component and information regarding the signs of the cross-component filter coefficients for the Cb color component. Based on the information regarding the information regarding the absolute values of the cross-component filter coefficients for the Cb color component and the information regarding the signs of the cross-component filter coefficients for the Cb color component, the cross-component filter coefficients for the Cb color component can be extracted.

[338] В варианте осуществления, информация, связанная с числом кросскомпонентных фильтров для цветового Cb-компонента, может кодироваться экспоненциальным кодом Голомба нулевого порядка (нулевым EG).[338] In an embodiment, information associated with the number of cross-component filters for the Cb color component may be encoded with a zero-order exponential Golomb code (zero EG).

[339] В варианте осуществления, вторые ALF-данные, включенные во второй APS, могут включать в себя флаг передачи в служебных сигналах Cr-фильтров, связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cr-компонента. На основе флага передачи в служебных сигналах Cr-фильтров, вторые ALF-данные могут включать в себя информацию, связанную с числом кросскомпонентных фильтров для цветового Cr-компонента. На основе информации, связанной с числом кросскомпонентных фильтров для цветового Cr-компонента, вторые ALF-данные могут включать в себя информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента. На основе абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента, могут извлекаться коэффициенты кросскомпонентного фильтра для цветового Cr-компонента.[339] In an embodiment, the second ALF data included in the second APS may include a Cr filter signaling flag associated with whether or not cross-component filters for the Cr color component are signaled. Based on the transmit flag in the Cr filter overhead, the second ALF data may include information associated with the number of cross-component filters for the Cr color component. Based on the information associated with the number of cross-component filters for the Cr color component, the second ALF data may include information regarding the absolute values of the cross-component filter coefficients for the Cr color component and information regarding the signs of the cross-component filter coefficients for the Cr color component. Based on the absolute values of the cross-component filter coefficients for the Cr color component and information regarding the signs of the cross-component filter coefficients for the Cr color component, the cross-component filter coefficients for the Cr color component can be extracted.

[340] В варианте осуществления, информация, связанная с числом кросскомпонентных фильтров для цветового Cr-компонента, может кодироваться экспоненциальным кодом Голомба нулевого порядка (нулевым EG).[340] In an embodiment, information associated with the number of cross-component filters for the Cr color component may be encoded with a zero-order exponential Golomb code (zero EG).

[341] В варианте осуществления, информация изображений может включать в себя информацию относительно единицы дерева кодирования. Информация относительно единицы дерева кодирования может включать в себя информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cb-компонента, и/или информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cr-компонента.[341] In an embodiment, the image information may include information regarding a coding tree unit. The information regarding the coding tree unit may include information regarding whether or not a cross-component filter is applied to the current Cb color component block, and/or information regarding whether or not a cross-component filter is applied to the current Cr color component block.

[342] В варианте осуществления, информация относительно единицы дерева кодирования может включать в себя информацию относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cb-компонента, и/или информацию относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cr-компонента.[342] In an embodiment, information regarding a coding tree unit may include information regarding a filterbank index for a cross-component filter applied to the current block of a Cb color component and/or information regarding a filterbank index for a cross-component filter applied to the current block color Cr component.

[343] Когда имеется остаточная выборка для текущего блока, оборудование декодирования может принимать информацию относительно остатка для текущего блока. Информация относительно остатка может включать в себя коэффициенты преобразования для остаточных выборок. Оборудование декодирования может извлекать остаточные выборки (или массив остаточных выборок) для текущего блока на основе остаточной информации. В частности, оборудование декодирования может извлекать квантованные коэффициенты преобразования на основе остаточной информации. Квантованные коэффициенты преобразования могут иметь одномерную векторную форму на основе порядка сканирования коэффициентов. Оборудование декодирования может извлекать коэффициенты преобразования на основе процесса деквантования для квантованных коэффициентов преобразования. Оборудование декодирования может извлекать остаточные выборки на основе коэффициентов преобразования.[343] When there is a residual sample for the current block, the decoding equipment may receive information regarding the residual for the current block. The residual information may include conversion factors for residual samples. The decoding equipment may extract residual samples (or an array of residual samples) for the current block based on the residual information. In particular, the decoding equipment can extract quantized transform coefficients based on the residual information. The quantized transform coefficients can be in one-dimensional vector form based on the scanning order of the coefficients. Decoding equipment can extract transform coefficients based on a dequantization process for the quantized transform coefficients. Decoding hardware can extract residual samples based on transform coefficients.

[344] Оборудование декодирования может формировать восстановленные выборки на основе (взаимных) прогнозных выборок и остаточных выборок и может извлекать восстановленный блок или восстановленный кадр на основе восстановленных выборок. Подробнее, оборудование декодирования может формировать восстановленные выборки на основе суммы (внутренних) прогнозных выборок и остаточных выборок. После этого, как описано выше, оборудование декодирования может применять процесс внутриконтурной фильтрации, к примеру, процесс фильтрации для удаления блочности и/или SAO-процесс, к восстановленному кадру, с тем чтобы повышать субъективное/объективное качество кадров, при необходимости.[344] The decoding equipment may generate reconstructed samples based on the (mutual) predictive samples and residual samples, and may extract a reconstructed block or reconstructed frame based on the reconstructed samples. In more detail, the decoding hardware may generate reconstructed samples based on the sum of the (internal) prediction samples and residual samples. Thereafter, as described above, the decoding equipment may apply an in-loop filtering process, eg, a deblocking filtering process and/or an SAO process, to the reconstructed frame so as to improve the subjective/objective quality of the frames, if necessary.

[345] Например, оборудование декодирования может получать информацию изображений, включающую в себя все или часть вышеуказанной информации (или синтаксических элементов), посредством декодирования потока битов или кодированной информации. Помимо этого, информация потока битов или кодированная информация может сохраняться на компьютерно-читаемом носителе хранения данных и может инструктировать осуществление вышеуказанного способа декодирования.[345] For example, decoding equipment may obtain image information including all or part of the above information (or syntax elements) by decoding a bit stream or encoded information. In addition, the bitstream information or encoded information may be stored on a computer-readable storage medium and may cause the above decoding method to be performed.

[346] В вышеуказанном варианте осуществления, способы описываются на основе блок-схемы последовательности операций способа, имеющей последовательность этапов или блоков. Настоящее раскрытие сущности не ограничено порядком вышеуказанных этапов или блоков. Некоторые этапы или блоки могут возникать одновременно или в порядке, отличном от других этапов или блоков, как описано выше. Дополнительно, специалисты в данной области техники должны понимать, что этапы, показанные на вышеприведенной блок-схеме последовательности операций способа, не являются исчерпывающими, и другие этапы могут включаться, либо один или более этапов на блок-схеме последовательности операций способа могут удаляться без влияния на объем настоящего раскрытия сущности.[346] In the above embodiment, the methods are described based on a flowchart having a sequence of steps or blocks. The present disclosure is not limited to the order of the above steps or blocks. Some stages or blocks may occur simultaneously or in a different order from other stages or blocks as described above. Additionally, those skilled in the art will understand that the steps shown in the above flowchart are not exhaustive and other steps may be included or one or more steps in the flowchart may be deleted without affecting scope of this disclosure.

[347] Способ согласно вышеуказанным вариантам осуществления настоящего документа может реализовываться в программной форме, и оборудование кодирования и/или оборудование декодирования согласно настоящему документу, например, может включаться в оборудование, которое выполняет обработку изображений, для телевизора, компьютера, смартфона, абонентской приставки, устройства отображения и т.д.[347] The method according to the above embodiments of the present document may be implemented in software form, and the encoding equipment and/or decoding equipment according to the present document, for example, may be included in equipment that performs image processing for a television, computer, smartphone, set-top box, display devices, etc.

[348] Когда варианты осуществления в настоящем документе реализуются в программном обеспечении, вышеуказанный способ может реализовываться как модуль (процесс, функция и т.д.), который выполняет вышеуказанную функцию. Модуль может сохраняться в запоминающем устройстве и выполняться посредством процессора. Запоминающее устройство может быть внутренним или внешним для процессора и может соединяться с процессором посредством различных известных средств. Процессор может включать в себя специализированную интегральную схему (ASIC), другие наборы микросхем, логические схемы и/или устройства обработки данных. Запоминающее устройство может включать в себя постоянное запоминающее устройство (ROM), оперативное запоминающее устройство (RAM), флэш-память, карты памяти, носители хранения данных и/или другие устройства хранения данных. Таким образом, варианты осуществления, описанные в настоящем документе, могут выполняться посредством реализации на процессоре, микропроцессоре, контроллере или микросхеме. Например, функциональные модули, показанные на каждом чертеже, могут реализовываться и выполняться на компьютере, процессоре, микропроцессоре, контроллере или микросхеме. В этом случае, информация относительно инструкций или алгоритма для реализации может сохраняться в цифровом носителе хранения данных.[348] When the embodiments herein are implemented in software, the above method may be implemented as a module (process, function, etc.) that performs the above function. The module may be stored in a storage device and executed by a processor. The storage device may be internal or external to the processor and may be coupled to the processor through various known means. The processor may include an application specific integrated circuit (ASIC), other chipsets, logic circuits, and/or data processing devices. The storage device may include read-only memory (ROM), random access memory (RAM), flash memory, memory cards, storage media, and/or other storage devices. Thus, the embodiments described herein may be performed through implementation on a processor, microprocessor, controller, or chip. For example, the functional modules shown in each drawing may be implemented and executed on a computer, processor, microprocessor, controller, or chip. In this case, information regarding instructions or an algorithm to be implemented may be stored in a digital storage medium.

[349] Помимо этого, оборудование декодирования и оборудование кодирования, к которому применяется настоящее раскрытие сущности, могут включаться в мультимедийное широковещательное приемо-передающее оборудование, терминал мобильной связи, видеооборудование системы домашнего кинотеатра, видеооборудование системы цифрового кинотеатра, камеру наблюдения, оборудование проведения видеочатов, оборудование связи в реальном времени, к примеру, видеосвязи, мобильное оборудование потоковой передачи, носитель хранения данных, записывающую видеокамеру, оборудование предоставления VoD-услуг, видеооборудование поверх сетей (OTT), оборудование предоставления услуг потоковой передачи по Интернету, трехмерное видеооборудование, видеооборудование телеконференц-связи, транспортировочное абонентское устройство (т.е. абонентское устройство в транспортном средстве, абонентское устройство в самолете, абонентское устройство в морском судне и т.д.) и медицинское видеооборудование, и могут использоваться для того, чтобы обрабатывать видеосигналы и сигналы данных. Например, видеоборудование поверх сетей (OTT) может включать в себя игровую приставку, Blu-Ray-проигрыватель, телевизор с доступом в Интернет, систему домашнего кинотеатра, смартфон, планшетный PC, цифровое записывающее видеоустройство (DVR) и т.п.[349] In addition, the decoding equipment and encoding equipment to which the present disclosure applies may be included in multimedia broadcasting equipment, mobile communication terminal, home theater system video equipment, digital cinema system video equipment, surveillance camera, video chatting equipment, real-time communication equipment such as video communication, mobile streaming equipment, storage media, video recording camera, VoD service equipment, over-the-top (OTT) video equipment, Internet streaming service equipment, 3D video equipment, video teleconferencing equipment communications, transport user equipment (ie, vehicle user equipment, aircraft user equipment, marine user equipment, etc.) and medical video equipment, and can be used to process video and data signals. For example, over-the-top (OTT) video equipment may include a game console, Blu-ray player, Internet-enabled television, home theater system, smartphone, tablet PC, digital video recorder (DVR), etc.

[350] Дополнительно, способ обработки, к которому применяется настоящий документ, может формироваться в форме программы, которая должна выполняться посредством компьютера, и может сохраняться на компьютерно-читаемом носителе записи. Мультимедийные данные, имеющие структуру данных согласно настоящему раскрытию сущности, также могут сохраняться на компьютерно-читаемых носителях записи. Компьютерно-читаемые носители записи включают в себя все типы устройств хранения данных, на которых сохраняются данные, считываемые посредством компьютерной системы. Компьютерно-читаемые носители записи, например, могут включать в себя BD, универсальную последовательную шину (USB), ROM, PROM, EPROM, EEPROM, RAM, CD-ROM, магнитную ленту, гибкий диск и оптическое устройство хранения данных. Кроме того, компьютерно-читаемые носители записи включают в себя среды, реализованные в форме несущих волн (т.е. как передача через Интернет). Помимо этого, поток битов, сформированный посредством способа кодирования, может сохраняться на компьютерно-читаемом носителе записи или может передаваться по сетям проводной/беспроводной связи.[350] Additionally, the processing method to which the present document applies may be formed in the form of a program to be executed by a computer, and may be stored on a computer-readable recording medium. Multimedia data having a data structure according to the present disclosure may also be stored on computer-readable recording media. Computer-readable recording media include all types of storage devices on which data readable by a computer system is stored. Computer readable recording media, for example, may include BD, universal serial bus (USB), ROM, PROM, EPROM, EEPROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical storage device. In addition, computer-readable recording media include media implemented in the form of carrier waves (ie, as transmission over the Internet). In addition, the bit stream generated by the encoding method may be stored on a computer-readable recording medium or may be transmitted over wired/wireless communication networks.

[351] Помимо этого, варианты осуществления настоящего документа могут реализовываться с компьютерным программным продуктом согласно программным кодам, и программные коды могут выполняться в компьютере посредством вариантов осуществления настоящего документа. Программные коды могут сохраняться на носителе, который может считываться посредством компьютера.[351] In addition, embodiments of the present document may be implemented with a computer program product according to program codes, and the program codes may be executed on a computer by the embodiments of this document. The program codes may be stored on a medium that can be read by a computer.

[352] Фиг. 17 показывает пример системы потоковой передачи контента, к которой могут применяться варианты осуществления, раскрытые в настоящем документе.[352] FIG. 17 shows an example of a content streaming system to which the embodiments disclosed herein may be applied.

[353] Ссылаясь на фиг. 17, система потоковой передачи контента, к которой применяется вариант(ы) осуществления настоящего документа, может включать в себя, главным образом, сервер кодирования, потоковый сервер, веб-сервер, хранилище мультимедиа, пользовательское устройство и устройство ввода мультимедиа.[353] Referring to FIG. 17, the content streaming system to which the embodiment(s) of this document applies may mainly include an encoding server, a streaming server, a web server, a media storage, a user device, and a media input device.

[354] Сервер кодирования сжимает контент, вводимый из устройств ввода мультимедиа, таких как смартфон, камера, записывающая видеокамера и т.д., в цифровые данные, чтобы формировать поток битов и передавать поток битов в потоковый сервер. В качестве другого примера, когда устройства ввода мультимедиа, к примеру, смартфоны, камеры, записывающие видеокамеры и т.д. Чтобы непосредственно формировать поток битов, сервер кодирования может опускаться.[354] The encoding server compresses content input from media input devices such as a smartphone, camera, video recorder, etc. into digital data to form a bitstream and transmit the bitstream to the streaming server. As another example, when media input devices such as smartphones, cameras, video recorders, etc. To directly generate the bit stream, the encoding server can be omitted.

[355] Поток битов может формироваться посредством способа кодирования или способа формирования потока битов, к которому применяется вариант(ы) осуществления настоящего раскрытия сущности, и потоковый сервер может временно сохранять поток битов в процессе передачи или приема потока битов.[355] The bitstream may be generated by an encoding method or a bitstream generation method to which the embodiment(s) of the present disclosure applies, and the streaming server may temporarily store the bitstream while transmitting or receiving the bitstream.

[356] Потоковый сервер передает мультимедийные данные в пользовательское устройство на основе запроса пользователя через веб-сервер, и веб-сервер служит в качестве среды для информирования пользователя в отношении услуги. Когда пользователь запрашивает требуемую услугу из веб-сервера, веб-сервер доставляет ее на потоковый сервер, и потоковый сервер передает мультимедийные данные пользователю. В этом случае, система потоковой передачи контента может включать в себя отдельный сервер управления. В этом случае, сервер управления служит для того, чтобы управлять командой/ответом между устройствами в системе потоковой передачи контента.[356] The streaming server transmits multimedia data to the user device based on the user's request through the web server, and the web server serves as a medium for informing the user regarding the service. When a user requests a required service from a web server, the web server delivers it to the streaming server and the streaming server transmits the media data to the user. In this case, the content streaming system may include a separate control server. In this case, the control server serves to manage the command/response between devices in the content streaming system.

[357] Потоковый сервер может принимать контент из хранилища мультимедиа и/или сервера кодирования. Например, когда контент принимается из сервера кодирования, контент может приниматься в реальном времени. В этом случае, чтобы предоставлять плавную услугу потоковой передачи, потоковый сервер может сохранять поток битов в течение предварительно определенного времени.[357] The streaming server may receive content from a media storage and/or encoding server. For example, when content is received from an encoding server, the content may be received in real time. In this case, in order to provide a smooth streaming service, the streaming server may maintain the bit stream for a predetermined time.

[358] Примеры пользовательского устройства могут включать в себя мобильный телефон, смартфон, переносной компьютер, цифровой широковещательный терминал, персональное цифровое устройство (PDA), портативный мультимедийный проигрыватель (PMP), навигационное устройство, грифельный планшетный PC, планшетные PC, ультрабуки, носимые устройства (например, интеллектуальные часы, интеллектуальные очки, наголовные дисплеи), цифровые телевизоры, настольные компьютеры, систему цифровых информационных табло и т.п. Каждый сервер в системе потоковой передачи контента может работать в качестве распределенного сервера, причем в этом случае данные, принимаемые из каждого сервера, могут распределяться.[358] Examples of a user device may include a mobile phone, a smartphone, a laptop computer, a digital broadcast terminal, a personal digital assistant (PDA), a portable media player (PMP), a navigation device, a tablet PC, tablet PCs, ultrabooks, wearable devices (such as smart watches, smart glasses, head-mounted displays), digital TVs, desktop computers, digital signage system, etc. Each server in a content streaming system may operate as a distributed server, in which case data received from each server may be distributed.

[359] Каждый сервер в системе потоковой передачи контента может работать в качестве распределенного сервера, причем в этом случае данные, принимаемые из каждого сервера, могут распределяться.[359] Each server in a content streaming system may operate as a distributed server, in which case data received from each server may be distributed.

[360] Формула изобретения, описанная в данном документе, может комбинироваться различными способами. Например, технические признаки формулы изобретения на способ настоящего документа могут комбинироваться и реализовываться в качестве оборудования, и технические признаки формулы изобретения на оборудование настоящего документа могут комбинироваться и реализовываться в качестве способа. Помимо этого, технические признаки пункта формулы изобретения на способ настоящего документа и технические признаки пункта формулы изобретения на оборудование могут комбинироваться для реализации в качестве оборудования, и технические признаки пункта формулы изобретения на способ настоящего документа и технические признаки пункта формулы изобретения на оборудование могут комбинироваться и реализовываться в качестве способа.[360] The claims described herein may be combined in various ways. For example, the technical features of the method claims of this document can be combined and implemented as equipment, and the technical features of the equipment claims of this document can be combined and implemented as a method. In addition, the technical features of the method claim of this document and the technical features of the equipment claim can be combined to be implemented as equipment, and the technical features of the method claim of this document and the technical features of the equipment claim can be combined and implemented as a way.

Claims (47)

1. Оборудование декодирования для декодирования изображений, при этом оборудование декодирования содержит:1. Decoding equipment for decoding images, wherein the decoding equipment comprises: запоминающее устройство; иMemory device; And по меньшей мере один процессор, соединенный с запоминающим устройством, при этом по меньшей мере один процессор выполнен с возможностью:at least one processor coupled to the storage device, wherein the at least one processor is configured to: - получать информацию изображений, включающую в себя остаточную информацию через поток битов;- obtain image information including residual information through a bit stream; - формировать восстановленные выборки сигналов яркости и восстановленные выборки сигналов цветности на основе остаточной информации;- generate reconstructed samples of brightness signals and reconstructed samples of chrominance signals based on residual information; - извлекать коэффициенты адаптивной контурной фильтрации (ALF) для ALF-процесса восстановленных выборок сигналов цветности;- extract adaptive loop filtering (ALF) coefficients for the ALF process of reconstructed chroma samples; - формировать фильтрованные восстановленные выборки сигналов цветности на основе восстановленных выборок сигналов цветности и коэффициентов ALF-фильтра;- generate filtered reconstructed samples of chrominance signals based on reconstructed samples of chrominance signals and ALF filter coefficients; - извлекать коэффициенты кросскомпонентного фильтра для кросскомпонентной фильтрации; и- extract cross-component filter coefficients for cross-component filtering; And - формировать модифицированные фильтрованные восстановленные выборки сигналов цветности на основе восстановленных выборок сигналов яркости, фильтрованных восстановленных выборок сигналов цветности и коэффициентов кросскомпонентного фильтра,- generate modified filtered reconstructed samples of chrominance signals based on reconstructed samples of luminance signals, filtered reconstructed samples of chrominance signals and cross-component filter coefficients, при этом информация изображений включает в себя набор параметров последовательности (SPS) и информацию заголовка среза,wherein the image information includes a sequence parameter set (SPS) and slice header information, при этом SPS включает в себя флаг ALF-активации, связанный с тем, активируется или нет ALF-процесс,wherein the SPS includes an ALF activation flag associated with whether or not the ALF process is activated, при этом на основе определения того, что значение флага ALF-активации равно 1, SPS включает в себя флаг активации кросскомпонентной адаптивной контурной фильтрации (CCALF), связанный с тем, активируется или нет кросскомпонентная фильтрация,wherein, based on determining that the value of the ALF enable flag is 1, the SPS includes a cross component adaptive loop filtering (CCALF) enable flag associated with whether cross component filtering is activated or not, при этом на основе определения того, что значение флага ALF-активации в SPS равно 1, информация заголовка среза включает в себя флаг ALF-активации, связанный с тем, активируется или нет ALF,wherein, based on determining that the value of the ALF activation flag in the SPS is 1, the slice header information includes an ALF activation flag associated with whether ALF is activated or not, при этом на основе определения того, что значение флага ALF-активации, включенного в информацию заголовка среза, равно 1, и значение флага CCALF-активации, включенного в SPS, равно 1, информация заголовка среза включает в себя информацию относительно того, активируется или нет CCALF для фильтрованных восстановленных выборок сигналов цветности, иwherein, based on determining that the value of the ALF activation flag included in the slice header information is 1 and the value of the CCALF activation flag included in the SPS is 1, the slice header information includes information regarding whether or not CCALF for filtered reconstructed chrominance samples, and при этом на основе значения информации относительно того, активируется или нет CCALF для фильтрованных восстановленных выборок сигналов цветности, равного 1, информация заголовка среза включает в себя идентификационную информацию (ID) набора параметров адаптации (APS), ассоциированного с CCALF для фильтрованных восстановленных выборок сигналов цветности.wherein based on the value of the information regarding whether or not CCALF is enabled for filtered reconstructed chrominance samples equal to 1, the slice header information includes identification information (ID) of an adaptation parameter set (APS) associated with CCALF for filtered reconstructed chrominance samples . 2. Оборудование кодирования для кодирования изображений, при этом оборудование кодирования содержит:2. Encoding equipment for encoding images, wherein the encoding equipment comprises: запоминающее устройство; иMemory device; And по меньшей мере один процессор, соединенный с запоминающим устройством, при этом по меньшей мере один процессор выполнен с возможностью:at least one processor coupled to the storage device, wherein the at least one processor is configured to: - извлекать остаточные выборки для текущего блока;- extract residual samples for the current block; - извлекать коэффициенты преобразования на основе процесса преобразования для остаточных выборок;- extract conversion coefficients based on the conversion process for residual samples; - извлекать квантованные коэффициенты преобразования на основе процесса квантования для коэффициентов преобразования;- extract quantized transform coefficients based on the quantization process for the transform coefficients; - формировать остаточную информацию, указывающую квантованные коэффициенты преобразования;- generate residual information indicating quantized conversion coefficients; - формировать восстановленные выборки на основе остаточной информации;- generate reconstructed samples based on residual information; - формировать информацию, связанную с адаптивной контурной фильтрацией (ALF), и информацию, связанную с кросскомпонентной ALF (CCALF), для восстановленных выборок; и- generate information associated with adaptive loop filtering (ALF) and information associated with cross-component ALF (CCALF) for the reconstructed samples; And - кодировать информацию изображений, включающую в себя остаточную информацию, связанную с ALF информацию и связанную с CCALF информацию,- encode image information including residual information, ALF-related information and CCALF-related information, при этом восстановленные выборки включают в себя восстановленные выборки сигналов яркости и восстановленные выборки сигналов цветности,wherein the reconstructed samples include reconstructed luma samples and reconstructed chrominance samples, при этом по меньшей мере один процессор дополнительно выполнен с возможностью:wherein at least one processor is additionally configured to: - извлекать коэффициенты ALF-фильтра для ALF-процесса восстановленных выборок сигналов цветности;- extract ALF filter coefficients for the ALF process of reconstructed chroma samples; - формировать фильтрованные восстановленные выборки сигналов цветности на основе восстановленных выборок сигналов цветности и коэффициентов ALF-фильтра;- generate filtered reconstructed samples of chrominance signals based on reconstructed samples of chrominance signals and ALF filter coefficients; - извлекать коэффициенты кросскомпонентного фильтра для кросскомпонентной фильтрации; и- extract cross-component filter coefficients for cross-component filtering; And - формировать модифицированные фильтрованные восстановленные выборки сигналов цветности на основе восстановленных выборок сигналов яркости, фильтрованных восстановленных выборок сигналов цветности и коэффициентов кросскомпонентного фильтра,- generate modified filtered reconstructed samples of chrominance signals based on reconstructed samples of luminance signals, filtered reconstructed samples of chrominance signals and cross-component filter coefficients, при этом информация изображений включает в себя набор параметров последовательности (SPS) и информацию заголовка среза,wherein the image information includes a sequence parameter set (SPS) and slice header information, при этом SPS включает в себя флаг ALF-активации, связанный с тем, активируется или нет ALF-процесс,wherein the SPS includes an ALF activation flag associated with whether or not the ALF process is activated, при этом на основе определения того, что значение флага ALF-активации равно 1, SPS включает в себя флаг активации кросскомпонентной адаптивной контурной фильтрации (CCALF), связанный с тем, активируется или нет кросскомпонентная фильтрация,wherein, based on determining that the value of the ALF enable flag is 1, the SPS includes a cross component adaptive loop filtering (CCALF) enable flag associated with whether cross component filtering is activated or not, при этом на основе определения того, что значение флага ALF-активации в SPS равно 1, информация заголовка среза включает в себя флаг ALF-активации, связанный с тем, активируется или нет ALF,wherein, based on determining that the value of the ALF activation flag in the SPS is 1, the slice header information includes an ALF activation flag associated with whether ALF is activated or not, при этом на основе определения того, что значение флага ALF-активации, включенного в информацию заголовка среза, равно 1, и значение флага CCALF-активации, включенного в SPS, равно 1, информация заголовка среза включает в себя информацию относительно того, активируется или нет CCALF для фильтрованных восстановленных выборок сигналов цветности, иwherein, based on determining that the value of the ALF activation flag included in the slice header information is 1 and the value of the CCALF activation flag included in the SPS is 1, the slice header information includes information regarding whether or not CCALF for filtered reconstructed chrominance samples, and при этом на основе значения информации относительно того, активируется или нет CCALF для фильтрованных восстановленных выборок сигналов цветности, равного 1, информация заголовка среза включает в себя идентификационную информацию (ID) набора параметров адаптации (APS), ассоциированного с CCALF для фильтрованных восстановленных выборок сигналов цветности.wherein based on the value of the information regarding whether or not CCALF is enabled for filtered reconstructed chrominance samples equal to 1, the slice header information includes identification information (ID) of an adaptation parameter set (APS) associated with CCALF for filtered reconstructed chrominance samples . 3. Компьютерно-читаемый носитель хранения данных, хранящий инструкции, которые, при выполнении, вызывают осуществление способа кодирования изображения посредством оборудования кодирования для кодирования изображений по п. 2.3. A computer-readable storage medium storing instructions that, when executed, cause the image encoding method to be carried out by the image encoding equipment of claim 2. 4. Оборудование для передачи данных для изображения, при этом оборудование содержит:4. Equipment for transmitting image data, the equipment comprising: по меньшей мере один процессор, выполненный с возможностью получать поток битов для изображения, при этом поток битов формируется на основе извлечения остаточных выборок для текущего блока, извлечения коэффициентов преобразования на основе процесса преобразования для остаточных выборок, извлечения квантованных коэффициентов преобразования на основе процесса квантования для коэффициентов преобразования, формирования остаточной информации, указывающей квантованные коэффициенты преобразования, формирования восстановленных выборок на основе остаточной информации, формирования информации, связанной с адаптивной контурной фильтрацией (ALF), и информации, связанной с кросскомпонентной ALF (CCALF), для восстановленных выборок, и кодирования информации изображений для того, чтобы формировать поток битов, при этом информация изображений включает в себя остаточную информацию, связанную с ALF информацию и связанную с CCALF информацию; иat least one processor configured to obtain a bit stream for the image, wherein the bit stream is generated based on extracting residual samples for the current block, extracting transform coefficients based on a transform process for the residual samples, extracting quantized transform coefficients based on a quantization process for the coefficients transform, generating residual information indicating quantized transform coefficients, generating reconstructed samples based on the residual information, generating adaptive loop filtering (ALF) related information and cross component ALF (CCALF) related information for the reconstructed samples, and encoding image information to generate a bitstream, wherein the image information includes residual information, ALF-related information and CCALF-related information; And передатчик, выполненный с возможностью передавать данные, содержащие поток битов,a transmitter configured to transmit data comprising a stream of bits, при этом информация изображений включает в себя набор параметров последовательности (SPS) и информацию заголовка среза,wherein the image information includes a sequence parameter set (SPS) and slice header information, при этом SPS включает в себя флаг ALF-активации, связанный с тем, активируется или нет ALF-процесс,wherein the SPS includes an ALF activation flag associated with whether or not the ALF process is activated, при этом на основе определения того, что значение флага ALF-активации равно 1, SPS включает в себя флаг активации кросскомпонентной адаптивной контурной фильтрации (CCALF), связанный с тем, доступна или нет кросскомпонентная фильтрация,wherein, based on determining that the value of the ALF enable flag is 1, the SPS includes a cross component adaptive loop filtering (CCALF) enable flag associated with whether or not cross component filtering is available, при этом на основе определения того, что значение флага ALF-активации в SPS равно 1, информация заголовка среза включает в себя флаг ALF-активации, связанный с тем, активируется или нет ALF,wherein, based on determining that the value of the ALF activation flag in the SPS is 1, the slice header information includes an ALF activation flag associated with whether ALF is activated or not, при этом на основе определения того, что значение флага ALF-активации, включенного в информацию заголовка среза, равно 1, и значение флага CCALF-активации, включенного в SPS, равно 1, информация заголовка среза включает в себя информацию относительно того, активируется или нет CCALF для фильтрованных восстановленных выборок сигналов цветности, иwherein, based on determining that the value of the ALF activation flag included in the slice header information is 1 and the value of the CCALF activation flag included in the SPS is 1, the slice header information includes information regarding whether or not CCALF for filtered reconstructed chrominance samples, and при этом на основе значения информации относительно того, активируется или нет CCALF для фильтрованных восстановленных выборок сигналов цветности, равного 1, информация заголовка среза включает в себя идентификационную информацию (ID) набора параметров адаптации (APS), ассоциированного с CCALF для фильтрованных восстановленных выборок сигналов цветности.wherein based on the value of the information regarding whether or not CCALF is enabled for filtered reconstructed chrominance samples equal to 1, the slice header information includes identification information (ID) of an adaptation parameter set (APS) associated with CCALF for filtered reconstructed chrominance samples .
RU2023100028A 2019-08-29 2020-08-31 Equipment and method for image coding based on filtering RU2806728C2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US62/893,754 2019-08-29

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
RU2022108053A Division RU2787884C1 (en) 2019-08-29 2020-08-31 Equipment and method for image coding based on filtering

Related Child Applications (1)

Application Number Title Priority Date Filing Date
RU2023128048A Division RU2820296C1 (en) 2019-08-29 2023-10-31 Filtration-based image encoding equipment and method

Publications (2)

Publication Number Publication Date
RU2023100028A RU2023100028A (en) 2023-01-23
RU2806728C2 true RU2806728C2 (en) 2023-11-03

Family

ID=

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9723311B2 (en) * 2012-06-29 2017-08-01 Electronics And Telecommunications Research Institute Method and device for encoding/decoding images
RU2633117C2 (en) * 2012-01-14 2017-10-11 Квэлкомм Инкорпорейтед Encoding of parameter sets and nal unit headers for video encoding
WO2018045207A1 (en) * 2016-08-31 2018-03-08 Qualcomm Incorporated Cross-component filter
US9992515B2 (en) * 2011-06-14 2018-06-05 Lg Electronics Inc. Method for encoding and decoding image information
US20180176594A1 (en) * 2016-12-19 2018-06-21 Qualcomm Incorporated Linear model prediction mode with sample accessing for video coding
US20190014317A1 (en) * 2011-06-24 2019-01-10 Lg Electronics Inc. Image information encoding and decoding method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9992515B2 (en) * 2011-06-14 2018-06-05 Lg Electronics Inc. Method for encoding and decoding image information
US20190014317A1 (en) * 2011-06-24 2019-01-10 Lg Electronics Inc. Image information encoding and decoding method
RU2633117C2 (en) * 2012-01-14 2017-10-11 Квэлкомм Инкорпорейтед Encoding of parameter sets and nal unit headers for video encoding
US9723311B2 (en) * 2012-06-29 2017-08-01 Electronics And Telecommunications Research Institute Method and device for encoding/decoding images
WO2018045207A1 (en) * 2016-08-31 2018-03-08 Qualcomm Incorporated Cross-component filter
US20180176594A1 (en) * 2016-12-19 2018-06-21 Qualcomm Incorporated Linear model prediction mode with sample accessing for video coding

Similar Documents

Publication Publication Date Title
US20240187602A1 (en) In-loop filtering-based image coding apparatus and method
AU2020337710B2 (en) Apparatus and method for image coding based on filtering
US12047568B2 (en) Cross-component adaptive loop filtering-based image coding apparatus and method
AU2020335843B2 (en) Apparatus and method for coding image
KR20220044766A (en) Cross-component filtering-based video coding apparatus and method
US11595697B2 (en) Adaptive loop filtering-based image coding apparatus and method
EP4060996B1 (en) Filtering-based image coding methods
RU2820296C1 (en) Filtration-based image encoding equipment and method
RU2806728C2 (en) Equipment and method for image coding based on filtering
RU2822989C1 (en) Equipment and method of encoding images based on cross-component adaptive contour filtering
RU2807256C2 (en) Method and equipment for image encoding
RU2787884C1 (en) Equipment and method for image coding based on filtering
RU2785998C1 (en) Equipment and method for image encoding
RU2789454C2 (en) Video or image encoding based on in-block coding
RU2774673C1 (en) Video or image encoding based on in-block coding