RU2810200C2 - Method and device for image coding based on sub-image - Google Patents

Method and device for image coding based on sub-image Download PDF

Info

Publication number
RU2810200C2
RU2810200C2 RU2023122728A RU2023122728A RU2810200C2 RU 2810200 C2 RU2810200 C2 RU 2810200C2 RU 2023122728 A RU2023122728 A RU 2023122728A RU 2023122728 A RU2023122728 A RU 2023122728A RU 2810200 C2 RU2810200 C2 RU 2810200C2
Authority
RU
Russia
Prior art keywords
information
picture
prediction
sps
samples
Prior art date
Application number
RU2023122728A
Other languages
Russian (ru)
Other versions
RU2023122728A (en
Inventor
Хендри ХЕНДРИ
Original Assignee
ЭлДжи ЭЛЕКТРОНИКС ИНК.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ЭлДжи ЭЛЕКТРОНИКС ИНК. filed Critical ЭлДжи ЭЛЕКТРОНИКС ИНК.
Publication of RU2023122728A publication Critical patent/RU2023122728A/en
Application granted granted Critical
Publication of RU2810200C2 publication Critical patent/RU2810200C2/en

Links

Abstract

FIELD: image encoding and decoding.
SUBSTANCE: residual samples for the current block are generated. Residual information is generated based on the residual samples for the current block. Information related to in-loop filtering is generated for the restored samples of the current picture. Image information including residual information and information related to in-loop filtering is encoded. Moreover, the image information includes a sequence parameter set (SPS) and a picture header. When the SPS includes information related to the sub-picture, information about the number of virtual borders and information about the positions of virtual borders are not included in the picture header, but are included in the SPS.
EFFECT: increased efficiency of image encoding.
8 cl, 14 dwg, 12 tbl

Description

Область раскрытияDisclosure area

[1] Настоящий документ относится к устройству и способу кодирования изображения на основе подкартинки.[1] This document relates to an apparatus and method for encoding an image based on a sub-picture.

Связанная область техникиRelated technical field

[2] В последнее время, потребность в изображениях/видео высокого разрешения, высокого качества, таких как изображения/видео сверхвысокой четкости (UHD) 4K или 8K или выше, возросла в различных областях. Так как данные изображения/видео имеют высокое разрешение и высокое качество, количество информации или битов, подлежащих передаче, увеличивается относительно существующих данных изображения/ видео, и, таким образом, передача данных изображения с использованием носителя, такого как существующая проводная/ беспроводная широкополосная линия или существующий носитель хранения, или хранение данных изображения/видео с использованием существующего носителя хранения повышают затраты на передачу и затраты на хранение.[2] Recently, the need for high-definition, high-quality images/videos, such as ultra-high-definition (UHD) 4K or 8K or higher images/videos, has increased in various fields. Since the image/video data is of high resolution and high quality, the amount of information or bits to be transmitted is increased relative to the existing image/video data, and thus transmitting the image data using a medium such as an existing wired/wireless broadband line or existing storage medium, or storing image/video data using an existing storage medium increases transmission costs and storage costs.

[3] К тому же, интерес и потребность в иммерсивных медиа, таких как контент или голограммы виртуальной реальности (VR) и искусственной реальности (AR), в последнее время возросли, и возросла трансляция изображения/видео, имеющих характеристики, отличные от изображений реальности, таких как игровые изображения.[3] In addition, interest and demand for immersive media such as virtual reality (VR) and artificial reality (AR) content or holograms have increased recently, and the broadcast of images/videos having characteristics different from reality images has increased. , such as game images.

[4] Соответственно, требуется высокоэффективная технология сжатия изображения/видео, чтобы эффективно сжимать, передавать, хранить и воспроизводить информацию изображений/видео высокого разрешения, высокого качества, имеющих различные характеристики, как описано выше.[4] Accordingly, a highly efficient image/video compression technology is required to efficiently compress, transmit, store and reproduce high-resolution, high-quality image/video information having various characteristics as described above.

[5] В частности, чтобы повысить субъективное/объективное визуальное качество, картинка составляется из подкартинок, и обсуждаются схемы для повышения эффективности сигнализации информации, относящейся к подкартинке.[5] In particular, to improve the subjective/objective visual quality, a picture is composed of sub-pictures, and schemes to improve the efficiency of signaling information related to a sub-picture are discussed.

Краткое описание сущности изобретенияBrief description of the invention

[6] В соответствии с вариантом осуществления настоящего документа, обеспечены способ и устройство для повышения эффективности кодирования изображения.[6] According to an embodiment of the present document, a method and apparatus for improving image encoding efficiency are provided.

[7] В соответствии с вариантом осуществления настоящего документа, обеспечены способ и устройство применения эффективной фильтрации.[7] According to an embodiment of the present document, a method and apparatus for applying effective filtration are provided.

[8] В соответствии с вариантом осуществления настоящего документа, обеспечены способ и устройство для эффективного применения устранения блочности, адаптивного смещения выборки (SAO) и адаптивной контурной фильтрации (ALF).[8] In accordance with an embodiment of the present document, a method and apparatus for effectively applying deblocking, adaptive sample offset (SAO), and adaptive loop filtering (ALF) are provided.

[9] В соответствии с вариантом осуществления настоящего документа, внутриконтурная фильтрация может выполняться на основе виртуальных границ.[9] According to an embodiment of this document, in-loop filtering may be performed based on virtual boundaries.

[10] В соответствии с вариантом осуществления настоящего документа, сигнализация информации, относящейся к виртуальной границе, может выполняться на основе информации, относящейся к подкартинке.[10] According to an embodiment of the present document, signaling of information related to a virtual boundary can be performed based on information related to a sub-picture.

[11] В соответствии с вариантом осуществления настоящего документа, обеспечено устройство кодирования для выполнения кодирования видео/изображения.[11] According to an embodiment of the present document, an encoding apparatus for performing video/image encoding is provided.

[12] В соответствии с одним вариантом осуществления настоящего документа, обеспечен считываемый компьютером цифровой носитель хранения, в котором хранится закодированная информация видео/изображения, генерируемая в соответствии со способом кодирования видео/изображения, раскрытым по меньшей мере в одном из вариантов осуществления настоящего документа.[12] According to one embodiment of the present document, a computer-readable digital storage medium is provided that stores encoded video/image information generated in accordance with a video/image encoding method disclosed in at least one embodiment of the present document.

[13] В соответствии с вариантом осуществления настоящего документа, обеспечен считываемый компьютером цифровой носитель хранения, в котором хранится закодированная информация или закодированная информация видео/изображения, побуждающая выполнять способ декодирования видео/изображения, раскрытый по меньшей мере в одном из вариантов осуществления настоящего документа, посредством устройства декодирования.[13] According to an embodiment of the present document, a computer-readable digital storage medium is provided in which encoded information or encoded video/image information causing execution of a video/image decoding method disclosed in at least one embodiment of the present document is stored. through a decoding device.

[14] В соответствии с вариантом осуществления настоящего документа, общая эффективность сжатия изображения/видео может быть повышена.[14] According to an embodiment of the present document, the overall efficiency of image/video compression can be improved.

[15] В соответствии с вариантом осуществления настоящего документа, субъективное/объективное визуальное качество может быть повышено за счет эффективной фильтрации.[15] According to an embodiment of the present document, the subjective/objective visual quality can be improved through effective filtering.

[16] В соответствии с вариантом осуществления настоящего документа, эффективное кодирование может быть реализовано за счет опускания процесса перезаписи битового посредством сигнализации, основанной на сигнализации виртуальных границ подкартинок.[16] According to an embodiment of the present document, efficient coding can be realized by omitting the bit rewriting process through signaling based on virtual sub-picture boundary signaling.

Краткое описание чертежейBrief description of drawings

[17] Фиг. 1 схематично показывает пример системы кодирования видео/изображения, в которой могут применяться варианты осуществления настоящего документа.[17] FIG. 1 schematically shows an example of a video/image coding system to which embodiments of the present document may be applied.

[18] Фиг. 2 является представлением, схематично иллюстрирующим конфигурацию устройства кодирования видео/изображения, в котором могут применяться варианты осуществления настоящего документа.[18] FIG. 2 is a view schematically illustrating the configuration of a video/image encoding apparatus to which embodiments of the present document may be applied.

[19] Фиг. 3 является представлением, схематично иллюстрирующим конфигурацию устройства декодирования видео/изображения, в котором могут применяться варианты осуществления настоящего документа.[19] FIG. 3 is a view schematically illustrating the configuration of a video/image decoding apparatus to which embodiments of the present document may be applied.

[20] Фиг. 4 показывает пример иерархической архитектуры для кодированного видео/изображения.[20] FIG. 4 shows an example of a hierarchical architecture for an encoded video/image.

[21] Фиг. 5 иллюстрирует картинку в соответствии с вариантом осуществления настоящего документа.[21] FIG. 5 illustrates a picture in accordance with an embodiment of the present document.

[22] Фиг. 6 иллюстрирует способ кодирования на основе подкартинки/вырезки/мозаичного элемента в соответствии с вариантом осуществления настоящего документа.[22] FIG. 6 illustrates a subpicture/slice/tile based encoding method according to an embodiment of the present document.

[23] Фиг. 7 иллюстрирует способ декодирования на основе подкартинки/вырезки/мозаичного элемента в соответствии с вариантом осуществления настоящего документа.[23] FIG. 7 illustrates a subpicture/slice/tile based decoding method according to an embodiment of the present document.

[24] Фиг. 8 является блок-схемой последовательности операций, поясняющей способ кодирования на основе фильтрации в устройстве кодирования.[24] FIG. 8 is a flowchart for explaining a filter-based encoding method in an encoding apparatus.

[25] Фиг. 9 является блок-схемой последовательности операций, поясняющей способ декодирования на основе фильтрации в устройстве декодирования.[25] FIG. 9 is a flowchart for explaining a filtering-based decoding method in a decoding apparatus.

[26] Фиг. 10 и фиг. 11 схематично показывают пример способа кодирования видео/изображения и связанные компоненты в соответствии с вариантом(ами) осуществления настоящего документа.[26] FIG. 10 and fig. 11 schematically shows an example of a video/image encoding method and related components in accordance with embodiment(s) of the present document.

[27] Фиг. 12 и фиг. 13 схематично показывают пример способа декодирования видео/изображения и связанные компоненты в соответствии с вариантом(ами) осуществления настоящего документа.[27] FIG. 12 and fig. 13 schematically shows an example of a video/image decoding method and related components in accordance with embodiment(s) of the present document.

[28] Фиг. 14 показывает пример системы стриминга контента, в которой могут применяться варианты осуществления, раскрытые в настоящем документе.[28] FIG. 14 shows an example of a content streaming system in which the embodiments disclosed herein may be applied.

Описание примерных вариантов осуществленияDescription of Exemplary Embodiments

[29] Каждая конфигурация на чертежах, описанная в настоящем документе, является независимой иллюстрацией для объяснения функций как признаков, которые отличаются друг от друга, и не означает, что каждая конфигурация реализуется как взаимно различные аппаратные средства или различное программное обеспечение. Например, две или более из конфигураций могут быть объединены для образования одной конфигурации, или одна конфигурация может быть разделена на множество конфигураций. Без отклонения от сущности настоящего документа, варианты осуществления, в которых конфигурации объединены и/или разделены, также включены в объем формулы изобретения.[29] Each configuration in the drawings described herein is an independent illustration for explaining functions as features that are different from each other, and does not mean that each configuration is implemented as mutually different hardware or different software. For example, two or more of the configurations may be combined to form one configuration, or one configuration may be divided into multiple configurations. Without departing from the spirit of this document, embodiments in which configurations are combined and/or separated are also included within the scope of the claims.

[30] Между тем, настоящий документ может быть модифицирован в различных формах, и его конкретные варианты осуществления будут описаны и проиллюстрированы на чертежах. Однако варианты осуществления не предназначены для ограничения настоящего документа. Термины, используемые в последующем описании, используются, чтобы только описывать конкретные варианты осуществления, но не предназначены ограничивать раскрытие. Выражение в единственном числе включает в себя выражение во множественном числе, если только оно явным образом не читается иначе. Термины, такие как “включать в себя” и “иметь”, предназначены указывать, что признаки, числа, этапы, операции, элементы, компоненты или их комбинации, используемые в следующем описании, существуют, и, таким образом, должно быть понятно, что возможность существования или добавления одного или более других признаков, чисел, этапов, операций, элементов, компонентов или их комбинаций не исключается.[30] Meanwhile, the present document may be modified in various forms, and specific embodiments thereof will be described and illustrated in the drawings. However, the embodiments are not intended to limit the present document. The terms used in the following description are used to only describe specific embodiments and are not intended to limit the disclosure. An expression in the singular includes an expression in the plural unless it is expressly read otherwise. Terms such as “include” and “have” are intended to indicate that the features, numbers, steps, operations, elements, components, or combinations thereof used in the following description exist, and thus it is to be understood that the possibility of the existence or addition of one or more other features, numbers, steps, operations, elements, components or combinations thereof is not excluded.

[31] Далее, примеры настоящего варианта осуществления будут описаны подробно со ссылкой на прилагаемые чертежи. К тому же, одинаковые ссылочные позиции используются, чтобы указывать одинаковые элементы на всех чертежах, и те же самые описания одинаковых элементов будут опущены.[31] Next, examples of the present embodiment will be described in detail with reference to the accompanying drawings. In addition, the same reference numerals are used to indicate the same elements throughout the drawings, and the same descriptions of the same elements will be omitted.

[32] Настоящий документ относится к кодированию видео/изображения. Например, способы/варианты осуществления, раскрытые в настоящем документе, могут относиться к стандарту многоцелевого кодирования видео (VVC) (ITU-T Rec. H.266), стандарту кодирования видео/изображения следующего поколения после VVC или другим стандартам, относящимся к кодированию видео (например, стандарту высокоэффективного кодирования видео (HEVC) (ITU-T Rec. H.265), стандарту существенного кодирования видео (EVC), стандарту AVS2 и тому подобному).[32] This document relates to video/image coding. For example, the methods/embodiments disclosed herein may relate to the Multipurpose Video Coding (VVC) standard (ITU-T Rec. H.266), the next generation video/image coding standard after VVC, or other standards related to video coding (eg, High Efficiency Video Coding (HEVC) standard (ITU-T Rec. H.265), Essential Video Coding (EVC) standard, AVS2 standard, and the like).

[33] Настоящий документ предлагает различные варианты осуществления кодирования видео/изображения, и варианты осуществления выше могут также выполняться в комбинации друг с другом, если не определено иначе.[33] This document proposes various embodiments of video/image encoding, and the embodiments above may also be performed in combination with each other unless otherwise specified.

[34] В настоящем документе, видео может относиться к последовательности изображений по времени. Картинка обычно относится к единице, представляющей одно изображение в конкретном временном кадре, и вырезка/мозаичный элемент относится к единице, составляющей часть картинки в терминах кодирования. Вырезка/мозаичный элемент может включать в себя одну или более единиц дерева кодирования (CTU). Одна картинка может состоять из одной или более вырезок/мозаичных элементов. Одна картинка может состоять из одной или более групп мозаичных элементов. Одна группа мозаичных элементов может включать в себя один или более мозаичных элементов.[34] As used herein, video may refer to a sequence of images over time. A picture usually refers to a unit representing one image in a particular time frame, and a cut/tile refers to a unit that constitutes a part of a picture in encoding terms. The clipping/tile may include one or more coding tree units (CTUs). One picture may consist of one or more cutouts/mosaic elements. One picture can consist of one or more groups of mosaic elements. One tile group may include one or more tiles.

[35] Пиксел или пел может означать наименьшую единицу, составляющую одну картинку (или изображение). Также, ‘выборка’ может использоваться как термин, соответствующий пикселу. Выборка может, в общем, представлять пиксел или значение пиксела и может представлять только пиксел/значение пиксела компонента яркости или только пиксел/значение пиксела компонента цветности.[35] Pixel or pel can mean the smallest unit that makes up one picture (or image). Also, 'sample' can be used as a term corresponding to a pixel. A sample may generally represent a pixel or a pixel value, and may represent only a luma component pixel/pixel value or only a chrominance component pixel/pixel value.

[36] Единица может представлять базовую единицу обработки изображения. Единица может включать в себя по меньшей мере одно из конкретной области картинки и информации, относящейся к области. Одна единица может включать в себя один блок яркости и два блока цветности (например, cb, cr). Единица может использоваться взаимозаменяемо с такими терминами, как блок или область, в некоторых случаях. В общем случае, блок M×N может включать в себя выборки (или массивы выборок) или набор (или массив) коэффициентов преобразования из M столбцов и N строк. Альтернативно, выборка может означать значение пиксела в пространственной области, и когда такое значение пиксела преобразуется в частотную область, оно может означать коэффициент преобразования в частотной области.[36] The unit may represent a basic image processing unit. The unit may include at least one of a specific picture area and information related to the area. One unit may include one luma block and two chrominance blocks (eg, cb, cr). Unit may be used interchangeably with terms such as block or area in some cases. In general, an M×N block may include samples (or arrays of samples) or a set (or array) of transform coefficients of M columns and N rows. Alternatively, a sample may denote a pixel value in the spatial domain, and when such a pixel value is converted to the frequency domain, it may denote a frequency domain conversion coefficient.

[37] В настоящем документе, обозначения “/” и “,” должны интерпретироваться, чтобы указывать “и/или”. Например, выражение “A/B” может означать “A и/или B”. Далее, “A, B” может означать “A и/или B”. Кроме того, “A/B/C” может означать “по меньшей мере одно из А, В и/или С”. Также, “A/B/C” может означать “по меньшей мере одно из А, В и/или С”.[37] As used herein, the designations “/” and “,” shall be interpreted to indicate “and/or.” For example, the expression “A/B” could mean “A and/or B”. Further, “A, B” may mean “A and/or B”. Additionally, “A/B/C” may mean “at least one of A, B, and/or C.” Also, “A/B/C” may mean “at least one of A, B and/or C”.

[38] Кроме того, в этом документе, термин “или” должен интерпретироваться, чтобы указывать “и/или”. Например, выражение “A или B” может содержать 1) только A, 2) только B и/или 3) как A, так и B. Иными словами, в этом документе, термин “или” должен интерпретироваться, чтобы указывать “дополнительно или альтернативно”.[38] Additionally, as used herein, the term “or” shall be interpreted to mean “and/or.” For example, the expression “A or B” may contain 1) only A, 2) only B, and/or 3) both A and B. In other words, in this document, the term “or” shall be interpreted to indicate “in addition or alternatively.”

[39] В настоящем документе, “по меньшей мере одно из A и B” может означать “только A”, “только B” или “как A, так и B”. Также, в настоящем описании, выражение “по меньшей мере одно из A или B” или “по меньшей мере одно из A и/или B” может интерпретироваться так же, как “по меньшей мере одно из A и B”.[39] As used herein, “at least one of A and B” may mean “A only,” “B only,” or “both A and B.” Also, in the present specification, the expression “at least one of A or B” or “at least one of A and/or B” can be interpreted in the same way as “at least one of A and B”.

[40] Также, в настоящем описании, “по меньшей мере одно из A, B и C” может означать “только A, “только B”, “только C” или “любая комбинация A, B и C”. Также, “по меньшей мере одно из A, B или C” или “по меньшей мере одно из A, B и/или C” может означать “по меньшей мере одно из A, B и C”.[40] Also, as used herein, “at least one of A, B, and C” may mean “A only,” “B only,” “C only,” or “any combination of A, B, and C.” Also, “at least one of A, B, or C” or “at least one of A, B, and/or C” may mean “at least one of A, B, and C.”

[41] Также, круглые скобки, используемые в настоящем описании, могут означать “например”. Конкретно, когда указано “предсказание (интра-предсказание)”, это может указывать, что “интра-предсказание” предлагается как пример “предсказания”. Другими словами, термин “предсказание” в настоящем описании не ограничен “интра-предсказанием”, и “интра-предсказание” может предлагаться в качестве примера “предсказания”. Также, даже когда указано “предсказание (т.е., интра-предсказание)”, это может указывать, что “интра-предсказание” предлагается как пример “предсказания”.[41] Also, parentheses used herein may mean “for example.” Specifically, when “prediction (intra-prediction)” is specified, it may indicate that “intra-prediction” is proposed as an example of “prediction”. In other words, the term “prediction” in the present specification is not limited to “intra-prediction”, and “intra-prediction” may be offered as an example of “prediction”. Also, even when “prediction (ie, intra-prediction)” is specified, this may indicate that “intra-prediction” is being offered as an example of “prediction”.

[42] В настоящем описании, технические признаки, отдельно поясненные на одном чертеже, могут быть реализованы по отдельности или могут быть реализованы одновременно.[42] In the present description, technical features separately explained in one drawing may be implemented separately or may be implemented simultaneously.

[43] Фиг. 1 иллюстрирует пример системы кодирования видео/изображения, в которой может применяться раскрытие настоящего документа.[43] FIG. 1 illustrates an example of a video/image coding system to which the disclosure herein may be applied.

[44] Со ссылкой на фиг. 1, система кодирования видео/изображения может включать в себя устройство-источник и устройство приема. Устройство-источник может передавать закодированную информацию или данные видео/изображения на устройство приема через цифровой носитель хранения или сеть в форме файла или потока.[44] With reference to FIG. 1, a video/image encoding system may include a source device and a receiving device. A source device may transmit encoded information or video/image data to a receiving device via a digital storage medium or network in the form of a file or stream.

[45] Устройство-источник может включать в себя источник видео, устройство кодирования и передатчик. Устройство приема может включать в себя приемник, устройство декодирования и устройство рендеринга (визуализации). Устройство кодирования может называться устройством кодирования видео/изображения, и устройство декодирования может называться устройством декодирования видео/изображения. Передатчик может быть включен в устройство кодирования. Приемник может быть включен в устройство декодирования. Устройство визуализации может включать в себя дисплей, и дисплей может быть сконфигурирован как отдельное устройство или внешний компонент.[45] The source device may include a video source, an encoder, and a transmitter. The receiving device may include a receiver, a decoding device, and a rendering device. The encoding device may be called a video/image encoding device, and the decoding device may be called a video/image decoding device. The transmitter may be included in the encoding device. The receiver may be included in a decoding device. The imaging device may include a display, and the display may be configured as a separate device or an external component.

[46] Источник видео может получать видео/изображение через процесс захвата, синтезирования или генерирования видео/изображения. Источник видео может включать в себя устройство захвата видео/изображения и/или устройство генерирования видео/изображения. Устройство захвата видео/изображения может включать в себя, например, одну или более камер, архивы видео/изображений, включающие в себя ранее захваченные видео/изображения и тому подобное. Устройство генерирования видео/изображения может включать в себя, например, компьютеры, планшеты и смартфоны и может (электронным способом) генерировать видео/изображения. Например, виртуальное видео/изображение может генерироваться через компьютер или тому подобное. В этом случае, процесс захвата видео/изображения может быть заменен на процесс генерирования связанных данных.[46] The video source may obtain video/image through a video/image capture, synthesis, or generation process. The video source may include a video/image capturing device and/or a video/image generating device. The video/image capturing device may include, for example, one or more cameras, video/image archives including previously captured video/images, and the like. The video/image generating apparatus may include, for example, computers, tablets, and smartphones and may (electronically) generate video/images. For example, the virtual video/image may be generated through a computer or the like. In this case, the video/image capture process can be replaced by the associated data generation process.

[47] Устройство кодирования может кодировать введенное видео/изображение. Устройство кодирования может выполнять последовательность процессов, таких как предсказание, преобразование и квантование для компактности и эффективности кодирования. Закодированные данные (закодированная информация видео/изображения) могут выводиться в форме битового потока.[47] The encoding device can encode the input video/image. The encoding device may perform a series of processes such as prediction, transformation and quantization for compact and efficient encoding. The encoded data (encoded video/image information) may be output in the form of a bit stream.

[48] Передатчик может передавать закодированное изображение/информацию изображения или данные, выведенные в форме битового потока, на приемник устройства приема через цифровой носитель хранения или сеть в форме файла или потоковой передачи (стриминга). Цифровой носитель хранения может включать в себя различные носители хранения, такие как USB, SD, CD, DVD, Blu-ray, HDD, SSD и тому подобное. Передатчик может включать в себя элемент для генерирования медиа-файла посредством предопределенного файлового формата и может включать в себя элемент для передачи через сеть вещания/связи. Приемник может принимать/извлекать битовый поток и передавать принятый битовый поток на устройство декодирования.[48] A transmitter may transmit encoded image/image information or data output in the form of a bitstream to a receiver of a receiving device via a digital storage medium or network in the form of a file or streaming. The digital storage medium may include various storage media such as USB, SD, CD, DVD, Blu-ray, HDD, SSD and the like. The transmitter may include an element for generating a media file through a predefined file format and may include an element for transmission over a broadcast/communications network. The receiver can receive/extract the bit stream and transmit the received bit stream to the decoding device.

[49] Устройство декодирования может декодировать видео/изображение путем выполнения последовательности процессов, таких как деквантование, обратное преобразование и предсказание, соответствующих операции устройства кодирования.[49] A decoding apparatus may decode a video/image by performing a series of processes such as dequantization, deconversion, and prediction corresponding to an operation of the encoding apparatus.

[50] Устройство визуализации может визуализировать декодированное видео/изображение. Визуализированное видео/ изображение может отображаться посредством дисплея.[50] The renderer can render the decoded video/image. The rendered video/image can be displayed via the display.

[51] Фиг. 2 является диаграммой, схематично иллюстрирующей конфигурацию устройства кодирования видео/изображения, в котором может применяться раскрытие настоящего документа. Далее, то, что называется устройством кодирования видео, может включать в себя устройство кодирования изображения.[51] FIG. 2 is a diagram schematically illustrating the configuration of a video/image encoding apparatus to which the disclosure of the present document can be applied. Further, what is called a video encoding device may include an image encoding device.

[52] Со ссылкой на фиг. 2, устройство 200 кодирования может включать в себя или быть сконфигурировано с модулем 210 разбиения изображения, предсказателем 220, процессором 230 остатка, энтропийным кодером 240, сумматором 250, фильтром 260 и памятью 270. Предсказатель 220 может включать в себя интер-предсказатель 221 и интра-предсказатель 222. Процессор 230 остатка может включать в себя преобразователь 232, квантователь 233, деквантователь 234 и обратный преобразователь 235. Процессор 230 остатка может дополнительно включать в себя вычитатель 231. Сумматор 250 может называться реконструктором или генератором восстановленного блока. Модуль 210 разбиения изображения, предсказатель 220, процессор 230 остатка, энтропийный кодер 240, сумматор 250 и фильтр 260, которые были описаны выше, могут быть сконфигурированы одним или более аппаратными компонентами (например, чипсетами кодера или процессорами) в соответствии с вариантом осуществления. К тому же, память 270 может включать в себя буфер декодированных картинок (DPB) или может быть сконфигурирована цифровым носителем хранения. Аппаратный компонент может дополнительно включать в себя память 270 как внутренний/внешний компонент.[52] With reference to FIG. 2, encoding apparatus 200 may include or be configured with an image partitioning module 210, a predictor 220, a residual processor 230, an entropy encoder 240, an adder 250, a filter 260, and a memory 270. The predictor 220 may include an inter-predictor 221 and an intra -predictor 222. Residual processor 230 may include transformer 232, quantizer 233, dequantizer 234, and inverse transformer 235. Residual processor 230 may further include subtractor 231. Adder 250 may be referred to as a reconstructor or reconstructed block generator. The image partitioning unit 210, predictor 220, residual processor 230, entropy encoder 240, adder 250, and filter 260 that were described above may be configured by one or more hardware components (eg, encoder chipsets or processors) in accordance with an embodiment. In addition, memory 270 may include a decoded picture buffer (DPB) or may be configured with digital storage media. The hardware component may further include memory 270 as an internal/external component.

[53] Модуль 210 разбиения изображения может разбивать входное изображение (или картинку, кадр), введенное в устройство 200 кодирования, на одну или более единиц обработки. Например, единица обработки может называться единицей кодирования (CU). В этом случае, единица кодирования может рекурсивно разбиваться в соответствии со структурой квадродерева-двоичного дерева- троичного дерева (QTBTTT) из единицы дерева кодирования (CTU) или наибольшей единицы кодирования (LCU). Например, одна единица кодирования может разбиваться на множество единиц кодирования более глубокой глубины на основе структуры квадродерева, структуры двоичного дерева и/или структуры троичного дерева. В этом случае, например, структура квадродерева применяется первой, а структура двоичного дерева и/или структура троичного дерева может применяться позже. Альтернативно, структура двоичного дерева также может применяться первой. Процесс кодирования в соответствии с настоящим документом может выполняться на основе конечной единицы кодирования, которая больше не разбивается. В этом случае, наибольшая единица кодирования может непосредственно использоваться как конечная единица кодирования на основе эффективности кодирования в соответствии с характеристиками изображения, или, по мере необходимости, единица кодирования может рекурсивно разбиваться на единицы кодирования более глубокой глубины, так что единица кодирования, имеющая оптимальный размер, может использоваться как конечная единица кодирования. Здесь, процесс кодирования может включать в себя процесс предсказания, преобразования и восстановления, которые будут описаны далее. В качестве другого примера, единица обработки может дополнительно включать в себя единицу предсказания (PU) или единицу преобразования (TU). В этом случае, единица предсказания и единица преобразования могут разделяться или разбиваться из вышеупомянутой конечной единицы кодирования. Единица предсказания может представлять собой единицу предсказания выборки, и единица преобразования может представлять собой единицу для выведения коэффициента преобразования и/или единицу для выведения остаточного сигнала из коэффициента преобразования.[53] The image splitter 210 may split an input image (or picture, frame) input to the encoder 200 into one or more processing units. For example, a processing unit may be called a coding unit (CU). In this case, the coding unit may be recursively partitioned according to a quadtree-binary-tree-ternary (QTBTTT) structure from a coding tree unit (CTU) or a largest coding unit (LCU). For example, one encoding unit may be decomposed into multiple encoding units of greater depth based on a quadtree structure, a binary tree structure, and/or a ternary tree structure. In this case, for example, the quadtree structure is applied first, and the binary tree structure and/or ternary tree structure may be applied later. Alternatively, the binary tree structure can also be applied first. The encoding process of this document may be performed based on the final encoding unit, which is no longer split. In this case, the largest coding unit can be directly used as the final coding unit based on the coding efficiency according to the characteristics of the image, or, as necessary, the coding unit can be recursively divided into coding units of deeper depth, so that a coding unit having an optimal size , can be used as the final encoding unit. Here, the encoding process may include a prediction, transformation and reconstruction process, which will be described later. As another example, the processing unit may further include a prediction unit (PU) or a transformation unit (TU). In this case, the prediction unit and the transformation unit may be separated or split from the above-mentioned final encoding unit. The prediction unit may be a sample prediction unit, and the transformation unit may be a unit for deriving a transform coefficient and/or a unit for deriving a residual signal from the transform coefficient.

[54] Единица может использоваться взаимозаменяемо с такими терминами, как блок или область в некоторых случаях. В общем случае, блок M×N может представлять выборки, состоящие из M столбцов и N строк или группу коэффициентов преобразования. Выборка может, в общем, представлять пиксел или значение пиксела, и может также представлять только пиксел/значение пиксела компонента яркости или представлять только пиксел/значение пиксела компонента цветности. Выборка может использоваться как термин, соответствующий пикселу или пелу, конфигурирующему одну картинку (или изображению).[54] Unit may be used interchangeably with terms such as block or area in some cases. In general, an M×N block can represent samples consisting of M columns and N rows or a group of transform coefficients. A sample may generally represent a pixel or a pixel value, and may also represent only a luma component pixel/pixel value or represent only a chroma component pixel/pixel value. A sample can be used as a term corresponding to a pixel or pel configuring a single picture (or image).

[55] Вычитатель 231 может генерировать остаточный сигнал (остаточный блок, остаточные выборки или остаточный массив выборок) путем вычитания сигнала предсказания (предсказанного блока, выборок предсказания или массива выборок предсказания), выведенного из предсказателя 220, из входного сигнала изображения (исходного блока, исходных выборок или исходного массива выборок), и сгенерированный остаточный сигнал передается на преобразователь 232. Предсказатель 220 может выполнять предсказание для целевого блока обработки (далее называемого текущим блоком) и генерировать предсказанный блок, включающий в себя выборки предсказания для текущего блока. Предсказатель 220 может определять, применяется ли интра-предсказание или интер-предсказание на текущем блоке или в единице CU. Как описано далее в описании каждого режима предсказания, предсказатель может генерировать различные виды информации, связанной с предсказанием, такой как информация режима предсказания, и передавать сгенерированную информацию на энтропийный кодер 240. Информация о предсказании может кодироваться в энтропийном кодере 240 и выводиться в форме битового потока.[55] Subtractor 231 may generate a residual signal (residual block, residual samples, or residual sample array) by subtracting a prediction signal (predicted block, prediction samples, or prediction sample array) output from predictor 220 from an input image signal (original block, original samples or the original array of samples), and the generated residual signal is transmitted to transformer 232. Predictor 220 may perform a prediction on a target processing block (hereinafter referred to as a current block) and generate a predicted block including prediction samples for the current block. Predictor 220 may determine whether intra-prediction or inter-prediction is applied on the current block or CU. As described later in the description of each prediction mode, the predictor may generate various kinds of prediction-related information, such as prediction mode information, and transmit the generated information to the entropy encoder 240. The prediction information may be encoded in the entropy encoder 240 and output in the form of a bit stream. .

[56] Интра-предсказатель 222 может предсказывать текущий блок путем обращения к выборкам в текущей картинке. Выборки, к которым обращаются, могут быть расположены по соседству с текущим блоком или могут быть разнесены от текущего блока в соответствии с режимом предсказания. В интра-предсказании, режимы предсказания могут включать в себя множество ненаправленных режимов и множество направленных режимов. Ненаправленный режим может включать в себя, например, режим DC или планарный режим. Направленный режим может включать в себя, например, 33 направленных режима предсказания или 65 направленных режимов предсказания в соответствии со степенью детализации направления предсказания. Однако это только пример, и больше или меньше направленных режимов предсказания могут использоваться в соответствии с настройкой. Интра-предсказатель 222 может также определять режим предсказания, применяемый к текущему блоку, с использованием режима предсказания, применяемого к соседнему блоку.[56] Intra predictor 222 may predict the current block by referring to samples in the current picture. The accessed samples may be located adjacent to the current block or may be spaced apart from the current block in accordance with the prediction mode. In intra-prediction, prediction modes may include a plurality of undirected modes and a plurality of directed modes. The omnidirectional mode may include, for example, a DC mode or a planar mode. The directional mode may include, for example, 33 directional prediction modes or 65 directional prediction modes according to the granularity of the prediction direction. However, this is only an example, and more or less directional prediction modes can be used according to the setting. Intra predictor 222 may also determine the prediction mode applied to the current block using the prediction mode applied to the adjacent block.

[57] Интер-предсказатель 221 может выводить предсказанный блок текущего блока на основе опорного блока (опорного массива выборок), определенного вектором движения на опорной картинке. При этом, чтобы уменьшить количество информации движения, передаваемой в режиме интер-предсказания, информация движения может предсказываться в единицах блока, подблока или выборки на основе корреляции информации движения между соседним блоком и текущим блоком. Информация движения может включать в себя вектор движения и индекс опорной картинки. Информация движения может дополнительно включать в себя информацию направления интер-предсказания (L0 предсказание, L1 предсказание, Bi-предсказание и т.п.). В случае интер-предсказания, соседний блок может включать в себя пространственный соседний блок, существующий в текущей картинке, и временной соседний блок, существующий в опорной картинке. Опорная картинка, включающая в себя опорный блок, и опорная картинка, включающая в себя временной соседний блок, могут быть одинаковыми или разными. Временной соседний блок может называться совместно расположенным опорным блоком, совместно расположенной CU (colCU) и т.п., и опорная картинка, включающая в себя временной соседний блок, может называться совместно расположенной картинкой (colPic). Например, интер-предсказатель 221 может конфигурировать список кандидатов информации движения на основе соседних блоков и генерировать информацию, указывающую, какой кандидат используется, чтобы вывести вектор движения и/или индекс опорной картинки текущего блока. Интер-предсказание может выполняться на основе различных режимов предсказания, и, например, в случае режима пропуска и режима объединения, интер-предсказатель 221 может использовать информацию движения соседнего блока как информацию движения текущего блока. В режиме пропуска, в отличие от режима объединения, остаточный сигнал может не передаваться. Режим предсказания вектора движения (MVP) может указывать вектор движения текущего блока с использованием вектора движения соседнего блока как предсказателя вектора движения и сигнализации разности векторов движения.[57] The inter-predictor 221 may output a predicted block of the current block based on a reference block (reference sample array) determined by a motion vector in the reference picture. Here, in order to reduce the amount of motion information transmitted in the inter-prediction mode, motion information may be predicted in block, sub-block, or sample units based on the correlation of motion information between an adjacent block and the current block. The motion information may include a motion vector and a reference picture index. The motion information may further include inter-prediction direction information (L0 prediction, L1 prediction, Bi-prediction, etc.). In the case of inter-prediction, the neighbor block may include a spatial neighbor block existing in the current picture and a temporal neighbor block existing in the reference picture. The reference picture including the reference block and the reference picture including the temporary adjacent block may be the same or different. A temporary neighbor block may be called a co-located reference block, a co-located CU (colCU), etc., and a reference picture including a temporary neighboring block may be called a co-located picture (colPic). For example, inter-predictor 221 may configure a list of motion information candidates based on neighboring blocks and generate information indicating which candidate is used to output the motion vector and/or reference picture index of the current block. Inter-prediction can be performed based on various prediction modes, and, for example, in the case of a skip mode and a merge mode, the inter-predictor 221 can use the motion information of a neighboring block as the motion information of the current block. In the skip mode, unlike the combine mode, the residual signal may not be transmitted. A motion vector prediction (MVP) mode may indicate the motion vector of a current block using the motion vector of an adjacent block as a motion vector predictor and signaling the motion vector difference.

[58] Предсказатель 220 может генерировать сигнал предсказания на основе различных способов предсказания, описанных ниже. Например, предсказатель может не только применять интра-предсказание или интер-предсказание, чтобы предсказать один блок, но также одновременно применять как интра-предсказание, так и интер-предсказание. Это может называться комбинированным интер- и интра-предсказанием (CIIP). К тому же, предсказатель может выполнять внутри-блочное копирование (IBC) для предсказания блока. Внутри-блочное копирование может использоваться для кодирования изображения контента/движущегося изображения игры или тому подобного, например, кодирования экранного контента (SCC). IBC в основном выполняет предсказание в текущей картинке, но может выполняться аналогично интер-предсказанию тем, что опорный блок выводится в текущей картинке. То есть, IBC может использовать по меньшей мере один из методов интер-предсказания, описанных в настоящем документе.[58] Predictor 220 may generate a prediction signal based on various prediction methods described below. For example, a predictor may not only apply intra-prediction or inter-prediction to predict one block, but also simultaneously apply both intra-prediction and inter-prediction. This may be called combined inter- and intra-prediction (CIIP). In addition, the predictor can perform intra-block copying (IBC) to predict a block. Intra-block copying may be used for encoding a content image/moving image of a game or the like, such as screen content encoding (SCC). IBC primarily performs prediction in the current picture, but can be performed similarly to inter-prediction in that the reference block is output in the current picture. That is, the IBC may use at least one of the inter-prediction methods described herein.

[59] Сигнал предсказания, сгенерированный интер-предсказателем 221 и/или интра-предсказателем 222, может использоваться, чтобы генерировать восстановленный сигнал или генерировать остаточный сигнал. Преобразователь 232 может генерировать коэффициенты преобразования путем применения метода преобразования к остаточному сигналу. Например, метод преобразования может включать в себя по меньшей мере одно из дискретного косинусного преобразования (DCT), дискретного синусного преобразования (DST), преобразования на основе графа (GBT) или условно-нелинейного преобразования (CNT). Здесь, GBT означает преобразование, полученное из графа, когда информация отношения между пикселами представлена графом. CNT относится к преобразованию, полученному на основе сигнала предсказания, сгенерированного с использованием всех ранее восстановленных пикселов. К тому же, процесс преобразования может применяться к квадратным блокам пикселов, имеющим одинаковый размер, или может применяться к блокам, имеющим переменный размер, а не квадратным.[59] The prediction signal generated by inter-predictor 221 and/or intra-predictor 222 can be used to generate a reconstructed signal or generate a residual signal. Converter 232 may generate transform coefficients by applying a transform method to the residual signal. For example, the transform method may include at least one of a discrete cosine transform (DCT), a discrete sine transform (DST), a graph-based transform (GBT), or a conditional nonlinear transform (CNT). Here, GBT means the transformation obtained from a graph when the relation information between pixels is represented by the graph. CNT refers to the transformation obtained from the prediction signal generated using all the previously reconstructed pixels. In addition, the transformation process can be applied to square blocks of pixels that are the same size, or can be applied to blocks that are variable in size rather than square.

[60] Квантователь 233 может квантовать коэффициенты преобразования и передавать их на энтропийный кодер 240, и энтропийный кодер 240 может кодировать квантованный сигнал (информацию о квантованных коэффициентах преобразования) и выводить битовый поток. Информация о квантованных коэффициентах преобразования может называться информацией остатка. Квантователь 233 может переупорядочивать квантованные коэффициенты преобразования типа блока в форму одномерного вектора на основе порядка сканирования коэффициентов и генерировать информацию о квантованных коэффициентах преобразования на основе квантованных коэффициентов преобразования в форме одномерного вектора. Энтропийный кодер 240 может выполнять различные способы кодирования, такие как, например, экспоненциальное кодирование Голомба, контекстно-адаптивное кодирование с переменной длиной (CAVLC), контекстно-адаптивное двоичное арифметическое кодирование (CABAC) и тому подобное. Энтропийный кодер 240 может кодировать информацию, необходимую для восстановления видео/изображения, вместе или отдельно от квантованных коэффициентов преобразования (например, значения синтаксических элементов и т.п.). Закодированная информация (например, закодированная информация видео/изображения) может передаваться или сохраняться в единицах уровня сетевой абстракции (NAL) в форме битового потока. Информация видео/изображения может дополнительно включать в себя информацию о различных наборах параметров, таких как набор параметров адаптации (APS), набор параметров картинки (PPS), набор параметров последовательности (SPS) или набор параметров видео (VPS). К тому же, информация видео/изображения может дополнительно включать в себя общую информацию ограничения. В настоящем документе, информация и/или синтаксические элементы, передаваемые/сигнализируемые, как описано ниже, могут кодироваться посредством вышеописанного процесса кодирования и включаться в битовый поток. Битовый поток может передаваться по сети или может сохраняться в цифровом носителе хранения. Сеть может включать в себя сеть вещания и/или сеть связи, и цифровой носитель хранения может включать в себя различные носители хранения, такие как USB, SD, CD, DVD, Blu-ray, HDD, SSD и тому подобное. Передатчик (не показан), передающий сигнал, выведенный из энтропийного кодера 240, и/или модуль хранения (не показан), хранящий сигнал, могут быть сконфигурированы как внутренний/внешний элемент устройства 200 кодирования, и альтернативно, передатчик может быть включен в энтропийный кодер 240.[60] Quantizer 233 may quantize transform coefficients and transmit them to entropy encoder 240, and entropy encoder 240 may encode the quantized signal (quantized transform coefficient information) and output a bit stream. Information about the quantized transform coefficients may be called remainder information. Quantizer 233 may reorder the quantized block type transform coefficients into one-dimensional vector form based on the scanning order of the coefficients, and generate information about the quantized transform coefficients based on the quantized transform coefficients in one-dimensional vector form. Entropy encoder 240 may perform various encoding techniques, such as, for example, exponential Golomb coding, context adaptive variable length coding (CAVLC), context adaptive binary arithmetic coding (CABAC), and the like. Entropy encoder 240 may encode information needed to reconstruct the video/image, together with or separately from the quantized transform coefficients (eg, syntax element values, etc.). Encoded information (eg, encoded video/image information) may be transmitted or stored in Network Abstraction Layer (NAL) units in the form of a bit stream. The video/image information may further include information about various parameter sets, such as an adaptation parameter set (APS), a picture parameter set (PPS), a sequence parameter set (SPS), or a video parameter set (VPS). In addition, the video/image information may further include general restriction information. Herein, information and/or syntax elements transmitted/signaled as described below may be encoded by the above-described encoding process and included in the bitstream. The bitstream may be transmitted over a network or may be stored in a digital storage medium. The network may include a broadcast network and/or a communications network, and the digital storage medium may include various storage media such as USB, SD, CD, DVD, Blu-ray, HDD, SSD and the like. A transmitter (not shown) transmitting the signal output from the entropy encoder 240 and/or a storage module (not shown) storing the signal may be configured as an internal/external element of the encoder 200, and alternatively, the transmitter may be included in the entropy encoder 240.

[61] Квантованные коэффициенты преобразования, выведенные из квантователя 233, могут использоваться, чтобы генерировать сигнал предсказания. Например, остаточный сигнал (остаточный блок или остаточные выборки) может восстанавливаться путем применения деквантования и обратного преобразования к квантованным коэффициентам преобразования деквантователем 234 и обратным преобразователем 235. Сумматор 250 добавляет восстановленный остаточный сигнал к сигналу предсказания, выведенному из предсказателя 220, чтобы сгенерировать восстановленный сигнал (восстановленную картинку, восстановленный блок, восстановленные выборки или восстановленный массив выборок). Если отсутствует остаток для целевого блока обработки, как в случае, когда применяется режим пропуска, предсказанный блок может использоваться как восстановленный блок. Сгенерированный восстановленный сигнал может использоваться для интра-предсказания следующего целевого блока обработки в текущей картинке и может использоваться для интер-предсказания следующей картинки посредством фильтрации, как описано ниже.[61] The quantized transform coefficients output from quantizer 233 can be used to generate a prediction signal. For example, a residual signal (residual block or residual samples) may be recovered by applying dequantization and inverse transform to the quantized transform coefficients by dequantizer 234 and inverse transformer 235. Adder 250 adds the reconstructed residual signal to the prediction signal output from predictor 220 to generate a reconstructed signal ( restored picture, restored block, restored samples or restored array of samples). If there is no remainder for the target processing block, as is the case when the skip mode is applied, the predicted block can be used as a reconstructed block. The generated reconstructed signal can be used to intra-predict the next processing target block in the current picture, and can be used to inter-predict the next picture by filtering, as described below.

[62] Между тем, отображение яркости с масштабированием цветности (LMCS) может применяться во время процесса кодирования и/или восстановления картинки.[62] Meanwhile, luma mapping with chroma scaling (LMCS) can be applied during the encoding and/or reconstruction process of a picture.

[63] Фильтр 260 может улучшать субъективное/объективное качество изображения путем применения фильтрации к восстановленному сигналу. Например, фильтр 260 может генерировать модифицированную восстановленную картинку путем применения различных способов фильтрации к восстановленной картинке и сохранять модифицированную восстановленную картинку в памяти 270, конкретно, в DPB памяти 270. Различные способы фильтрации могут включать в себя, например, фильтрацию устранения блочности, адаптивное смещение выборки (SAO), адаптивный контурный фильтр, двунаправленный фильтр и тому подобное. Фильтр 260 может генерировать различную информацию, относящуюся к фильтрации, и передавать сгенерированную информацию на энтропийный кодер 290, как описано далее в описании каждого способа фильтрации. Информация, относящаяся к фильтрации, может кодироваться энтропийным кодером 290 и выводиться в форме битового потока.[63] Filter 260 may improve subjective/objective image quality by applying filtering to the reconstructed signal. For example, filter 260 may generate a modified reconstructed picture by applying various filtering methods to the reconstructed picture and store the modified reconstructed picture in memory 270, specifically in DPB memory 270. Various filtering methods may include, for example, deblocking filtering, adaptive sampling offset (SAO), adaptive loop filter, bidirectional filter and the like. Filter 260 may generate various filtering-related information and transmit the generated information to entropy encoder 290, as described later in the description of each filtering method. Filtering-related information may be encoded by entropy encoder 290 and output in the form of a bitstream.

[64] Модифицированная восстановленная картинка, передаваемая в память 270, может использоваться как опорная картинка в интер-предсказателе 221. Когда интер-предсказание применяется посредством устройства кодирования, можно избежать рассогласования предсказания между устройством 200 кодирования и устройством 300 декодирования, и эффективность кодирования может улучшаться.[64] The modified reconstructed picture supplied to the memory 270 can be used as a reference picture in the inter-predictor 221. When inter-prediction is applied by the encoding device, prediction mismatch between the encoding device 200 and the decoding device 300 can be avoided, and encoding efficiency can be improved. .

[65] DPB памяти 270 DPB может хранить модифицированную восстановленную картинку для использования в качестве опорной картинки в интер-предсказателе 221. Память 270 может хранить информацию движения блока, из которой выводится (или кодируется) информация движения в текущей картинке, и/или информацию движения блоков в картинке, которые уже были восстановлены. Сохраненная информация движения может передаваться на интер-предсказатель 221, чтобы использоваться как информация движения пространственного соседнего блока или информация движения временного соседнего блока. Память 270 может хранить восстановленные выборки восстановленных блоков в текущей картинке и может переносить восстановленные выборки на интра-предсказатель 222.[65] DPB memory 270 The DPB may store a modified reconstructed picture for use as a reference picture in the inter-predictor 221. Memory 270 may store block motion information from which motion information in the current picture is derived (or encoded) and/or motion information blocks in the picture that have already been restored. The stored motion information may be transmitted to the inter-predictor 221 to be used as spatial neighbor motion information or temporal neighbor motion information. Memory 270 may store reconstructed samples of reconstructed blocks in the current picture and may transfer the reconstructed samples to intra-predictor 222.

[66] Фиг. 3 является диаграммой, схематично иллюстрирующей конфигурацию устройства декодирования видео/изображения, в котором может применяться раскрытие настоящего документа.[66] FIG. 3 is a diagram schematically illustrating the configuration of a video/image decoding apparatus to which the disclosure of the present document can be applied.

[67] Со ссылкой на фиг. 3, устройство 300 декодирования может включать в себя и быть сконфигурировано с энтропийным декодером 310, процессором 320 остатка, предсказателем 330, сумматором 340, фильтром 350 и памятью 360. Предсказатель 330 может включать в себя интер-предсказатель 331 и интра-предсказатель 332. Процессор 320 остатка может включать в себя деквантователь 321 и обратный преобразователь 322. Энтропийный декодер 310, процессор 320 остатка, предсказатель 330, сумматор 340 и фильтр 350, которые были описаны выше, могут быть сконфигурированы одним или более аппаратными компонентами (например, чипсетами декодера или процессорами) в соответствии с вариантом осуществления. К тому же, память 360 может включать в себя буфер декодированных картинок (DPB) или может быть сконфигурирована цифровым носителем хранения. Аппаратный компонент может дополнительно включать в себя память 360 как внутренний/внешний компонент.[67] With reference to FIG. 3, decoding apparatus 300 may include and be configured with an entropy decoder 310, a remainder processor 320, a predictor 330, an adder 340, a filter 350, and a memory 360. The predictor 330 may include an inter-predictor 331 and an intra-predictor 332. Processor Residual 320 may include a dequantizer 321 and an inverse converter 322. The entropy decoder 310, residual processor 320, predictor 330, adder 340, and filter 350 that were described above may be configured by one or more hardware components (e.g., decoder chipsets or processors ) according to an embodiment. In addition, memory 360 may include a decoded picture buffer (DPB) or may be configured with a digital storage medium. The hardware component may further include memory 360 as an internal/external component.

[68] Когда битовый поток, включающий в себя информацию видео/изображения, вводится, устройство 300 декодирования может восстанавливать изображение в ответ на процесс, в котором информация видео/изображения обрабатывается в устройстве кодирования, показанном на фиг. 2. Например, устройство 300 декодирования может выводить единицы/блоки на основе информации, относящейся к разбиению блока, полученной из битового потока. Устройство 300 декодирования может выполнять декодирование с использованием единицы обработки, применяемой в устройстве кодирования. Таким образом, единица обработки для декодирования может представлять собой, например, единицу кодирования, и единица кодирования может разбиваться в соответствии со структурой квадродерева, структурой двоичного дерева и/или структурой троичного дерева из единицы дерева кодирования или наибольшей единицы кодирования. Одна или более единиц преобразования могут выводиться из единицы кодирования. Дополнительно, восстановленный сигнал изображения, декодированный и выведенный устройством 300 декодирования, может воспроизводиться посредством устройства воспроизведения.[68] When a bitstream including video/image information is input, the decoding apparatus 300 can reconstruct an image in response to a process in which the video/image information is processed in the encoding apparatus shown in FIG. 2. For example, the decoding apparatus 300 may output units/blocks based on the block division related information obtained from the bitstream. The decoding apparatus 300 may perform decoding using a processing unit applied in the encoding apparatus. Thus, the processing unit for decoding may be, for example, an encoding unit, and the encoding unit may be divided according to a quadtree structure, a binary tree structure, and/or a ternary tree structure from the encoding tree unit or the largest encoding unit. One or more transformation units may be derived from a coding unit. Further, the reconstructed image signal decoded and output by the decoding apparatus 300 can be reproduced by the playback apparatus.

[69] Устройство 300 декодирования может принимать сигнал, выведенный из устройства кодирования согласно фиг. 2, в форме битового потока, и принятый сигнал может декодироваться посредством энтропийного декодера 310. Например, энтропийный декодер 310 может выполнять синтаксический анализ битового потока, чтобы вывести информацию (например, информацию видео/изображения), необходимую для восстановления изображения (или восстановления картинки). Информация видео/изображения может дополнительно включать в себя информацию о различных наборах параметров, таких как набор параметров адаптации (APS), набор параметров картинки (PPS), набор параметров последовательности (SPS) или набор параметров видео (VPS). К тому же, информация видео/изображения может дополнительно включать в себя общую информацию ограничения. Устройство декодирования может дополнительно декодировать картинку на основе информации о наборе параметров и/или общей информации ограничения. Сигнализированная/принятая информация и/или синтаксические элементы, описанные далее в настоящем документе, могут быть декодированы в процессе декодирования и получены из битового потока. Например, энтропийный декодер 310 декодирует информацию в битовом потоке на основе способа кодирования, такого как экспоненциальное кодирование Голомба, CAVLC или CABAC, и выводит синтаксические элементы, требуемые для восстановления изображения, и квантованные значения коэффициентов преобразования для остатка. Более конкретно, способ энтропийного декодирования CABAC может принимать бин, соответствующий каждому синтаксическому элементу в битовом потоке, определять контекстную модель с использованием информации декодирования целевого синтаксического элемента, информации декодирования для декодирования целевого блока или информации символа/бина, декодированного на предыдущей стадии, и выполнять арифметическое декодирование на бине путем предсказания вероятности появления бина в соответствии с определенной контекстной моделью, и генерировать символ, соответствующий значению каждого синтаксического элемента. В этом случае, способ энтропийного декодирования CABAC может обновлять контекстную модель с использованием информации декодированного символа/бина для контекстной модели следующего символа/бина после определения контекстной модели. Информация, связанная с предсказанием, среди информации, декодированной энтропийным декодером 310, может предоставляться на предсказатель 330, и информация об остатке, на котором энтропийное декодирование было выполнено в энтропийном декодере 310, то есть, квантованные коэффициенты преобразования и связанная информация параметров, может вводиться в деквантователь 321. К тому же, информация о фильтрации среди информации, декодированной энтропийным декодером 310, может предоставляться на фильтр 350. Между тем, приемник (не показан) для приема сигнала, выведенного из устройства кодирования, может быть дополнительно сконфигурирован как внутренний/внешний элемент устройства 300 декодирования, или приемник может быть компонентом энтропийного декодера 310. Между тем, устройство декодирования в соответствии с настоящим документом может называться устройством декодирования видео/изображения/картинки, и устройство декодирования может классифицироваться на декодер информации (декодер информации видео/изображения/картинки) и декодер выборки (декодер выборки видео/изображения/картинки). Декодер информации может включать в себя энтропийный декодер 310, и декодер выборки может включать в себя по меньшей мере одно из деквантователя 321, обратного преобразователя 322, предсказателя 330, сумматора 340, фильтра 350 и памяти 360.[69] The decoding apparatus 300 may receive a signal output from the encoding apparatus according to FIG. 2, in the form of a bitstream, and the received signal may be decoded by an entropy decoder 310. For example, the entropy decoder 310 may parse the bitstream to output information (e.g., video/image information) needed to reconstruct an image (or reconstruct a picture) . The video/image information may further include information about various parameter sets, such as an adaptation parameter set (APS), a picture parameter set (PPS), a sequence parameter set (SPS), or a video parameter set (VPS). In addition, the video/image information may further include general restriction information. The decoding apparatus may further decode the picture based on the parameter set information and/or general constraint information. The signaled/received information and/or syntax elements described later herein may be decoded during the decoding process and obtained from the bit stream. For example, entropy decoder 310 decodes information in a bit stream based on an encoding method such as exponential Golomb coding, CAVLC, or CABAC, and outputs syntax elements required for image reconstruction and quantized values of transform coefficients for the remainder. More specifically, the CABAC entropy decoding method may receive a bin corresponding to each syntactic element in a bit stream, determine a context model using decoding information of a target syntactic element, decoding information for decoding a target block, or information of a symbol/bin decoded in a previous stage, and perform arithmetic decoding on a bin by predicting the probability of occurrence of the bin according to a certain context model, and generating a symbol corresponding to the meaning of each syntactic element. In this case, the CABAC entropy decoding method can update the context model using the decoded symbol/bin information for the context model of the next symbol/bin after determining the context model. Prediction-related information, among the information decoded by the entropy decoder 310, may be provided to the predictor 330, and information about the remainder on which entropy decoding has been performed in the entropy decoder 310, that is, quantized transform coefficients and related parameter information, may be input to dequantizer 321. In addition, filtering information among the information decoded by the entropy decoder 310 may be provided to the filter 350. Meanwhile, a receiver (not shown) for receiving a signal output from the encoding device may be further configured as an internal/external element decoding device 300, or the receiver may be a component of the entropy decoder 310. Meanwhile, the decoding device according to this document may be called a video/image/picture decoding device, and the decoding device may be classified into an information decoder (video/image/picture information decoder) and a sampling decoder (video/image/picture sampling decoder). The information decoder may include an entropy decoder 310, and the sample decoder may include at least one of a dequantizer 321, an inverter 322, a predictor 330, an adder 340, a filter 350, and a memory 360.

[70] Деквантователь 321 может деквантовать квантованные коэффициенты преобразования, чтобы выводить коэффициенты преобразования. Деквантователь 321 может переупорядочивать квантованные коэффициенты преобразования в форме двумерного блока. В этом случае, переупорядочивание может выполняться на основе порядка сканирования коэффициентов, выполняемого устройством кодирования. Деквантователь 321 может выполнять деквантование для квантованных коэффициентов преобразования с использованием параметра квантования (например, информации размера шага квантования) и получать коэффициенты преобразования.[70] Dequantizer 321 may dequantize the quantized transform coefficients to output transform coefficients. The dequantizer 321 may reorder the quantized transform coefficients in the form of a two-dimensional block. In this case, reordering may be performed based on the scanning order of the coefficients performed by the encoder. The dequantizer 321 may perform dequantization on the quantized transform coefficients using a quantization parameter (eg, quantization step size information) and obtain the transform coefficients.

[71] Обратный преобразователь 322 обратно преобразует коэффициенты преобразования, чтобы получить остаточный сигнал (остаточный блок, остаточный массив выборок).[71] The inverse converter 322 inversely converts the transform coefficients to obtain a residual signal (residual block, residual sample array).

[72] Предсказатель 330 может выполнять предсказание на текущем блоке и генерировать предсказанный блок, включающий в себя выборки предсказания текущего блока. Предсказатель может определять, применяется ли интра-предсказание или интер-предсказание к текущему блоку, на основе информации о предсказании, выведенной из энтропийного декодера 310, и может определять конкретный режим интра-/интер-предсказания.[72] Predictor 330 may perform prediction on the current block and generate a predicted block including prediction samples of the current block. The predictor can determine whether intra-prediction or inter-prediction is applied to the current block based on the prediction information output from the entropy decoder 310, and can determine a particular intra/inter-prediction mode.

[73] Предсказатель 320 может генерировать сигнал предсказания на основе различных способов предсказания, описанных ниже. Например, предсказатель может не только применять интра-предсказание или интер-предсказание, чтобы предсказывать один блок, но также одновременно применять интра-предсказание и интер-предсказание. Это может называться комбинированным интер- и интра-предсказанием (CIIP). К тому же, предсказатель может выполнять внутри-блочное копирование (IBC) для предсказания блока. Внутри-блочное копирование может использоваться для кодирования изображения контента/движущегося изображения игры или тому подобного, например, кодирования экранного контента (SCC). IBC в основном выполняет предсказание в текущей картинке, но может выполняться аналогично интер-предсказанию тем, что опорный блок выводится в текущей картинке. То есть, IBC может использовать по меньшей мере один из методов интер-предсказания, описанных в настоящем документе.[73] Predictor 320 may generate a prediction signal based on various prediction methods described below. For example, a predictor may not only apply intra-prediction or inter-prediction to predict one block, but also simultaneously apply intra-prediction and inter-prediction. This may be called combined inter- and intra-prediction (CIIP). In addition, the predictor can perform intra-block copying (IBC) to predict a block. Intra-block copying may be used for encoding a content image/moving image of a game or the like, such as screen content encoding (SCC). IBC primarily performs prediction in the current picture, but can be performed similarly to inter-prediction in that the reference block is output in the current picture. That is, the IBC may use at least one of the inter-prediction methods described herein.

[74] Интра-предсказатель 332 может предсказывать текущий блок путем ссылки на выборки в текущей картинке. Указанные выборки могут быть расположены по соседству с текущим блоком или могут быть разнесены от текущего блока в соответствии с режимом предсказания. В интра-предсказании, режимы предсказания могут включать в себя множество ненаправленных режимов и множество направленных режимов. Интра-предсказатель 332 может определять режим предсказания, применяемый к текущему блоку, с использованием режима предсказания, применяемого к соседнему блоку.[74] Intra predictor 332 may predict the current block by reference to samples in the current picture. These samples may be located adjacent to the current block or may be spaced apart from the current block in accordance with the prediction mode. In intra-prediction, prediction modes may include a plurality of undirected modes and a plurality of directed modes. Intra predictor 332 may determine the prediction mode applied to the current block using the prediction mode applied to the adjacent block.

[75] Интер-предсказатель 331 может выводить предсказанный блок для текущего блока на основе опорного блока (опорного массива выборок), определенного вектором движения на опорной картинке. В этом случае, чтобы уменьшить количество информации движения, передаваемой в режиме интер-предсказания, информация движения может предсказываться в единицах блоков, подблоков или выборок на основе корреляции информации движения между соседним блоком и текущим блоком. Информация движения может включать в себя вектор движения и индекс опорной картинки. Информация движения может дополнительно включать в себя информацию о направлении интер-предсказания (L0 предсказание, L1 предсказание, Bi-предсказание и т.п.). В случае интер-предсказания, соседний блок может включать в себя пространственный соседний блок, существующий в текущей картинке, и временной соседний блок, существующий в опорной картинке. Например, интер-предсказатель 331 может конструировать список кандидатов информации движения на основе соседних блоков и выводить вектор движения текущего блока и/или индекс опорной картинки на основе принятой информации выбора кандидата. Интер-предсказание может выполняться на основе различных режимов предсказания, и информация о предсказании может включать в себя информацию, указывающую режим интер-предсказания для текущего блока.[75] The inter-predictor 331 may output a predicted block for the current block based on a reference block (reference sample array) determined by a motion vector in the reference picture. In this case, in order to reduce the amount of motion information transmitted in the inter-prediction mode, the motion information may be predicted in units of blocks, sub-blocks, or samples based on the correlation of the motion information between a neighboring block and the current block. The motion information may include a motion vector and a reference picture index. The motion information may further include inter-prediction direction information (L0 prediction, L1 prediction, Bi-prediction, etc.). In the case of inter-prediction, the neighbor block may include a spatial neighbor block existing in the current picture and a temporal neighbor block existing in the reference picture. For example, the inter-predictor 331 may construct a motion information candidate list based on neighboring blocks and output a motion vector of the current block and/or a reference picture index based on the received candidate selection information. Inter-prediction may be performed based on various prediction modes, and the prediction information may include information indicating an inter-prediction mode for the current block.

[76] Сумматор 340 может генерировать восстановленный сигнал (восстановленную картинку, восстановленный блок или восстановленный массив выборок) путем добавления полученного остаточного сигнала к сигналу предсказания (предсказанному блоку или предсказанному массиву выборок), выведенному из предсказателя 330. Если отсутствует остаток для целевого блока обработки, как в случае, когда применяется режим пропуска, предсказанный блок может использоваться как восстановленный блок.[76] Adder 340 may generate a reconstructed signal (reconstructed picture, reconstructed block, or reconstructed sample array) by adding the resulting residual signal to the prediction signal (predicted block or predicted sample array) output from predictor 330. If there is no residual for the target processing block, as in the case when the skip mode is applied, the predicted block can be used as a reconstructed block.

[77] Сумматор 340 может называться реконструктором или генератором восстановленного блока. Сгенерированный восстановленный сигнал может использоваться для интра-предсказания следующего блока, подлежащего обработке в текущей картинке, и, как описано ниже, может также выводиться посредством фильтрации или может использоваться для интер-предсказания следующей картинки.[77] The adder 340 may be referred to as a reconstructor or reconstructed block generator. The generated reconstructed signal can be used for intra-prediction of the next block to be processed in the current picture, and, as described below, can also be output by filtering or can be used for inter-prediction of the next picture.

[78] Между тем, отображение яркости с масштабированием цветности (LMCS) может применяться в процессе декодирования картинки.[78] Meanwhile, luminance chroma scaling (LMCS) display can be applied in the picture decoding process.

[79] Фильтр 350 может улучшать субъективное/объективное качество изображения путем применения фильтрации к восстановленному сигналу. Например, фильтр 350 может генерировать модифицированную восстановленную картинку путем применения различных способов фильтрации к восстановленной картинке и сохранять модифицированную восстановленную картинку в памяти 360, конкретно, в DPB памяти 360. Различные способы фильтрации могут включать в себя, например, фильтрацию устранения блочности, адаптивное смещение выборки, адаптивный контурный фильтр, двунаправленный фильтр и тому подобное.[79] Filter 350 may improve subjective/objective image quality by applying filtering to the reconstructed signal. For example, filter 350 may generate a modified reconstructed picture by applying various filtering methods to the reconstructed picture and store the modified reconstructed picture in memory 360, specifically in DPB memory 360. Various filtering methods may include, for example, deblocking filtering, adaptive sampling offset , adaptive loop filter, bidirectional filter and the like.

[80] (Модифицированная) восстановленная картинка, хранящаяся в DPB памяти 360, может использоваться как опорная картинка в интер-предсказателе 331. Память 360 может хранить информацию движения блока, из которого выводится (или декодируется) информация движения в текущей картинке, и/или информацию движения блоков в картинке, которые уже были восстановлены. Сохраненная информация движения может передаваться на интер-предсказатель 331 для использования в качестве информации движения пространственного соседнего блока или информации движения временного соседнего блока. Память 360 может хранить восстановленные выборки восстановленных блоков в текущей картинке и переносить восстановленные выборки на интра-предсказатель 332.[80] The (modified) reconstructed picture stored in the DPB memory 360 may be used as a reference picture in the inter-predictor 331. The memory 360 may store motion information of a block from which motion information in the current picture is derived (or decoded), and/or information about the movement of blocks in the picture that have already been restored. The stored motion information may be transmitted to the inter-predictor 331 for use as spatial neighbor motion information or temporal neighbor motion information. Memory 360 may store reconstructed samples of reconstructed blocks in the current picture and transfer the reconstructed samples to intra-predictor 332.

[81] В настоящем описании, варианты осуществления, описанные в предсказателе 330, деквантователе 321, обратном преобразователе 322 и фильтре 350 устройства 300 декодирования, могут применяться аналогичным образом или соответствовать предсказателю 220, квантователю 234, обратному преобразователю 235 и фильтру 260 устройства 200 кодирования.[81] In the present description, the embodiments described in the predictor 330, dequantizer 321, inverse transformer 322, and filter 350 of the decoding device 300 may be applied in a similar manner or correspond to the predictor 220, quantizer 234, inverse transformer 235, and filter 260 of the encoding device 200.

[82] Как описано выше, в выполнении кодирования видео, предсказание выполняется, чтобы повысить эффективность сжатия. Посредством этого, может генерироваться предсказанный блок, включающий в себя выборки предсказания для текущего блока, как блока, подлежащего кодированию (т.е. целевого блока кодирования). Здесь, предсказанный блок включает в себя выборки предсказания в пространственной области (или области пикселов). Предсказанный блок выводится одинаково в устройстве кодирования и устройстве декодирования, и устройство кодирования может сигнализировать информацию (остаточную информацию) об остатке между исходным блоком и предсказанным блоком, а не исходное значение выборки исходного блока, на устройство декодирования, тем самым повышая эффективность кодирования изображения. Устройство декодирования может выводить остаточный блок, включающий в себя остаточные выборки, на основе остаточной информации, суммировать остаточный блок и предсказанный блок, чтобы генерировать восстановленные блоки, включающие в себя восстановленные выборки, и генерировать восстановленную картинку, включающую в себя восстановленные блоки.[82] As described above, in performing video encoding, prediction is performed to improve compression efficiency. By doing this, a predicted block including prediction samples for the current block as a block to be encoded (ie, an encoding target block) can be generated. Here, the predicted block includes prediction samples in a spatial domain (or pixel domain). The predicted block is output equally in the encoding device and the decoding device, and the encoding device can signal information (residual information) about the remainder between the original block and the predicted block, rather than the original sample value of the original block, to the decoding device, thereby improving the efficiency of image encoding. The decoding apparatus may output a residual block including residual samples based on the residual information, add the residual block and the predicted block to generate reconstructed blocks including the reconstructed samples, and generate a reconstructed picture including the reconstructed blocks.

[83] Остаточная информация может генерироваться в процессе преобразования и квантования. Например, устройство кодирования может выводить остаточный блок между исходным блоком и предсказанным блоком и выполнять процесс преобразования на остаточных выборках (остаточном массиве выборок), включенных в остаточный блок, чтобы вывести коэффициенты преобразования, выполнять процесс квантования на коэффициентах преобразования, чтобы вывести квантованные коэффициенты преобразования, и сигнализировать связанную остаточную информацию на устройство декодирования (посредством битового потока). Здесь, остаточная информация может включать в себя информацию значения квантованных коэффициентов преобразования, информацию местоположения, метод преобразования, ядро преобразования, параметр квантования и т.п. Устройство декодирования может выполнять процесс деквантования/обратного преобразования на основе остаточной информации и выводить остаточные выборки (или остаточные блоки). Устройство декодирования может генерировать восстановленную картинку на основе предсказанного блока и остаточного блока. Устройство кодирования может также деквантовать/обратно преобразовывать квантованные коэффициенты преобразования, для ссылки для интер-предсказания более поздней картинки, чтобы вывести остаточный блок и сгенерировать на его основе восстановленную картинку.[83] Residual information can be generated during the conversion and quantization process. For example, the encoding device may output a residual block between an original block and a predicted block, and perform a transform process on the residual samples (residual array of samples) included in the residual block to output transform coefficients, perform a quantization process on the transform coefficients to output quantized transform coefficients, and signal the associated residual information to the decoding device (via a bit stream). Here, the residual information may include quantized transform coefficient value information, location information, transform method, transform kernel, quantization parameter, and the like. The decoding apparatus may perform a dequantization/deconversion process based on the residual information and output residual samples (or residual blocks). The decoding apparatus can generate a reconstructed picture based on the predicted block and the residual block. The encoder may also dequantize/deconvert the quantized transform coefficients to reference inter-prediction of a later picture to output a residual block and generate a reconstructed picture from it.

[84] В настоящем документе, по меньшей мере одно из квантования/деквантования и/или преобразования/обратного преобразования может опускаться. Когда квантование/деквантование опускается, квантованный коэффициент преобразования может называться коэффициентом преобразования. Когда преобразование/ обратное преобразование опускается, коэффициент преобразования может называться коэффициентом или остаточным коэффициентом или может по-прежнему называться коэффициентом преобразования для единообразия выражения.[84] Herein, at least one of quantization/dequantization and/or transform/inverse transform may be omitted. When quantization/dequantization is omitted, the quantized conversion coefficient may be referred to as the conversion coefficient. When the transform/inverse transform is omitted, the conversion factor may be called the coefficient or residual coefficient, or may still be called the conversion factor for consistency of expression.

[85] В настоящем документе, квантованный коэффициент преобразования и коэффициент преобразования могут называться коэффициентом преобразования и масштабированным коэффициентом преобразования, соответственно. В этом случае, остаточная информация может включать в себя информацию о коэффициенте(ах) преобразования, и информация о коэффициенте(ах) преобразования может сигнализироваться через синтаксис кодирования остатка. Коэффициенты преобразования могут выводиться на основе остаточной информации (или информации о коэффициенте(ах) преобразования), и масштабированные коэффициенты преобразования могут выводиться через обратное преобразование (масштабирование) на коэффициентах преобразования. Остаточные выборки могут выводиться на основе обратного преобразования (преобразования) масштабированных коэффициентов преобразования. Это может быть применено/выражено также в других частях настоящего документа.[85] Herein, the quantized transform coefficient and the transform coefficient may be referred to as the transform coefficient and the scaled transform coefficient, respectively. In this case, the residual information may include information about the transform coefficient(s), and the information about the transform coefficient(s) may be signaled through a residual encoding syntax. Transform coefficients may be derived based on the residual information (or information about the transform coefficient(s)), and scaled transform coefficients may be derived via inverse transform (scaling) on the transform coefficients. Residual samples can be inferred based on the inverse transform (transform) of the scaled transform coefficients. This may be applied/expressed in other parts of this document as well.

[86] Предсказатель устройства кодирования/устройства декодирования может выводить выборки предсказания путем выполнения интер-предсказания в единицах блоков. Интер-предсказание может быть предсказанием, выведенным способом, который зависит от элементов данных (например, значений выборок или информации движения) картинки (картинок) иных, чем текущая картинка. Когда интер-предсказание применяется к текущему блоку, предсказанный блок (массивы выборок предсказания) для текущего блока может выводиться на основе опорного блока (опорного массива выборок), определенного вектором движения на опорной картинке, указанной индексом опорной картинки. В этом случае, чтобы уменьшить количество информации движения, передаваемой в режиме интер-предсказания, информация движения текущего блока может предсказываться в единицах блоков, подблоков или выборок на основе корреляции информации движения между соседним блоком и текущим блоком. Информация движения может включать в себя вектор движения и индекс опорной картинки. Информация движения может дополнительно включать в себя информацию типа интер-предсказания (L0 предсказание, L1 предсказание, Bi-предсказание и т.д.). Когда применяется интер-предсказание, соседние блоки могут включать в себя пространственный соседний блок, существующий в текущей картинке, и временной соседний блок, существующий в опорной картинке. Опорная картинка, включающая в себя опорный блок, и опорная картинка, включающая в себя временной соседний блок, могут быть одинаковыми или разными. Временной соседний блок может называться совместно расположенным опорным блоком, совместно расположенной CU (colCU) и т.п., и опорная картинка, включающая в себя временной соседний блок, может называться совместно расположенной картинкой (colPic). Например, список кандидатов информации движения может быть сконструирован на основе соседних блоков текущего блока, и может сигнализироваться информация флага или индекса, указывающая, какой кандидат выбран (используется), чтобы вывести вектор движения и/или индекс опорной картинки текущего блока. Интер-предсказание может выполняться на основе различных режимов предсказания. Например, в режиме пропуска и режиме объединения, информация движения текущего блока может быть той же самой, что и информация движения выбранного соседнего блока. В режиме пропуска, в отличие от режима объединения, остаточный сигнал может не передаваться. В случае режима предсказания вектора движения (MVP), вектор движения выбранного соседнего блока может использоваться как предсказатель вектора движения, и разность векторов движения может сигнализироваться. В этом случае, вектор движения текущего блока может выводиться с использованием суммы предсказателя вектора движения и разности векторов движения.[86] The encoder/decoder predictor can output prediction samples by performing inter-prediction in units of blocks. An inter-prediction may be a prediction derived in a manner that depends on data elements (eg, sample values or motion information) of picture(s) other than the current picture. When inter-prediction is applied to the current block, the predicted block (prediction sample arrays) for the current block can be output based on the reference block (reference sample array) determined by the motion vector on the reference picture indicated by the reference picture index. In this case, in order to reduce the amount of motion information transmitted in the inter-prediction mode, the motion information of the current block may be predicted in units of blocks, sub-blocks, or samples based on the correlation of the motion information between a neighboring block and the current block. The motion information may include a motion vector and a reference picture index. The motion information may further include inter-prediction type information (L0 prediction, L1 prediction, Bi-prediction, etc.). When inter-prediction is applied, neighboring blocks may include a spatial neighboring block existing in the current picture and a temporal neighboring block existing in the reference picture. The reference picture including the reference block and the reference picture including the temporary adjacent block may be the same or different. A temporary neighbor block may be called a co-located reference block, a co-located CU (colCU), etc., and a reference picture including a temporary neighboring block may be called a co-located picture (colPic). For example, a motion information candidate list may be constructed based on neighboring blocks of the current block, and flag or index information indicating which candidate is selected (used) to output the motion vector and/or reference picture index of the current block may be signaled. Inter-prediction can be performed based on various prediction modes. For example, in the skip mode and the merge mode, the motion information of the current block may be the same as the motion information of the selected adjacent block. In the skip mode, unlike the combine mode, the residual signal may not be transmitted. In the case of a motion vector prediction (MVP) mode, the motion vector of a selected neighboring block can be used as a motion vector predictor, and the motion vector difference can be signaled. In this case, the motion vector of the current block can be output using the sum of the motion vector predictor and the motion vector difference.

[87] Информация движения может включать в себя информацию движения L0 и/или информацию движения L1 в соответствии с типом интер-предсказания (L0 предсказание, L1 предсказание, Bi-предсказание и т.д.). Вектор движения в направлении L0 может называться вектором движения L0 или MVL0, и вектор движения в направлении L1 может называться вектором движения L1 или MVL1. Предсказание на основе вектора движения L0 может называться L0 предсказанием, предсказание на основе вектора движения L1 может называться L1 предсказанием, и предсказание на основе вектора движения L0 и вектора движения L1 может называться bi-предсказанием. Здесь, вектор движения L0 может указывать вектор движения, ассоциированный со списком L0 опорных картинок (L0), и вектор движения L1 может указывать вектор движения, ассоциированный со списком L1 опорных картинок (L1). Список L0 опорных картинок может включать в себя картинки, которые являются более ранними в порядке вывода, чем текущая картинка, как опорные картинки, и список L1 опорных картинок может включать в себя картинки, которые являются более поздними в порядке вывода, чем текущая картинка. Предыдущие картинки могут называться прямыми (опорными) картинками, и последующие картинки могут называться обратными (опорными) картинками. Список L0 опорных картинок может дополнительно включать в себя картинки, которые являются более поздними в порядке вывода, чем текущая картинка, как опорные картинки. В этом случае, предыдущие картинки могут индексироваться первыми в списке L0 опорных картинок, и последующие картинки могут индексироваться позже. Список L1 опорных картинок может дополнительно включать в себя картинки, предшествующие в порядке вывода текущей картинке, как опорные картинки. В этом случае, последующие картинки могут индексироваться первыми в списке 1 опорных картинок, и предыдущие картинки могут индексироваться позже. Порядок вывода может соответствовать порядку подсчета порядка картинок (POC).[87] The motion information may include L0 motion information and/or L1 motion information according to the type of inter-prediction (L0 prediction, L1 prediction, Bi-prediction, etc.). The motion vector in the L0 direction may be referred to as the L0 motion vector or MVL0, and the motion vector in the L1 direction may be referred to as the L1 motion vector or MVL1. Prediction based on motion vector L0 may be called L0 prediction, prediction based on motion vector L1 may be called L1 prediction, and prediction based on motion vector L0 and motion vector L1 may be called bi-prediction. Here, the motion vector L0 may indicate a motion vector associated with the reference picture list L0, and the motion vector L1 may indicate a motion vector associated with the reference picture list L1. The reference picture list L0 may include pictures that are earlier in the output order than the current picture as reference pictures, and the reference picture list L1 may include pictures that are later in the output order than the current picture. Previous pictures may be called forward (reference) pictures, and subsequent pictures may be called reverse (reference) pictures. The reference picture list L0 may further include pictures that are later in the output order than the current picture as reference pictures. In this case, previous pictures may be indexed first in the reference picture list L0, and subsequent pictures may be indexed later. The reference picture list L1 may further include pictures preceding the current picture in output order as reference pictures. In this case, subsequent pictures may be indexed first in the reference picture list 1, and previous pictures may be indexed later. The order of output can correspond to the order of picture order counting (POC).

[88] Фиг. 4 показывает пример иерархической структуры для кодированного изображения/видео.[88] FIG. 4 shows an example of a hierarchical structure for a coded image/video.

[89] Со ссылкой на фиг. 4, кодированное изображение/видео делится на VCL (уровень кодирования видео), который имеет дело с процессом декодирования изображения/видео самим по себе, подсистему, которая передает и хранит кодируемую информацию, и уровень сетевой абстракции (NAL), который существует между VCL и подсистемами и отвечает за функции сетевой абстракции.[89] With reference to FIG. 4, the encoded image/video is divided into VCL (Video Coding Layer) which deals with the image/video decoding process itself, a subsystem which transmits and stores the encoded information, and a Network Abstraction Layer (NAL) which exists between the VCL and subsystems and is responsible for network abstraction functions.

[90] VCL может генерировать данные VCL, включающие в себя сжатые данные изображения (данные вырезки), или генерировать наборы параметров, включая набор параметров картинки (Picture Parameter Set: PPS), набор параметров последовательности (Sequence Parameter Set: SPS), набор параметров видео (Video Parameter Set: VPS) и т.д. или сообщение вспомогательной информации расширения (SEI), дополнительно необходимое для процесса декодирования изображения.[90] The VCL can generate VCL data including compressed image data (cut data), or generate parameter sets including a Picture Parameter Set (PPS), a Sequence Parameter Set (SPS), a parameter set video (Video Parameter Set: VPS), etc. or an extension auxiliary information (SEI) message further required for the image decoding process.

[91] В NAL, единица NAL может генерироваться путем добавления информации заголовка (заголовка единицы NAL) к исходной полезной нагрузке байтовой последовательности (RBSP), генерируемой в VCL. В этом случае, RBSP ссылается на данные вырезки, наборы параметров, сообщения SEI и т.д., генерируемые в VCL. Заголовок единицы NAL может включать в себя информацию типа единицы NAL, определенную в соответствии с данными RBSP, включенными в соответствующую единицу NAL.[91] In NAL, a NAL unit can be generated by adding header information (NAL unit header) to the raw byte sequence payload (RBSP) generated in the VCL. In this case, RBSP refers to slice data, parameter sets, SEI messages, etc., generated in the VCL. The NAL unit header may include NAL unit type information determined in accordance with the RBSP data included in the corresponding NAL unit.

[92] Как показано на чертеже, единица NAL может быть разделена на единицу VCL NAL и единицу не-VCL NAL в соответствии с RBSP, генерируемой в VCL. Единица VCL NAL может означать единицу NAL, включающую в себя информацию (данные вырезки) об изображении, и единица не-VCL NAL может означать единицу NAL, содержащую информацию (набор параметров или сообщение SEI), необходимую для декодирования изображения.[92] As shown in the drawing, a NAL unit can be divided into a VCL NAL unit and a non-VCL NAL unit according to the RBSP generated in the VCL. A VCL NAL unit may refer to a NAL unit including information (cut data) about an image, and a non-VCL NAL unit may refer to a NAL unit including information (a parameter set or SEI message) necessary for decoding the image.

[93] Вышеописанная единица VCL NAL и единица не-VCL NAL могут передаваться через сеть путем присоединения информации заголовка в соответствии со стандартом данных подсистемы. Например, единица NAL может быть преобразована в форму данных предопределенного стандарта, такого как файловый формат H.266/VVC, транспортный протокол реального времени (RTP), транспортный поток (TS) и т.д., и передаваться через различные сети.[93] The above-described VCL NAL unit and the non-VCL NAL unit can be transmitted through the network by attaching header information in accordance with the subsystem data standard. For example, a NAL unit may be converted into a data form of a predefined standard such as H.266/VVC file format, Real Time Transport Protocol (RTP), Transport Stream (TS), etc., and transmitted over various networks.

[94] Как описано выше, в единице NAL, тип единицы NAL может быть определен в соответствии со структурой данных RBSP, включенной в соответствующую единицу NAL, и информация об этом типе единицы NAL может сохраняться и сигнализироваться в заголовке единицы NAL.[94] As described above, in a NAL unit, a NAL unit type may be determined according to an RBSP data structure included in a corresponding NAL unit, and information about this NAL unit type may be stored and signaled in a NAL unit header.

[95] Например, единица NAL может быть грубо проклассифицирована на тип единицы VCL NAL и тип единицы не-VCL NAL в зависимости от того, включает ли единица NAL информацию об изображении (данные вырезки). Тип единицы VCL NAL может быть классифицирован в соответствии со свойством и типом картинки, включенной в единицу VCL NAL, и тип единицы не-VCL NAL может быть классифицирован в соответствии с типом набора параметров.[95] For example, a NAL unit can be roughly classified into a VCL NAL unit type and a non-VCL NAL unit type depending on whether the NAL unit includes image information (cut data). The VCL NAL unit type can be classified according to the property and type of the picture included in the VCL NAL unit, and the non-VCL NAL unit type can be classified according to the parameter set type.

[96] Далее приведен пример типа единицы NAL, определенного в соответствии с типом набора параметров, включенного в тип единицы не-VCL NAL.[96] The following is an example of a NAL unit type defined according to a parameter set type included in a non-VCL NAL unit type.

[97] - единица APS (набор параметров адаптации) NAL: Тип для единицы NAL, включающей APS[97] - APS unit (Adaptation Parameter Set) NAL: Type for NAL unit including APS

[98] - единица DPS (набор параметров декодирования) NAL: Тип для единицы NAL, включающей DPS[98] - DPS unit (Decode Parameter Set) NAL: Type for NAL unit including DPS

[99] - единица VPS (набор параметров видео) NAL: Тип для единицы NAL, включающей VPS[99] - VPS unit (Video Parameter Set) NAL: Type for NAL unit including VPS

[100] - единица SPS (набор параметров последовательности) NAL: Тип для единицы NAL, включающей SPS[100] - SPS unit (Sequence Parameter Set) NAL: Type for NAL unit including SPS

[101] - единица PPS (набор параметров картинки) NAL: Тип для единицы NAL, включающей PPS[101] - PPS unit (Picture Parameter Set) NAL: Type for NAL unit including PPS

[102] - единица PH (заголовок картинки) NAL: Тип для единицы NAL, включающей PH[102] - PH unit (picture title) NAL: Type for NAL unit including PH

[103] Вышеописанные типы единицы NAL имеют информацию синтаксиса для типа единицы NAL, и информация синтаксиса может сохраняться и сигнализироваться в заголовке единицы NAL. Например, информация синтаксиса может представлять собой nal_unit_type, и типы единицы NAL могут быть определены значением nal_unit_type.[103] The above-described NAL unit types have syntax information for the NAL unit type, and the syntax information may be stored and signaled in a NAL unit header. For example, the syntax information may be nal_unit_type, and NAL unit types may be determined by the value of nal_unit_type.

[104] Между тем, как описано выше, одна картинка может включать в себя множество вырезок, и одна вырезка может включать в себя заголовок вырезки и данные вырезки. В этом случае, один заголовок картинки может добавляться к множеству вырезок (заголовок вырезки и набор данных вырезки) в одной картинке. Заголовок картинки (синтаксис заголовка картинки) может включать в себя информацию/параметры, в общем применимые к картинке. В этом документе, вырезка может смешиваться или заменяться на группу мозаичных элементов. Также, в этом документе, заголовок вырезки может смешиваться или заменяться на заголовок группы мозаичных элементов.[104] Meanwhile, as described above, one picture may include a plurality of cutouts, and one cutout may include a cutout title and cutout data. In this case, one picture header can be added to multiple clippings (a clipping title and a clipping data set) in one picture. The picture title (picture title syntax) may include information/parameters generally applicable to the picture. In this document, the clipping may be mixed or replaced with a group of tiles. Also, in this document, the title of the cut may be mixed or replaced with the title of the group of tiles.

[105] Заголовок вырезки (синтаксис заголовка вырезки или информация заголовка вырезки) может включать в себя информацию/параметры, в общем применимые к вырезке. APS (синтаксис APS) или PPS (синтаксис PPS) может включать в себя информацию/параметры, в общем применимые к одной или более вырезкам или картинкам. SPS (синтаксис SPS) может включать в себя информацию/параметры, в общем применимые к одной или более последовательностям. VPS (синтаксис VPS) может включать в себя информацию/параметры, в общем применимые к множеству уровней. DPS (синтаксис DPS) может включать в себя информацию/параметры, в общем применимые ко всему видео. DPS может включать в себя информацию/параметры, относящиеся к конкатенации кодированной последовательности видео (CVS). В этом документе, синтаксис высокого уровня (HLS) может включать в себя по меньшей мере одно из синтаксиса APS, синтаксиса PPS, синтаксиса SPS, синтаксиса VPS, синтаксиса DPS, синтаксиса заголовка картинки и синтаксиса заголовка вырезки.[105] The cut header (cut header syntax or cut header information) may include information/parameters generally applicable to the cut. APS (APS syntax) or PPS (PPS syntax) may include information/parameters generally applicable to one or more clippings or pictures. SPS (SPS syntax) may include information/parameters generally applicable to one or more sequences. VPS (VPS syntax) may include information/parameters generally applicable to multiple layers. DPS (DPS syntax) may include information/parameters generally applicable to the entire video. The DPS may include information/parameters related to Coded Video Sequence (CVS) concatenation. In this document, the high level syntax (HLS) may include at least one of APS syntax, PPS syntax, SPS syntax, VPS syntax, DPS syntax, picture header syntax, and cutout header syntax.

[106] В этом документе, информация изображения/видео, закодированная в устройстве кодирования и сигнализируемая в форме битового потока на устройство декодирования, может включать в себя, как и связанную с разбиением картинки информацию в картинке, информацию интра-/интер-предсказания, остаточную информацию, информацию внутриконтурной фильтрации и т.д., информацию, включенную в заголовок вырезки, информацию, включенную в заголовок картинки, информацию, включенную в APS, информацию, включенную в PPS, информацию, включенную в SPS, информацию, включенную в VPS, и/или информацию, включенную в DPS. Кроме того, информация изображения/видео может дополнительно включать в себя информацию заголовка единицы NAL.[106] Herein, image/video information encoded in the encoding device and signaled in the form of a bit stream to the decoding device may include, like picture partitioning related information in the picture, intra/inter-prediction information, residual information, in-loop filtering information, etc., information included in the cutout header, information included in the picture header, information included in the APS, information included in the PPS, information included in the SPS, information included in the VPS, and /or information included in the DPS. In addition, the image/video information may further include NAL unit header information.

[107] Между тем, чтобы компенсировать различие между исходным изображением и восстановленным изображением ввиду ошибки, возникающей в процессе кодирования со сжатием, таком как квантование, процесс внутриконтурной фильтрации может выполняться на восстановленных выборках или восстановленных картинках, как описано выше. Как описано выше, внутриконтурная фильтрация может выполняться фильтром устройства кодирования и фильтром устройства декодирования, и может применяться фильтр устранения блочности, SAO, и/или адаптивный контурный фильтр (ALF). Например, процесс ALF может выполняться после того, как выполнены процесс фильтрации устранения блочности и процесс SAO. Однако, даже в этом случае, процесс фильтрации устранения блочности и/или процесс SAO может быть опущен.[107] Meanwhile, in order to compensate for the difference between the original image and the reconstructed image due to an error occurring in a compression encoding process such as quantization, an in-loop filtering process may be performed on the reconstructed samples or reconstructed pictures as described above. As described above, in-loop filtering may be performed by an encoder filter and a decoder filter, and a deblocking filter, SAO, and/or an adaptive loop filter (ALF) may be applied. For example, the ALF process may be executed after the deblocking filtering process and the SAO process are executed. However, even in this case, the deblocking filtering process and/or the SAO process may be omitted.

[108] Далее, восстановление и фильтрация картинки будут описаны подробно. При кодировании изображения/видео, восстановленный блок может генерироваться на основе интра-предсказания/интер-предсказания в единице блока, и может генерироваться восстановленная картинка, включающая в себя восстановленные блоки. Если текущая картинка/вырезка представляет собой I-картинку/вырезку, блоки, включенные в текущую картинку/вырезку, могут быть восстановлены на основе только интра-предсказания. Между тем, если текущая картинка/вырезка представляет собой P- или B-картинку/вырезку, блоки, включенные в текущую картинку/вырезку, могут быть восстановлены на основе интра-предсказания или интер-предсказания. В этом случае, интра-предсказание может применяться к некоторым блокам в текущей картинке/вырезке, и интер-предсказание может применяться к остальным блокам.[108] Next, image restoration and filtering will be described in detail. When encoding an image/video, a reconstructed block may be generated based on the intra-prediction/inter-prediction in a block unit, and a reconstructed picture including the reconstructed blocks may be generated. If the current picture/slice is an I-picture/slice, the blocks included in the current picture/slice can be reconstructed based on intra-prediction only. Meanwhile, if the current picture/slice is a P- or B-picture/slice, the blocks included in the current picture/slice can be reconstructed based on the intra-prediction or inter-prediction. In this case, intra-prediction can be applied to some blocks in the current picture/clipping, and inter-prediction can be applied to the remaining blocks.

[109] Интра-предсказание может представлять предсказание для генерации выборок предсказания для текущего блока на основе опорных выборок в картинке, которой принадлежит текущий блок (далее называемой текущей картинкой). В случае, когда интра-предсказание применяется к текущему блоку, могут выводиться соседние опорные выборки, подлежащие использованию для интра-предсказания текущего блока. Соседние опорные выборки текущего блока могут включать в себя выборку, смежную с левой границей текущего блока, имеющего размер nW×nH, всего 2×nH выборок, соседних снизу-слева, выборку, смежную с верхней границей текущего блока, всего 2×nW выборок, соседних сверху-справа, и одну выборку, соседнюю сверху-слева от текущего блока. Альтернативно, соседние опорные выборки текущего блока могут включать в себя верхнюю соседнюю выборку множества столбцов и левую соседнюю выборку множества строк. Альтернативно, соседние опорные выборки текущего блока могут включать в себя всего nH выборок, смежных с правой границей текущего блока, имеющего размер nW×nH, всего nH выборок, смежных с правой границей текущего блока, всего nW выборок, смежных с нижней границей текущего блока, и одну выборку, соседнюю снизу-справа от текущего блока.[109] Intra prediction may represent a prediction for generating prediction samples for a current block based on reference samples in a picture to which the current block belongs (hereinafter referred to as the current picture). In the case where intra-prediction is applied to the current block, adjacent reference samples to be used for intra-prediction of the current block may be output. The adjacent reference samples of the current block may include a sample adjacent to the left boundary of the current block having a size of nW×nH, a total of 2×nH samples, a bottom-left neighbor, a sample adjacent to the top boundary of the current block, a total of 2×nW samples, neighboring ones on the top-right, and one sample neighboring on the top-left of the current block. Alternatively, the neighbor reference samples of the current block may include a top neighbor sample of a plurality of columns and a left neighbor sample of a plurality of rows. Alternatively, the adjacent reference samples of the current block may include a total of nH samples adjacent to the right boundary of the current block having size nW×nH, a total of nH samples adjacent to the right boundary of the current block, a total of nW samples adjacent to the bottom boundary of the current block, and one sample adjacent to the bottom-right of the current block.

[110] Однако, некоторые из соседних опорных выборок текущего блока могут еще не быть декодированными или могут быть недоступными. В этом случае, декодер может конфигурировать соседние опорные выборки, используемые для предсказания, путем замены выборок, которые недоступны, на доступные выборки. Альтернативно, соседние опорные выборки, подлежащие использованию для предсказания, могут быть сконфигурированы через интерполяцию доступных выборок.[110] However, some of the adjacent reference samples of the current block may not yet have been decoded or may not be available. In this case, the decoder can configure adjacent reference samples used for prediction by replacing samples that are unavailable with available samples. Alternatively, neighboring reference samples to be used for prediction can be configured through interpolation of the available samples.

[111] В случае, когда выводятся соседние опорные выборки, (i) выборка предсказания может выводиться на основе среднего или интерполяции соседних опорных выборок текущего блока, и (ii) выборка предсказания может выводиться на основе опорной выборки, присутствующей в конкретном направлении (предсказания), для выборки предсказания среди соседних опорных выборок текущего блока. Случай (i) может называться ненаправленным режимом или не-угловым режимом, и случай (ii) может называться направленным режимом или угловым режимом. Кроме того, выборка предсказания может генерироваться посредством интерполяции первой соседней выборки с второй соседней выборкой, расположенной в направлении, противоположном направлению предсказания режима интра-предсказания текущего блока, на основе выборки предсказания текущего блока среди соседних опорных выборок. Вышеописанный случай может называться интра-предсказанием линейной интерполяции (LIP). К тому же, выборки предсказания цветности могут генерироваться на основе выборок яркости с использованием линейной модели. Этот случай может называться режимом LM. К тому же, временная выборка предсказания текущего блока может выводиться на основе отфильтрованных соседних опорных выборок, и выборка предсказания текущего блока может выводиться путем вычисления взвешенной суммы временной выборки предсказания и по меньшей мере одной опорной выборки, выведенной в соответствии с режимом интра-предсказания, среди существующих соседних опорных выборок, то есть, неотфильтрованных соседних опорных выборок. Вышеописанный случай может называться зависимым от местоположения интра-предсказанием (PDPC). Кроме того, выборка предсказания может выводиться с использованием опорной выборки, расположенной в направлении предсказания на линии опорных выборок, имеющей самую высокую точность предсказания среди соседних линий множества опорных выборок текущего блока, путем выбора соответствующей линии, и в этом случае кодирование интра-предсказания может выполняться в способе для указания (сигнализации) используемой линии опорных выборок на устройство декодирования. Вышеописанный случай может называться интра-предсказанием с множеством опорных линий (MRL) или интра-предсказанием на основе MRL. Кроме того, интра-предсказание может выполняться на основе одного и того же режима интра-предсказания путем деления текущего блока на вертикальные или горизонтальные подразбиения, и соседние опорные выборки могут выводиться и использоваться в единице подразбиения. То есть, в этом случае, поскольку режим интра-предсказания для текущего блока равным образом применяется к подразбиениям, и соседние опорные выборки выводятся и используются в единице подразбиения, выполнение интра-предсказания может быть улучшено в некоторых случаях. Такой способ предсказания может называться интра-предсказанием подразбиения (ISP) или интра-предсказанием на основе ISP. Вышеописанный способ интра-предсказания может называться типом интра-предсказания в отличие от режима интра-предсказания в секциях 1.2. Тип интра-предсказания может называться различными терминами, такими как метод интра-предсказания или дополнительный режим интра-предсказания. Например, тип интра-предсказания (или дополнительный режим интра-предсказания) может включать в себя по меньшей мере одно из вышеописанных LIP, PDPC, MRL и ISP. Общий способ интра-предсказания за исключением специального типа интра-предсказания, такого как LIP, PDPC, MRL или ISP, может называться нормальным типом интра-предсказания. Нормальный тип интра-предсказания может, в общем, применяться, когда специальный тип интра-предсказания не применяется, и предсказание может выполняться на основе режима интра-предсказания, описанного выше. Между тем, по мере необходимости, пост-фильтрация может выполняться для выведенной выборки предсказания.[111] In the case where neighboring reference samples are derived, (i) the prediction sample may be derived based on the average or interpolation of the neighboring reference samples of the current block, and (ii) the prediction sample may be derived based on the reference sample present in a particular (prediction) direction. , for a prediction sample among neighboring reference samples of the current block. Case (i) may be called non-directional mode or non-angular mode, and case (ii) may be called directional mode or angular mode. In addition, the prediction sample may be generated by interpolating the first neighboring sample with a second neighboring sample located in a direction opposite to the prediction direction of the intra-prediction mode of the current block based on the prediction sample of the current block among the neighboring reference samples. The above case can be called linear interpolation intra-prediction (LIP). In addition, chrominance prediction samples can be generated from luminance samples using a linear model. This case may be called LM mode. In addition, the prediction time sample of the current block may be output based on the filtered neighboring reference samples, and the prediction sample of the current block may be output by calculating the weighted sum of the prediction time sample and at least one reference sample output in accordance with the intra-prediction mode among existing neighboring reference samples, that is, unfiltered neighboring reference samples. The above case can be called location-dependent intra-prediction (PDPC). In addition, the prediction sample may be output using a reference sample located in the prediction direction on a reference sample line having the highest prediction accuracy among adjacent lines of a plurality of reference samples of the current block by selecting a corresponding line, and in this case, intra-prediction coding may be performed in a method for indicating (signaling) a reference sample line to be used to a decoding device. The above case may be called multi-reference line (MRL) intra-prediction or MRL-based intra-prediction. In addition, intra-prediction can be performed based on the same intra-prediction mode by dividing the current block into vertical or horizontal subdivisions, and adjacent reference samples can be output and used in the subdivision unit. That is, in this case, since the intra-prediction mode for the current block is equally applied to subdivisions, and adjacent reference samples are output and used in the subdivision unit, intra-prediction performance can be improved in some cases. This prediction method may be called intra-subdivision prediction (ISP) or ISP-based intra-prediction. The intra-prediction method described above may be called intra-prediction type in contrast to the intra-prediction mode in sections 1.2. The intra-prediction type may be referred to by various terms, such as intra-prediction method or additional intra-prediction mode. For example, the intra-prediction type (or additional intra-prediction mode) may include at least one of the above-described LIP, PDPC, MRL, and ISP. A general intra-prediction method excluding a special intra-prediction type such as LIP, PDPC, MRL or ISP may be called a normal intra-prediction type. The normal intra-prediction type can generally be applied when the special intra-prediction type is not applied, and prediction can be performed based on the intra-prediction mode described above. Meanwhile, post-filtering can be performed on the output prediction sample as needed.

[112] Конкретно, процесс интра-предсказания может включать в себя этапы определения режима/типа интра-предсказания, вывода соседней опорной выборки и вывода выборки предсказания на основе режима/типа интра-предсказания. Кроме того, по мере необходимости, этап пост-фильтрации может выполняться для выведенной выборки предсказания.[112] Specifically, the intra-prediction process may include the steps of determining an intra-prediction mode/type, deriving a neighboring reference sample, and deriving a prediction sample based on the intra-prediction mode/type. Additionally, a post-filtering step may be performed on the output prediction sample as needed.

[113] Восстановленная картинка, модифицированная с помощью процесса внутриконтурной фильтрации, может генерироваться, и модифицированная восстановленная картинка может выводиться как декодированная картинка из устройства декодирования. Далее, модифицированная восстановленная картинка может сохраняться в буфере декодированных картинок или памяти устройства кодирования/устройства декодирования и затем может использоваться как опорная картинка в процессе интер-предсказания, когда картинка кодируется/декодируется. Процесс внутриконтурной фильтрации может включать в себя процесс фильтрации устранения блочности, процесс адаптивного смещения выборки (SAO) и/или процесс адаптивного контурного фильтра (ALF), как описано выше. В этом случае, один или некоторые из фильтрации устранения блочности, процесса адаптивного смещения выборки (SAO), процесса адаптивного контурного фильтра (ALF) и процесса двунаправленного фильтра могут применяться последовательно или все из этих процессов могут применяться последовательно. Например, процесс SAO может выполняться после того, как процесс фильтрации устранения блочности применен к восстановленной картинке. Кроме того, например, процесс ALF может выполняться после того, как процесс фильтрации устранения блочности применен к восстановленной картинке. Это может таким же образом выполняться устройством кодирования.[113] The reconstructed picture modified by the in-loop filtering process may be generated, and the modified reconstructed picture may be output as a decoded picture from the decoding apparatus. Further, the modified reconstructed picture can be stored in a decoded picture buffer or a memory of the encoder/decoder device, and then can be used as a reference picture in the inter-prediction process when the picture is encoded/decoded. The in-loop filtering process may include a deblocking filtering process, an adaptive sample offset (SAO) process, and/or an adaptive loop filter (ALF) process as described above. In this case, one or some of the deblocking filtering, the adaptive sample offset (SAO) process, the adaptive loop filter (ALF) process, and the bidirectional filter process may be applied sequentially, or all of these processes may be applied sequentially. For example, the SAO process may be executed after the deblocking filtering process is applied to the reconstructed picture. In addition, for example, the ALF process may be performed after the deblocking filtering process is applied to the reconstructed picture. This can be done in the same way by the encoding device.

[114] Фильтр устранения блочности представляет собой метод фильтрации, который удаляет искажение, возникающее на границах между блоками в восстановленной картинке. Например, процесс фильтрации устранения блочности может выводить целевую границу из восстановленной картинки, определять силу границы (bS) для целевой границы и выполнять фильтрацию устранения блочности для целевой границы на основе bS. bS может определяться на основе режима предсказания двух блоков, смежных с целевой границей, разности векторов движения, являются ли идентичными опорные картинки, и присутствует ли ненулевой значимый коэффициент.[114] A deblocking filter is a filtering method that removes distortion that occurs at the boundaries between blocks in a reconstructed image. For example, the deblocking filtering process may derive a target boundary from the reconstructed picture, determine a boundary strength (bS) for the target boundary, and perform deblocking filtering for the target boundary based on the bS. bS may be determined based on the prediction mode of two blocks adjacent to the target boundary, the difference of motion vectors, whether the reference pictures are identical, and whether a non-zero significant coefficient is present.

[115] SAO является способом для компенсации разности смещений между восстановленной картинкой и исходной картинкой в единице выборки и может применяться, например, на основе типа смещения полосы, смещения края и т.п. В соответствии с SAO, выборки классифицируются на разные категории в соответствии с типами SAO, и значения смещения могут добавляться к соответствующим выборкам на основе категорий. Информация фильтрации для SAO может включать в себя информацию о том, применяется ли SAO, информацию типа SAO и информацию значения смещения SAO. SAO может применяться к восстановленной картинке после применения фильтрации устранения блочности.[115] SAO is a method for compensating the offset difference between the reconstructed picture and the original picture in a sampling unit, and can be applied based on the type of stripe offset, edge offset, and the like, for example. According to SAO, samples are classified into different categories according to SAO types, and bias values can be added to the corresponding samples based on the categories. The filtering information for SAO may include information about whether SAO is applied, SAO type information, and SAO offset value information. SAO can be applied to the reconstructed image after applying deblocking filtering.

[116] Адаптивный контурный фильтр (ALF) представляет собой метод фильтрации для восстановленной картинки в единице выборки на основе коэффициентов фильтра в соответствии с формой фильтра. Устройство кодирования может определять, применяется ли ALF, форму ALF и/или коэффициент фильтрации ALF или т.п., путем сравнения восстановленной картинки и исходной картинки друг с другом и может сигнализировать их на устройство декодирования. То есть, информация фильтрации для ALF может включать в себя информацию о том, применяется ли ALF, информацию формы фильтра ALF и информацию коэффициента фильтрации ALF. ALF может применяться к восстановленной картинке после применения фильтрации устранения блочности.[116] Adaptive Loop Filter (ALF) is a filtering method for a reconstructed picture in a sampling unit based on filter coefficients according to the shape of the filter. The encoding device can determine whether ALF, the ALF shape and/or the ALF filter coefficient or the like is applied by comparing the reconstructed picture and the original picture with each other and can signal them to the decoding device. That is, the filtering information for ALF may include information about whether ALF is applied, ALF filter shape information, and ALF filter coefficient information. ALF can be applied to the reconstructed image after applying deblocking filtering.

[117] Фиг. 5 иллюстрирует картинку в соответствии с вариантом осуществления настоящего документа. Примерная картинка на фиг. 5 может быть разделена на подкартинки, вырезки и мозаичные элементы.[117] FIG. 5 illustrates a picture in accordance with an embodiment of the present document. An example picture in Fig. 5 can be divided into sub-pictures, cut-outs and mosaic elements.

[118] Со ссылкой на фиг. 5, картинка может быть разделена на подкартинки. Например, подкартинка может включать в себя одну или более вырезок. Вырезка может представлять прямоугольную область картинки. Кроме того, картинка может быть разделена на мозаичные элементы. Например, прямоугольная вырезка может включать в себя только часть (поднабор) одного мозаичного элемента. То есть, на фиг. 5, две прямоугольные вырезки находятся в том же самом мозаичном элементе, и две прямоугольные вырезки могут принадлежать разным подкартинкам. Проблемы, вызванные случаем согласно фиг. 5, и их решения будут описаны далее.[118] With reference to FIG. 5, the picture can be divided into sub-pictures. For example, a sub-picture may include one or more cutouts. A clipping can represent a rectangular area of a picture. In addition, the picture can be divided into mosaic elements. For example, a rectangular cutout may include only a portion (a subset) of one tile. That is, in FIG. 5, two rectangular cutouts are in the same tile, and the two rectangular cutouts may belong to different subpictures. Problems caused by the case according to FIG. 5, and their solutions will be described below.

[119] В примере, картинка/подкартинка может кодироваться на основе подкартинки(ок)/вырезки(ок)/мозаичного элемента(ов). Устройство кодирования может кодировать текущую картинку на основе структуры подкартинки/вырезки/мозаичного элемента, или устройство кодирования может кодировать одну или более подкартинок (включая вырезки/мозаичные элементы) текущей картинки, и может выводить битовый (под)поток, включающий в себя (закодированную) информацию о подкартинке. Устройство декодирования может декодировать одну или более подкартинок в текущей картинке на основе битового (под)потока, включающего в себя (закодированную) информацию для подкартинки(ок)/ вырезки(ок)/мозаичного элемента(ов).[119] In an example, a picture/sub-picture may be encoded on a sub-picture(s)/cut(s)/tile(s) basis. The encoding apparatus may encode the current picture based on a subpicture/slice/tile structure, or the encoding apparatus may encode one or more subpictures (including slices/tiles) of the current picture, and may output a bitstream including the (encoded) information about the sub-image. The decoding apparatus may decode one or more sub-pictures in the current picture based on a bit stream including (encoded) information for the sub-picture(s)/cut(s)/tile(s).

[120] Фиг. 6 иллюстрирует способ кодирования на основе подкартинки/вырезки/мозаичного элемента в соответствии с вариантом осуществления настоящего документа.[120] FIG. 6 illustrates a subpicture/slice/tile based encoding method according to an embodiment of the present document.

[121] Кодер может делить (входную) картинку на множество (или одну или более) подкартинок/вырезок)/мозаичных элементов. Каждая подкартинка может индивидуально/независимо кодироваться, и может выводиться битовый поток. Здесь, битовый поток для подкартинки может называться подпотоком, поднабором или битовым подпотоком. Информация о подкартинке/вырезке/мозаичном элементе может включать в себя информацию/синтаксический элемент(ы), описанные в настоящем документе. Например, информация о вырезке может включать в себя информацию, относящуюся к числу вырезок, сигнализируемых для каждой картинки/подкартинки, и ширину/высоту вырезок в мозаичных элементах. Например, информация о мозаичном элементе может включать в себя информацию, относящуюся к числу мозаичных элементов (например, число столбцов мозаичного элемента и/или число строк мозаичного элемента), и информацию, относящуюся к размеру каждого мозаичного элемента (например, ширину и/или высоту).[121] The encoder may divide the (input) picture into a plurality of (or one or more) sub-pictures/cuts/tiles. Each sub-picture can be individually/independently encoded and a bitstream can be output. Here, the bitstream for a sub-picture may be called a substream, a subset, or a subbitstream. The sub-picture/cut/tile information may include the information/syntax element(s) described herein. For example, the cutout information may include information related to the number of cutouts signaled for each picture/subpicture and the width/height of the cutouts in the tiles. For example, the tile information may include information related to the number of tiles (for example, the number of columns of the tile and/or the number of rows of the tile) and information related to the size of each tile (for example, the width and/or height ).

[122] Кодер может кодировать одну или более подкартинок как информацию о подкартинке. Кодер может кодировать одну или более вырезок/мозаичных элементов как информацию о вырезке/мозаичном элементе.[122] The encoder may encode one or more sub-pictures as sub-picture information. The encoder may encode one or more cuts/tiles as cut/tile information.

[123] Фиг. 7 иллюстрирует способ декодирования на основе подкартинки/вырезки/мозаичного элемента в соответствии с вариантом осуществления настоящего документа.[123] FIG. 7 illustrates a subpicture/slice/tile based decoding method according to an embodiment of the present document.

[124] Декодер может декодировать одну или более подкартинок (включающих в себя вырезки/мозаичные элементы) и может выводить одну или более декодированных подкартинок или текущую картинку, включающую в себя подкартинки. Битовый поток может включать в себя подпоток(и) или битовый (под)поток(и) для подкартинки(ок). Как описано выше, информация о подкартинке/вырезке/мозаичном элементе может быть сконфигурирована в синтаксисе высокого уровня (HLS), включенном в битовый поток. Декодер может выводить одну или более подкартинок на основе информации о подкартинке. Декодер может выводить одну или более вырезок/мозаичных элементов на основе информации о вырезке/мозаичном элементе. Декодер может декодировать все или некоторые из подкартинок. Декодер может декодировать подкартинку (включающую в себя текущий блок (или CU)), CTU, вырезку и/или мозаичный элемент на основе CABAC, предсказания, обработки остатка (преобразование и квантование) и внутриконтурной фильтрации. Соответственно, декодированная подкартинка(и) может выводиться. Декодированная подкартинка(и) может включать в себя восстановленный/декодированный блок(и). Декодированные подкартинки в выходном наборе подкартинок (OPS) могут выводиться совместно. В качестве примера, если картинка относится к 360-градусному или всенаправленному изображению/видео, некоторые из них могут визуализироваться, и, в этом случае, только некоторые из всех подкартинок могут декодироваться, и некоторые или все из декодированных подкартинок могут визуализироваться в соответствии с окном просмотра или положением просмотра пользователя. Кроме того, если задействована информация, указывающая (представляющая), включена ли внутриконтурная фильтрация по границам подкартинок, декодер может применять процесс внутриконтурной фильтрации (например, фильтрацию устранения блочности) в отношении границы подкартинок, расположенной между двумя подкартинками. Например, если граница подкартинок является той же самой, что и граница картинок, процесс внутриконтурной фильтрации для границ подкартинок может применяться или может не выполняться.[124] The decoder may decode one or more sub-pictures (including the cuts/tiles) and may output one or more decoded sub-pictures or a current picture including the sub-pictures. The bitstream may include substream(s) or bitstream(s) for subpicture(s). As described above, the subpicture/cut/tile information may be configured in a high level syntax (HLS) included in the bitstream. The decoder may output one or more sub-pictures based on the sub-picture information. The decoder may output one or more slices/tiles based on the slice/tile information. The decoder may decode all or some of the sub-pictures. The decoder may decode the sub-picture (including the current block (or CU)), CTU, slice and/or tile based on CABAC, prediction, residual processing (conversion and quantization) and in-loop filtering. Accordingly, the decoded sub-picture(s) may be output. The decoded sub-picture(s) may include reconstructed/decoded block(s). The decoded sub-pictures in the output sub-picture set (OPS) may be output together. As an example, if a picture belongs to a 360-degree or omnidirectional picture/video, some of them may be rendered, and, in this case, only some of all sub-pictures may be decoded, and some or all of the decoded sub-pictures may be rendered according to the window viewing or the user's viewing position. In addition, if information indicating whether in-loop sub-picture boundary filtering is enabled is included, the decoder may apply an in-loop filtering process (eg, deblocking filtering) to a sub-picture boundary located between two sub-pictures. For example, if the sub-picture boundary is the same as the picture boundary, an in-loop filtering process for the sub-picture boundaries may or may not be performed.

[125] В вариантах осуществления настоящего документа, информация изображения/видео может включать в себя HLS, и HLS может включать в себя информацию о подкартинке(ах)/ вырезке(ах)/мозаичном элементе(ах). Информация о подкартинке(ах) может включать в себя информацию, представляющую одну или более подкартинок в текущей картинке. Информация о вырезке(ах) может включать в себя информацию, представляющую одну или более вырезок в текущей картинке, подкартинке или мозаичном элементе. Информация о мозаичном элементе(ах) может включать в себя информацию, представляющую один или более мозаичных элементов в текущей картинке, подкартинке или вырезке. Картинка может включать в себя мозаичный элемент, включающий в себя одну или более вырезок, и/или вырезку, включающую в себя один или более мозаичных элементов. Кроме того, картинка может включать в себя подкартинку, включающую в себя одну или более вырезок/мозаичных элементов.[125] In embodiments of this document, the image/video information may include HLS, and the HLS may include sub-picture(s)/cut(s)/tile(s) information. The sub-picture(s) information may include information representing one or more sub-pictures in the current picture. The cut(s) information may include information representing one or more cut(s) in the current picture, sub-picture, or tile. The tile(s) information may include information representing one or more tiles in the current picture, sub-picture, or clipping. The picture may include a tile including one or more cutouts, and/or a cutout including one or more tiles. In addition, the picture may include a sub-picture including one or more cutouts/tiles.

[126] Следующие таблицы представляют синтаксис, относящийся к вышеописанному разделению (подкартинка/вырезка/мозаичный элемент). Информация о подкартинке(ах)/вырезке(ах)/мозаичном элементе(ах) может включать в себя синтаксические элементы в следующих таблицах.[126] The following tables present the syntax related to the above division (subpicture/cutout/tile). The subpicture(s)/cut(s)/tile(s) information may include syntax elements in the following tables.

[127] Следующая таблица представляет синтаксис набора параметров последовательности (SPS) на основе разделения картинки (подкартинка/вырезка/мозаичный элемент).[127] The following table presents the sequence parameter set (SPS) syntax based on picture division (subpicture/cut/tile).

[128] [Таблица 1][128] [Table 1]

[129] Следующая таблица представляет синтаксис набора параметров картинки (PPS) на основе разделения картинки (подкартинка/вырезка/мозаичный элемент).[129] The following table presents picture parameter set (PPS) syntax based on picture division (subpicture/cut/tile).

[130] [Таблица 2][130] [Table 2]

[131] Следующая таблица представляет синтаксис заголовка вырезки на основе разделения картинки (подкартинка/вырезка/мозаичный элемент).[131] The following table represents the syntax of a cutout title based on picture division (subpicture/clipping/tile).

[132] [Таблица 3][132] [Table 3]

[133] Фиг. 8 представляет собой блок-схему последовательности операций, показывающую способ кодирования на основе фильтрации в устройстве кодирования. Способ согласно фиг. 8 может включать в себя этапы от S800 до S830.[133] FIG. 8 is a flowchart showing a filter-based encoding method in an encoding apparatus. The method according to Fig. 8 may include steps S800 to S830.

[134] На этапе S800, устройство кодирования может генерировать восстановленную картинку. Этап S600 может выполняться на основе вышеупомянутого процесса генерации восстановленной картинки (или восстановленных выборок).[134] In step S800, the encoding device may generate a reconstructed picture. Step S600 may be performed based on the above-mentioned process of generating a reconstructed picture (or reconstructed samples).

[135] На этапе S810, устройство кодирования может определять, применяется ли внутриконтурная фильтрация (по виртуальной границе), на основе информации, относящейся к внутриконтурной фильтрации. Здесь, внутриконтурная фильтрация может включать в себя по меньшей мере одно из вышеупомянутых фильтрации устранения блочности, SAO и ALF.[135] In step S810, the encoder may determine whether in-loop filtering (on a virtual boundary) is applied based on information related to in-loop filtering. Here, the in-loop filtering may include at least one of the above-mentioned deblocking, SAO, and ALF filtering.

[136] На этапе S820, устройство кодирования может генерировать модифицированную восстановленную картинку (модифицированные восстановленные выборки) на основе определения на этапе S810. Здесь, модифицированная восстановленная картинка (модифицированные восстановленные выборки) может представлять собой отфильтрованную восстановленную картинку (отфильтрованные восстановленные выборки).[136] In step S820, the encoding device may generate a modified reconstructed picture (modified reconstructed samples) based on the determination in step S810. Here, the modified reconstructed picture (modified reconstructed samples) may be a filtered reconstructed picture (filtered reconstructed samples).

[137] На этапе S830, устройство кодирования может кодировать информацию изображения/видео, включая информацию, относящуюся к внутриконтурной фильтрации, на основе процесса внутриконтурной фильтрации.[137] In step S830, the encoding device may encode image/video information including information related to in-loop filtering based on the in-loop filtering process.

[138] Фиг. 9 представляет собой блок-схему последовательности операций, показывающую способ декодирования на основе фильтрации в устройстве декодирования. Способ согласно фиг. 9 может включать в себя этапы от S900 до S930.[138] FIG. 9 is a flowchart showing a filtering-based decoding method in a decoding apparatus. The method according to Fig. 9 may include steps S900 to S930.

[139] На этапе S900, устройство декодирования может получать информацию изображения/видео, включая информацию, относящуюся к внутриконтурной фильтрации, из битового потока. Здесь, битовый поток может быть основан на кодированной информации изображения/видео, переданной из устройства кодирования.[139] In step S900, the decoding apparatus may obtain image/video information, including information related to in-loop filtering, from the bitstream. Here, the bitstream may be based on encoded image/video information transmitted from the encoder.

[140] На этапе S910, устройство декодирования может генерировать восстановленную картинку. Этап S910 может выполняться на основе вышеописанного процесса генерации восстановленной картинки (или восстановленных выборок).[140] In step S910, the decoding device may generate a reconstructed picture. Step S910 may be performed based on the above-described process for generating a reconstructed picture (or reconstructed samples).

[141] На этапе S920, устройство декодирования может определять, применяется ли внутриконтурная фильтрация (по виртуальной границе), на основе информации, относящейся к внутриконтурной фильтрации. Здесь, внутриконтурная фильтрация может включать в себя по меньшей мере одно из вышеупомянутых фильтрации устранения блочности, SAO и ALF.[141] In step S920, the decoding apparatus may determine whether in-loop filtering (on a virtual boundary) is applied based on information related to in-loop filtering. Here, the in-loop filtering may include at least one of the above-mentioned deblocking, SAO, and ALF filtering.

[142] На этапе S930, устройство декодирования может генерировать модифицированную восстановленную картинку (модифицированные восстановленные выборки) на основе определения на этапе S920. Здесь, модифицированная восстановленная картинка (модифицированные восстановленные выборки) могут представлять собой отфильтрованную восстановленную картинку (отфильтрованные восстановленные выборки).[142] In step S930, the decoding apparatus may generate a modified reconstructed picture (modified reconstructed samples) based on the determination in step S920. Here, the modified reconstructed picture (modified reconstructed samples) may be a filtered reconstructed picture (filtered reconstructed samples).

[143] Как описано выше, процесс внутриконтурной фильтрации может применяться к восстановленной картинке. В этом случае, виртуальная граница может быть определена, чтобы дополнительно улучшить субъективное/объективное визуальное качество восстановленной картинки, и процесс внутриконтурной фильтрации может применяться по виртуальной границе. Например, виртуальная граница может включать прерывистый край, такой как 360-градусное изображение, изображение VR, границу, картинку в картинке (PIP) и т.п. Например, виртуальная граница может присутствовать в предопределенном местоположении, и ее наличие и/или местоположение может сигнализироваться. Например, виртуальная граница может находиться у четвертой сверху линии выборок строки CTU (в частности, например, над верхней четвертой выборкой строки CTU). В качестве другого примера, информация о наличии/отсутствии и/или местоположении виртуальной границы может сигнализироваться посредством HLS. HLS может включать в себя SPS, PPS, заголовок картинки и заголовок вырезки, как описано выше.[143] As described above, an in-loop filtering process may be applied to the reconstructed picture. In this case, a virtual boundary can be defined to further improve the subjective/objective visual quality of the reconstructed image, and an in-loop filtering process can be applied along the virtual boundary. For example, the virtual edge may include a discontinuous edge such as a 360-degree image, a VR image, a border, a picture-in-picture (PIP), and the like. For example, a virtual boundary may be present at a predetermined location, and its presence and/or location may be signaled. For example, the virtual boundary may be at the fourth from the top line of samples of the CTU line (specifically, for example, above the top fourth sample of the CTU line). As another example, information about the presence/absence and/or location of a virtual boundary may be signaled via HLS. The HLS may include SPS, PPS, picture header, and clip header, as described above.

[144] Далее будут описаны сигнализация синтаксиса высокого уровня и семантика в соответствии с вариантами осуществления настоящего документа.[144] Next, high-level syntax signaling and semantics in accordance with embodiments of the present document will be described.

[145] Вариант осуществления настоящего документа может включать в себя способ для управления контурными фильтрами. Настоящий способ для управления контурными фильтрами может применяться к восстановленной картинке. Внутриконтурные фильтры (контурные фильтры) могут использоваться для декодирования закодированных битовых потоков. Контурные фильтры могут включать в себя вышеописанные устранение блочности, SAO и ALF. SPS может включать в себя флаги, относящиеся к устранению блочности, SAO и ALF, соответственно. Флаги могут представлять, задействованы ли соответствующие инструментальные средства для кодирования видеопоследовательности кодируемого уровня (CLVS) или кодируемой видеопоследовательности (CVS), ссылающейся на SPS.[145] An embodiment of the present document may include a method for controlling loop filters. The present method for controlling contour filters can be applied to a reconstructed picture. In-loop filters (loop filters) can be used to decode encoded bit streams. Loop filters may include deblocking, SAO, and ALF described above. The SPS may include flags related to deblocking, SAO, and ALF, respectively. The flags may represent whether the corresponding tools are enabled for encoding a coded layer video sequence (CLVS) or a coded video sequence (CVS) referencing the SPS.

[146] Когда контурные фильтры задействованы для CVS, применением контурных фильтров можно управлять, чтобы не пересекать конкретные границы. Например, можно управлять тем, пересекают ли контурные фильтры границы подкартинок. Кроме того, можно управлять тем, пересекают ли контурные фильтры границы мозаичного элемента. Дополнительно, можно управлять тем, пересекают ли контурные фильтры виртуальные границы. Здесь, виртуальные границы могут быть определены на CTU на основе доступности линейного буфера.[146] When loop filters are enabled for CVS, the application of loop filters can be controlled to avoid crossing specific boundaries. For example, you can control whether edge filters cross sub-image boundaries. You can also control whether edge filters cross tile boundaries. Additionally, you can control whether edge filters cross virtual boundaries. Here, virtual boundaries can be determined on the CTU based on the availability of the line buffer.

[147] Относительно того, выполняется ли процесс внутриконтурной фильтрации по виртуальной границе, информация, относящаяся к внутриконтурной фильтрации, может включать в себя по меньшей мере одно из флага включения виртуальных границ SPS (флаг включения виртуальных границ в SPS), флага присутствия виртуальных границ SPS, флага присутствия виртуальных границ заголовка картинки, флага присутствия виртуальных границ заголовка картинки SPS и информации о местоположении виртуальной границы.[147] Regarding whether the in-loop filtering process is performed on a virtual boundary, the in-loop filtering-related information may include at least one of an SPS virtual edge enable flag (SPS virtual edge enable flag), an SPS virtual edge presence flag , a flag for the presence of virtual boundaries of the picture header, a flag for the presence of virtual boundaries of the SPS picture header, and information about the location of the virtual boundary.

[148] В вариантах осуществления, включенных в настоящий документ, информация о местоположении виртуальной границы может включать в себя информацию о x-координате вертикальной виртуальной границы и/или информацию о y-координате горизонтальной виртуальной границы. Конкретно, информация о местоположении виртуальной границы может включать в себя информацию о x-координате вертикальной виртуальной границы и/или информацию о y-координате горизонтальной виртуальной границы в единице выборок яркости. Кроме того, информация о местоположении виртуальной границы может включать в себя информацию о числе частей информации (синтаксических элементов) о x-координате вертикальной виртуальной границы, которая присутствует в SPS. Кроме того, информация о виртуальной границе может включать в себя информацию о числе частей информации (синтаксических элементов) о y-координате горизонтальной виртуальной границы, которая присутствует в SPS. Кроме того, информация о местоположении виртуальной границы может включать в себя информацию о числе частей информации (синтаксических элементов) о x-координате вертикальной виртуальной границы, которая присутствует в заголовке картинки. Кроме того, информация о местоположении виртуальной границы может включать в себя информацию о числе частей информации (синтаксических элементов) по y-координате горизонтальной виртуальной границы, которая присутствует в заголовке картинки.[148] In embodiments included herein, the virtual boundary location information may include x-coordinate information of a vertical virtual boundary and/or y-coordinate information of a horizontal virtual boundary. Specifically, the virtual boundary location information may include x-coordinate information of the vertical virtual boundary and/or y-coordinate information of the horizontal virtual boundary in a unit of luminance samples. In addition, the virtual boundary location information may include information about the number of pieces of information (syntactic elements) about the x-coordinate of the vertical virtual boundary that are present in the SPS. In addition, the virtual boundary information may include information about the number of pieces of information (syntactic elements) about the y-coordinate of the horizontal virtual boundary that are present in the SPS. In addition, the virtual boundary location information may include information about the number of pieces of information (syntactic elements) about the x-coordinate of the vertical virtual boundary that is present in the picture title. In addition, the virtual boundary location information may include information about the number of pieces of information (syntactic elements) at the y-coordinate of the horizontal virtual boundary that is present in the picture title.

[149] Следующие таблицы показывают примерный синтаксис и семантику набора параметров последовательности (SPS) в соответствии с настоящим вариантом осуществления.[149] The following tables show exemplary syntax and semantics of a sequence parameter set (SPS) in accordance with the present embodiment.

[150] [Таблица 4][150] [Table 4]

[151] [Таблица 5][151] [Table 5]

subpics_present_flag, равный1, специфицирует, что параметры подкартинки присутствуют в синтаксисе SPS RBSP. subpics_present_flag, равный 0, специфицирует, что параметры подкартинки не присутствуют в синтаксисе SPS RBSP.
sps_num_subpics_minus1 плюс 1 специфицирует число подкартинок. sps_num_subpics_minus1 должен быть в диапазоне от 0 до 254. Если не присутствует, значение sps_num_subpics_minus1 считается равным 0.
subpic_ctu_top_left_x[i] специфицирует горизонтальное положение верхней левой CTU i-ой подкартинки в единице CtbSizeY. Длина синтаксического элемента равна Ceil(Log2(pic_width_max_in_luma_samples/ CtbSizeY)) бит. Если не присутствует, значение subpic_ctu_top_left_x[i] считается равным 0.
subpic_ctu_top_left_y[i] специфицирует вертикальное положение верхней левой CTU i-ой подкартинки в единице CtbSizeY. Длина синтаксического элемента равна Ceil(Log2(pic_height_max_in_luma_samples/ CtbSizeY)) бит. Если не присутствует, значение subpic_ctu_top_left_y[i] считается равным 0.
subpic_width_minus1[i] плюс 1 специфицирует ширину i-ой подкартинки в единицах CtbSizeY. Длина синтаксического элемента равна Ceil(Log2(pic_width_max_in_luma_samples/CtbSizeY)) бит. Если не присутствует, значение subpic_width_minus1[i] считается равным Ceil(pic_width_max_in_luma_samples/ CtbSizeY)-1.
subpic_height_minus1[i] плюс 1 специфицирует высоту i-ой подкартинки в единицах CtbSizeY. Длина синтаксического элемента равна Ceil(Log2(pic_height_max_in_luma_samples/CtbSizeY)) бит. Если не присутствует, значение subpic_height_minus1[i] считается равным Ceil(pic_height_max_in_luma_samples/ CtbSizeY)-1.
subpic_treated_as_pic_flag[i], равный 1, специфицирует, что i-ая подкартинка каждой кодируемой картинки в CL VS обрабатывается как картинка в процессе декодирования, исключая операции внутриконтурной фильтрации. subpic_treated_as_pic_flag[i], равный 0, специфицирует, что i-ая подкартинка каждой кодируемой картинки в CL VS не обрабатывается как картинка в процессе декодирования, исключая операции внутриконтурной фильтрации. Если не присутствует, значение subpic_treated_as_pic_flag[i] считается равным 0.
loop_filter_across_subpic_enabled_flag[i], равный 1, специфицирует, что операции внутриконтурной фильтрации могут выполняться по границам i-ой подкартинки в каждой кодируемой картинке в CL VS.
loop_filter_across_subpic_enabled_flag[i], равный 0, специфицирует, что операции внутриконтурной фильтрации не выполняются по границам i-ой подкартинки в каждой кодируемой картинке в CL VS. Если не присутствует, значение loop_filter_across_subpic_enabled_pic_flag[i] считается равным 0.
sps_loop_filter_across_virtual_boundaries_disabled_present_flag, равный 1, специфицирует, что операции внутриконтурной фильтрации отключены по виртуальным границам в картинках, ссылающихся на SPS.
sps_loop_filter_across_virtual_boundaries_disabled_present_flag, равный 0, специфицирует, что такое отключение операций внутриконтурной фильтрации не применяется в картинках, ссылающихся на SPS. Операции внутриконтурной фильтрации включают в себя операции фильтра устранения блочности, фильтра адаптивного смещения выборки и адаптивного контурного фильтра.
sps_sao_enabled_flag, равный 1, специфицирует, что процесс адаптивного смещения выборки применяется к восстановленной картинке после процесса фильтра устранения блочности. sps_sao_enabled_flag, равный 0, специфицирует, что процесс адаптивного смещения выборки не применяется к восстановленной картинке после процесса фильтра устранения блочности.
sps_alf_enabled_flag, равный 0, специфицирует, что адаптивный контурный фильтр отключен. sps_alf_enabled_flag, равный 1, специфицирует, что адаптивный контурный фильтр включен.
sps_num_ver_virtual_boundaries специфицирует число синтаксических элементов sps_virtual_boundaries_pos_x[i], которые присутствуют в SPS. Если sps_num_ver_virtual_boundaries не присутствует, он считается равным 0.
sps_virtual_boundaries_pos_x[i] используется для вычисления значения VirtualBoundariesPosX[i], которое специфицирует местоположение i-ой вертикальной виртуальной границы в единицах выборок яркости. Значение sps_virtual_boundaries_pos_x[i] должно быть в диапазоне от 0 до Ceil(pic_width_in_luma_samples ÷ 8)-1, включительно.
sps_num_hor_virtual_boundaries специфицирует число синтаксических элементов sps_virtual_boundaries_pos_y[i], которые присутствуют в SPS. Если sps_num_hor_virtual_boundaries не присутствует, он считается равным 0.
sps_virtual_boundaries_pos_y[i] используется для вычисления значения VirtualBoundariesPosY[i], которое специфицирует местоположение i-ой горизонтальной виртуальной границы в единицах выборок яркости. Значение sps_virtual_boundaries_pos_y[i] должно быть в диапазоне от 0 до Ceil(pic_height_in_luma_samples ÷ 8)-1, включительно.
subpics_present_flag equal to 1 specifies that the subpicture parameters are present in the SPS RBSP syntax. subpics_present_flag equal to 0 specifies that subpicture parameters are not present in the SPS RBSP syntax.
sps_num_subpics_minus1 plus 1 specifies the number of subpics. sps_num_subpics_minus1 must be in the range 0 to 254. If not present, sps_num_subpics_minus1 is considered to be 0.
subpic_ctu_top_left_x[i] specifies the horizontal position of the top left CTU of the i-th subpicture in CtbSizeY unit. The length of the syntax element is Ceil(Log2(pic_width_max_in_luma_samples/ CtbSizeY)) bits. If not present, the value of subpic_ctu_top_left_x[i] is considered to be 0.
subpic_ctu_top_left_y[i] specifies the vertical position of the top left CTU of the i-th subpicture in CtbSizeY unit. The length of the syntax element is Ceil(Log2(pic_height_max_in_luma_samples/ CtbSizeY)) bits. If not present, the value of subpic_ctu_top_left_y[i] is considered to be 0.
subpic_width_minus1[i] plus 1 specifies the width of the i-th subpicture in CtbSizeY units. The length of the syntax element is Ceil(Log2(pic_width_max_in_luma_samples/CtbSizeY)) bits. If not present, the value of subpic_width_minus1[i] is assumed to be Ceil(pic_width_max_in_luma_samples/ CtbSizeY)-1.
subpic_height_minus1[i] plus 1 specifies the height of the i-th subpicture in CtbSizeY units. The length of the syntax element is Ceil(Log2(pic_height_max_in_luma_samples/CtbSizeY)) bits. If not present, the value of subpic_height_minus1[i] is assumed to be Ceil(pic_height_max_in_luma_samples/ CtbSizeY)-1.
subpic_treated_as_pic_flag[i] equal to 1 specifies that the i-th subpicture of each encoded picture in CL VS is treated as a picture during the decoding process, excluding in-loop filtering operations. subpic_treated_as_pic_flag[i] equal to 0 specifies that the i-th subpicture of each encoded picture in CL VS is not treated as a picture during the decoding process, excluding in-loop filtering operations. If not present, the value of subpic_treated_as_pic_flag[i] is considered to be 0.
loop_filter_across_subpic_enabled_flag[i] equal to 1 specifies that in-loop filtering operations can be performed across the boundaries of the i-th subpicture in each encoded picture in CL VS.
loop_filter_across_subpic_enabled_flag[i] equal to 0 specifies that in-loop filtering operations are not performed across the boundaries of the i-th subpicture in each encoded picture in CL VS. If not present, loop_filter_across_subpic_enabled_pic_flag[i] is considered to be 0.
sps_loop_filter_across_virtual_boundaries_disabled_present_flag equal to 1 specifies that in-loop filtering operations are disabled across virtual boundaries in pictures referencing the SPS.
sps_loop_filter_across_virtual_boundaries_disabled_present_flag equal to 0 specifies that such disabling of in-loop filtering operations is not applied to pictures referencing SPS. In-loop filtering operations include deblocking filter, adaptive sample shift filter, and adaptive loop filter operations.
sps_sao_enabled_flag equal to 1 specifies that the adaptive sample shifting process is applied to the reconstructed image after the deblocking filter process. sps_sao_enabled_flag equal to 0 specifies that the adaptive sample shifting process is not applied to the reconstructed image after the deblocking filter process.
sps_alf_enabled_flag equal to 0 specifies that the adaptive loop filter is disabled. sps_alf_enabled_flag equal to 1 specifies that the adaptive loop filter is enabled.
sps_num_ver_virtual_boundaries specifies the number of sps_virtual_boundaries_pos_x[i] syntax elements that are present in the SPS. If sps_num_ver_virtual_boundaries is not present, it is considered to be 0.
sps_virtual_boundaries_pos_x[i] is used to compute the value of VirtualBoundariesPosX[i], which specifies the location of the i-th vertical virtual boundary in units of luminance samples. The value of sps_virtual_boundaries_pos_x[i] must be in the range 0 to Ceil(pic_width_in_luma_samples ÷ 8)-1, inclusive.
sps_num_hor_virtual_boundaries specifies the number of sps_virtual_boundaries_pos_y[i] syntax elements that are present in the SPS. If sps_num_hor_virtual_boundaries is not present, it is considered to be 0.
sps_virtual_boundaries_pos_y[i] is used to calculate the value of VirtualBoundariesPosY[i], which specifies the location of the i-th horizontal virtual boundary in units of luminance samples. The value of sps_virtual_boundaries_pos_y[i] must be in the range from 0 to Ceil(pic_height_in_luma_samples ÷ 8)-1, inclusive.

[152] Следующие таблицы представляют примерный синтаксис и семантику набора параметров картинки (PPS) в соответствии с настоящим вариантом осуществления.[152] The following tables present exemplary picture parameter set (PPS) syntax and semantics in accordance with the present embodiment.

[153] [Таблица 6][153] [Table 6]

[154] [Таблица 7][154] [Table 7]

no_pic_partition_flag, равный 1, специфицирует, что разбиение картинки не применяется к каждой картинке, ссылающейся на PPS. no_pic_partition_flag, равный 0, специфицирует, что каждая картинка, ссылающаяся на PPS, может разбиваться на более чем один мозаичный элемент или вырезку.
loop_filter_across_tiles_enabled_flag, равный 1, специфицирует, что операции внутриконтурной фильтрации могут выполняться по границам мозаичных элементов в картинках, ссылающихся на PPS. loop_filter_across_tiles_enabled_flag, равный 0, специфицирует, что операции внутриконтурной фильтрации не выполняются по границам мозаичных элементов в картинках, ссылающихся на PPS. Операции внутриконтурной фильтрации включают в себя операции фильтра устранения блочности, фильтра адаптивного смещения выборки и адаптивного контурного фильтра.
loop_filter_across_slices _enabled_flag, равный 1, специфицирует, что операции внутриконтурной фильтрации могут выполняться по границам вырезок в картинках, ссылающихся на PPS. loop_filter_across_slices_enabled_flag, равный 0, специфицирует, что операции внутриконтурной фильтрации не выполняются по границам вырезок в картинках, ссылающихся на PPS. Операции внутриконтурной фильтрации включают в себя операции фильтра устранения блочности, фильтра адаптивного смещения выборки и адаптивного контурного фильтра.
deblocking_filter_control_present_flag, равный 1, специфицирует присутствие синтаксических элементов управления фильтром устранения блочности в PPS. deblocking_filter_control_present_flag, равный 0, специфицирует отсутствие синтаксических элементов управления фильтром устранения блочности в PPS.
deblocking_filter_override_enabled_flag, равный 1, специфицирует присутствие pic_deblocking_filter_override_flag в PH, ссылающихся на PPS, или slice_deblocking_filter_override_flag в заголовках вырезок, ссылающихся на PPS.
deblocking_filter_override_enabled_flag, равный 0, специфицирует отсутствие pic_deblocking_filter_override_flag в PH, ссылающихся на PPS, или slice_deblocking_filter_override_flag в заголовках вырезок, ссылающихся на PPS. Если не присутствует, значение deblocking_filter_override_enabled_flag считается равным 0.
pps_deblocking_filter_disabled_flag, равный 1, специфицирует, что операция фильтра устранения блочности не применяется для вырезок, ссылающихся на PPS, в котором slice_deblocking_filter_disabled_flag не присутствует. pps_deblocking_filter_disabled_flag, равный 0, специфицирует, что операция фильтра устранения блочности применяется для вырезок, ссылающихся на PPS, в котором slice_deblocking_filter_disabled_flag не присутствует. Если не присутствует, значение pps_deblocking_filter_disabled_flag считается равным 0.
pps_beta_offset_div2 и pps_tc_offset_div2 специфицируют смещения параметров устранения блочности по умолчанию для β и tC (деленные на 2), которые применяются для вырезок, ссылающихся на PPS, если только смещения параметров устранения блочности по умолчанию не перезаписываются смещениями параметров устранения блочности, присутствующими в заголовках вырезок для вырезок, ссылающихся на PPS. Значения pps_beta_offset_div2 и pps_tc_offset_div2 должны быть оба в диапазоне от -6 до 6, включительно. Если не присутствуют, значения pps_beta_offset_div2 и pps_tc_offset_div2 считаются равными 0.
no_pic_partition_flag equal to 1 specifies that picture partitioning is not applied to every picture referencing the PPS. no_pic_partition_flag equal to 0 specifies that each picture referencing a PPS can be split into more than one tile or slice.
loop_filter_across_tiles_enabled_flag equal to 1 specifies that in-loop filtering operations can be performed along the boundaries of tiles in pictures referencing PPS. loop_filter_across_tiles_enabled_flag equal to 0 specifies that in-loop filtering operations are not performed along the boundaries of tiles in pictures referencing PPS. In-loop filtering operations include deblocking filter, adaptive sample shift filter, and adaptive loop filter operations.
loop_filter_across_slices _enabled_flag equal to 1 specifies that in-loop filtering operations can be performed along the boundaries of slices in pictures referencing PPS. loop_filter_across_slices_enabled_flag equal to 0 specifies that in-loop filtering operations are not performed along slice boundaries in pictures referencing PPS. In-loop filtering operations include deblocking filter, adaptive sample shift filter, and adaptive loop filter operations.
deblocking_filter_control_present_flag equal to 1 specifies the presence of syntactic deblocking filter controls in the PPS. deblocking_filter_control_present_flag equal to 0 specifies the absence of syntactic controls for the deblocking filter in PPS.
deblocking_filter_override_enabled_flag equal to 1 specifies the presence of pic_deblocking_filter_override_flag in PHs referencing PPS, or slice_deblocking_filter_override_flag in slice headers referencing PPS.
deblocking_filter_override_enabled_flag equal to 0 specifies the absence of pic_deblocking_filter_override_flag in PHs referencing PPS, or slice_deblocking_filter_override_flag in slice headers referencing PPS. If not present, the value of deblocking_filter_override_enabled_flag is considered to be 0.
pps_deblocking_filter_disabled_flag equal to 1 specifies that the deblocking filter operation is not applied to slices referencing a PPS in which the slice_deblocking_filter_disabled_flag is not present. pps_deblocking_filter_disabled_flag equal to 0 specifies that the deblocking filter operation is applied to slices referencing a PPS in which the slice_deblocking_filter_disabled_flag is not present. If not present, pps_deblocking_filter_disabled_flag is considered to be 0.
pps_beta_offset_div2 and pps_tc_offset_div2 specify the default deblocking offsets for β and tC (divided by 2) that apply to cutouts referencing PPS unless the default deblocking offsets are overwritten by the deblocking offsets present in the cutout headers for the cutouts , referring to PPS. The values of pps_beta_offset_div2 and pps_tc_offset_div2 must both be in the range -6 to 6, inclusive. If not present, the values of pps_beta_offset_div2 and pps_tc_offset_div2 are considered to be 0.

[155] Следующие таблицы показывают примерный синтаксис и семантику заголовка картинки в соответствии с настоящим вариантом осуществления.[155] The following tables show exemplary syntax and semantics of a picture header in accordance with the present embodiment.

[156] [Таблица 8][156] [Table 8]

[157][157]

[158] [Таблица 9][158] [Table 9]

ph_loop_filter_across_virtual_boundaries_disabled_present_flag, равный 1, специфицирует, что операции внутриконтурной фильтрации отключены по виртуальным границам в картинках, ассоциированных с РН.
ph_loop_filter_across_virtual_boundaries_disabled_present_flag, равный 0, специфицирует, что такое отключение операций внутриконтурной фильтрации не применяется в картинках, ассоциированных с РН. Операции внутриконтурной фильтрации включают в себя операции фильтра устранения блочности, фильтра адаптивного смещения выборки и адаптивного контурного фильтра.
ph_num_ver_virtual_boundaries специфицирует число синтаксических элементов ph_virtual_boundaries_pos_x[i], которые присутствуют в РН.
ph_virtual_boundaries_pos_x[i] используется, чтобы вычислять значение VirtualBoundariesPosХ[i], которое специфицирует местоположение i-ой вертикальной виртуальной границы в единицах выборок яркости. Значение ph_virtual_boundaries_pos_x[i] должно быть в диапазоне от 1 до Ceil(pic_width_in_luma_samples ÷ 8)-1, включительно.
ph_num_hor_virtual_boundaries специфицирует число синтаксических элементов ph_virtual_boundaries_pos_y[i], которые присутствуют в РН.
ph_virtual_boundaries_pos_y[i] используется, чтобы вычислять значение VirtualBoundariesPosY[i], которое специфицирует местоположение i-ой горизонтальной виртуальной границы в единицах выборок яркости. Значение ph_virtual_boundaries_pos_y[i] должно быть в диапазоне от 1 до Ceil(pic_height_in_luma_samples ÷ 8)-1, включительно.
pic_sao_enabled_present_flag, равный 1, специфицирует, что pic_sao_luma_flag и pic_sao_chroma_flag присутствуют в РН. pic_sao_enabled_present_flag, равный 0, специфицирует, что pic_sao_luma_flag и pic_sao_chroma_flag не присутствуют в РН. Если pic_sao_enabled_present_flag не присутствует, он считается равным 0.
pic_sao_luma_enabled_flag, равный 1, специфицирует, что SAO включено для компонента яркости во всех вырезках, ассоциированных с РН; pic_sao_luma_enabled_flag, равный 0, специфицирует, что SAO для компонента яркости может быть отключено для одной или более или всех вырезок, ассоциированных с РН.
pic_sao_chroma_enabled_flag, равный 1, специфицирует, что SAO включено для компонента цветности во всех вырезках, ассоциированных с РН; pic_sao_chroma_enabled_flag, равный 0, специфицирует, что SAO для компонента цветности может быть отключено для одной или более или всех вырезок, ассоциированных с РН.
pic_alf_enabled_present_flag, равный 1, специфицирует, что pic_alf_enabled_flag, pic_num_alf_aps_ids_luma, pic_alf_aps_id_luma[i], pic_alf_chroma_idc и pic_alf_aps_id_chroma присутствуют в РН.
pic_alf_enabled_present_flag, равный 0, специфицирует, что pic_alf_enabled_flag, pic_num_alf_aps_ids_luma, pic_alf_aps_id_luma[i], pic_alf_chroma_idc и pic_alf_aps_id_chroma не присутствуют в РН.
Если pic_alf_enabled_present_flag не присутствует, он считается равным 0.
pic_alf_enabled_flag, равный 1, специфицирует, что адаптивный контурный фильтр включен для всех вырезок, ассоциированных с РН, и может применяться к цветовому компоненту Y, Cb или Cr в вырезках.
pic_alf_enabled_flag, равный 0, специфицирует, что адаптивный контурный фильтр может быть отключен для одной или более или всех вырезок, ассоциированных с РН. Если не присутствует, pic_alf_enabled_flag
считается равным 0.
pic_num_alf_aps_ids_luma специфицирует число ALF APS, на которые ссылаются вырезки, ассоциированные с РН.
pic_alf_aps_id_luma[i] специфицирует adaptation_parameter_set_id i-го ALF APS, на который ссылается компонент яркости вырезок, ассоциированных с РН.
Значение alf_luma_filter_signal_flag единицы APL NAL, имеющей aps_params_type, равный ALF_APS, и adaptation_parameter_set_id, равный pic_alf_aps_id_luma[i], должно быть равно 1.
pic_alf_chroma_idc, равный 0, специфицирует, что адаптивный контурный фильтр не применяется к цветовым компонентам Cb и Cr.
pic_alf_chroma_idc, равный 1, указывает, что адаптивный контурный фильтр применяется к цветовому компоненту Cb.
pic_alf_chroma_idc, равный 2, указывает, что адаптивный контурный фильтр применяется к цветовому компоненту Cr.
pic_alf_chroma_idc, равный 3, указывает, что адаптивный контурный фильтр применяется к цветовым компонентам Cb и Cr. Если pic_alf_chroma_idc не присутствует, то он считается равным 0.
pic_alf_aps_id_chroma специфицирует adaptation_parameter_set_id ALF APS, на который ссылается компонент цветности вырезок, ассоциированных с РН.
pic_deblocking_filter_override_present_flag, равный 1, специфицирует, что pic_deblocking_filter_override_flag присутствует в РН. pic_deblocking_filter_override_present_flag, равный 0, специфицирует, что pic_deblocking_filter_override_flag не присутствует в РН. Если pic_deblocking_filter_override_present_flag не присутствует, он считается равным 0.
pic_deblocking_filter_override_flag, равный 1, специфицирует, что параметры устранения блочности присутствуют в РН. pic_deblocking_filter_override_flag, равный 0, специфицирует, что параметры устранения блочности не присутствуют в РН. Если не присутствует, значение pic_deblocking_filter_override_flag считается равным 0.
ph_loop_filter_across_virtual_boundaries_disabled_present_flag equal to 1 specifies that in-loop filtering operations are disabled along virtual boundaries in pictures associated with the PH.
ph_loop_filter_across_virtual_boundaries_disabled_present_flag equal to 0 specifies that such disabling of in-loop filtering operations is not applied to pictures associated with the PH. In-loop filtering operations include deblocking filter, adaptive sample shift filter, and adaptive loop filter operations.
ph_num_ver_virtual_boundaries specifies the number of syntactic elements ph_virtual_boundaries_pos_x[i] that are present in the RN.
ph_virtual_boundaries_pos_x[i] is used to calculate the value of VirtualBoundariesPosX[i], which specifies the location of the i-th vertical virtual boundary in units of luminance samples. The value of ph_virtual_boundaries_pos_x[i] must be in the range from 1 to Ceil(pic_width_in_luma_samples ÷ 8)-1, inclusive.
ph_num_hor_virtual_boundaries specifies the number of ph_virtual_boundaries_pos_y[i] syntactic elements that are present in the PH.
ph_virtual_boundaries_pos_y[i] is used to calculate the value of VirtualBoundariesPosY[i], which specifies the location of the i-th horizontal virtual boundary in units of luminance samples. The value of ph_virtual_boundaries_pos_y[i] must be in the range from 1 to Ceil(pic_height_in_luma_samples ÷ 8)-1, inclusive.
pic_sao_enabled_present_flag equal to 1 specifies that pic_sao_luma_flag and pic_sao_chroma_flag are present in the PH. pic_sao_enabled_present_flag equal to 0 specifies that pic_sao_luma_flag and pic_sao_chroma_flag are not present in the PH. If pic_sao_enabled_present_flag is not present, it is considered to be 0.
pic_sao_luma_enabled_flag equal to 1 specifies that SAO is enabled for the luma component in all slices associated with the PH; pic_sao_luma_enabled_flag equal to 0 specifies that the SAO for the luma component may be disabled for one or more or all of the slices associated with the PH.
pic_sao_chroma_enabled_flag equal to 1 specifies that SAO is enabled for the chroma component in all slices associated with the PH; pic_sao_chroma_enabled_flag equal to 0 specifies that SAO for the chroma component may be disabled for one or more or all of the slices associated with the PH.
pic_alf_enabled_present_flag equal to 1 specifies that pic_alf_enabled_flag, pic_num_alf_aps_ids_luma, pic_alf_aps_id_luma[i], pic_alf_chroma_idc and pic_alf_aps_id_chroma are present in the PH.
pic_alf_enabled_present_flag equal to 0 specifies that pic_alf_enabled_flag, pic_num_alf_aps_ids_luma, pic_alf_aps_id_luma[i], pic_alf_chroma_idc and pic_alf_aps_id_chroma are not present in the PH.
If pic_alf_enabled_present_flag is not present, it is considered to be 0.
pic_alf_enabled_flag equal to 1 specifies that the adaptive edge filter is enabled for all slices associated with the PH, and can be applied to the Y, Cb, or Cr color component of the slices.
pic_alf_enabled_flag equal to 0 specifies that the adaptive loop filter may be disabled for one or more or all of the cuts associated with the PH. If not present, pic_alf_enabled_flag
is considered equal to 0.
pic_num_alf_aps_ids_luma specifies the number of ALF APS referenced by the cuts associated with the PH.
pic_alf_aps_id_luma[i] specifies the adaptation_parameter_set_id of the i-th ALF APS referenced by the luma component of the slices associated with the PH.
The alf_luma_filter_signal_flag value of an APL NAL unit having an aps_params_type equal to ALF_APS and an adaptation_parameter_set_id equal to pic_alf_aps_id_luma[i] shall be equal to 1.
pic_alf_chroma_idc equal to 0 specifies that the adaptive contour filter is not applied to the Cb and Cr chroma components.
pic_alf_chroma_idc equal to 1 indicates that the adaptive edge filter is applied to the Cb chroma component.
pic_alf_chroma_idc equal to 2 indicates that an adaptive edge filter is applied to the Cr color component.
pic_alf_chroma_idc equal to 3 indicates that the adaptive contour filter is applied to the Cb and Cr color components. If pic_alf_chroma_idc is not present, then it is considered to be 0.
pic_alf_aps_id_chroma specifies the adaptation_parameter_set_id ALF APS referenced by the chroma component of the slices associated with the PH.
pic_deblocking_filter_override_present_flag equal to 1 specifies that pic_deblocking_filter_override_flag is present in the PH. pic_deblocking_filter_override_present_flag equal to 0 specifies that pic_deblocking_filter_override_flag is not present in the PH. If pic_deblocking_filter_override_present_flag is not present, it is considered to be 0.
pic_deblocking_filter_override_flag equal to 1 specifies that deblocking parameters are present in the PH. pic_deblocking_filter_override_flag equal to 0 specifies that deblocking parameters are not present in the PH. If not present, pic_deblocking_filter_override_flag is considered to be 0.

[159] [159]

pic_deblocking_filter_disabled_flag, равный 1, специфицирует, что операция фильтра устранения блочности не применяется для вырезок, ассоциированных с РН. pic_deblocking_filter_disabled_flag, равный 0, специфицирует, что операция фильтра устранения блочности применяется для вырезок, ассоциированных с РН. Если pic_deblocking_filter_disabled_flag не присутствует, он считается равным pps_deblocking_filter_disabled_flag.
pic_beta_offset_div2 и pic_tc_offset_div2 специфицируют смещения параметров устранения блочности для β и tC (деленные на 2) для вырезок, ассоциированных с PH. Значения pic_beta_offset_div2 и pic_tc_offset_div2 должны быть оба в диапазоне от -6 до 6, включительно. Если не присутствуют, значения pic_beta_offset_div2 и pic_tc_offset_div2 считаются равными pps_beta_offset_div2 и pps_tc_offset_div2, соответственно.
pic_deblocking_filter_disabled_flag equal to 1 specifies that the deblocking filter operation is not applied to cuts associated with the PH. pic_deblocking_filter_disabled_flag equal to 0 specifies that the deblocking filter operation is applied to cuts associated with the PH. If pic_deblocking_filter_disabled_flag is not present, it is considered equal to pps_deblocking_filter_disabled_flag.
pic_beta_offset_div2 and pic_tc_offset_div2 specify the deblocking parameter offsets for β and tC (divided by 2) for cuts associated with the PH. The values of pic_beta_offset_div2 and pic_tc_offset_div2 must both be in the range -6 to 6, inclusive. If not present, the values of pic_beta_offset_div2 and pic_tc_offset_div2 are considered to be equal to pps_beta_offset_div2 and pps_tc_offset_div2, respectively.

[160] Следующие таблицы показывают примерный синтаксис и семантику заголовка выборки в соответствии с настоящим вариантом осуществления.[160] The following tables show exemplary syntax and semantics of a fetch header in accordance with the present embodiment.

[161] [Таблица 10][161] [Table 10]

[162] [Таблица 11][162] [Table 11]

cu_chroma_qp_offset_enabled_flag, равный 1, специфицирует, что cu_chroma_qp_offset_flag может присутствовать в синтаксисе кодирования единицы преобразования и палитры. cu_chroma_qp_offset_enabled_flag, равный 0, специфицирует, что cu_chroma_qp_offset_flag не присутствует в синтаксисе кодирования единицы преобразования и палитры. Если не присутствует, значение cu_chroma_qp_offset_enabled_flag считается равным 0.
slice_sao_luma_flag, равный 1, специфицирует, что SAO включено для компонента яркости в текущей вырезке; slice_sao_luma_flag, равный 0, специфицирует, что SAO отключено для компонента яркости в текущей вырезке. Если slice_sao_luma_flag не присутствует, он считается равным pic_sao_luma_enabled_flag.
slice_sao_chroma_flag, равный 1, специфицирует, что SAO включено для компонента цветности в текущей вырезке; slice_sao_chroma_flag, равный 0, специфицирует, что SAO отключено для компонента цветности в текущей вырезке. Если slice_sao_chroma_flag не присутствует, он считается равным pic_sao_chroma_enabled_flag.
slice_alf_enabled_flag, равный 1, специфицирует, что адаптивный контурный фильтр включен и может применяться к цветовому компоненту Y, Cb и Cr в вырезке. slice_alf_enabled_flag, равный 0, специфицирует, что адаптивный контурный фильтр отключен для всех цветовых компонентов в вырезке. Если не присутствует, значение slice_alf_enabled_flag считается равным pic_alf_enabled_flag.
slice_num_alf_aps_ids_luma специфицирует число ALF APS,на которые ссылается вырезка. Если slice_alf_enabled_flag равен 1 и slice_num_alf_aps_ids_luma не присутствует, значение slice_num_alf_aps_ids_luma считается равным значению pic_num_alf_aps_ids_luma.
slice_alf_aps_id_luma[i] специфицирует adaptation_parameter_set i-го ALF APS, на который ссылается компонент яркости вырезки. TemporalId единицы APS NAL, имеющей aps_params_type, равный ALF_APS, и adaptation_parameter_set_id, равный slice_alf_aps_id_luma[i], должен быть меньше или равен TemporalId единицы NAL кодируемой вырезки. Если slice_alf_enabled_flag равен 1 и slice_alf_aps_id_luma[i] не присутствует, значение slice_alf_aps_id_luma[i] считается равным значению pic_alf_aps_id_luma[i].
Значение alf_luma_filter_signal_flag единицы APS NAL, имеющей aps_params_type, равный ALF_APS, и adaptation_parameter_set_id, равный slice_alf_aps_id_luma[i], должно быть равно 1.
slice_alf_chroma_idc, равный 0, специфицирует, что адаптивный контурный фильтр не применяется к цветовым компонентам Cb и Cr.
slice_alf_chroma_idc, равный 1, указывает, что адаптивный контурный фильтр применяется к цветовому компоненту Cb.
slice_alf_chroma_idc, равный 2, указывает, что адаптивный контурный фильтр применяется к цветовому компоненту Cr.
slice_alf_chroma_idc, равный 3, указывает, что адаптивный контурный фильтр применяется к цветовым компонентам Cb и Cr. Если slice_alf_chroma_idc не присутствует, он считается равным pic_alf_chroma_idc.
slice_alf_aps_id_chroma специфицирует adaptation_parameter_set ALF APS, на который ссылается компонент цветности вырезки. TemporalId единицы APS NAL, имеющей aps_params_type, равный ALF_APS, и adaptation_parameter_set_id, равный slice_alf_aps_id_chroma, должен быть меньше или равен TemporalId единицы NAL кодируемой вырезки. Если slice_alf_enabled_flag равен 1 и slice_alf_aps_id_chroma не присутствует, то значение slice_alf_aps_id_chroma считается равным значению pic_alf_aps_id_chroma.
Значение alf_chroma_filter_signal_flag единицы APS NAL, имеющей aps_params_type, равный ALF_APS, и adaptation_parameter_set_id, равный slice_alf_aps_id_chroma, должно быть равно 1.
slice_deblocking_filter_override_flag, равный 1, специфицирует, что параметры устранения блочности присутствуют в заголовке вырезки.
slice_deblocking_filter_override_flag, равный 0, специфицирует, что параметры устранения блочности не присутствуют в заголовке вырезки. Если не присутствует, значение slice_deblocking_filter_override_flag считается равным pic_deblocking_filter_override_flag.
slice_deblocking_filter_disabled_flag, равный 1, специфицирует, что операция фильтра устранения блочности не применяется для текущей вырезки. slice_deblocking_filter_disabled_flag, равный 0, специфицирует, что операция фильтра устранения блочности применяется для текущей вырезки. Если slice_deblocking_filter_disabled_flag не присутствует, он считается равным pic_deblocking_filter_disabled_flag.
slice_beta_offset_div2 и slice_tc_offset_div2 специфицируют смещения параметров устранения блочности для β и tC (деленные на 2) для текущей вырезки. Значения slice_beta_offset_div2 и slice_tc_offset_div2 должны быть оба в диапазоне от -6 до 6, включительно. Если не присутствуют, значения slice_beta_offset_div2 и slice_tc_offset_div2 считаются равными pic_beta_offset_div2 и pic_tc_offset_div2, соответственно.
cu_chroma_qp_offset_enabled_flag equal to 1 specifies that cu_chroma_qp_offset_flag may be present in the transform unit and palette encoding syntax. cu_chroma_qp_offset_enabled_flag equal to 0 specifies that cu_chroma_qp_offset_flag is not present in the transform unit and palette encoding syntax. If not present, the value of cu_chroma_qp_offset_enabled_flag is considered to be 0.
slice_sao_luma_flag equal to 1 specifies that SAO is enabled for the luma component in the current slice; slice_sao_luma_flag equal to 0 specifies that SAO is disabled for the luma component in the current slice. If slice_sao_luma_flag is not present, it is considered equal to pic_sao_luma_enabled_flag.
slice_sao_chroma_flag equal to 1 specifies that SAO is enabled for the chroma component in the current slice; slice_sao_chroma_flag equal to 0 specifies that SAO is disabled for the chroma component in the current slice. If slice_sao_chroma_flag is not present, it is considered equal to pic_sao_chroma_enabled_flag.
slice_alf_enabled_flag equal to 1 specifies that the adaptive edge filter is enabled and can be applied to the Y, Cb and Cr color component in the slice. slice_alf_enabled_flag equal to 0 specifies that the adaptive edge filter is disabled for all color components in the slice. If not present, the value of slice_alf_enabled_flag is assumed to be equal to pic_alf_enabled_flag.
slice_num_alf_aps_ids_luma specifies the number of ALF APS that the slice refers to. If slice_alf_enabled_flag is 1 and slice_num_alf_aps_ids_luma is not present, the value of slice_num_alf_aps_ids_luma is assumed to be equal to the value of pic_num_alf_aps_ids_luma.
slice_alf_aps_id_luma[i] specifies the adaptation_parameter_set of the i-th ALF APS referenced by the slice luma component. The TemporalId of an APS NAL unit having an aps_params_type equal to ALF_APS and an adaptation_parameter_set_id equal to slice_alf_aps_id_luma[i] shall be less than or equal to the TemporalId of the NAL unit of the encoded slice. If slice_alf_enabled_flag is 1 and slice_alf_aps_id_luma[i] is not present, the value of slice_alf_aps_id_luma[i] is considered equal to the value of pic_alf_aps_id_luma[i].
The alf_luma_filter_signal_flag value of an APS NAL unit having an aps_params_type equal to ALF_APS and an adaptation_parameter_set_id equal to slice_alf_aps_id_luma[i] shall be equal to 1.
slice_alf_chroma_idc equal to 0 specifies that the adaptive edge filter is not applied to the Cb and Cr chroma components.
slice_alf_chroma_idc equal to 1 indicates that the adaptive edge filter is applied to the Cb chroma component.
slice_alf_chroma_idc equal to 2 indicates that an adaptive edge filter is applied to the Cr color component.
slice_alf_chroma_idc equal to 3 indicates that the adaptive contour filter is applied to the Cb and Cr color components. If slice_alf_chroma_idc is not present, it is assumed to be equal to pic_alf_chroma_idc.
slice_alf_aps_id_chroma specifies the adaptation_parameter_set ALF APS referenced by the slice chroma component. The TemporalId of an APS NAL unit having an aps_params_type equal to ALF_APS and an adaptation_parameter_set_id equal to slice_alf_aps_id_chroma shall be less than or equal to the TemporalId of the NAL unit of the encoded slice. If slice_alf_enabled_flag is 1 and slice_alf_aps_id_chroma is not present, then the value of slice_alf_aps_id_chroma is considered equal to the value of pic_alf_aps_id_chroma.
The alf_chroma_filter_signal_flag value of an APS NAL unit having an aps_params_type equal to ALF_APS and an adaptation_parameter_set_id equal to slice_alf_aps_id_chroma shall be equal to 1.
slice_deblocking_filter_override_flag equal to 1 specifies that deblocking options are present in the slice header.
slice_deblocking_filter_override_flag equal to 0 specifies that deblocking options are not present in the slice header. If not present, the value of slice_deblocking_filter_override_flag is assumed to be equal to pic_deblocking_filter_override_flag.
slice_deblocking_filter_disabled_flag equal to 1 specifies that the deblocking filter operation is not applied to the current slice. slice_deblocking_filter_disabled_flag equal to 0 specifies that the deblocking filter operation is applied to the current slice. If slice_deblocking_filter_disabled_flag is not present, it is considered equal to pic_deblocking_filter_disabled_flag.
slice_beta_offset_div2 and slice_tc_offset_div2 specify the deblocking parameter offsets for β and tC (divided by 2) for the current slice. The values of slice_beta_offset_div2 and slice_tc_offset_div2 must both be in the range -6 to 6, inclusive. If not present, the values of slice_beta_offset_div2 and slice_tc_offset_div2 are considered to be equal to pic_beta_offset_div2 and pic_tc_offset_div2, respectively.

[163] Далее будет описана информация, относящаяся к подкартинкам, информация, относящаяся к виртуальным границам, которые могут использоваться для внутриконтурной фильтрации, и их сигнализация.[163] Next, information related to sub-pictures, information related to virtual boundaries that can be used for in-loop filtering, and signaling thereof will be described.

[164] В примере, две различные прямоугольные вырезки могут принадлежать различным подкартинкам при совместном использовании того же самого мозаичного элемента. В этом случае, может возникнуть проблема, при которой сложность кодирования возрастает.[164] In an example, two different rectangular cutouts may belong to different subpictures when sharing the same tile. In this case, a problem may arise in which the coding complexity increases.

[165] Чтобы упростить разделение картинки, вариант осуществления настоящего документа может включать в себя примеры условий для картинки, разделяемой на две или более подкартинок. В примере, все CTU в одном мозаичном элементе могут принадлежать тем же самым подкартинкам. В другом примере, все CTU в подкартинке могут принадлежать тому же самому мозаичному элементу. Вышеописанные два примера могут применяться отдельно для кодирования изображения/видео, могут применяться последовательно или могут применяться в комбинации. Кроме того, в варианте осуществления настоящего документа, в случае, когда подкартинка включает в себя CTU, являющиеся поднаборами из всех CTU в одном мозаичном элементе, подкартинка может не включать в себя CTU, принадлежащие другому мозаичному элементу.[165] To facilitate picture division, an embodiment of the present document may include example conditions for a picture being divided into two or more sub-pictures. In the example, all CTUs in one tile may belong to the same sub-pictures. In another example, all CTUs in a subpicture may belong to the same tile. The above two examples can be used separately for image/video encoding, can be used sequentially, or can be used in combination. Moreover, in an embodiment of the present document, in the case where a sub-picture includes CTUs that are subsets of all CTUs in one tile, the sub-picture may not include CTUs belonging to another tile.

[166] В сигнализации для текущей картинки, если значение subpic_present_flag равно 1, число подкартинок в каждой картинке, ссылающейся на SPS, может быть равно 1 (значение sps_num_subpics_minus1 равно 0). Такое условие было принято, чтобы поддерживать пример использования извлечения подкартинки, в котором подкартинка независимо кодируется, из битового потока, чтобы сформировать другой битовый поток даже без изменения значений меньших, чем значения набора параметров. Соответственно, даже если значение subpic_present_flag равно 1, и значение sps_num_subpics_minus1 равно 0, subpic_ctu_top_left_x[0], subpic_ctu_top_left_y[0], subpic_width_minus1[0], subpic_height_minus1[0], subpic_treated_as_pic_flag[i] и/или loop_filter_across_subpic_enabled_flag[i] все еще присутствуют. В такой ситуации, такие синтаксические элементы могут присутствовать, перекрываясь друг с другом, и если сигнал для неверного значения принят в соответствующем синтаксическом элементе, это может сделать операцию декодера непредсказуемой. Например, если значение subpics_present_flag равно 1, и значение sps_num_subpics_minus1 равно 0, это означает, что присутствует только одна подкартинка (сама картинка), и значение subpic_treat_as_pic_flag[0] равно 1. В этом случае, если соответствующее значение сигнализируется как значение 0, может возникнуть проблема противоречивости в процессе декодирования.[166] In signaling for the current picture, if the value of subpic_present_flag is 1, the number of subpictures in each picture referencing the SPS may be 1 (the value of sps_num_subpics_minus1 is 0). This condition was adopted to support the use case of sub-picture extraction, in which the sub-picture is independently encoded, from a bitstream to form another bitstream even without changing values less than the parameter set values. Accordingly, even if the value of subpic_present_flag is 1, and the value of sps_num_subpics_minus1 is 0, subpic_ctu_top_left_x[0], subpic_ctu_top_left_y[0], subpic_width_minus1[0], subpic_height_minus1[0], subpic_treated_as_pic_flag[i] and/or loop_filter_across_subpic_enabled_flag[i] are still present. In such a situation, such syntax elements may be present, overlapping each other, and if a signal for an incorrect value is received at the corresponding syntax element, this may make the decoder operation unpredictable. For example, if the value of subpics_present_flag is 1 and the value of sps_num_subpics_minus1 is 0, this means that there is only one subpicture (the picture itself) present, and the value of subpic_treat_as_pic_flag[0] is 1. In this case, if the corresponding value is signaled as a value of 0, a the problem of inconsistency in the decoding process.

[167] Чтобы решить вышеописанную проблему, вариант осуществления настоящего документа включает в себя примеры условий, которые могут применяться в случае, когда присутствует сигнализация подкартинки (например, значение subpic_present_flag равно 1), и только одна подкартинка присутствует в картинке (например, значение sps_num_subpics_minus1 равно 0). Приведенные выше примеры условий могут быть такими, как показано в следующей таблице.[167] To solve the above-described problem, an embodiment of the present document includes example conditions that may apply in the case where subpicture signaling is present (eg, the value of subpic_present_flag is 1) and only one subpicture is present in the picture (eg, the value of sps_num_subpics_minus1 is 0). The above example conditions may be as shown in the following table.

[168] [Таблица 12][168] [Table 12]

а) Сигнализация свойства единственной подкартинки в картинке опускается, и их значения выводятся. Иными словами, синтаксические элементы subpic_ctu_top_left_x[0], subpic_ctu_top_left_y[0], subpic_width_minus1[0], subpic_height_minus1[0], subpic_treated_as_pic_flag[i] и loop_filter_across_subpic_enabled_flag[i] в текущем описании VCC не присутствуют, и их значения выводятся следующим образом:
- subpic_ctu_top_left_x[0] считается равным 0
- subpic_ctu_top_left_y[0] считается равным 0
- subpic_width_minus1[0] считается равным Ceil(pic_width_max_in_luma_samples÷CtbSizeY))
- subpic_height_minus1[0] считается равным Ceil(pic_height_max_in_luma_samples÷CtbSizeY))
- subpic_treated_as_pic_flag[0] считается равным 1
- loop_filter_across_subpic_enabled_flag[0] считается равным 0
-
b) Значения свойств подкартинки ограничиваются следующим образом:
- Первая CTU подкартинки является первой CTU картинки (т.е, subpic_ctu_top_left_x[0] ограничено, чтобы быть равным 0, subpic_ctu_top_left_y[0] ограничено, чтобы быть равным 0).
- Ширина подкартинки равна ширине картинки (т.е., subpic_width_minus1[0] ограничено, чтобы быть равным Ceil(pic_width_max_in_luma_samples÷CtbSizeY))).
- Высота подкартинки равна высоте картинки (т.е. subpic_height_minus1[0] ограничено, чтобы быть равным Ceil(pic_height_max_in_luma_samples÷CtbSizeY))).
- Подкартинка является независимо кодируемой подкартинкой (т.е., subpic_treated_as_pic_flag[0] ограничено, чтобы быть равным 1).
a) The signaling properties of the only sub-pictures in the picture are omitted and their values are output. In other words, the syntax elements subpic_ctu_top_left_x[0], subpic_ctu_top_left_y[0], subpic_width_minus1[0], subpic_height_minus1[0], subpic_treated_as_pic_flag[i] and loop_filter_across_subpic_enabled_flag[i] are not present in the current VCC definition, and their values are output as follows:
- subpic_ctu_top_left_x[0] is considered equal to 0
- subpic_ctu_top_left_y[0] is considered equal to 0
- subpic_width_minus1[0] is considered equal to Ceil(pic_width_max_in_luma_samples÷CtbSizeY))
- subpic_height_minus1[0] is considered equal to Ceil(pic_height_max_in_luma_samples÷CtbSizeY))
- subpic_treated_as_pic_flag[0] is considered equal to 1
- loop_filter_across_subpic_enabled_flag[0] is considered equal to 0
-
b) Sub-picture property values are limited as follows:
- The first CTU of the subpicture is the first CTU of the picture (ie, subpic_ctu_top_left_x[0] is constrained to be 0, subpic_ctu_top_left_y[0] is constrained to be 0).
- The width of the subpicture is equal to the width of the picture (ie, subpic_width_minus1[0] is limited to be equal to Ceil(pic_width_max_in_luma_samples÷CtbSizeY))).
- The height of the subpicture is equal to the height of the picture (ie subpic_height_minus1[0] is limited to be equal to Ceil(pic_height_max_in_luma_samples÷CtbSizeY))).
- The subpicture is an independently encoded subpicture (ie, subpic_treated_as_pic_flag[0] is constrained to be equal to 1).

[169] В примере, в случае, когда присутствует сигнализация подкартинки, и положения виртуальных границ присутствуют в заголовке картинки, имеется проблема, состоящая в том, что заголовок картинки должен быть перезаписан, чтобы идентифицировать, корректна ли сигнализация местоположения виртуальных границ в сценариях извлечения подкартинок и объединения подкартинок. Это может нарушить цель проектирования извлечения/объединения подкартинок, в котором битовый поток не требуется перезаписывать для единицы NAL уровня, который ниже, чем уровень наборов параметров.[169] In the example, in the case where sub-picture signaling is present and the virtual boundary positions are present in the picture header, there is a problem that the picture header must be rewritten to identify whether the virtual boundary location signaling is correct in sub-picture retrieval scenarios and combining sub-pictures. This may defeat the design goal of subpicture extraction/merging, in which the bitstream does not need to be rewritten for a NAL unit of a level that is lower than the parameter set level.

[170] Чтобы решить вышеописанную проблему, в соответствии с вариантом осуществления настоящего документа, если присутствует сигнализация подкартинки (например, если сигнализация подкартинки присутствует в SPS), сигнализация положений виртуальных границ может не включаться в заголовок картинки. В качестве примера, если сигнализация подкартинки присутствует, информация о положениях виртуальных границ может быть включена в набор параметров высокого уровня. Например, если сигнализация подкартинки присутствует, информация о положениях виртуальных границ может быть включена в SPS. Кроме того, если сигнализация подкартинки присутствует, информация о положениях виртуальных границ может быть включена в PPS.[170] To solve the above problem, according to an embodiment of the present document, if sub-picture signaling is present (eg, if sub-picture signaling is present in the SPS), the virtual boundary position signaling may not be included in the picture header. As an example, if sub-picture signaling is present, information about the positions of the virtual boundaries may be included in a set of high-level parameters. For example, if sub-picture signaling is present, information about the positions of the virtual boundaries may be included in the SPS. In addition, if sub-picture signaling is present, information about the positions of the virtual boundaries may be included in the PPS.

[171] В варианте осуществления настоящего документа, если сигнализация ID подкартинки присутствует (если значение sps_subpic_id_present_flag равно 1, все подкартинки могут быть независимо кодируемыми подкартинками (значение subpic_treated_as_pic_flag[i] равно 1). В этом случае, местоположения (например, SPS, PPS или заголовок картинки) сигнализации ID подкартинки могут не иметь никакого соотношения.[171] In an embodiment of this document, if subpicture ID signaling is present (if the value of sps_subpic_id_present_flag is 1, all subpictures may be independently encoded subpictures (the value of subpic_treated_as_pic_flag[i] is 1). In this case, locations (eg, SPS, PPS, or picture title) sub-picture ID alarms may not have any relationship.

[172] В соответствии с вариантами осуществления настоящего документа вместе с приведенными выше таблицами, может быть определено, сигнализируется ли информация, относящаяся к виртуальным границам (например, информация, относящаяся к положениям виртуальных границ), в наборе параметров последовательности на основе того, присутствует ли информация подкартинки. Например, в случае, когда информация подкартинки присутствует в соответствующей последовательности, информация, относящаяся к виртуальным границам (например, информация, относящаяся к положениям виртуальных границ), может сигнализироваться в наборе параметров последовательности. Соответственно, способ кодирования на основе виртуальных границ в соответствии с вариантами осуществления настоящего документа может эффективно выполняться без перезаписи или изменения синтаксиса высокого уровня.[172] In accordance with embodiments of this document in conjunction with the tables above, it can be determined whether information related to virtual boundaries (eg, information related to virtual boundary positions) is signaled in the sequence parameter set based on whether sub-picture information. For example, in the case where sub-picture information is present in the corresponding sequence, information related to the virtual boundaries (eg, information related to the positions of the virtual boundaries) may be signaled in the sequence parameter set. Accordingly, the virtual boundary-based encoding method according to embodiments of the present document can be efficiently performed without rewriting or changing high-level syntax.

[173] Фиг. 10 и фиг. 11 схематично показывают пример способа кодирования видео/изображения и связанные компоненты в соответствии с вариантом(ами) осуществления настоящего документа.[173] FIG. 10 and fig. 11 schematically shows an example of a video/image encoding method and related components in accordance with embodiment(s) of the present document.

[174] Способ, раскрытый на фиг. 10, может выполняться устройством кодирования, раскрытым на фиг. 2 или фиг. 11. Конкретно, например, S1000 и S1010 на фиг. 10 могут выполняться процессором 230 остатка устройства кодирования согласно фиг. 11, S1020 на фиг. 10 может выполняться фильтром 260 устройства кодирования согласно фиг. 11, и S1030 на фиг. 10 может выполняться энтропийным кодером 240 устройства кодирования согласно фиг. 11. Кроме того, хотя не показано на фиг. 10, выборки предсказания или связанная с предсказанием информация могут выводиться предсказателем 220 устройства кодирования согласно фиг. 10, и битовый поток может генерироваться из остаточной информации или связанной с предсказанием информации энтропийным кодером 240 устройства кодирования. Способ, раскрытый на фиг. 10, может включать в себя вышеупомянутые варианты осуществления настоящего документа.[174] The method disclosed in FIG. 10 may be performed by the encoding device disclosed in FIG. 2 or fig. 11. Specifically, for example, S1000 and S1010 in FIG. 10 may be executed by the encoding device remainder processor 230 according to FIG. 11, S1020 in FIG. 10 may be performed by the encoder filter 260 of FIG. 11, and S1030 in FIG. 10 may be performed by the entropy encoder 240 of the encoder according to FIG. 11. Additionally, although not shown in FIG. 10, prediction samples or prediction-related information may be output by the encoder predictor 220 of FIG. 10, and the bitstream may be generated from the residual information or prediction-related information by the entropy encoder 240 of the encoding device. The method disclosed in FIG. 10 may include the above-mentioned embodiments of the present document.

[175] Со ссылкой на фиг. 10, устройство кодирования может выводить остаточные выборки (S1000). Устройство кодирования может выводить остаточные выборки для текущего блока, и остаточные выборки для текущего блока могут выводиться на основе исходных выборок и выборок предсказания текущего блока. Конкретно, устройство кодирования может выводить выборки предсказания текущих блоков на основе режима предсказания. В этом случае, могут применяться различные способы предсказания, раскрытые в настоящем документе, такие как интер-предсказание или интра-предсказание. Остаточные выборки могут выводиться на основе выборок предсказания и исходных выборок.[175] With reference to FIG. 10, the encoder can output residual samples (S1000). The encoder may output residual samples for the current block, and residual samples for the current block may be output based on the original samples and prediction samples of the current block. Specifically, the encoding device may output prediction samples of current blocks based on the prediction mode. In this case, various prediction methods disclosed herein, such as inter-prediction or intra-prediction, can be applied. Residual samples can be derived from the prediction samples and the original samples.

[176] Устройство кодирования может выводить коэффициенты преобразования. Устройство кодирования может выводить коэффициенты преобразования на основе процесса преобразования для остаточных выборок. Например, процесс преобразования может включать в себя по меньшей мере одно из DCT, DST, GBT или CNT.[176] The encoder can output conversion coefficients. The encoder may output transform coefficients based on the transform process for the residual samples. For example, the conversion process may include at least one of DCT, DST, GBT or CNT.

[177] Устройство кодирования может выводить квантованные коэффициенты преобразования. Устройство кодирования может выводить квантованные коэффициенты преобразования на основе процесса квантования для коэффициентов преобразования. Квантованные коэффициенты преобразования могут иметь форму одномерного вектора, на основе порядка сканирования коэффициентов.[177] The encoder may output quantized transform coefficients. The encoding device may output quantized transform coefficients based on a quantization process for the transform coefficients. The quantized transform coefficients can be in the form of a one-dimensional vector, based on the scan order of the coefficients.

[178] Устройство кодирования может генерировать остаточную информацию (S1010). Устройство кодирования может генерировать остаточную информацию на основе остаточных выборок для текущего блока. Устройство кодирования может генерировать остаточную информацию, представляющую квантованные коэффициенты преобразования. Остаточная информация может генерироваться различными способами кодирования, такими как экспоненциальное кодирование Голомба, CAVLC и CABAC.[178] The encoding device may generate residual information (S1010). The encoder may generate residual information based on the residual samples for the current block. The encoder may generate residual information representing the quantized transform coefficients. Residual information can be generated by various coding methods such as exponential Golomb coding, CAVLC and CABAC.

[179] Устройство кодирования может генерировать восстановленные выборки. Устройство кодирования может генерировать восстановленные выборки на основе остаточной информации. Восстановленные выборки могут генерироваться путем суммирования остаточных выборок на основе остаточной информации с выборкой предсказания. Конкретно, устройство кодирования может выполнять предсказание (интра- или интер-предсказание) для текущего блока и может генерировать восстановленные выборки на основе исходных выборок и выборок предсказания, сгенерированных посредством предсказания.[179] The encoder may generate reconstructed samples. The encoder may generate reconstructed samples based on the residual information. Reconstructed samples can be generated by summing the residual samples based on the residual information with the prediction sample. Specifically, the encoder may perform prediction (intra- or inter-prediction) for the current block and may generate reconstructed samples based on the original samples and the prediction samples generated by the prediction.

[180] Восстановленные выборки могут включать в себя восстановленные выборки яркости и восстановленные выборки цветности. Конкретно, остаточные выборки могут включать в себя остаточные выборки яркости и остаточные выборки цветности. Остаточные выборки яркости могут генерироваться на основе исходных выборок яркости и выборок яркости предсказания. Остаточные выборки цветности могут генерироваться на основе исходных выборок цветности и выборок цветности предсказания. Устройство кодирования может выводить коэффициенты преобразования для остаточных выборок яркости (коэффициенты преобразования яркости) и/или коэффициенты преобразования для остаточных выборок цветности (коэффициенты преобразования цветности). Квантованные коэффициенты преобразования могут включать в себя квантованные коэффициенты преобразования яркости и/или квантованные коэффициенты преобразования цветности.[180] The reconstructed samples may include reconstructed luma samples and reconstructed chrominance samples. Specifically, the residual samples may include luma residual samples and chroma residual samples. Residual luminance samples can be generated based on the original luminance samples and the prediction luminance samples. Residual chroma samples may be generated based on the original chroma samples and the prediction chroma samples. The encoder may output transform coefficients for the residual luminance samples (luminance transform coefficients) and/or transform coefficients for the residual chroma samples (chrominance transform coefficients). The quantized transform coefficients may include quantized luma transform coefficients and/or quantized chrominance transform coefficients.

[181] Устройство кодирования может генерировать информацию, относящуюся к внутриконтурной фильтрации, для восстановленных выборок текущей картинки (S1020). Устройство кодирования может выполнять процесс внутриконтурной фильтрации для восстановленных выборок и может генерировать информацию, относящуюся к внутриконтурной фильтрации, на основе процесса внутриконтурной фильтрации. Например, информация, относящаяся к внутриконтурной фильтрации, может включать в себя информацию о виртуальных границах, как описано выше в настоящем документе (флаг включения виртуальных границ SPS, флаг включения виртуальных границ заголовка картинки, флаг присутствия виртуальных границ SPS, флаг присутствия виртуальных границ заголовка картинки и информацию о положениях виртуальных границ).[181] The encoding device may generate information related to in-loop filtering for the reconstructed samples of the current picture (S1020). The encoder may perform an in-loop filtering process on the reconstructed samples, and may generate information related to the in-loop filtering based on the in-loop filtering process. For example, information related to in-loop filtering may include information about virtual boundaries as described above herein (SPS virtual boundaries enable flag, picture header virtual boundaries enable flag, SPS virtual boundaries present flag, picture header virtual boundaries present flag and information about the positions of virtual boundaries).

[182] Устройство кодирования может кодировать информацию видео/изображения (S1030). Информация изображения может включать в себя остаточную информацию, информацию, связанную с предсказанием, и/или информацию, относящуюся к внутриконтурной фильтрации. Закодированная информация видео/изображения может быть выведена в форме битового потока. Битовый поток может передаваться на устройство декодирования через сеть или носитель хранения.[182] The encoding device can encode video/image information (S1030). The image information may include residual information, prediction-related information, and/or in-loop filtering-related information. The encoded video/image information can be output in the form of a bit stream. The bit stream may be transmitted to the decoding device via a network or storage medium.

[183] Информация видео/изображения может включать в себя различные части информации в соответствии с вариантом осуществления настоящего документа. Например, информация видео/изображения может включать в себя информацию, раскрытую по меньшей мере в одной из вышеописанных Таблиц 1-12.[183] The video/image information may include various pieces of information in accordance with an embodiment of the present document. For example, the video/image information may include information disclosed in at least one of Tables 1-12 described above.

[184] В варианте осуществления, информация изображения может включать в себя набор параметров последовательности (SPS). На основе того, включает ли SPS информацию, относящуюся к подкартинке, может быть определено, включает ли SPS дополнительную информацию, относящуюся к виртуальным границам.[184] In an embodiment, the image information may include a sequence parameter set (SPS). Based on whether the SPS includes information related to the sub-picture, it can be determined whether the SPS includes additional information related to virtual boundaries.

[185] В варианте осуществления, дополнительная информация, относящаяся к виртуальным границам, может включать в себя число виртуальных границ и положения виртуальных границ.[185] In an embodiment, additional information related to the virtual boundaries may include the number of virtual boundaries and the positions of the virtual boundaries.

[186] В варианте осуществления, дополнительная информация, относящаяся к виртуальным границам, может включать в себя информацию о числе вертикальных виртуальных границ, информацию о положениях вертикальных виртуальных границ, информацию о числе горизонтальных виртуальных границ и информацию о положениях горизонтальных виртуальных границ.[186] In an embodiment, additional information related to the virtual boundaries may include information about the number of vertical virtual boundaries, information about the positions of the vertical virtual boundaries, information about the number of horizontal virtual boundaries, and information about the positions of the horizontal virtual boundaries.

[187] В варианте осуществления, информация изображения может включать в себя флаг присутствия подкартинки (например, subpic_present_flag). Может быть определено, включает ли SPS информацию, относящуюся к подкартинке, на основе флага присутствия подкартинки.[187] In an embodiment, the picture information may include a subpicture presence flag (eg, subpic_present_flag). It can be determined whether the SPS includes information related to the sub-picture based on the sub-picture presence flag.

[188] В варианте осуществления, информация изображения может включать в себя флаг присутствия ID подкартинки. Подкартинки в текущей картинки могут быть независимо кодируемыми подкартинками на основе того, что значение флага присутствия ID подкартинки равно 1.[188] In an embodiment, the picture information may include a sub-picture ID presence flag. Subpictures in the current picture may be independently encoded subpictures based on the value of the subpicture ID presence flag being 1.

[189] В варианте осуществления, текущая картинка может включать в себя подкартинки и мозаичные элементы. Единицы дерева кодирования (CTU) в одном мозаичном элементе могут принадлежать той же самой подкартинке.[189] In an embodiment, the current picture may include sub-pictures and tiles. Coding tree units (CTUs) in one tile may belong to the same sub-picture.

[190] В варианте осуществления, текущая картинка может включать в себя подкартинки и мозаичные элементы. Единицы дерева кодирования (CTU) в одной подкартинке могут принадлежать тому же самому мозаичному элементу.[190] In an embodiment, the current picture may include sub-pictures and tiles. Coding tree units (CTUs) in the same sub-picture may belong to the same tile.

[191] В варианте осуществления, SPS может включать в себя флаг присутствия виртуальных границ SPS, относящийся к тому, включает ли SPS дополнительную информацию, относящуюся к виртуальным границам. Значение флага присутствия виртуальных границ SPS может быть определено как 1 на основе того, что SPS включает информацию, относящуюся к подкартинке.[191] In an embodiment, the SPS may include an SPS virtual boundary presence flag related to whether the SPS includes additional information related to the virtual boundaries. The value of the SPS virtual boundary presence flag may be determined to be 1 based on the fact that the SPS includes information related to the sub-picture.

[192] В варианте осуществления, информация изображения может включать в себя информацию заголовка картинки. Дополнительная информация, относящаяся к виртуальным границам, может не включаться в заголовок картинки на основе того, что SPS включает информацию, относящуюся к подкартинке.[192] In an embodiment, the picture information may include picture header information. Additional information related to virtual boundaries may not be included in the picture title based on the fact that the SPS includes information related to the sub-picture.

[193] В варианте осуществления, SPS может включать дополнительную информацию, относящую к виртуальным границам, на основе того, что SPS включает информацию, относящуюся к подкартинке.[193] In an embodiment, the SPS may include additional information related to virtual boundaries based on the fact that the SPS includes information related to the sub-picture.

[194] Фиг. 12 и фиг. 13 схематично показывают пример способа декодирования видео/изображения и связанные компоненты в соответствии с вариантом(ами) осуществления настоящего документа.[194] FIG. 12 and fig. 13 schematically shows an example of a video/image decoding method and related components in accordance with embodiment(s) of the present document.

[195] Способ, раскрытый на фиг. 12, может выполняться устройством декодирования, раскрытым на фиг. 12 или фиг. 13. Конкретно, например, S1200 на фиг. 12 может выполняться энтропийным декодером 310 устройства декодирования, S1210 может выполняться процессором 320 остатка и/или сумматором 340 устройства декодирования, и S1220 может выполняться фильтром 350 устройства декодирования. Способ, раскрытый на фиг. 12, может включать в себя вышеописанные варианты осуществления настоящего документа.[195] The method disclosed in FIG. 12 may be performed by the decoding apparatus disclosed in FIG. 12 or fig. 13. Specifically, for example, S1200 in FIG. 12 may be performed by the entropy decoder 310 of the decoding device, S1210 may be performed by the remainder processor 320 and/or adder 340 of the decoding device, and S1220 may be performed by the filter 350 of the decoding device. The method disclosed in FIG. 12 may include the above-described embodiments of this document.

[196] Со ссылкой на фиг. 12, устройство декодирования может принимать/получать информацию видео/изображения (S1200). Информация видео/изображения может включать в себя остаточную информацию, информацию, относящуюся к предсказанию, и/или информацию, относящуюся к внутриконтурной фильтрации. Устройство декодирования может принимать/получать информацию видео/изображения через битовый поток.[196] With reference to FIG. 12, the decoding device can receive/receive video/image information (S1200). The video/image information may include residual information, prediction-related information, and/or in-loop filtering-related information. The decoding device can receive/receive video/image information via a bitstream.

[197] Информация видео/изображения может включать в себя различные части информации в соответствии с вариантом осуществления настоящего документа. Например, информация изображения/видео может включать в себя информацию, раскрытую по меньшей мере в одной из вышеописанных Таблиц 1-12.[197] The video/image information may include various pieces of information in accordance with an embodiment of the present document. For example, the image/video information may include information disclosed in at least one of Tables 1-12 described above.

[198] Устройство декодирования может выводить квантованные коэффициенты преобразования. Устройство декодирования может выводить квантованные коэффициенты преобразования на основе остаточной информации. Квантованные коэффициенты преобразования могут иметь форму одномерного вектора на основе порядка сканирования коэффициентов. Квантованные коэффициенты преобразования могут включать в себя квантованные коэффициенты преобразования яркости и/или квантованные коэффициенты преобразования цветности.[198] The decoding apparatus may output the quantized transform coefficients. The decoding apparatus may output quantized transform coefficients based on the residual information. The quantized transform coefficients can be in the form of a one-dimensional vector based on the scanning order of the coefficients. The quantized transform coefficients may include quantized luma transform coefficients and/or quantized chrominance transform coefficients.

[199] Устройство декодирования может выводить коэффициенты преобразования. Устройство декодирования может выводить коэффициенты преобразования на основе процесса деквантования для квантованных коэффициентов преобразования. Устройство декодирования может выводить коэффициенты преобразования яркости посредством деквантования на основе квантованных коэффициентов преобразования яркости. Устройство декодирования может выводить коэффициенты преобразования цветности посредством деквантования на основе квантованных коэффициентов преобразования цветности.[199] The decoding device can output transform coefficients. The decoding apparatus may output transform coefficients based on a dequantization process for the quantized transform coefficients. The decoding apparatus may output luminance conversion coefficients by dequantization based on the quantized luminance conversion coefficients. The decoding apparatus may output chrominance conversion coefficients by dequantization based on the quantized chrominance conversion coefficients.

[200] Устройство декодирования может генерировать/выводить остаточные выборки. Устройство декодирования может выводить остаточные выборки на основе процесса обратного преобразования для коэффициентов преобразования. Устройство декодирования может выводить остаточные выборки яркости посредством процесса обратного преобразования на основе коэффициентов преобразования яркости. Устройство декодирования может выводить остаточные выборки цветности посредством процесса обратного преобразования на основе коэффициентов преобразования цветности.[200] The decoding device may generate/output residual samples. The decoding apparatus may output residual samples based on an inverse transform process for the transform coefficients. The decoding apparatus may output residual luminance samples through an inverse transform process based on luminance transform coefficients. The decoding apparatus may output residual chroma samples through an inverse transform process based on chroma transform coefficients.

[201] Устройство декодирования может генерировать/выводить восстановленные выборки (S1210). Например, устройство декодирования может генерировать/выводить восстановленные выборки яркости и/или восстановленные выборки цветности. Устройство декодирования может генерировать восстановленные выборки яркости и/или восстановленные выборки цветности на основе остаточной информации. Устройство декодирования может генерировать восстановленные выборки на основе остаточной информации. Восстановленные выборки могут включать в себя восстановленные выборки яркости и/или восстановленные выборки цветности. Компоненты яркости восстановленной выборки могут соответствовать восстановленным выборкам яркости, и компоненты цветности восстановленных выборок могут соответствовать восстановленным выборкам цветности. Устройство декодирования может генерировать выборки яркости предсказания и/или выборки цветности предсказания посредством процесса предсказания. Устройство декодирования может генерировать восстановленные выборки яркости на основе выборок яркости предсказания и остаточных выборок яркости. Устройство декодирования может генерировать восстановленные выборки цветности на основе выборок цветности предсказания и остаточных выборок цветности.[201] The decoding apparatus may generate/output reconstructed samples (S1210). For example, the decoding device may generate/output reconstructed luma samples and/or reconstructed chrominance samples. The decoding apparatus may generate reconstructed luma samples and/or reconstructed chrominance samples based on the residual information. The decoding apparatus may generate reconstructed samples based on the residual information. The reconstructed samples may include reconstructed luma samples and/or reconstructed chrominance samples. The luma components of the reconstructed sample may correspond to the reconstructed luma samples, and the chroma components of the reconstructed samples may correspond to the reconstructed chroma samples. The decoding apparatus may generate prediction luma samples and/or prediction chrominance samples through a prediction process. The decoding apparatus may generate reconstructed luminance samples based on the prediction luminance samples and residual luminance samples. The decoding apparatus may generate reconstructed chroma samples based on the prediction chroma samples and the residual chroma samples.

[202] Устройство декодирования может генерировать модифицированные (отфильтрованные) восстановленные выборки (S1220). Устройство декодирования может генерировать модифицированные восстановленные выборки на основе процесса внутриконтурной фильтрации для восстановленных выборок. Устройство декодирования может генерировать модифицированные восстановленные выборки на основе информации, относящейся к внутриконтурной фильтрации. Устройство декодирования может использовать процесс устранения блочности, процесс SAO и/или процесс ALF, чтобы генерировать модифицированные восстановленные выборки.[202] The decoding apparatus may generate modified (filtered) reconstructed samples (S1220). The decoder may generate modified reconstructed samples based on an in-loop filtering process for the reconstructed samples. The decoder may generate modified reconstructed samples based on information related to in-loop filtering. The decoding apparatus may use a deblocking process, a SAO process, and/or an ALF process to generate modified reconstructed samples.

[203] В варианте осуществления, информация изображения может включать в себя набор параметров последовательности (SPS). На основе того, включает ли SPS информацию, относящуюся к подкартинке, может быть определено, включает ли SPS дополнительную информацию, относящуюся к виртуальным границам.[203] In an embodiment, the image information may include a sequence parameter set (SPS). Based on whether the SPS includes information related to the sub-picture, it can be determined whether the SPS includes additional information related to virtual boundaries.

[204] В варианте осуществления, дополнительная информация, относящаяся к виртуальным границам, может включать в себя число виртуальных границ и положения виртуальных границ.[204] In an embodiment, additional information related to the virtual boundaries may include the number of virtual boundaries and the positions of the virtual boundaries.

[205] В варианте осуществления, дополнительная информация, относящаяся к виртуальным границам, может включать в себя информацию о числе вертикальных виртуальных границ, информацию о положениях вертикальных виртуальных границ, информацию о числе горизонтальных виртуальных границ и информацию о положениях горизонтальных виртуальных границ.[205] In an embodiment, additional information related to the virtual boundaries may include information about the number of vertical virtual boundaries, information about the positions of the vertical virtual boundaries, information about the number of horizontal virtual boundaries, and information about the positions of the horizontal virtual boundaries.

[206] В варианте осуществления, информация изображения может включать в себя флаг присутствия подкартинки (например, subpic_present_flag). Может быть определено, включает ли SPS информацию, относящуюся к подкартинке, на основе флага присутствия подкартинки.[206] In an embodiment, the picture information may include a subpicture presence flag (eg, subpic_present_flag). It can be determined whether the SPS includes information related to the sub-picture based on the sub-picture presence flag.

[207] В варианте осуществления, информация изображения может включать в себя флаг присутствия ID подкартинки. Подкартинки в текущей картинке могут быть независимо кодируемыми подкартинками на основе того, что значение флага присутствия ID подкартинки равно 1.[207] In an embodiment, the picture information may include a sub-picture ID presence flag. The subpictures in the current picture may be independently encoded subpictures based on the value of the subpicture ID presence flag being 1.

[208] В варианте осуществления, текущая картинка может включать в себя подкартинки и мозаичные элементы. Единицы дерева кодирования (CTU) в одном мозаичном элементе могут принадлежать той же самой подкартинке.[208] In an embodiment, the current picture may include sub-pictures and tiles. Coding tree units (CTUs) in one tile may belong to the same sub-picture.

[209] В варианте осуществления, текущая картинка может включать в себя подкартинки и мозаичные элементы. Единицы дерева кодирования (CTU) в одной подкартинке могут принадлежать тому же самому мозаичному элементу.[209] In an embodiment, the current picture may include sub-pictures and tiles. Coding tree units (CTUs) in the same sub-picture may belong to the same tile.

[210] В варианте осуществления, SPS может включать в себя флаг присутствия виртуальных границ SPS, относящийся к тому, включает ли SPS дополнительную информацию, относящуюся к виртуальным границам. Значение флага присутствия виртуальных границ SPS может быть определено как 1 на основе того, что SPS включает информацию, относящуюся к подкартинке.[210] In an embodiment, the SPS may include an SPS virtual boundary presence flag related to whether the SPS includes additional information related to the virtual boundaries. The value of the SPS virtual boundary presence flag may be determined to be 1 based on the fact that the SPS includes information related to the sub-picture.

[211] В варианте осуществления, информация изображения может включать в себя информацию заголовка картинки. На основе того, что SPS включает информацию, относящуюся к подкартинке, дополнительная информация, относящаяся к виртуальным границам, может не включаться в заголовок картинки.[211] In an embodiment, the picture information may include picture header information. Based on the fact that the SPS includes information related to the sub-picture, additional information related to the virtual boundaries may not be included in the picture title.

[212] В варианте осуществления, на основе того, что SPS включает информацию, относящуюся к подкартинке, SPS может включать дополнительную информацию, относящуюся к виртуальным границам.[212] In an embodiment, based on the fact that the SPS includes information related to the sub-picture, the SPS may include additional information related to virtual boundaries.

[213] Если остаточные выборки для текущего блока присутствуют, устройство декодирования может принимать информацию об остатке для текущего блока. Информация об остатке может включать в себя коэффициенты преобразования для остаточных выборок. Устройство декодирования может выводить остаточные выборки (или остаточный массив выборок) для текущего блока на основе остаточной информации. Конкретно, устройство декодирования может выводить квантованные коэффициенты преобразования на основе остаточной информации. Квантованные коэффициенты преобразования могут иметь форму одномерного вектора на основе порядка сканирования коэффициентов. Устройство декодирования может выводить коэффициенты преобразования на основе процесса деквантования для квантованных коэффициентов преобразования. Устройство декодирования может выводить остаточные выборки на основе коэффициентов преобразования.[213] If residual samples for the current block are present, the decoder may receive residual information for the current block. The residual information may include conversion factors for residual samples. The decoding apparatus may output residual samples (or a residual array of samples) for the current block based on the residual information. Specifically, the decoding apparatus may output quantized transform coefficients based on the residual information. The quantized transform coefficients can be in the form of a one-dimensional vector based on the scanning order of the coefficients. The decoding apparatus may output transform coefficients based on a dequantization process for the quantized transform coefficients. The decoding apparatus may output residual samples based on the transform coefficients.

[214] Устройство декодирования может генерировать восстановленные выборки на основе выборок (интра-) предсказания и остаточные выборки и может выводить восстановленный блок или восстановленную картинку на основе восстановленных выборок. Конкретно, устройство декодирования может генерировать восстановленные выборки на основе суммы выборок (интра-) предсказания и остаточных выборок. Затем, по мере необходимости, устройство декодирования может применять процесс внутриконтурной фильтрации, такой как фильтрация устранения блочности и/или процессы SAO, к восстановленной картинке, чтобы улучшить субъективное/объективное качество картинки. [214] The decoding apparatus may generate reconstructed samples based on the (intra-) prediction samples and residual samples, and may output a reconstructed block or reconstructed picture based on the reconstructed samples. Specifically, the decoding apparatus may generate reconstructed samples based on the sum of the (intra-) prediction samples and the residual samples. Then, as necessary, the decoding apparatus may apply an in-loop filtering process, such as deblocking filtering and/or SAO processes, to the reconstructed picture to improve the subjective/objective quality of the picture.

[215] Например, устройство декодирования может получать информацию изображения, включающую в себя все или части из вышеописанных частей информации (или синтаксических элементов) путем декодирования битового потока или закодированной информации. Кроме того, битовый поток или закодированная информация могут быть сохранены на считываемом компьютером носителе хранения и могут вызывать выполнение вышеописанного способа декодирования.[215] For example, a decoding apparatus may obtain image information including all or parts of the above-described pieces of information (or syntax elements) by decoding the bit stream or encoded information. In addition, the bitstream or encoded information may be stored on a computer-readable storage medium and may cause the above-described decoding method to be performed.

[216] Хотя в вышеописанных вариантах осуществления способы были описаны на основе блок-схемы последовательности операций, в которой этапы или блоки перечислены в последовательности, этапы в настоящем документе не ограничены некоторым порядком, и некоторый этап может выполняться на другом этапе или в другом порядке или одновременно по отношению к тому, что описано выше. Дополнительно, специалистам в данной области техники должно быть понятно, что этапы блок-схем последовательностей операций не являются исключительными, и в них может быть включен другой этап, или один или более этапов в блок-схеме последовательности операций могут быть удалены, не оказывая влияния на объем настоящего раскрытия.[216] Although in the above-described embodiments, the methods have been described on the basis of a flowchart in which the steps or blocks are listed in sequence, the steps herein are not limited to a certain order, and a certain step may be performed in another step or in a different order or simultaneously in relation to what is described above. Additionally, those skilled in the art will appreciate that steps in the flowcharts are not exclusive and another step may be included, or one or more steps in the flowchart may be removed without affecting scope of this disclosure.

[217] Вышеописанный способ в соответствии с настоящим раскрытием может быть реализован в форме программного обеспечения, и устройство кодирования и/или устройство декодирования в соответствии с настоящим раскрытием может быть включено в устройство для выполнения обработки изображения, например телевизор, компьютер, смартфон, телевизионную приставку, устройство отображения и т.п.[217] The above-described method according to the present disclosure may be implemented in the form of software, and the encoding device and/or decoding device according to the present disclosure may be included in a device for performing image processing, such as a television, computer, smartphone, set-top box , display device, etc.

[218] Когда варианты осуществления настоящего раскрытия реализованы в программном обеспечении, вышеописанный способ может быть реализован с помощью модуля (процесса или функции), который выполняет вышеупомянутую функцию. Модуль может храниться в памяти и исполняться процессором. Память может быть внутренней или внешней по отношению к процессору и может быть соединена с процессором различными хорошо известными средствами. Процессор может включать в себя специализированную интегральную схему (ASIC), другие чипсеты, логическую схему и/или устройство обработки данных. Память может включать в себя постоянную память (ROM), память с произвольным доступом (RAM), флэш-память, карту памяти, носитель хранения и/или другое устройство хранения. Иными словами, варианты осуществления согласно настоящему раскрытию могут реализовываться и выполняться на процессоре, микропроцессоре, контроллере или чипе. Например, функциональные блоки, показанные на соответствующих чертежах, могут быть реализованы и выполняться на компьютере, процессоре, микропроцессоре, контроллере или чипе. В этом случае, информация о реализации (например, информация об инструкциях) или алгоритмы могут храниться в цифровом носителе хранения.[218] When embodiments of the present disclosure are implemented in software, the above-described method may be implemented by a module (process or function) that performs the above function. The module can be stored in memory and executed by the processor. The memory may be internal or external to the processor and may be coupled to the processor by various well known means. The processor may include an application specific integrated circuit (ASIC), other chipsets, logic circuitry, and/or data processing apparatus. The memory may include read only memory (ROM), random access memory (RAM), flash memory, memory card, storage medium, and/or other storage device. In other words, embodiments of the present disclosure may be implemented and executed on a processor, microprocessor, controller, or chip. For example, the functional blocks shown in the respective drawings may be implemented and executed on a computer, processor, microprocessor, controller, or chip. In this case, implementation information (eg, instruction information) or algorithms may be stored in a digital storage medium.

[219] Кроме того, устройство декодирования и устройство кодирования, в которых применяются варианты осуществления настоящего документа, могут быть включены в приемопередатчик мультимедийного вещания, мобильный терминал связи, устройство домашнего кинотеатра, устройство цифрового кинотеатра, камеру наблюдения, устройство для разговора по видео, устройство связи в реальном времени, такой как видеосвязь, мобильное устройство стриминга, носитель хранения, записывающую видеокамеру, провайдер услуги видео по требованию (VoD), устройство доставки видео непосредственно от провайдера контента (OTT), провайдер услуги Интернет-стриминга, устройство 3D видео, устройство виртуальной реальности (VR), устройство дополненной реальности (AR), устройство видео-телеконференции, терминал транспортного средства (например, терминал транспортного средства (включая автономное транспортное средство), самолетный терминал, судовой терминал и т.д.) и медицинское видеоустройство, и могут использоваться для обработки сигналов изображения или данных. Например, видеоустройство OTT может включать в себя игровую консоль, Bluray-плеер, телевизор с Интернет-доступом, систему домашнего кинотеатра, смартфон, планшетный PC, цифровой видеомагнитофон (DVR).[219] In addition, the decoding device and encoding device to which embodiments of this document are applied may be included in a multimedia broadcast transceiver, mobile communication terminal, home theater device, digital cinema device, surveillance camera, video talking device, real-time communication device such as video communication, mobile streaming device, storage medium, video recording camera, video on demand (VoD) service provider, video over-the-top (OTT) delivery device, internet streaming service provider, 3D video device, device virtual reality (VR), augmented reality (AR) device, video teleconferencing device, vehicle terminal (for example, vehicle terminal (including autonomous vehicle), aircraft terminal, ship terminal, etc.) and medical video device, and can be used to process image or data signals. For example, an OTT video device may include a game console, Bluray player, Internet-enabled television, home theater system, smartphone, tablet PC, digital video recorder (DVR).

[220] Кроме того, способ обработки, в котором применяются варианты осуществления настоящего документа, может выполняться в форме программы, исполняемой компьютером, и может храниться в считываемом компьютером носителе записи. Мультимедийные данные, имеющие структуру данных в соответствии с вариантами осуществления настоящего документа, могут также храниться в считываемом компьютером носителе записи. Считываемый компьютером носитель записи включает в себя все типы устройств хранения и распределенных устройств хранения, в которых хранятся считываемые компьютером данные. Считываемый компьютером носитель записи может включать в себя, например, Bluray-диск (BD), универсальную последовательную шину (USB), ROM, PROM, EPROM, EEPROM, RAM, CD-ROM, магнитную ленту, флоппи-диск и оптическое устройство хранения данных. Считываемый компьютером носитель записи также включают в себя носители, воплощенные в форме несущей волны (например, передача через Интернет). Кроме того, битовый поток, сгенерированный способом кодирования, может храниться в считываемом компьютером носителе записи или может передаваться по сетям проводной/беспроводной связи.[220] Moreover, the processing method to which embodiments of the present document are applied may be executed in the form of a computer-executable program and may be stored in a computer-readable recording medium. Multimedia data having a data structure in accordance with embodiments of the present document may also be stored in a computer-readable recording medium. The computer-readable recording medium includes all types of storage devices and distributed storage devices in which computer-readable data is stored. The computer-readable recording medium may include, for example, a Bluray disc (BD), a universal serial bus (USB), a ROM, a PROM, an EPROM, an EEPROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, and an optical storage device. . Computer-readable recording media also include media embodied in the form of a carrier wave (eg, transmission over the Internet). In addition, the bit stream generated by the encoding method may be stored in a computer-readable recording medium or transmitted over wired/wireless communication networks.

[221] Кроме того, варианты осуществления настоящего документа могут быть воплощены как компьютерный программный продукт на основе программного кода, и программный код может исполняться в компьютере в соответствии с вариантами осуществления настоящего документа. Программный код может храниться на считываемом компьютером носителе.[221] In addition, embodiments of the present document may be implemented as a computer program product based on program code, and the program code may be executed in a computer in accordance with the embodiments of the present document. The program code may be stored on a computer-readable medium.

[222] Фиг. 14 показывает пример системы стриминга контента, в которой может применяться вариант осуществления, раскрытый в настоящем документе.[222] FIG. 14 shows an example of a content streaming system in which the embodiment disclosed herein may be applied.

[223] Со ссылкой на фиг. 14, система стриминга контента, в которой применяются варианты осуществления настоящего документа, может обычно включать в себя сервер кодирования, стриминговый сервер, веб-сервер, медиа-хранилище, пользовательское устройство и устройство мультимедийного ввода.[223] With reference to FIG. 14, a content streaming system to which embodiments of the present document are applied may typically include an encoding server, a streaming server, a web server, a media storage device, a user device, and a media input device.

[224] Сервер кодирования функционирует, чтобы сжимать контент, введенный из устройств мультимедийного ввода, таких как смартфон, камера, записывающая видеокамера и т.д., в цифровые данные, чтобы сгенерировать битовый поток и передать его на стриминговый сервер. В качестве другого примера, в случае, когда устройство мультимедийного ввода, такое как смартфон, камера, записывающая видеокамера и т.п., непосредственно генерирует битовый поток, сервер кодирования может опускаться.[224] The encoding server functions to compress content input from media input devices such as a smartphone, camera, video recorder, etc. into digital data to generate a bit stream and transmit it to the streaming server. As another example, in the case where a multimedia input device such as a smartphone, camera, video recorder, etc. directly generates a bitstream, the encoding server may be omitted.

[225] Битовый поток может генерироваться способом кодирования или способом генерации битового потока, в котором применяются варианты осуществления настоящего документа, и стриминговый сервер может временно хранить битовый поток в процессе передачи или приема битового потока.[225] The bitstream may be generated by an encoding method or a bitstream generation method in which embodiments of the present document are applied, and the streaming server may temporarily store the bitstream during the process of transmitting or receiving the bitstream.

[226] Стриминговый сервер передает мультимедийные данные на пользовательское устройство на основе запроса пользователя через веб-сервер, который функционирует как инструмент для информирования пользователя об услуге. Когда пользователь запрашивает желаемую услугу, веб-сервер доставляет запрос на стриминговый сервер, и стриминговый сервер передает мультимедийные данные пользователю. В этом отношении, система стриминга контента может включать в себя отдельный сервер управления, и в этом случае, сервер управления функционирует, чтобы управлять командами/откликами между соответствующим оборудованием в системе стриминга контента.[226] The streaming server transmits media data to the user device based on the user's request through a web server, which functions as a tool for informing the user about the service. When a user requests a desired service, the web server delivers the request to the streaming server and the streaming server transmits the media data to the user. In this regard, the content streaming system may include a separate control server, in which case, the control server functions to manage commands/responses between associated equipment in the content streaming system.

[227] Стриминговый сервер может принимать контент из медиа-хранилища и/или сервера кодирования. Например, когда контент принимается от сервера кодирования, контент может приниматься в реальном времени. В этом случае, чтобы обеспечить плавную стриминговую услугу, стриминговый сервер может сохранять битовый поток в течение предопределенного периода времени.[227] The streaming server may receive content from a media storage and/or encoding server. For example, when content is received from an encoding server, the content may be received in real time. In this case, to provide a smooth streaming service, the streaming server may store the bit stream for a predetermined period of time.

[228] Например, пользовательское оборудование может включать в себя мобильный телефон, смартфон, ноутбук, терминал цифрового вещания, персональный цифровой помощник (PDA), портативный мультимедийный плеер (PMP), навигатор, тонкий PC, планшетный PC, ультрабук, носимое устройство (например, терминал типа часов (умные часы), терминал типа очков (умные очки), наголовный дисплей (HMD)), цифровой телевизор, настольный компьютер, цифровой указатель и тому подобное.[228] For example, user equipment may include a mobile phone, smartphone, laptop, digital broadcast terminal, personal digital assistant (PDA), portable media player (PMP), navigation device, slim PC, tablet PC, ultrabook, wearable device (eg , watch type terminal (smart watch), glasses type terminal (smart glasses), head mounted display (HMD)), digital TV, desktop computer, digital pointer and the like.

[229] Каждый из серверов в системе стриминга контента может работать как распределенный сервер, и в этом случае, данные, принимаемые каждым сервером, могут обрабатываться распределенным способом.[229] Each of the servers in the content streaming system may operate as a distributed server, in which case, data received by each server may be processed in a distributed manner.

[230] Пункты формулы изобретения в настоящем описании могут комбинироваться различными способами. Например, технические признаки в пунктах формулы на способ в настоящем описании могут комбинироваться, чтобы реализовываться или выполняться в устройстве, и технические признаки в пунктах формулы на устройство могут комбинироваться, чтобы реализовываться или выполняться в способе. Кроме того, технические признаки в пунктах формулы на способ и пунктах формулы на устройство могут комбинироваться, чтобы реализовываться или выполняться в устройстве. Также, технические признаки в пунктах формулы на способ и пунктах формулы на устройство могут комбинироваться, чтобы реализовываться или выполняться в способе.[230] The claims herein may be combined in various ways. For example, the technical features in the method claims herein may be combined to be implemented or performed in an apparatus, and the technical features in the device claims may be combined to be implemented or performed in a method. In addition, technical features in the method claims and device claims may be combined to be implemented or performed in the device. Also, technical features in the method claims and device claims can be combined to be implemented or performed in the method.

Claims (32)

1. Устройство декодирования изображения, содержащее:1. An image decoding device containing: память; иmemory; And по меньшей мере один процессор, соединенный с памятью, при этом по меньшей мере один процессор выполнен с возможностью:at least one processor coupled to the memory, wherein the at least one processor is configured to: получения информации изображения, включающей в себя остаточную информацию, посредством битового потока,obtaining image information including residual information via a bit stream, генерирования восстановленных выборок текущей картинки на основе остаточной информации, иgenerating reconstructed samples of the current picture based on residual information, and генерирования модифицированных восстановленных выборок на основе процесса внутриконтурной фильтрации для восстановленных выборок,generating modified reconstructed samples based on an in-loop filtering process for the reconstructed samples, причем информация изображения включает в себя набор параметров последовательности (SPS) и заголовок картинки, иwherein the picture information includes a sequence parameter set (SPS) and a picture header, and причем, когда SPS включает в себя информацию, относящуюся к подкартинке, информация о числе виртуальных границ и информация о положениях виртуальных границ не включены в заголовок картинки, а включены в SPS.wherein, when the SPS includes information related to a sub-picture, information about the number of virtual boundaries and information about the positions of the virtual boundaries are not included in the picture header, but are included in the SPS. 2. Устройство декодирования изображения по п. 1, причем информация о числе виртуальных границ содержит информацию о числе вертикальных виртуальных границ и информацию о числе горизонтальных виртуальных границ, и2. The image decoding device according to claim 1, wherein the information about the number of virtual boundaries contains information about the number of vertical virtual boundaries and information about the number of horizontal virtual boundaries, and причем информация о положениях виртуальных границ содержит информацию о положениях вертикальных виртуальных границ и информацию о положениях горизонтальных виртуальных границ.wherein the information about the positions of the virtual boundaries contains information about the positions of the vertical virtual boundaries and information about the positions of the horizontal virtual boundaries. 3. Устройство декодирования изображения по п. 1, причем информация изображения содержит флаг присутствия подкартинки, и3. The image decoding device according to claim 1, wherein the image information includes a sub-picture presence flag, and причем то, включает ли SPS информацию, относящуюся к подкартинке, определяется на основе флага присутствия подкартинки.wherein whether the SPS includes information related to the sub-picture is determined based on the presence flag of the sub-picture. 4. Устройство декодирования изображения по п. 1, причем текущая картинка содержит подкартинки и мозаичные элементы, и4. The image decoding device according to claim 1, wherein the current picture contains sub-pictures and tile elements, and причем единицы дерева кодирования (CTU) в одном мозаичном элементе принадлежат одной и той же подкартинке.where the coding tree units (CTUs) in one tile belong to the same sub-picture. 5. Устройство декодирования изображения по п. 1, причем текущая картинка содержит подкартинки и мозаичные элементы, и5. The image decoding device according to claim 1, wherein the current picture contains sub-pictures and tile elements, and причем единицы дерева кодирования (CTU) в одной подкартинке принадлежат одному и тому же мозаичному элементу.where the coding tree units (CTUs) in the same sub-picture belong to the same tile. 6. Устройство декодирования изображения по п. 1, причем SPS содержит флаг присутствия виртуальных границ SPS, относящийся к тому, включает ли SPS информацию о числе виртуальных границ и информацию о положениях виртуальных границ, и6. The image decoding apparatus of claim 1, wherein the SPS includes an SPS virtual boundary presence flag related to whether the SPS includes virtual boundary number information and virtual boundary position information, and причем значение флага присутствия виртуальных границ SPS равно 1, когда SPS включает информацию, относящуюся к подкартинке.wherein the value of the SPS virtual boundary presence flag is 1 when the SPS includes information related to the sub-picture. 7. Устройство кодирования изображения, содержащее:7. An image encoding device comprising: память; иmemory; And по меньшей мере один процессор, соединенный с памятью, при этом по меньшей мере один процессор выполнен с возможностью:at least one processor coupled to the memory, wherein the at least one processor is configured to: генерирования остаточных выборок для текущего блока,generating residual samples for the current block, генерирования остаточной информации на основе остаточных выборок для текущего блока,generating residual information based on residual samples for the current block, генерирования информации, относящейся к внутриконтурной фильтрации, для восстановленных выборок текущей картинки; иgenerating information related to in-loop filtering for the reconstructed samples of the current picture; And кодирования информации изображения, включающей в себя остаточную информацию и информацию, относящуюся к внутриконтурной фильтрации,encoding image information including residual information and in-loop filtering related information, причем информация изображения включает в себя набор параметров последовательности (SPS) и заголовок картинки, иwherein the picture information includes a sequence parameter set (SPS) and a picture header, and причем, когда SPS включает в себя информацию, относящуюся к подкартинке, информация о числе виртуальных границ и информация о положениях виртуальных границ не включены в заголовок картинки, а включены в SPS.wherein, when the SPS includes information related to a sub-picture, information about the number of virtual boundaries and information about the positions of the virtual boundaries are not included in the picture header, but are included in the SPS. 8. Устройство для передачи, содержащее:8. A transmission device comprising: по меньшей мере один процессор, выполненный с возможностью получения битового потока, причем битовый поток генерируется посредством генерирования остаточных выборок для текущего блока, генерирования остаточной информации на основе остаточных выборок для текущего блока, генерирования информации, относящейся к внутриконтурной фильтрации, для восстановленных выборок текущей картинки, и кодирования информации изображения, включающей в себя остаточную информацию и информацию, относящуюся к внутриконтурной фильтрации; иat least one processor configured to obtain a bitstream, wherein the bitstream is generated by generating residual samples for the current block, generating residual information based on the residual samples for the current block, generating in-loop filtering related information for the reconstructed samples of the current picture, and encoding image information including residual information and information related to in-loop filtering; And передатчик, выполненный с возможностью передачи данных, содержащих битовый поток,a transmitter configured to transmit data containing a bit stream, причем информация изображения включает в себя набор параметров последовательности (SPS) и заголовок картинки, иwherein the picture information includes a sequence parameter set (SPS) and a picture header, and причем, когда SPS включает информацию, относящуюся к подкартинке, информация о числе виртуальных границ и информация о положениях виртуальных границ не включены в заголовок картинки, а включены в SPS.wherein, when the SPS includes information related to a sub-picture, information about the number of virtual boundaries and information about the positions of the virtual boundaries are not included in the picture header, but are included in the SPS.
RU2023122728A 2019-12-23 2020-12-23 Method and device for image coding based on sub-image RU2810200C2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US62/953,180 2019-12-23

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
RU2022120088A Division RU2803187C1 (en) 2019-12-23 2020-12-23 Method and device for image coding based on sub-image

Publications (2)

Publication Number Publication Date
RU2023122728A RU2023122728A (en) 2023-09-26
RU2810200C2 true RU2810200C2 (en) 2023-12-22

Family

ID=

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2523126C2 (en) * 2010-04-05 2014-07-20 Самсунг Электроникс Ко., Лтд. Method and apparatus for encoding video by performing in-loop filtering based on tree-structured data unit, and method and apparatus for decoding video by performing same
KR101483053B1 (en) * 2013-12-27 2015-01-19 연세대학교 산학협력단 Method, apparatus and system for combining plural picutres
US20190045224A1 (en) * 2016-02-04 2019-02-07 Mediatek Inc. Method and apparatus of non-local adaptive in-loop filters in video coding
WO2019195035A1 (en) * 2018-04-03 2019-10-10 Futurewei Technologies, Inc. Error mitigation in sub-picture bitstream based viewport dependent video coding

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2523126C2 (en) * 2010-04-05 2014-07-20 Самсунг Электроникс Ко., Лтд. Method and apparatus for encoding video by performing in-loop filtering based on tree-structured data unit, and method and apparatus for decoding video by performing same
KR101483053B1 (en) * 2013-12-27 2015-01-19 연세대학교 산학협력단 Method, apparatus and system for combining plural picutres
US20190045224A1 (en) * 2016-02-04 2019-02-07 Mediatek Inc. Method and apparatus of non-local adaptive in-loop filters in video coding
WO2019195035A1 (en) * 2018-04-03 2019-10-10 Futurewei Technologies, Inc. Error mitigation in sub-picture bitstream based viewport dependent video coding

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Hyeongmun Jang et al. AHG17/Non-CE5: on loop filter processing for subpicture treated as a picture, JVET-P0246 16-th meeting: Geneva, 24.09.2019. *
Sheng-Yen Lin et al. CE-13 related: Loop filter disabled across virtual boundaries, JVET-M0892 13-th meeting: Marrakech, опубл. 14.01.2019. *

Similar Documents

Publication Publication Date Title
US20230362383A1 (en) Filtering-based image coding device and method
US11683532B2 (en) Image coding device and method for controlling loop filtering
US20220417564A1 (en) Image coding device and method for controlling loop filtering
US20220400291A1 (en) Image coding device and method, for controlling loop filtering
US20230055874A1 (en) Image coding device and method
US20230344986A1 (en) Filtering-based image coding device and method
JP2024036651A (en) Video coding device and method based on subpictures
US20230239512A1 (en) Image coding device and method for controlling loop filtering
US20230164321A1 (en) In-loop filtering-based image coding device and method
US20230007310A1 (en) Image coding apparatus and method based on signaling of information for filtering
CN115699775A (en) Image coding method based on chroma deblocking parameter information of monochrome color format in video or image coding system
RU2810200C2 (en) Method and device for image coding based on sub-image
RU2803187C1 (en) Method and device for image coding based on sub-image
RU2810653C2 (en) Image encoding method and device for loop filtering control
RU2801594C1 (en) Image coding method and device for loop filtering control
RU2802374C1 (en) Image coding method and device for loop filtering control
RU2809689C2 (en) Image encoding method and device for loop filtering control
US20230046583A1 (en) Virtual boundary-based image coding device and method
US20230052204A1 (en) Picture splitting-based image coding device and method
US20230041024A1 (en) Image coding device and method
US20230046209A1 (en) Filtering-based image coding device and method
RU2787884C1 (en) Equipment and method for image coding based on filtering
US20230096855A1 (en) In-loop filtering-based image coding device and method