RU2781172C1 - Encoding video or images based on brightness display - Google Patents

Encoding video or images based on brightness display Download PDF

Info

Publication number
RU2781172C1
RU2781172C1 RU2021134763A RU2021134763A RU2781172C1 RU 2781172 C1 RU2781172 C1 RU 2781172C1 RU 2021134763 A RU2021134763 A RU 2021134763A RU 2021134763 A RU2021134763 A RU 2021134763A RU 2781172 C1 RU2781172 C1 RU 2781172C1
Authority
RU
Russia
Prior art keywords
value
index
lmcs
prediction
information
Prior art date
Application number
RU2021134763A
Other languages
Russian (ru)
Inventor
Цзе ЧЖАО
Сеунгхван КИМ
Original Assignee
ЭлДжи ЭЛЕКТРОНИКС ИНК.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ЭлДжи ЭЛЕКТРОНИКС ИНК. filed Critical ЭлДжи ЭЛЕКТРОНИКС ИНК.
Application granted granted Critical
Publication of RU2781172C1 publication Critical patent/RU2781172C1/en

Links

Images

Abstract

FIELD: video technology.
SUBSTANCE: invention relates to means for encoding video. A sample of the brightness of the prediction is generated. A displayed prediction brightness sample based on the prediction brightness sample is generated. Information related to the display of brightness with chromaticity scaling (LMCS) is generated, based on the displayed prediction brightness sample. A residual brightness sample based on the displayed prediction brightness sample is generated. The residual information is output based on the residual brightness sample. Image information is encoded, including LMCS-related information and residual information. Additionally, a reconstructed brightness sample is generated based on the predicted brightness sample. The index of the piecewise function is derived based on the LMCS-related information. A modified restored brightness sample is generated based on the restored brightness sample and the piecewise function index.
EFFECT: increase in the coding efficiency.
15 cl, 18 dwg, 37 tbl

Description

Область раскрытия disclosure area

[1] Настоящий документ относится к кодированию видео или изображений на основе отображения яркости.[1] This document relates to video or image coding based on luminance mapping.

Связанная область техники Related technical field

[2] В последнее время, потребность в изображениях/видео высокого разрешения, высокого качества, таких как изображения/видео сверхвысокой четкости (UHD) 4K или 8K или выше, возросла в различных областях. Так как данные изображения/видео имеют высокое разрешение и высокое качество, количество информации или битов, подлежащих передаче, увеличивается относительно существующих данных изображения/видео, и таким образом, передача данных изображения с использованием носителей, таких как существующая проводная/беспроводная широкополосная линия или существующий носитель хранения, или хранение данных изображения/видео с использованием существующего носителя хранения повышают затраты на передачу и затраты на хранение.[2] Recently, the demand for high-definition, high-quality images/videos such as 4K or 8K or higher ultra-high-definition (UHD) images/videos or higher has increased in various fields. Since the image/video data has high resolution and high quality, the amount of information or bits to be transmitted increases with respect to the existing image/video data, and thus the transmission of image data using media such as an existing wired/wireless broadband line or an existing storage media, or storing image/video data using existing storage media increases transmission costs and storage costs.

[3] К тому же, интерес и потребность в иммерсивных медиа, таких как контент или голограммы виртуальной реальности (VR) и искусственной реальности (AR), в последнее время возросли, и возросла трансляция изображения/видео, имеющих характеристики, отличные от изображений реальности, таких как игровые изображения.[3] In addition, the interest and demand for immersive media such as virtual reality (VR) and artificial reality (AR) content or holograms has recently increased, and the broadcast of images/videos having characteristics different from reality images has increased. such as game images.

[4] Соответственно, требуется высокоэффективная технология сжатия изображения/видео, чтобы эффективно сжимать, передавать, хранить и воспроизводить информацию изображений/видео высокого разрешения, высокого качества, имеющих различные характеристики, как описано выше.[4] Accordingly, a highly efficient image/video compression technology is required to efficiently compress, transmit, store, and reproduce high-definition, high-quality image/video information having various characteristics as described above.

[5] К тому же, процесс отображения яркости с масштабированием цветности (LMCS) выполняется, чтобы улучшить эффективность сжатия и чтобы повысить субъективное/объективное визуальное качество, и обсуждается уменьшение вычислительной сложности в процессе LMCS.[5] In addition, a luminance chrominance scaling (LMCS) mapping process is performed to improve compression efficiency and to improve subjective/objective visual quality, and reduction of computational complexity in the LMCS process is discussed.

Краткое описание сущности изобретения Brief description of the essence of the invention

[6] В соответствии с вариантом осуществления настоящего документа, обеспечены способ и устройство для повышения эффективности кодирования изображения.[6] According to an embodiment of the present document, a method and apparatus for improving image encoding efficiency are provided.

[7] В соответствии с вариантом осуществления настоящего документа, обеспечены способ и устройство эффективного применения фильтрации.[7] According to an embodiment of the present document, a method and apparatus for effectively applying filtering is provided.

[8] В соответствии с вариантом осуществления настоящего документа, обеспечены способ и устройство эффективного применения LMCS.[8] In accordance with an embodiment of the present document, a method and apparatus for effectively applying LMCS is provided.

[9] В соответствии с вариантом осуществления настоящего документа, кодовые слова LMCS (или их диапазон) могут быть ограничены.[9] In accordance with an embodiment of the present document, LMCS codewords (or their range) may be limited.

[10] В соответствии с вариантом осуществления настоящего документа, может использоваться один коэффициент остаточного масштабирования цветности, непосредственно сигнализируемый в масштабировании цветности LMCS.[10] According to an embodiment of the present document, a single residual chrominance scaling factor directly signaled in the LMCS chrominance scaling may be used.

[11] В соответствии с вариантом осуществления настоящего документа, может использоваться линейное отображение (линейное LMCS).[11] According to an embodiment of the present document, a linear mapping (linear LMCS) may be used.

[12] В соответствии с вариантом осуществления настоящего документа, информация о точках поворота, требуемых для линейного отображения, может явно сигнализироваться.[12] In accordance with an embodiment of the present document, information about the turning points required for a linear display may be explicitly signaled.

[13] В соответствии с вариантом осуществления настоящего документа, гибкое число бинов может использоваться для отображения яркости.[13] According to an embodiment of the present document, a flexible number of bins can be used to display luminance.

[14] В соответствии с вариантом осуществления настоящего документа, процесс выведения индекса для обратного отображения яркости и/или остаточного масштабирования цветности может быть упрощен.[14] According to an embodiment of the present document, the process of deriving an index for luma inverse mapping and/or residual chroma scaling can be simplified.

[15] В соответствии с вариантом осуществления настоящего документа, обеспечен способ декодирования видео/изображения, выполняемый устройством декодирования.[15] According to an embodiment of the present document, a video/image decoding method performed by a decoding apparatus is provided.

[16] В соответствии с вариантом осуществления настоящего документа, обеспечено устройство декодирования для выполнения декодирования видео/изображения.[16] According to an embodiment of the present document, a decoding apparatus for performing video/image decoding is provided.

[17] В соответствии с вариантом осуществления настоящего документа, обеспечен способ кодирования видео/изображения, выполняемый устройством кодирования.[17] According to an embodiment of the present document, a video/image encoding method performed by an encoding apparatus is provided.

[18] В соответствии с вариантом осуществления настоящего документа, обеспечено устройство кодирования для выполнения кодирования видео/изображения.[18] According to an embodiment of the present document, an encoding device for performing video/image encoding is provided.

[19] В соответствии с одним вариантом осуществления настоящего документа, обеспечен считываемый компьютером цифровой носитель хранения, в котором хранится закодированная информация видео/изображения, сгенерированная в соответствии со способом кодирования видео/изображения, раскрытым в по меньшей мере одном из вариантов осуществления настоящего документа.[19] According to one embodiment of the present document, a computer-readable digital storage medium is provided in which encoded video/image information generated in accordance with the video/image coding method disclosed in at least one embodiment of the present document is stored.

[20] В соответствии с вариантом осуществления настоящего документа, обеспечен считываемый компьютером цифровой носитель хранения, в котором хранится закодированная информация или закодированная информация видео/изображения, побуждающая устройство декодирования выполнять способ декодирования видео/изображения, раскрытый в по меньшей мере одном из вариантов осуществления настоящего документа.[20] According to an embodiment of the present document, there is provided a computer-readable digital storage medium in which encoded information or encoded video/image information is stored causing a decoding apparatus to perform the video/image decoding method disclosed in at least one embodiment of the present document.

Полезные результаты Useful results

[21] В соответствии с вариантом осуществления настоящего документа, общая эффективность сжатия изображения/видео может быть улучшена.[21] According to an embodiment of the present document, the overall image/video compression efficiency can be improved.

[22] В соответствии с вариантом осуществления настоящего документа, субъективное/объективное визуальное качество может быть улучшено за счет эффективной фильтрации.[22] According to an embodiment of the present document, subjective/objective visual quality can be improved by efficient filtering.

[23] В соответствии с вариантом осуществления настоящего документа, процесс LMCS для кодирования изображения/видео может эффективно выполняться.[23] According to an embodiment of the present document, an LMCS process for image/video coding can be efficiently performed.

[24] В соответствии с вариантом осуществления настоящего документа, возможно минимизировать ресурсы/затраты (программного обеспечения или аппаратных средств), требуемые для процесса LMCS.[24] According to an embodiment of the present document, it is possible to minimize the resources/costs (software or hardware) required for the LMCS process.

[25] В соответствии с вариантом осуществления настоящего документа, реализация аппаратных средств для процесса LMCS может быть облегчена.[25] According to an embodiment of the present document, the hardware implementation for the LMCS process can be facilitated.

[26] В соответствии с вариантом осуществления настоящего документа, операция деления, требуемая для выведения кодовых слов LMCS при отображении (повторном формировании), может быть устранена или минимизирована путем ограничения кодовых слов LMCS (или их диапазона).[26] According to an embodiment of the present document, the division operation required to derive LMCS codewords upon mapping (regeneration) can be eliminated or minimized by limiting the LMCS codewords (or their range).

[27] В соответствии с вариантом осуществления настоящего документа, задержка в соответствии с идентификацией кусочного индекса может быть устранена с использованием одного коэффициента остаточного масштабирования цветности.[27] In accordance with an embodiment of the present document, the delay according to the identification of the chunky index can be eliminated using one residual chrominance scaling factor.

[28] В соответствии с вариантом осуществления настоящего документа, процесс остаточного масштабирования цветности может выполняться без зависимости от (восстановления) блока яркости с использованием линейного отображения в LMCS, и, таким образом, задержка в масштабировании может быть устранена.[28] According to an embodiment of the present document, the residual chrominance scaling process can be performed without depending on (recovering) the luminance block using linear mapping in the LMCS, and thus the delay in scaling can be eliminated.

[29] В соответствии с вариантом осуществления настоящего документа, эффективность отображения в LMCS может повышаться.[29] According to an embodiment of the present document, display performance in an LMCS can be improved.

[30] В соответствии с вариантом осуществления настоящего документа, сложность LMCS может уменьшаться за счет упрощения процесса выведения индекса обратного отображения для обратного отображения яркости и/или остаточного масштабирования цветности, и, таким образом, эффективность кодирования видео/изображения может повышаться.[30] According to an embodiment of the present document, the complexity of the LMCS can be reduced by simplifying the demapping process of the demapping index for luma demapping and/or residual chrominance scaling, and thus video/image coding efficiency can be improved.

Краткое описание чертежей Brief description of the drawings

[31] Фиг. 1 иллюстрирует пример системы кодирования видео/изображения, к которой могут применяться варианты осуществления настоящего документа.[31] FIG. 1 illustrates an example of a video/image coding system to which embodiments of the present document may be applied.

[32] Фиг. 2 является диаграммой, схематично иллюстрирующей конфигурацию устройства кодирования видео/изображения, к которому могут применяться варианты осуществления настоящего документа.[32] FIG. 2 is a diagram schematically illustrating the configuration of a video/image coding apparatus to which embodiments of the present document may be applied.

[33] Фиг. 3 является диаграммой, схематично иллюстрирующей конфигурацию устройства декодирования видео/изображения, к которому могут применяться варианты осуществления настоящего документа.[33] FIG. 3 is a diagram schematically illustrating the configuration of a video/image decoding apparatus to which embodiments of the present document may be applied.

[34] Фиг. 4 показывает примерную иерархическую структуру для закодированного изображения/видео.[34] FIG. 4 shows an exemplary hierarchical structure for an encoded image/video.

[35] Фиг. 5 иллюстрирует примерную иерархическую структуру CVS в соответствии с вариантом осуществления настоящего документа.[35] FIG. 5 illustrates an exemplary hierarchical structure of CVS in accordance with an embodiment of the present document.

[36] Фиг. 6 иллюстрирует примерную структуру LMCS в соответствии с вариантом осуществления настоящего документа.[36] FIG. 6 illustrates an exemplary LMCS structure in accordance with an embodiment of the present document.

[37] Фиг. 7 иллюстрирует структуру LMCS в соответствии с другим вариантом осуществления настоящего документа.[37] FIG. 7 illustrates the structure of an LMCS according to another embodiment of the present document.

[38] Фиг. 8 показывает график, представляющий примерное прямое отображение.[38] FIG. 8 shows a graph representing an exemplary forward display.

[39] Фиг. 9 является блок-схемой последовательности операций, иллюстрирующей способ для выведения индекса остаточного масштабирования цветности в соответствии с вариантом осуществления настоящего документа.[39] FIG. 9 is a flowchart illustrating a method for deriving a residual chrominance scaling index according to an embodiment of the present document.

[40] Фиг. 10 иллюстрирует линейную аппроксимацию точек поворота в соответствии с вариантом осуществления настоящего документа.[40] FIG. 10 illustrates a linear approximation of turning points in accordance with an embodiment of the present document.

[41] Фиг. 11 иллюстрирует один пример линейного повторного формирования (или линейного переформирования, линейного отображения) в соответствии с вариантом осуществления настоящего документа.[41] FIG. 11 illustrates one example of a linear reshaping (or linear reshaping, linear mapping) according to an embodiment of the present document.

[42] Фиг. 12 показывает пример линейного прямого отображения в варианте осуществления настоящего документа. [42] FIG. 12 shows an example of linear forward mapping in an embodiment of the present document.

[43] Фиг. 13 показывает пример обратного прямого отображения в варианте осуществления настоящего документа.[43] FIG. 13 shows an example of reverse forward mapping in an embodiment of the present document.

[44] Фиг. 14 и фиг. 15 схематично показывают пример способа кодирования видео/изображения и связанные компоненты в соответствии с вариантом(ами) осуществления настоящего документа.[44] FIG. 14 and FIG. 15 schematically show an example of a video/image coding method and related components according to the embodiment(s) of the present document.

[45] Фиг. 16 и фиг. 17 схематично показывают пример способа декодирования изображения/видео и связанные компоненты в соответствии с вариантом осуществления настоящего документа.[45] FIG. 16 and FIG. 17 schematically show an example of an image/video decoding method and related components according to an embodiment of the present document.

[46] Фиг. 18 показывает пример системы стриминга контента, к которой могут применяться варианты осуществления, раскрытые в настоящем документе.[46] FIG. 18 shows an example of a content streaming system to which the embodiments disclosed herein may be applied.

Описание примерных вариантов осуществления Description of Exemplary Embodiments

[47] Настоящий документ может модифицироваться в различных формах, и его конкретные варианты осуществления будут описаны и показаны на чертежах. Однако варианты осуществления не предназначены ограничивать настоящий документ. Термины, используемые в последующем описании, используются, чтобы только описывать конкретные варианты осуществления, но не предназначены ограничивать настоящий документ. Выражение в единственном числе включает в себя выражение во множественном числе, если только оно не читается явно иначе. Термины, такие как «включать в себя» и «иметь», предназначены указывать, что признаки, числа, этапы, операции, элементы, компоненты или их комбинации, используемые в следующем описании, существуют, и, таким образом, должно быть понятно, что возможность существования или добавления одного или более других признаков, чисел, этапов, операций, элементов, компонентов или их комбинация не исключается.[47] This document may be modified in various forms, and its specific embodiments will be described and shown in the drawings. However, the embodiments are not intended to limit the present document. The terms used in the following description are only used to describe specific embodiments, but are not intended to limit the present document. A singular expression includes a plural expression, unless it is explicitly read otherwise. Terms such as "include" and "have" are intended to indicate that the features, numbers, steps, operations, elements, components, or combinations thereof used in the following description exist, and thus it should be understood that the possibility of the existence or addition of one or more other features, numbers, steps, operations, elements, components, or a combination thereof is not excluded.

[48] Между тем, каждая конфигурация на чертежах, описанная в настоящем документе, показана независимо для удобства описания касательно разных функций характеристик и не означает, что каждая конфигурация реализуется как отдельные аппаратные средства или отдельное программное обеспечение. Например, два или более компонентов из каждого компонента могут комбинироваться для образования одного компонента, или один компонент может делиться на множество компонентов. Варианты осуществления, в которых каждый компонент является интегрированным и/или отдельным, также включены в объем раскрытия настоящего документа.[48] Meanwhile, each configuration in the drawings described herein is shown independently for convenience of description regarding different function features, and does not imply that each configuration is implemented as separate hardware or separate software. For example, two or more components from each component may be combined to form one component, or one component may be divided into multiple components. Embodiments where each component is integrated and/or separate are also included within the scope of this disclosure.

[49] Далее, примеры настоящего варианта осуществления будут описаны подробно со ссылкой на прилагаемые чертежи. К тому же, одинаковые ссылочные позиции используются, чтобы указывать одинаковые элементы на всех чертежах, и те же самые описания одинаковых элементов будут опущены.[49] Next, examples of the present embodiment will be described in detail with reference to the accompanying drawings. Also, the same reference numerals are used to indicate the same elements throughout the drawings, and the same descriptions of the same elements will be omitted.

[50] Фиг. 1 иллюстрирует пример системы кодирования видео/изображения, к которой могут применяться варианты осуществления настоящего документа.[50] FIG. 1 illustrates an example of a video/image coding system to which embodiments of the present document may be applied.

[51] Со ссылкой на фиг. 1, система кодирования видео/изображения может включать в себя первое устройство (устройство-источник) и второе устройство (устройство приема). Устройство-источник может передавать закодированную информацию или данные видео/изображения на устройство приема через цифровой носитель хранения или сеть в виде файла или потока.[51] With reference to FIG. 1, the video/image coding system may include a first device (source device) and a second device (receiver device). The source device may transmit the encoded information or video/image data to the receiving device via a digital storage medium or a network as a file or stream.

[52] Устройство-источник может включать в себя источник видео, устройство кодирования и передатчик. Устройство приема может включать в себя приемник, устройство декодирования и устройство рендеринга (визуализации). Устройство кодирования может называться устройством кодирования видео/изображения, и устройство декодирования может называться устройством декодирования видео/изображения. Передатчик может быть включен в устройство кодирования. Приемник может быть включен в устройство декодирования. Устройство визуализации может включать в себя дисплей, и дисплей может быть сконфигурирован как отдельное устройство или внешний компонент.[52] The source device may include a video source, an encoder, and a transmitter. The receiving device may include a receiver, a decoding device, and a rendering device. The encoding device may be referred to as a video/image encoding device, and the decoding device may be referred to as a video/image decoding device. The transmitter may be included in the encoder. The receiver may be included in the decoding device. The rendering device may include a display, and the display may be configured as a separate device or an external component.

[53] Источник видео может получать видео/изображение через процесс захвата, синтеза или генерации видео/изображения. Источник видео может включать в себя устройство захвата видео/изображения и/или устройство генерации видео/изображения. Устройство захвата видео/изображения может включать в себя, например, одну или несколько камер, архивы видео/изображений, включающие в себя ранее захваченные видео/изображения, и тому подобное. Устройство генерации видео/изображения может включать в себя, например, компьютеры, планшеты и смартфоны и может (электронным способом) генерировать видео/изображения. Например, виртуальное видео/изображение может генерироваться через компьютер или тому подобное. В этом случае, процесс захвата видео/изображения может быть заменен на процесс генерации связанных данных.[53] A video source may acquire a video/image through a video/image capture, synthesis, or generation process. The video source may include a video/image capture device and/or a video/image generation device. The video/image capture device may include, for example, one or more cameras, video/image archives including previously captured videos/images, and the like. The video/image generating device may include, for example, computers, tablets, and smartphones, and may (electronically) generate video/images. For example, the virtual video/image may be generated via a computer or the like. In this case, the video/image capture process can be replaced with a related data generation process.

[54] Устройство кодирования может кодировать введенное видео/изображение. Устройство кодирования может выполнять последовательность процедур, таких как предсказание, преобразование и квантование для компактности и эффективности кодирования. Закодированные данные (закодированная информация видео/изображения) могут выводиться в виде битового потока.[54] The encoding device may encode the input video/image. The encoder may perform a series of procedures such as prediction, transformation, and quantization for compactness and coding efficiency. Encoded data (encoded video/image information) may be output as a bitstream.

[55] Передатчик может передавать закодированное изображение/информацию изображения или данные, выведенные в виде битового потока, на приемник устройства приема через цифровой носитель хранения или сеть в виде файла или потока. Цифровой носитель хранения может включать в себя различные носители хранения, такие как USB, SD, CD, DVD, Blu-ray, HDD, SSD и тому подобное. Передатчик может включать в себя элемент для генерации медиа-файла посредством предопределенного формата файла и может включать в себя элемент для передачи через сеть вещания/связи. Приемник может принимать/извлекать битовый поток и передавать принятый битовый поток на устройство декодирования.[55] The transmitter may transmit the encoded image/image information or data output as a bitstream to the receiver of the receiving device via a digital storage medium or a network as a file or stream. The digital storage medium may include various storage media such as USB, SD, CD, DVD, Blu-ray, HDD, SSD, and the like. The transmitter may include an element for generating a media file by a predefined file format and may include an element for transmission over a broadcast/communications network. The receiver may receive/extract the bitstream and transmit the received bitstream to a decoder.

[56] Устройство декодирования может декодировать видео/изображение путем выполнения последовательности процедур, таких как деквантование, обратное преобразование и предсказание, соответствующих операции устройства кодирования.[56] The decoding device can decode the video/image by performing a series of procedures such as dequantization, inverse transformation, and prediction corresponding to the operation of the encoding device.

[57] Устройство визуализации может визуализировать декодированное видео/изображение. Визуализированное видео/ изображение может отображаться посредством дисплея.[57] The rendering device may render the decoded video/image. The rendered video/image can be displayed via the display.

[58] Настоящий документ относится к кодированию видео/изображения. Например, способ/вариант осуществления, раскрытый в настоящем документе, может применяться к способу, раскрытому в стандарте многоцелевого кодирования видео (VVC), стандарте существенного кодирования видео (EVC), стандарте AOMedia Видео 1 (AV1), стандарте кодирования аудио/видео 2-го поколения (AVS2) или стандарте кодирования видео/изображения следующего поколения (например, H.267, H.268 или тому подобное).[58] This document relates to video/image coding. For example, the method/embodiment disclosed herein may be applied to the method disclosed in the Versatile Video Coding (VVC) standard, Essential Video Coding (EVC) standard, AOMedia Video 1 (AV1) standard, Audio/Video Coding 2- generation (AVS2) or next generation video/image coding standard (eg H.267, H.268 or the like).

[59] Настоящий документ предлагает различные варианты осуществления кодирования видео/изображения, и варианты осуществления выше могут также выполняться в комбинации друг с другом, если не специфицировано иное.[59] The present document proposes various video/image coding embodiments, and the embodiments above may also be performed in combination with each other unless otherwise specified.

[60] В настоящем документе, видео может относиться к последовательности изображений по времени. Картинка обычно относится к единице, представляющей одно изображение в конкретном временном кадре, и вырезка/мозаичный элемент относится к единице, составляющей часть картинки в терминах кодирования. Вырезка/мозаичный элемент может включать в себя одну или более единиц дерева кодирования (CTU). Одна картинка может состоять из одной или более вырезок/мозаичных элементов. Одна картинка может состоять из одной или более групп мозаичных элементов. Одна группа мозаичных элементов может включать в себя один или более мозаичных элементов. «Кирпичик» может представлять прямоугольную область строк CTU в пределах мозаичного элемента в картинке. Мозаичный элемент может разбиваться на множество кирпичиков, каждый из которых может состоять из одной или более строк CTU в пределах мозаичного элемента. Мозаичный элемент, который не разбивается на множество кирпичиков, может также называться кирпичиком. Сканирование кирпичиков может представлять конкретный последовательный порядок CTU, разбивающих картинку, причем CTU могут быть упорядочены в растровом сканировании CTU в пределах кирпичика, и кирпичики в пределах мозаичного элемента могут быть упорядочены последовательно в растровом сканировании кирпичиков мозаичного элемента, и мозаичные элементы в картинке могут быть упорядочены последовательно в растровом сканировании мозаичных элементов картинки. Мозаичный элемент является прямоугольной областью CTU в пределах конкретного столбца мозаичного элемента и конкретной строки мозаичного элемента в картинке. Столбец мозаичного элемента является прямоугольной областью CTU, имеющей высоту, равную высоте картинки, и ширину, специфицированную синтаксическими элементами в наборе параметров картинки. Строка мозаичного элемента является прямоугольной областью CTU, имеющей высоту, специфицированную синтаксическими элементами в наборе параметров картинки, и ширину, равную ширине картинки. Сканирование мозаичного элемента является конкретным последовательным упорядочиванием CTU, разбивающих картинку, в котором CTU упорядочены последовательно в растровом сканировании CTU в мозаичном элементе, причем мозаичные элементы в картинке упорядочены последовательно в растровом сканировании мозаичных элементов картинки. Вырезка включает в себя целое число кирпичиков картинки, которые могут содержаться исключительно в одной единице NAL. Вырезка может состоять из некоторого количества полных мозаичных элементов или только последовательности полных кирпичиков одного мозаичного элемента. В настоящем документе, группа мозаичных элементов и вырезка могут использоваться взаимозаменяемым образом. Например, в настоящем документе, группа мозаичных элементов/заголовок группы мозаичных элементов может называться вырезкой/заголовком вырезки.[60] As used herein, video may refer to a sequence of images over time. A picture generally refers to a unit representing a single image in a particular time frame, and a slice/tile refers to a unit constituting a part of a picture in terms of encoding. A slice/tile may include one or more coding tree units (CTUs). One picture may consist of one or more clippings/tiles. One picture can consist of one or more groups of tiles. One group of tiles may include one or more tiles. A "brick" may represent a rectangular area of CTU rows within a tile in a picture. A tile may be broken into multiple bricks, each of which may consist of one or more rows of CTUs within the tile. A tile that does not break into many bricks may also be called a brick. A brick scan may represent a particular sequential order of CTUs breaking a picture, where CTUs may be ordered in a raster scan of CTUs within a brick, and bricks within a tile may be ordered sequentially in a raster scan of tile bricks, and tiles within a picture may be ordered sequentially in raster scanning of the mosaic elements of the picture. A tile is a rectangular area of the CTU within a particular tile column and a particular tile row in the picture. The tile column is a rectangular area of the CTU having a height equal to the height of the picture and a width specified by the syntax elements in the picture parameter set. A tile row is a rectangular area of the CTU having a height specified by the syntax elements in the picture parameter set and a width equal to the width of the picture. A tile scan is a particular sequential ordering of CTUs that tile a picture, in which the CTUs are ordered sequentially in the raster scan CTUs in the tile, and the tiles in the picture are ordered sequentially in the tile raster scan. A slice includes an integer number of picture bricks that can only be contained in one NAL unit. A cut may consist of a number of complete tiles, or only a sequence of complete bricks of a single tile. Herein, the tile group and the cutout may be used interchangeably. For example, herein, a tile group/tile group header may be referred to as a slice/cut header.

[61] Между тем, одна картинка может делиться на две или более под-картинок. Под-картинка может представлять собой прямоугольную область одной или более вырезок в пределах картинки.[61] Meanwhile, one picture can be divided into two or more sub-pictures. A sub-picture may be a rectangular area of one or more cutouts within a picture.

[62] Пиксел или пел может означать наименьшую единицу, составляющую одну картинку (или изображение). Также, ‘выборка’ может использоваться как термин, соответствующий пикселу. Выборка может, в общем, представлять пиксел или значение пиксела и может представлять только пиксел/значение пиксела компонента яркости или только пиксел/значение пиксела компонента цветности. [62] A pixel or pel can mean the smallest unit that makes up one picture (or image). Also, 'sampling' can be used as a term corresponding to a pixel. The sample may generally represent a pixel or pixel value, and may represent only a luminance component pixel/pixel value, or only a chrominance component pixel/pixel value.

[63] Единица может представлять базовую единицу обработки изображения. Единица может включать в себя по меньшей мере одно из конкретной области картинки и информации, относящейся к области. Одна единица может включать в себя один блок яркости и два блока цветности (например, cb, cr). Единица может использоваться взаимозаменяемо с терминами, такими как блок или область в некоторых случаях. В общем случае, блок M×N может включать в себя выборки (или массивы выборок) или набор (или массив) коэффициентов преобразования M столбцов и N строк. Альтернативно, выборка может означать значение пиксела в пространственной области, и когда такое значение пиксела преобразуется в частотную область, оно может означать коэффициент преобразования в частотной области.[63] The unit may represent a basic unit of image processing. The unit may include at least one of a particular area of the picture and information related to the area. One unit may include one luminance block and two chrominance blocks (eg, cb, cr). The unit can be used interchangeably with terms such as block or area in some cases. In general, an MxN block may include samples (or arrays of samples) or a set (or array) of transform coefficients M columns and N rows. Alternatively, a sample may mean a pixel value in the spatial domain, and when such a pixel value is converted to the frequency domain, it can mean a transform factor in the frequency domain.

[64] В настоящем документе, «A или B» может означать «только A», «только B» или «как A, так и B». Другими словами, «A или B» в настоящем документе может интерпретироваться как «A и/или B». Например, в настоящем документе «A, B или C (A, B или C)» означает «только A», «только B», «только C» или «любая комбинация A, B и C».[64] As used herein, "A or B" may mean "only A", "only B", or "both A and B". In other words, "A or B" in this document can be interpreted as "A and/or B". For example, in this document "A, B or C (A, B or C)" means "A only", "B only", "C only", or "any combination of A, B and C".

[65] Слеш (/) или запятая, используемые в настоящем документе, могут означать «и/или». Например, «A/B» может означать «A и/или B». Соответственно, «A/B» может означать «только A», «только B» или «как A, так и B». Например, «A, B, C» может означать «A, B или C».[65] A slash (/) or a comma used herein can mean "and/or". For example, "A/B" could mean "A and/or B". Accordingly, "A/B" can mean "only A", "only B", or "both A and B". For example, "A, B, C" could mean "A, B, or C".

[66] В настоящем документе, «по меньшей мере одно из A и B» может означать «только A», «только B» или «как A, так и B». Также, в настоящем документе, выражение «по меньшей мере одно из A или B» или «по меньшей мере одно из A и/или B» может интерпретироваться так же, как «по меньшей мере одно из A и B».[66] As used herein, "at least one of A and B" can mean "only A", "only B", or "both A and B". Also, herein, the expression "at least one of A or B" or "at least one of A and/or B" can be interpreted in the same way as "at least one of A and B".

[67] Также, в настоящем документе, «по меньшей мере одно из A, B и C» означает «только A, «только B», «только C» или «любая комбинация A, B и C». Также, «по меньшей мере одно из A, B или C» или «по меньшей мере одно из A, B и/или C» может означать «по меньшей мере одно из A, B и C».[67] Also, as used herein, "at least one of A, B, and C" means "A only, B only, C only," or "any combination of A, B, and C." Also, "at least one of A, B or C" or "at least one of A, B and/or C" can mean "at least one of A, B and C".

[68] Также, круглые скобки, используемые в настоящем документе, могут означать «например». Конкретно, когда указано «предсказание (интра-предсказание)», «интра-предсказание» может предлагаться как пример «предсказания». Другими словами, «предсказание» в настоящем документе не ограничено «интра-предсказанием», и «интра-предсказание» может предлагаться в качестве примера «предсказания». Также, даже когда указано «предсказание (т.е., интра-предсказание)», «интра-предсказание» может предлагаться как пример «предсказания».[68] Also, parentheses used herein can mean "for example". Specifically, when "prediction (intra-prediction)" is indicated, "intra-prediction" may be offered as an example of "prediction". In other words, "prediction" herein is not limited to "intra-prediction", and "intra-prediction" may be offered as an example of "prediction". Also, even when "prediction (ie, intra-prediction)" is indicated, "intra-prediction" may be offered as an example of "prediction".

[69] Технические признаки, которые отдельно описаны в одном чертеже в настоящем документе, могут быть реализованы по отдельности или вместе.[69] The technical features that are separately described in one drawing herein may be implemented separately or together.

[70] Фиг. 2 является диаграммой, схематично иллюстрирующей конфигурацию устройства кодирования видео/изображения, к которому могут применяться варианты осуществления настоящего документа. Далее, то, что называется устройством кодирования видео, может включать в себя устройство кодирования изображения. [70] FIG. 2 is a diagram schematically illustrating the configuration of a video/image coding apparatus to which embodiments of the present document may be applied. Further, what is called a video encoding device may include an image encoding device.

[71] Со ссылкой на фиг. 2, устройство 200 кодирования включает в себя модуль 210 разбиения изображения, предсказатель 220, остаточный процессор (процессор остатка) 230 и энтропийный кодер 240, сумматор 250, фильтр 260 и память 270. Предсказатель 220 может включать в себя интер-предсказатель 221 и интра-предсказатель 222. Процессор 230 остатка может включать в себя преобразователь 232, квантователь 233, деквантователь 234 и обратный преобразователь 235. Процессор 230 остатка может дополнительно включать в себя вычитатель 231. Сумматор 250 может называться реконструктором или генератором восстановленного блока. Модуль 210 разбиения изображения, предсказатель 220, процессор 230 остатка, энтропийный кодер 240, сумматор 250 и фильтр 260 могут быть сконфигурированы по меньшей мере одним компонентом аппаратных средств (например, чипсетом кодера или процессором) в соответствии с вариантом осуществления. К тому же, память 270 может включать в себя буфер декодированной картинки (DPB) или может быть сконфигурирована цифровым носителем хранения. Компонент аппаратных средств может дополнительно включать в себя память 270 как внутренний/внешний компонент.[71] With reference to FIG. 2, the encoder 200 includes an image splitter 210, a predictor 220, a residual processor (residual processor) 230, and an entropy encoder 240, an adder 250, a filter 260, and a memory 270. The predictor 220 may include an inter-predictor 221 and an intra- predictor 222. Residual processor 230 may include transform 232, quantizer 233, dequantizer 234, and inverse transform 235. Residual processor 230 may further include subtractor 231. Adder 250 may be referred to as a reconstructor or reconstructed block generator. The image splitter 210, predictor 220, residual processor 230, entropy encoder 240, adder 250, and filter 260 may be configured by at least one hardware component (eg, encoder chipset or processor) in accordance with an embodiment. In addition, memory 270 may include a decoded picture buffer (DPB) or may be configured with a digital storage medium. The hardware component may further include memory 270 as an internal/external component.

[72] Модуль 210 разбиения изображения может разбивать входное изображение (или картинку или кадр), введенное в устройство 200 кодирования в один или более процессоров. Например, процессор может называться единицей кодирования (CU). В этом случае, единица кодирования может рекурсивно разбиваться в соответствии со структурой квадродерева-двоичного дерева- троичного дерева (QTBTTT) из единицы дерева кодирования (CTU) или наибольшей единицы кодирования (LCU). Например, одна единица кодирования может разбиваться на множество единиц кодирования большей глубины на основе структуры квадродерева, структуры двоичного дерева и/или троичного дерева. В этом случае, например, структура квадродерева может применяться первой, и структура двоичного дерева и/или структура троичного дерева может применяться позже. Альтернативно, структура двоичного дерева может применяться первой. Процедура кодирования в соответствии с настоящим раскрытием может выполняться на основе конечной единицы кодирования, которая больше не разбивается. В этом случае, наибольшая единица кодирования может использоваться как конечная единица кодирования на основе эффективности кодирования в соответствии с характеристиками изображения, или если необходимо, единица кодирования может рекурсивно разбиваться на единицы кодирования большей глубины, и единица кодирования, имеющая оптимальный размер, может использоваться как конечная единица кодирования. Здесь, процедура кодирования может включать в себя процедуру предсказания, преобразования и восстановления, которые будут описаны далее. В качестве примера, процессор может дополнительно включать в себя единицу предсказания (PU) или единицу преобразования (TU). В этом случае, единица предсказания и единица преобразования могут разделяться или разбиваться из вышеупомянутой конечной единицы кодирования. Единица предсказания может представлять собой единицу предсказания выборки, и единица преобразования может представлять собой единицу для выведения коэффициента преобразования и/или единицу для выведения остаточного сигнала из коэффициента преобразования.[72] The image splitter 210 may split the input image (or picture or frame) input to the encoder 200 into one or more processors. For example, a processor may be referred to as a coding unit (CU). In this case, a coding unit may be recursively partitioned according to a quadtree-binary-tree-ternary tree (QTBTTT) structure from a coding tree unit (CTU) or a largest coding unit (LCU). For example, one coding unit may be split into multiple coding units of greater depth based on a quadtree structure, a binary tree structure, and/or a ternary tree. In this case, for example, a quadtree structure may be applied first, and a binary tree structure and/or a ternary tree structure may be applied later. Alternatively, the binary tree structure may be applied first. An encoding procedure according to the present disclosure may be performed based on a final coding unit that is no longer split. In this case, the largest coding unit may be used as the final coding unit based on the coding efficiency according to the picture characteristics, or if necessary, the coding unit may be recursively split into coding units of greater depth, and the coding unit having the optimal size may be used as the final coding unit. Here, the encoding procedure may include a prediction, transformation, and recovery procedure to be described later. As an example, the processor may further include a prediction unit (PU) or a transformation unit (TU). In this case, the prediction unit and the transformation unit may be separated or split from the aforementioned final coding unit. The prediction unit may be a sample prediction unit, and the transform unit may be a unit for deriving a transform coefficient and/or a unit for deriving a residual signal from a transform coefficient.

[73] Единица может использоваться взаимозаменяемо с терминами, такими как блок или область в некоторых случаях. В общем случае, блок M×N может представлять набор выборок или коэффициентов преобразования, состоящих из M столбцов и N строк. Выборка может, в общем, представлять пиксел или значение пиксела, может представлять только пиксел/значение пиксела компонента яркости или представлять только пиксел/значение пиксела компонента цветности. Выборка может использоваться как термин, соответствующий одной картинке (или изображению) для пиксела или пела.[73] The unit can be used interchangeably with terms such as block or area in some cases. In general, an M×N block may represent a set of samples or transform coefficients consisting of M columns and N rows. The sample may generally represent a pixel or pixel value, may represent only a luminance component pixel/pixel value, or represent only a chrominance component pixel/pixel value. Sampling can be used as a term corresponding to a single picture (or image) for a pixel or pel.

[74] В устройстве 200 кодирования, сигнал предсказания (предсказанный блок, массив выборок предсказания), выведенный из интер-предсказателя 221 или интра-предсказателя 222, вычитается из входного сигнала изображения (исходного блока, исходного массива выборок), чтобы сгенерировать остаточный сигнал (остаточный блок, остаточный массив выборок), и сгенерированный остаточный сигнал передается на преобразователь 232. В этом случае, как показано, модуль для вычитания сигнала предсказания (предсказанного блока, массива выборок предсказания) из входного сигнала изображения (исходного блока, исходного массива выборок) в кодере 200 может называться вычитателем 231. Предсказатель может выполнять предсказание на блоке, подлежащем обработке (далее называемом текущим блоком), и генерировать предсказанный блок, включающий в себя выборки предсказания для текущего блока. Предсказатель может определять, применяется ли интра-предсказание или интер-предсказание на текущем блоке или на основе CU. Как описано далее в описании каждого режима предсказания, предсказатель может генерировать различную информацию, относящуюся к предсказанию, такую как информация режима предсказания, и передавать сгенерированную информацию на энтропийный кодер 240. Информация о предсказании может кодироваться в энтропийном кодере 240 и выводиться в форме битового потока.[74] In the encoder 200, the prediction signal (predicted block, prediction sample array) output from the inter predictor 221 or intra predictor 222 is subtracted from the input image signal (original block, original sample array) to generate a residual signal ( residual block, residual sample array), and the generated residual signal is transmitted to the converter 232. In this case, as shown, a module for subtracting a prediction signal (predicted block, prediction sample array) from the input image signal (original block, original sample array) in encoder 200 may be referred to as a subtractor 231. The predictor may perform prediction on a block to be processed (hereinafter referred to as the current block) and generate a predicted block including the prediction samples for the current block. The predictor may determine whether intra-prediction or inter-prediction is applied on the current block or on a CU basis. As described below in the description of each prediction mode, the predictor may generate various prediction-related information such as prediction mode information and pass the generated information to the entropy encoder 240. The prediction information may be encoded in the entropy encoder 240 and output in the form of a bitstream.

[75] Интра-предсказатель 222 может предсказывать текущий блок путем ссылки на выборки в текущей картинке. Указанные выборки могут быть расположены по соседству с текущим блоком или могут быть разнесены в соответствии с режимом предсказания. В интра-предсказании, режимы предсказания могут включать в себя множество ненаправленных режимов и множество направленных режимов. Ненаправленный режим может включать в себя, например, режим DC и планарный режим. Направленный режим может включать в себя, например, 33 направленных режима предсказания или 65 направленных режимов предсказания в соответствии со степенью детализации направления предсказания. Однако это только пример, больше или меньше направленных режимов предсказания могут использоваться в зависимости от настроек. Интра-предсказатель 222 может определять режим предсказания, применяемый к текущему блоку, путем использования режима предсказания, применяемого к соседнему блоку.[75] Intra-predictor 222 may predict the current block by referring to samples in the current picture. These samples may be adjacent to the current block or may be spaced according to the prediction mode. In intra-prediction, the prediction modes may include a plurality of non-directional modes and a plurality of directional modes. The non-directional mode may include, for example, a DC mode and a planar mode. The directional mode may include, for example, 33 directional prediction modes or 65 directional prediction modes according to the granularity of the prediction direction. However, this is just an example, more or less directional prediction modes may be used depending on the settings. The intra-predictor 222 may determine the prediction mode applied to the current block by using the prediction mode applied to the adjacent block.

[76] Интер-предсказатель 221 может выводить предсказанный блок для текущего блока на основе опорного блока (опорного массива выборок), специфицированного вектором движения на опорной картинке. Здесь, чтобы уменьшить количество информации движения, передаваемой в режиме интер-предсказания, информация движения может предсказываться в единицах блоков, подблоков или выборках на основе корреляции информации движения между соседним блоком и текущим блоком. Информация движения может включать в себя вектор движения и индекс опорной картинки. Информация движения может дополнительно включать в себя информацию направления интер-предсказания (предсказание L0, предсказание L1, Bi-предсказание и т.д.). В случае интер-предсказания, соседний блок может включать в себя пространственный соседний блок, представленный в текущей картинке, и временной соседний блок, представленный в опорной картинке. Опорная картинка, включающая в себя опорный блок, и опорная картинка, включающая в себя временной соседний блок, могут быть одинаковыми или разными. Временной соседний блок может называться совместно расположенным опорным блоком, co-located CU (colCU) и т.п., и опорная картинка, включающая в себя временной соседний блок, может называться совместно расположенной картинкой (colPic). Например, интер-предсказатель 221 может конфигурировать список кандидатов информации движения на основе соседних блоков и генерировать информацию, указывающую, какой кандидат используется, чтобы вывести вектор движения и/или индекс опорной картинки текущего блока. Интер-предсказание может выполняться на основе различных режимов предсказания. Например, в случае режима пропуска и режима объединения, интер-предсказатель 221 может использовать информацию движения соседнего блока как информацию движения текущего блока. В режиме пропуска, в отличие от режима объединения, остаточный сигнал может не передаваться. В случае режима предсказания вектора движения (MVP), вектор движения соседнего блока может использоваться как предсказатель вектора движения, и вектор движения текущего блока может указываться путем сигнализации разности векторов движения.[76] The inter predictor 221 may output a predicted block for the current block based on a reference block (reference sample array) specified by a motion vector in the reference picture. Here, in order to reduce the amount of motion information transmitted in the inter-prediction mode, motion information may be predicted in units of blocks, sub-blocks, or samples based on the correlation of motion information between a neighboring block and a current block. The motion information may include a motion vector and a reference picture index. The motion information may further include inter prediction direction information (L0 prediction, L1 prediction, Bi prediction, etc.). In the case of inter-prediction, the neighbor block may include a spatial neighbor block represented in the current picture and a temporal neighbor block represented in the reference picture. The reference picture including the reference block and the reference picture including the temporal neighbor block may be the same or different. The temporal neighbor block may be referred to as a co-located reference block, co-located CU (colCU) or the like, and a reference picture including the temporal neighbor block may be referred to as a co-located picture (colPic). For example, the inter predictor 221 may configure a list of motion information candidates based on adjacent blocks and generate information indicating which candidate is used to derive a motion vector and/or a reference picture index of the current block. Inter-prediction may be performed based on various prediction modes. For example, in the case of the skip mode and the combine mode, the inter predictor 221 may use the motion information of the neighboring block as the motion information of the current block. In the skip mode, unlike the combine mode, the residual signal may not be transmitted. In the case of a motion vector prediction (MVP) mode, the motion vector of an adjacent block may be used as a motion vector predictor, and the motion vector of the current block may be indicated by motion vector difference signaling.

[77] Предсказатель 220 может генерировать сигнал предсказания на основе различных способов предсказания, описанных ниже. Например, предсказатель может не только применять интра-предсказание или интер-предсказание, чтобы предсказать один блок, но также одновременно применять как интра-предсказание, так и интер-предсказание. Это может называться комбинированным интер- и интра-предсказанием (CIIP). К тому же, предсказатель может быть основан на режиме предсказания внутри-блочного копирования (IBC) или режиме палитры для предсказания блока. Режим предсказания IBC или режим палитры могут использоваться для кодирования контента изображения/видео игры или тому подобного, например, кодирования контента экрана (SCC). IBC в основном выполняет предсказание в текущей картинке, но может выполняться аналогично интер-предсказанию тем, что опорный блок выводится в текущей картинке. То есть, IBC может использовать по меньшей мере один из методов интер-предсказания, описанных в настоящем раскрытии. Режим палитры может рассматриваться как пример интра-кодирования или интра-предсказания. Когда режим палитры применяется, значение выборки в пределах картинки может сигнализироваться на основе информации о таблице палитры и индексе палитры.[77] Predictor 220 may generate a prediction signal based on various prediction methods described below. For example, the predictor may not only apply intra-prediction or inter-prediction to predict one block, but also apply both intra-prediction and inter-prediction at the same time. This may be referred to as combined inter- and intra-prediction (CIIP). In addition, the predictor may be based on an intra-block copy (IBC) prediction mode or a palette mode for block prediction. An IBC prediction mode or a palette mode may be used for encoding image/video game content or the like, such as screen content coding (SCC). IBC basically performs prediction on the current picture, but can be performed similarly to inter-prediction in that the reference block is output on the current picture. That is, the IBC may use at least one of the inter prediction methods described in this disclosure. The palette mode can be considered as an example of intra-coding or intra-prediction. When a palette mode is applied, the sample value within the picture can be signaled based on information about the palette table and palette index.

[78] Сигнал предсказания, сгенерированный предсказателем (включающим в себя интер-предсказатель 221 и/или интра-предсказатель 222), может использоваться, чтобы генерировать восстановленный сигнал или чтобы генерировать остаточный сигнал. Преобразователь 232 может генерировать коэффициенты преобразования путем применения метода преобразования к остаточному сигналу. Например, метод преобразования может включать в себя по меньшей мере одно из дискретного косинусного преобразования (DCT), дискретного синусного преобразования (DST), преобразования Карунена-Лоэва (KLT), преобразования на основе графа (GBT) или условно-нелинейного преобразования (CNT). Здесь, GBT означает преобразование, полученное из графа, когда информация отношения между пикселами представлена графом. CNT относится к преобразованию, сгенерированному на основе сигнала предсказания, сгенерированного с использованием всех ранее восстановленных пикселов. К тому же, процесс преобразования может применяться к квадратным блокам пикселов, имеющим одинаковый размер, или может применяться к блокам, имеющим переменный размер, а не квадратным.[78] A prediction signal generated by a predictor (including inter predictor 221 and/or intra predictor 222) may be used to generate a recovered signal or to generate a residual signal. Transformer 232 may generate transform coefficients by applying a transform method to the residual signal. For example, the transform method may include at least one of discrete cosine transform (DCT), discrete sine transform (DST), Karhunen-Loeve transform (KLT), graph-based transform (GBT), or conditionally non-linear transform (CNT) . Here, GBT means a transformation obtained from a graph when relationship information between pixels is represented by a graph. CNT refers to a transform generated based on a prediction signal generated using all previously reconstructed pixels. Also, the transformation process may be applied to square blocks of pixels having the same size, or may be applied to blocks having a variable size other than square.

[79] Квантователь 233 может квантовать коэффициенты преобразования и передавать их на энтропийный кодер 240, и энтропийный кодер 240 может кодировать квантованный сигнал (информацию о квантованных коэффициентах преобразования) и выводить битовый поток. Информация о квантованных коэффициентах преобразования может называться информацией остатка. Квантователь 233 может переупорядочивать квантованные коэффициенты преобразования типа блока в форму одномерного вектора на основе порядка сканирования коэффициентов и генерировать информацию о квантованных коэффициентах преобразования на основе квантованных коэффициентов преобразования в форме одномерного вектора. Информация о коэффициентах преобразования может генерироваться. Энтропийный кодер 240 может выполнять различные способы кодирования, такие как, например, экспоненциальное кодирование Голомба, контекстно-адаптивное кодирование с переменной длиной (CAVLC), контекстно-адаптивное двоичное арифметическое кодирование (CABAC) и тому подобное. Энтропийный кодер 240 может кодировать информацию, необходимую для восстановления видео/изображения, отличную от квантованных коэффициентов преобразования (например, значения синтаксических элементов и т.д.), вместе или отдельно. Закодированная информация (например, закодированная информация видео/изображения) может передаваться или сохраняться в единицах NAL (уровень сетевой абстракции) в форме битового потока. Информация видео/изображения может дополнительно включать в себя информацию о различных наборах параметров, таких как набор параметров адаптации (APS), набор параметров картинки (PPS), набор параметров последовательности (SPS) или набор параметров видео (VPS). К тому же, информация видео/изображения может дополнительно включать в себя общую информацию ограничения. В настоящем раскрытии, информация и/или синтаксические элементы, передаваемые/сигнализируемые от устройства кодирования на устройство декодирования, могут быть включены в информацию видео/картинки. Информация видео/изображения может кодироваться посредством вышеописанной процедуры кодирования и включаться в битовый поток. Битовый поток может передаваться по сети или может сохраняться в цифровом носителе хранения. Сеть может включать в себя сеть вещания и/или сеть связи, и цифровой носитель хранения может включать в себя различные носители хранения, такие как USB, SD, CD, DVD, Blu-ray, HDD, SSD и тому подобное. Передатчик (не показан), передающий сигнал, выведенный из энтропийного кодера 240, и/или модуль хранения (не показан), хранящий сигнал, могут быть включены как внутренний/внешний элемент устройства 200 кодирования, и альтернативно, передатчик может быть включен в энтропийный кодер 240.[79] The quantizer 233 may quantize the transform coefficients and pass them to the entropy encoder 240, and the entropy encoder 240 may encode the quantized signal (quantized transform coefficient information) and output a bitstream. Information about the quantized transform coefficients may be referred to as residual information. The quantizer 233 may reorder the quantized block-type transform coefficients into a one-dimensional vector form based on the scan order of the coefficients, and generate information about the quantized transform coefficients based on the quantized transform coefficients in the form of a one-dimensional vector. Information about the transform coefficients may be generated. Entropy encoder 240 may perform various coding techniques such as exponential Golomb coding, context adaptive variable length coding (CAVLC), context adaptive binary arithmetic coding (CABAC), and the like, for example. Entropy encoder 240 may encode information needed for video/image reconstruction other than quantized transform coefficients (eg, syntax element values, etc.) together or separately. Encoded information (eg, encoded video/image information) may be transmitted or stored in NAL (Network Abstraction Layer) units in the form of a bitstream. The video/image information may further include information about various parameter sets such as an adaptation parameter set (APS), a picture parameter set (PPS), a sequence parameter set (SPS), or a video parameter set (VPS). In addition, the video/image information may further include general restriction information. In the present disclosure, information and/or syntax elements transmitted/signaled from an encoder to a decoder may be included in video/picture information. The video/image information may be encoded by the above-described encoding procedure and included in the bitstream. The bitstream may be transmitted over a network or may be stored in a digital storage medium. The network may include a broadcast network and/or a communications network, and the digital storage medium may include various storage media such as USB, SD, CD, DVD, Blu-ray, HDD, SSD, and the like. A transmitter (not shown), a transmitting signal outputted from the entropy encoder 240, and/or a storage module (not shown) storing the signal may be included as an internal/external element of the encoder 200, and alternatively, a transmitter may be included in the entropy encoder. 240.

[80] Квантованные коэффициенты преобразования, выведенные из квантователя 233, могут использоваться, чтобы генерировать сигнал предсказания. Например, остаточный сигнал (остаточный блок или остаточные выборки) может восстанавливаться путем применения деквантования и обратного преобразования к квантованным коэффициентам преобразования деквантователем 234 и обратным преобразователем 235. Сумматор 250 добавляет восстановленный остаточный сигнал к сигналу предсказания, выведенному из интер-предсказателя 221 или интра-предсказателя 222, чтобы сгенерировать восстановленный сигнал (восстановленную картинку, восстановленный блок, восстановленный массив выборок). Если отсутствует остаток для блока, подлежащего обработке, например, в случае, где применяется режим пропуска, предсказанный блок может использоваться как восстановленный блок. Сумматор 250 может называться реконструктором или генератором восстановленного блока. Сгенерированный восстановленный сигнал может использоваться для интра-предсказания следующего блока, подлежащего обработке, в текущей картинке и может использоваться для интер-предсказания следующей картинки посредством фильтрации, как описано ниже.[80] The quantized transform coefficients output from quantizer 233 may be used to generate a prediction signal. For example, the residual signal (residual block or residual samples) may be recovered by applying dequantization and inverse transform to the quantized transform coefficients by dequantizer 234 and inverse transform 235. Adder 250 adds the recovered residual signal to the prediction signal output from inter-predictor 221 or intra-predictor 222 to generate a reconstructed signal (reconstructed picture, reconstructed block, reconstructed sample array). If there is no remainder for the block to be processed, such as in the case where the skip mode is applied, the predicted block may be used as the reconstructed block. Adder 250 may be referred to as a reconstructor or reconstructed block generator. The generated reconstructed signal may be used to intra-predict the next block to be processed in the current picture, and may be used to inter-predict the next picture through filtering as described below.

[81] Между тем, отображение яркости с масштабированием цветности (LMCS) может применяться во время кодирования и/или восстановления картинки.[81] Meanwhile, luma mapping with chrominance scaling (LMCS) may be applied during encoding and/or picture reconstruction.

[82] Фильтр 260 может улучшать субъективное/объективное качество изображения путем применения фильтрации к восстановленному сигналу. Например, фильтр 260 может генерировать модифицированную восстановленную картинку путем применения различных способов фильтрации к восстановленной картинке и сохранять модифицированную восстановленную картинку в памяти 270, конкретно, DPB памяти 270. Различные способы фильтрации могут включать в себя, например, фильтрацию деблокирования, адаптивное смещение выборки, адаптивный контурный фильтр, двунаправленный фильтр и тому подобное. Фильтр 260 может генерировать различную информацию, относящуюся к фильтрации, и передавать сгенерированную информацию на энтропийный кодер 240, как описано далее в описании каждого способа фильтрации. Информация, относящаяся к фильтрации, может кодироваться энтропийным кодером 240 и выводиться в форме битового потока.[82] Filter 260 can improve subjective/objective image quality by applying filtering to the reconstructed signal. For example, filter 260 may generate a modified reconstructed picture by applying various filtering methods to the reconstructed picture and store the modified reconstructed picture in memory 270, specifically DPB memory 270. Various filtering methods may include, for example, deblocking filtering, adaptive sampling bias, adaptive loop filter, bi-directional filter and the like. The filter 260 may generate various filtering-related information and pass the generated information to the entropy encoder 240, as described later in the description of each filtering method. The filtering related information may be encoded by entropy encoder 240 and output in the form of a bitstream.

[83] Модифицированная восстановленная картинка, передаваемая в память 270, может использоваться как опорная картинка в интер-предсказателе 221. Когда интер-предсказание применяется посредством устройства кодирования, можно избежать рассогласования предсказания между устройством 200 кодирования и устройством 300 декодирования, и эффективность кодирования может улучшаться.[83] The modified reconstructed picture transmitted to the memory 270 can be used as a reference picture in the inter predictor 221. When inter prediction is applied by the encoder, prediction mismatch between the encoder 200 and the decoder 300 can be avoided, and encoding efficiency can be improved. .

[84] DPB памяти 270 DPB может хранить модифицированную восстановленную картинку для использования в качестве опорной картинки в интер-предсказателе 221. Память 270 может хранить информацию движения блока, из которой выводится (или кодируется) информация движения в текущей картинке, и/или информацию движения блоков в картинке, которые уже были восстановлены. Сохраненная информация движения может передаваться на интер-предсказатель 221 и использоваться как информация движения пространственного соседнего блока или информация движения временного соседнего блока. Память 270 может хранить восстановленные выборки восстановленных блоков в текущей картинке и может переносить восстановленные выборки на интра-предсказатель 222.[84] The DPB of the DPB memory 270 may store a modified reconstructed picture for use as a reference picture in the inter predictor 221. The memory 270 may store block motion information from which motion information in the current picture is derived (or encoded) and/or motion information blocks in the picture that have already been restored. The stored motion information may be transmitted to the inter predictor 221 and used as spatial neighbor block motion information or temporal neighbor block motion information. Memory 270 may store reconstructed samples of the reconstructed blocks in the current picture and may transfer the reconstructed samples to intra-predictor 222.

[85] Фиг. 3 является схематичной диаграммой, иллюстрирующей конфигурацию устройства декодирования видео/изображения, к которому может применяться вариант(ы) осуществления настоящего раскрытия.[85] FIG. 3 is a schematic diagram illustrating the configuration of a video/image decoding apparatus to which the embodiment(s) of the present disclosure may be applied.

[86] Со ссылкой на фиг. 3, устройство 300 декодирования может включать в себя энтропийный декодер 310, процессор 320 остатка, предсказатель 330, сумматор 340, фильтр 350, память 360. Предсказатель 330 может включать в себя интер-предсказатель 331 и интра-предсказатель 332. Процессор 320 остатка может включать в себя деквантователь 321 и обратный преобразователь 321. Энтропийный декодер 310, процессор 320 остатка, предсказатель 330, сумматор 340 и фильтр 350 могут быть сконфигурированы компонентом аппаратных средств (например, чипсетом декодера или процессором) в соответствии с вариантом осуществления. К тому же, память 360 может включать в себя буфер декодированной картинки (DPB) или может быть сконфигурирована цифровым носителем хранения. Компонент аппаратных средств может дополнительно включать в себя память 360 как внутренний/внешний компонент.[86] With reference to FIG. 3, decoder 300 may include an entropy decoder 310, a residual processor 320, a predictor 330, an adder 340, a filter 350, a memory 360. Predictor 330 may include an inter predictor 331 and an intra predictor 332. Residual processor 320 may include includes a dequantizer 321 and an inverse transform 321. Entropy decoder 310, residual processor 320, predictor 330, adder 340, and filter 350 may be configured by a hardware component (eg, decoder chipset or processor) according to an embodiment. In addition, memory 360 may include a decoded picture buffer (DPB) or may be configured with a digital storage medium. The hardware component may further include memory 360 as an internal/external component.

[87] Когда битовый поток, включающий в себя информацию видео/изображения, вводится, устройство 300 декодирования может восстанавливать изображение, соответствующее процессу, в котором информация видео/изображения обрабатывается в устройстве кодирования согласно фиг. 2. Например, устройство 300 декодирования может выводить единицы/блоки на основе информации, относящейся к разбиению блока, полученной из битового потока. Устройство 300 декодирования может выполнять декодирование с использованием процессора, применяемого в устройстве кодирования. Таким образом, процессор декодирования может представлять собой единицу кодирования, например, и единица кодирования может разбиваться в соответствии со структурой квадродерева, структурой двоичного дерева и/или структурой троичного дерева из единицы дерева кодирования или наибольшей единицы кодирования. Одна или более единиц преобразования могут выводиться из единицы кодирования. Восстановленный сигнал изображения, декодированный и выведенный посредством устройства 300 декодирования, может воспроизводиться посредством устройства воспроизведения.[87] When a bitstream including video/image information is input, the decoding apparatus 300 can reconstruct an image corresponding to a process in which the video/image information is processed in the encoding apparatus of FIG. 2. For example, the decoding apparatus 300 may derive ones/blocks based on information related to the block split obtained from the bitstream. The decoder 300 may perform decoding using a processor used in the encoder. Thus, the decoding processor may be a coding unit, for example, and the coding unit may be partitioned according to a quadtree structure, a binary tree structure, and/or a ternary tree structure from the coding tree unit or the largest coding unit. One or more transformation units may be derived from a coding unit. The reconstructed image signal decoded and output by the decoding apparatus 300 can be reproduced by the playback apparatus.

[88] Устройство 300 декодирования может принимать сигнал, выведенный из устройства кодирования согласно фиг. 2 в форме битового потока, и принятый сигнал может декодироваться посредством энтропийного декодера 310. Например, энтропийный декодер 310 может выполнять синтаксический анализ битового потока, чтобы вывести информацию (например, информацию видео/изображения), необходимую для восстановления изображения (или восстановления картинки). Информация видео/изображения может дополнительно включать в себя информацию о различных наборах параметров, таких как набор параметров адаптации (APS), набор параметров картинки (PPS), набор параметров последовательности (SPS) или набор параметров видео (VPS). К тому же, информация видео/изображения может дополнительно включать в себя общую информацию ограничения. Устройство декодирования может дополнительно декодировать картинку на основе информации о наборе параметров и/или общей информации ограничения. Сигнализированная/принятая информация и/или синтаксические элементы, описанные далее в настоящем раскрытии, могут быть декодированы для декодирования процедуры декодирования и получены из битового потока. Например, энтропийный декодер 310 кодирует информацию в битовом потоке на основе способа кодирования, такого как экспоненциальное кодирование Голомба, CAVLC или CABAC, и выводит синтаксические элементы, требуемые для восстановления изображения, и квантованные значения коэффициентов преобразования для остатка. Более конкретно, способ энтропийного декодирования CABAC может принимать бин, соответствующий каждому синтаксическому элементу в битовом потоке, определять контекстную модель с использованием информации декодирования целевого синтаксического элемента, информации декодирования для декодирования целевого блока или информации символа/бина, декодированного на предыдущей стадии, и выполнять арифметическое декодирование на бине путем предсказания вероятности появления бина в соответствии с определенной контекстной моделью, и генерировать символ, соответствующий значению каждого синтаксического элемента. В этом случае, способ энтропийного декодирования CABAC может обновлять контекстную модель с использованием информации декодированного символа/бина для контекстной модели следующего символа/бина после определения контекстной модели. Информация, относящаяся к предсказанию, среди информации, декодированной энтропийным декодером 310, может предоставляться на предсказатель (интер-предсказатель 332 и интра-предсказатель 331), и значение остатка, на котором энтропийное декодирование было выполнено в энтропийном декодере 310, то есть, квантованные коэффициенты преобразования и связанная информация параметров, может вводиться в процессор 320 остатка. Процессор 320 остатка может выводить остаточный сигнал (остаточный блок, остаточные выборки, остаточный массив выборок). К тому же, информация о фильтрации среди информации, декодированной энтропийным декодером 310, может предоставляться на фильтр 350. Между тем, приемник (не показан) для приема сигнала, выведенного из устройства кодирования, может быть дополнительно сконфигурирован как внутренний/внешний элемент устройства 300 декодирования, или приемник может быть компонентом энтропийного декодера 310. Между тем, устройство декодирования в соответствии с настоящим раскрытием может называться устройством декодирования видео/изображения/картинки, и устройство декодирования может классифицироваться на декодер информации (декодер информации видео/изображения/картинки) и декодер выборки (декодер выборки видео/изображения/картинки). Декодер информации может включать в себя энтропийный декодер 310, и декодер выборки может включать в себя по меньшей мере одно из деквантователя 321, обратного преобразователя 322, сумматора 340, фильтра 350, памяти 360, интер-предсказателя 332 и интра-предсказателя 331.[88] The decoder 300 may receive a signal output from the encoder of FIG. 2 in the form of a bitstream, and the received signal may be decoded by the entropy decoder 310. For example, the entropy decoder 310 may perform parsing of the bitstream to derive information (eg, video/image information) necessary for image reconstruction (or picture restoration). The video/image information may further include information about various parameter sets such as an adaptation parameter set (APS), a picture parameter set (PPS), a sequence parameter set (SPS), or a video parameter set (VPS). In addition, the video/image information may further include general restriction information. The decoding device may further decode the picture based on the parameter set information and/or general constraint information. The signaled/received information and/or syntax elements described later in this disclosure may be decoded to decode the decoding procedure and obtained from the bitstream. For example, entropy decoder 310 encodes information in a bitstream based on an encoding method such as exponential Golomb coding, CAVLC, or CABAC, and outputs syntax elements required for image reconstruction and quantized transform coefficient values for the remainder. More specifically, the CABAC entropy decoding method can receive a bin corresponding to each syntax element in the bitstream, determine the context model using the decoding information of the target syntax element, the decoding information for decoding the target block, or the character/bin information decoded in the previous step, and perform arithmetic decoding on the bin by predicting the occurrence probability of the bin according to the determined context model, and generating a symbol corresponding to the value of each syntax element. In this case, the CABAC entropy decoding method may update the context model using the decoded symbol/bin information for the context model of the next symbol/bin after determining the context model. Prediction related information, among the information decoded by the entropy decoder 310, may be provided on a predictor (inter predictor 332 and intra predictor 331) and a residual value on which entropy decoding was performed in entropy decoder 310, i.e., quantized coefficients transformations and associated parameter information may be input to the residual processor 320 . Residual processor 320 may output a residual signal (residual block, residual samples, residual array of samples). In addition, filtering information among the information decoded by the entropy decoder 310 may be provided to the filter 350. Meanwhile, a receiver (not shown) for receiving a signal outputted from the encoder may be further configured as an internal/external element of the decoding apparatus 300 , or the receiver may be a component of the entropy decoder 310. Meanwhile, the decoding apparatus according to the present disclosure may be referred to as a video/image/picture decoding apparatus, and the decoding apparatus may be classified into an information decoder (video/image/picture information decoder) and a sample decoder. (video/image/picture sampling decoder). The information decoder may include an entropy decoder 310, and the sample decoder may include at least one of a dequantizer 321, an inverse transform 322, an adder 340, a filter 350, a memory 360, an inter predictor 332, and an intra predictor 331.

[89] Деквантователь 321 может деквантовать квантованные коэффициенты преобразования и выводить коэффициенты преобразования. Деквантователь 321 может переупорядочивать квантованные коэффициенты преобразования в форме двумерного блока. В этом случае, переупорядочивание может выполняться на основе порядка сканирования коэффициентов, выполняемого в устройстве кодирования. Деквантователь 321 может выполнять деквантование на квантованных коэффициентах преобразования с использованием параметра квантования (например, информации размера шага квантования) и получать коэффициенты преобразования.[89] The dequantizer 321 may dequantize the quantized transform coefficients and output the transform coefficients. The dequantizer 321 may reorder the quantized transform coefficients in the form of a two-dimensional block. In this case, the reordering may be performed based on the coefficient scan order performed in the encoder. The dequantizer 321 may perform dequantization on the quantized transform coefficients using a quantization parameter (eg, quantization step size information) and obtain the transform coefficients.

[90] Обратный преобразователь 322 обратно преобразует коэффициенты преобразования, чтобы получить остаточный сигнал (остаточный блок, остаточный массив выборок).[90] The inverse transform 322 inversely transforms the transform coefficients to obtain a residual signal (residual block, residual array of samples).

[91] Предсказатель может выполнять предсказание на текущем блоке и генерировать предсказанный блок, включающий в себя выборки предсказания для текущего блока. Предсказатель может определять, применяется ли интра-предсказание или интер-предсказание к текущему блоку, на основе информации о предсказании, выведенной из энтропийного декодера 310, и может определять конкретный режим интра/интер-предсказания.[91] The predictor may perform prediction on the current block and generate a predicted block including the prediction samples for the current block. The predictor may determine whether intra-prediction or inter-prediction is applied to the current block based on the prediction information output from the entropy decoder 310, and may determine a specific intra/inter prediction mode.

[92] Предсказатель 320 может генерировать сигнал предсказания на основе различных способов предсказания, описанных ниже. Например, предсказатель может не только применять интра-предсказание или интер-предсказание, чтобы предсказывать один блок, но также одновременно применять интра-предсказание и интер-предсказание. Это может называться комбинированным интер- и интра-предсказанием (CIIP). К тому же, предсказатель может быть основан на режиме предсказания внутри-блочного копирования (IBC) или режиме палитры для предсказания блока. Режим предсказания IBC или режим палитры могут использоваться для кодирования контента изображения/видео игры или тому подобного, например, кодирования контента экрана (SCC). IBC в основном выполняет предсказание в текущей картинке, но может выполняться аналогично интер-предсказанию тем, что опорный блок выводится в текущей картинке. То есть, IBC может использовать по меньшей мере один из методов интер-предсказания, описанных в настоящем раскрытии. Режим палитры может рассматриваться как пример интра-кодирования или интра-предсказания. Когда режим палитры применяется, значение выборки в пределах картинки может сигнализироваться на основе информации о таблице палитры и индексе палитры. [92] Predictor 320 may generate a prediction signal based on various prediction methods described below. For example, the predictor may not only apply intra-prediction or inter-prediction to predict one block, but also apply intra-prediction and inter-prediction at the same time. This may be referred to as combined inter- and intra-prediction (CIIP). In addition, the predictor may be based on an intra-block copy (IBC) prediction mode or a palette mode for block prediction. An IBC prediction mode or a palette mode may be used for encoding image/video game content or the like, such as screen content coding (SCC). IBC basically performs prediction on the current picture, but can be performed similarly to inter-prediction in that the reference block is output on the current picture. That is, the IBC may use at least one of the inter prediction methods described in this disclosure. The palette mode can be considered as an example of intra-coding or intra-prediction. When a palette mode is applied, the sample value within the picture can be signaled based on information about the palette table and palette index.

[93] Интра-предсказатель 331 может предсказывать текущий блок путем ссылки на выборки в текущей картинке. Указанные выборки могут быть расположены по соседству с текущим блоком или могут быть разнесены в соответствии с режимом предсказания. В интра-предсказании, режимы предсказания могут включать в себя множество ненаправленных режимов и множество направленных режимов. Интра-предсказатель 331 может определять режим предсказания, применяемый к текущему блоку, с использованием режима предсказания, применяемого к соседнему блоку.[93] Intra-predictor 331 may predict the current block by referring to samples in the current picture. These samples may be adjacent to the current block or may be spaced according to the prediction mode. In intra-prediction, the prediction modes may include a plurality of non-directional modes and a plurality of directional modes. The intra predictor 331 may determine the prediction mode applied to the current block using the prediction mode applied to the adjacent block.

[94] Интер-предсказатель 332 может выводить предсказанный блок для текущего блока на основе опорного блока (опорного массива выборок), специфицированного вектором движения на опорной картинке. В этом случае, чтобы уменьшить количество информации движения, передаваемой в режиме интер-предсказания, информация движения может предсказываться в единицах блоков, подблоков или выборок на основе корреляции информации движения между соседним блоком и текущим блоком. Информация движения может включать в себя вектор движения и индекс опорной картинки. Информация движения может дополнительно включать в себя информацию направления интер-предсказания (предсказание L0, предсказание L1, Bi-предсказание и т.д.). В случае интер-предсказания, соседний блок может включать в себя пространственный соседний блок, представленный в текущей картинке, и временной соседний блок, представленный в опорной картинке. Например, интер-предсказатель 332 может конфигурировать список кандидатов информации движения на основе соседних блоков и выводить вектор движения текущего блока и/или индекс опорной картинки на основе принятой информации выбора кандидата. Интер-предсказание может выполняться на основе различных режимов предсказания, и информация о предсказании может включать в себя информацию, указывающую режим интер-предсказания для текущего блока.[94] The inter predictor 332 may output a predicted block for the current block based on a reference block (reference sample array) specified by a motion vector in the reference picture. In this case, in order to reduce the amount of motion information transmitted in the inter-prediction mode, the motion information may be predicted in units of blocks, sub-blocks, or samples based on the correlation of the motion information between the adjacent block and the current block. The motion information may include a motion vector and a reference picture index. The motion information may further include inter prediction direction information (L0 prediction, L1 prediction, Bi prediction, etc.). In the case of inter-prediction, the neighbor block may include a spatial neighbor block represented in the current picture and a temporal neighbor block represented in the reference picture. For example, the inter predictor 332 may configure a list of motion information candidates based on adjacent blocks, and derive the current block's motion vector and/or reference picture index based on the received candidate selection information. Inter prediction may be performed based on various prediction modes, and the prediction information may include information indicating the inter prediction mode for the current block.

[95] Сумматор 340 может генерировать восстановленный сигнал (восстановленную картинку, восстановленный блок, восстановленный массив выборок) путем добавления полученного остаточного сигнала к сигналу предсказания (предсказанному блоку, предсказанному массиву выборок), выведенному из предсказателя (включающего в себя интер-предсказатель 332 и/или интра-предсказатель 331). Если отсутствует остаток для блока, подлежащего обработке, например, когда применяется режим пропуска, предсказанный блок может использоваться как восстановленный блок.[95] The adder 340 can generate a reconstructed signal (reconstructed picture, reconstructed block, reconstructed array of samples) by adding the obtained residual signal to the prediction signal (predicted block, predicted array of samples) output from the predictor (including the inter-predictor 332 and/ or intra-predictor 331). If there is no remainder for the block to be processed, for example, when the skip mode is applied, the predicted block may be used as the reconstructed block.

[96] Сумматор 340 может называться реконструктором или генератором восстановленного блока. Сгенерированный восстановленный сигнал может использоваться для интра-предсказания следующего блока, подлежащего обработке в текущей картинке, может выводиться посредством фильтрации, как описано ниже, или может использоваться для интер-предсказания следующей картинки.[96] The adder 340 may be referred to as a reconstructor or a reconstructed block generator. The generated reconstructed signal may be used to intra-predict the next block to be processed in the current picture, may be output by filtering as described below, or may be used to inter-predict the next picture.

[97] Между тем, отображение яркости с масштабированием цветности (LMCS) может применяться в процессе декодирования картинки.[97] Meanwhile, luminance chrominance scaling (LMCS) mapping may be applied in a picture decoding process.

[98] Фильтр 350 может улучшать субъективное/объективное качество изображения путем применения фильтрации к восстановленному сигналу. Например, фильтр 350 может генерировать модифицированную восстановленную картинку путем применения различных способов фильтрации к восстановленной картинке и сохранять модифицированную восстановленную картинку в памяти 360, конкретно, DPB памяти 360. Различные способы фильтрации могут включать в себя, например, фильтрацию устранения блочности, адаптивное смещение выборки, адаптивный контурный фильтр, двунаправленный фильтр и тому подобное.[98] The filter 350 can improve subjective/objective image quality by applying filtering to the reconstructed signal. For example, filter 350 may generate a modified reconstructed picture by applying various filtering methods to the reconstructed picture, and store the modified reconstructed picture in memory 360, specifically, DPB memory 360. Various filtering methods may include, for example, deblocking filtering, adaptive sampling bias, adaptive loop filter, bidirectional filter, and the like.

[99] (Модифицированная) восстановленная картинка, хранящаяся в DPB памяти 360, может использоваться как опорная картинка в интер-предсказателе 332. Память 360 может хранить информацию движения блока, из которого выводится (или декодируется) информация движения в текущей картинке, и/или информацию движения блоков в картинке, которые уже были восстановлены. Сохраненная информация движения может передаваться на интер-предсказатель 260 для использования в качестве информации движения пространственного соседнего блока или информации движения временного соседнего блока. Память 360 может хранить восстановленные выборки восстановленных блоков в текущей картинке и переносить восстановленные выборки на интра-предсказатель 331.[99] The (modified) reconstructed picture stored in the DPB memory 360 may be used as a reference picture in the inter predictor 332. The memory 360 may store the motion information of the block from which the motion information in the current picture is derived (or decoded), and/or information about the movement of blocks in the picture that have already been restored. The stored motion information may be transmitted to the inter predictor 260 for use as spatial neighbor block motion information or temporal neighbor block motion information. The memory 360 may store the reconstructed samples of the reconstructed blocks in the current picture and transfer the reconstructed samples to the intra-predictor 331.

[100] В настоящем документе, варианты осуществления, описанные в фильтре 260, интер-предсказателе 221 и интра-предсказателе 222 устройства 200 кодирования, могут быть теми же самыми или соответственно применяться, чтобы соответствовать фильтру 350, интер-предсказателю 332 и интра-предсказателю 331 устройства 300 декодирования. То же может также применяться к модулю 332 и интра-предсказателю 331.[100] Herein, the embodiments described in the filter 260, inter-predictor 221, and intra-predictor 222 of the encoder 200 may be the same or respectively applied to correspond to the filter 350, inter-predictor 332, and intra-predictor 331 devices 300 decoding. The same may also apply to module 332 and intra-predictor 331.

[101] Как описано выше, в кодировании видео, предсказание выполняется, чтобы повысить эффективность сжатия. Посредством этого, возможно сгенерировать предсказанный блок, включающий в себя выборки предсказания для текущего блока, который является блоком, подлежащим кодированию. Здесь, предсказанный блок включает в себя выборки предсказания в пространственной области (или области пикселов). Предсказанный блок выводится одинаково из устройства кодирования и устройства декодирования, и устройство кодирования декодирует информацию (информацию остатка) об остатке между исходным блоком и предсказанным блоком, а не исходное значение выборки самого исходного блока. Путем сигнализации на устройство, эффективность кодирования изображения может быть повышена. Устройство декодирования может выводить остаточный блок, включающий в себя остаточные выборки, на основе информации остатка, и генерировать восстановленный блок, включающий в себя восстановленные выборки, путем суммирования остаточного блока и предсказанного блока, и генерировать восстановленную картинку, включающую в себя восстановленные блоки.[101] As described above, in video coding, prediction is performed to improve compression efficiency. Through this, it is possible to generate a predicted block including the prediction samples for the current block, which is the block to be encoded. Here, the predicted block includes prediction samples in the spatial domain (or pixel domain). The predicted block is output equally from the encoder and the decoder, and the encoder decodes the residual information (residual information) between the original block and the predicted block, rather than the original sample value of the original block itself. By signaling to the device, the image encoding efficiency can be improved. The decoding apparatus can output a residual block including the residual samples based on the residual information, and generate a reconstructed block including the reconstructed samples by summing the residual block and the predicted block, and generate a reconstructed picture including the reconstructed blocks.

[102] Информация остатка может генерироваться в процессах преобразования и квантования. Например, устройство кодирования может выводить остаточный блок между исходным блоком и предсказанным блоком и выполнять процесс преобразования на остаточных выборках (остаточном массиве выборок), включенных в остаточный блок, чтобы вывести коэффициенты преобразования, и затем, путем выполнения процесса квантования на коэффициентах преобразования, выводить квантованные коэффициенты преобразования, чтобы сигнализировать остаток, относящийся к информации, на устройство декодирования (посредством битового потока). Здесь, информация остатка может включать в себя информацию местоположения, метод преобразования, ядро преобразования и параметр квантования, информацию значения квантованных коэффициентов преобразования и т.д. Устройство декодирования может выполнять процесс деквантования/обратного преобразования на основе информации остатка и выводить остаточные выборки (или остаточные блоки). Устройство декодирования может генерировать восстановленную картинку на основе предсказанного блока и остаточного блока. Устройство кодирования может также деквантовать/обратно преобразовывать квантованные коэффициенты преобразования для ссылки для интер-предсказания более поздней картинки, чтобы вывести остаточный блок и сгенерировать на его основе восстановленную картинку.[102] Residual information may be generated in the transformation and quantization processes. For example, the coding device may output a residual block between the original block and the predicted block, and perform a transform process on the residual samples (residual array of samples) included in the residual block to derive transform coefficients, and then, by performing a quantization process on the transform coefficients, output the quantized transform coefficients to signal the information related residual to the decoder (via the bitstream). Here, the residual information may include location information, a transform method, a transform kernel and a quantization parameter, value information of quantized transform coefficients, and so on. The decoder may perform a dequantization/inverse transform process based on the residual information and output residual samples (or residual blocks). The decoder may generate a reconstructed picture based on the predicted block and the residual block. The encoder may also dequantize/inversely transform the quantized transform coefficients for a later picture inter-prediction reference to derive a residual block and generate a reconstructed picture based on it.

[103] В настоящем документе, по меньшей мере одно из квантования/деквантования и/или преобразования/обратного преобразования может опускаться. Когда квантование/деквантование опускается, квантованный коэффициент преобразования может называться коэффициентом преобразования. Когда преобразование/ обратное преобразование опускается, коэффициенты преобразования могут называться коэффициентами или остаточными коэффициентами или могут по-прежнему называться коэффициентами преобразования для единообразия выражения.[103] Herein, at least one of quantization/dequantization and/or transformation/inverse transformation may be omitted. When quantization/dequantization is omitted, the quantized transform coefficient may be referred to as a transform coefficient. When the transform/inverse transform is omitted, the transform coefficients may be referred to as coefficients or residual coefficients, or may still be referred to as transform coefficients for uniformity of expression.

[104] В настоящем документе, квантованный коэффициент преобразования и коэффициент преобразования могут называться коэффициентом преобразования и масштабированным коэффициентом преобразования, соответственно. В этом случае, информация остатка может включать в себя информацию о коэффициенте(ах) преобразования, и информация о коэффициенте(ах) преобразования может сигнализироваться через синтаксис кодирования остатка. Коэффициенты преобразования могут выводиться на основе информации остатка (или информации о коэффициенте(ах) преобразования), и масштабированные коэффициенты преобразования могут выводиться через обратное преобразование (масштабирование) на коэффициентах преобразования. Остаточные выборки могут выводиться на основе обратного преобразования (преобразования) масштабированных коэффициентов преобразования. Это может быть применено/выражено также в других частях настоящего документа.[104] Herein, the quantized transform coefficient and the transform coefficient may be referred to as the transform coefficient and the scaled transform coefficient, respectively. In this case, the residual information may include information on the transform coefficient(s), and the information on the transform coefficient(s) may be signaled through the residual coding syntax. The transform coefficients may be derived based on the residual information (or information on the transform coefficient(s)), and the scaled transform coefficients may be output via an inverse transform (scaling) on the transform coefficients. Residual samples may be derived based on an inverse transform (transform) of the scaled transform coefficients. This may be applied/expressed in other parts of this document as well.

[105] Интра-предсказание может относиться к предсказанию, которое генерирует выборки предсказания для текущего блока на основе опорных выборок в картинке, которой принадлежит текущий блок (далее называемой текущей картинкой). Когда интра-предсказание применяется к текущему блоку, соседние опорные выборки, подлежащие использованию для интра-предсказания текущего блока, могут выводиться. Соседние опорные выборки текущего блока могут включать в себя выборки, смежные с левой границей текущего блока, имеющего размер nW×nH, и всего 2×nH выборок, соседних снизу-слева, выборки, смежные с верхней границей текущего блока, и всего 2×nW выборок, соседних сверху-справа, и одну выборку, соседнюю сверху-слева от текущего блока. Альтернативно, соседние опорные выборки текущего блока могут включать в себя множество верхних соседних выборок и множество левых соседних выборок. К тому же, соседние опорные выборки текущего блока могут включать в себя всего nH выборок, смежных с правой границей текущего блока, имеющего размер nW×nH, всего nW выборок, смежных с нижней границей текущего блока, и одну выборку, соседнюю снизу-справа от текущего блока.[105] Intra-prediction may refer to a prediction that generates prediction samples for a current block based on reference samples in a picture to which the current block (hereinafter referred to as the current picture) belongs. When intra-prediction is applied to the current block, adjacent reference samples to be used for intra-prediction of the current block may be output. Adjacent reference samples of the current block may include samples adjacent to the left boundary of the current block having size nW×nH and a total of 2×nH samples adjacent to the bottom-left, samples adjacent to the upper boundary of the current block and a total of 2×nW upper-right adjacent samples and one upper-left adjacent sample of the current block. Alternatively, the adjacent reference samples of the current block may include a plurality of upper neighbor samples and a plurality of left neighbor samples. Also, adjacent reference samples of the current block may include a total of nH samples adjacent to the right edge of the current block having size nW×nH, a total of nW samples adjacent to the bottom edge of the current block, and one sample adjacent to the bottom-right of current block.

[106] Однако, некоторые из соседних опорных выборок текущего блока могут еще не быть декодированными или доступными. В этом случае, декодер может конфигурировать соседние опорные выборки для использования для предсказания путем замены выборок, которые недоступны, на доступные выборки. Альтернативно, соседние опорные выборки, подлежащие использованию для предсказания, могут быть сконфигурированы через интерполяцию доступных выборок.[106] However, some of the neighboring reference samples of the current block may not yet be decoded or available. In this case, the decoder may configure adjacent reference samples to use for prediction by replacing unavailable samples with available samples. Alternatively, adjacent reference samples to be used for prediction may be configured through interpolation of the available samples.

[107] Когда соседние опорные выборки выводятся, (i) выборка предсказания может выводиться на основе среднего или интерполяции соседних опорных выборок текущего блока, и (ii) выборка предсказания может выводиться на основе опорной выборки, представленной в конкретном направлении (предсказания), для выборки предсказания среди периферийных опорных выборок текущего блока. Случай (i) может называться ненаправленным режимом или не-угловым режимом, и случай (ii) может называться направленным режимом или угловым режимом. [107] When neighboring reference samples are derived, (i) a prediction sample may be derived based on an average or an interpolation of neighboring reference samples of the current block, and (ii) a prediction sample may be derived based on a reference sample presented in a particular direction (prediction) for the sample predictions among peripheral reference samples of the current block. Case (i) may be referred to as non-directional mode or non-angular mode, and case (ii) may be referred to as directional mode or angular mode.

[108] Более того, выборка предсказания может также генерироваться посредством интерполяции между второй соседней выборкой и первой соседней выборкой, расположенными в направлении, противоположном направлению предсказания режима интра-предсказания текущего блока, на основе выборки предсказания текущего блока среди соседних опорных выборок. Случай выше может называться интра-предсказанием линейной интерполяции (LIP). К тому же, выборки предсказания цветности могут генерироваться на основе выборок яркости с использованием линейной модели. Этот случай может называться режимом LM. [108] Moreover, a prediction sample may also be generated by interpolating between a second neighboring sample and a first neighboring sample located in a direction opposite to the intra-prediction mode prediction direction of the current block based on the prediction sample of the current block among the neighboring reference samples. The case above may be referred to as linear interpolation intra-prediction (LIP). Also, chrominance prediction samples may be generated based on luma samples using a linear model. This case may be referred to as the LM mode.

[109] К тому же, временная выборка предсказания текущего блока может выводиться на основе отфильтрованных соседних опорных выборок, и по меньшей мере одна опорная выборка, выведенная в соответствии с режимом интра-предсказания среди существующих соседних опорных выборок, то есть, неотфильтрованных соседних опорных выборок, и временная выборка предсказания могут взвешенно суммироваться, чтобы вывести выборку предсказания текущего блока. Случай выше может называться зависимым от положения интра-предсказанием (PDPC). [109] In addition, the prediction temporal sample of the current block may be derived based on the filtered neighboring reference samples, and at least one reference sample derived in accordance with the intra-prediction mode among the existing neighboring reference samples, that is, the unfiltered neighboring reference samples. , and the temporal prediction sample may be weighted summed to output the prediction sample of the current block. The case above may be referred to as position-dependent intra-prediction (PDPC).

[110] К тому же, линия опорной выборки, имеющая самую высокую точность предсказания среди соседних линий множества опорных выборок текущего блока, может выбираться, чтобы вывести выборку предсказания с использованием опорной выборки, расположенной в направлении предсказания на соответствующей линии, и затем линия опорной выборки, используемая здесь, может указываться (сигнализироваться) на устройство декодирования, тем самым выполняя кодирование интра-предсказания. Случай выше может называться интра-предсказанием с множеством опорных линий (MRL) или интра-предсказанием на основе MRL.[110] In addition, a reference sample line having the highest prediction accuracy among neighboring lines of the plurality of reference samples of the current block may be selected to output a prediction sample using a reference sample located in the prediction direction on the corresponding line, and then the reference sample line used here may be indicated (signaled) to a decoder, thereby performing intra-prediction encoding. The case above may be referred to as multi-reference line (MRL) intra-prediction or MRL-based intra-prediction.

[111] К тому же, интра-предсказание может выполняться на основе одного и того же режима интра-предсказания путем деления текущего блока на вертикальные или горизонтальные подразбиения, и соседние опорные выборки могут выводиться и использоваться в единице подразбиения. То есть, в этом случае, режим интра-предсказания для текущего блока равным образом применяется к подразбиениям, и выполнение интра-предсказания может быть улучшено в некоторых случаях путем выведения и использования соседних опорных выборок в единице подразбиения. Такой способ предсказания может называться интра-подразбиениями (ISP) или интра-предсказанием на основе ISP. [111] In addition, intra-prediction can be performed based on the same intra-prediction mode by dividing the current block into vertical or horizontal subdivisions, and adjacent reference samples can be output and used in the subdivision unit. That is, in this case, the intra-prediction mode for the current block is equally applied to the sub-divisions, and the intra-prediction performance can be improved in some cases by deriving and using adjacent reference samples in the subdivision unit. Such a prediction method may be referred to as intra-subdivision (ISP) or ISP-based intra-prediction.

[112] Вышеописанные способы интра-предсказания могут называться типом интра-предсказания отдельно от режима интра-предсказания. Тип интра-предсказания может называться различными терминами, такими как метод интра-предсказания или дополнительный режим интра-предсказания. Например, тип интра-предсказания (или дополнительный режим интра-предсказания) может включать в себя по меньшей мере одно из вышеописанных LIP, PDPC, MRL и ISP. Общий способ интра-предсказания за исключением специального типа интра-предсказания, такого как LIP, PDPC, MRL или ISP, может называться нормальным типом интра-предсказания. Нормальный тип интра-предсказания может, в общем, применяться, когда специальный тип интра-предсказания не применяется, и предсказание может выполняться на основе режима интра-предсказания, описанного выше. Между тем, пост-фильтрация может выполняться на выведенной предсказанной выборке по мере необходимости.[112] The above-described intra-prediction methods may be referred to as an intra-prediction type apart from an intra-prediction mode. The intra-prediction type may be referred to by various terms such as intra-prediction method or additional intra-prediction mode. For example, the intra prediction type (or additional intra prediction mode) may include at least one of LIP, PDPC, MRL, and ISP described above. The general intra-prediction method except for a special intra-prediction type such as LIP, PDPC, MRL, or ISP may be referred to as normal intra-prediction type. The normal intra prediction type may generally be applied when the special intra prediction type is not applied, and prediction may be performed based on the intra prediction mode described above. Meanwhile, post-filtering can be performed on the inferred predicted sample as needed.

[113] Конкретно, процедура интра-предсказания может включать в себя этап определения режима/типа интра-предсказания, этап вывода соседней опорной выборки и этап вывода выборки предсказания на основе режима/типа интра-предсказания. К тому же, этап пост-фильтрации может выполняться на выведенной предсказанной выборке, по мере необходимости.[113] Specifically, the intra prediction procedure may include an intra prediction mode/type determination step, an adjacent reference sample output step, and a prediction sample output step based on the intra prediction mode/type. In addition, the post-filtering step may be performed on the inferred predicted sample, as needed.

[114] Когда применяется интра-предсказание, режим интра-предсказания, применяемый к текущему блоку, может определяться с использованием режима интра-предсказания соседнего блока. Например, устройство декодирования может выбирать один из наиболее вероятных кандидатов режима (mpm) из списка mpm, выведенного на основе режима интра-предсказания соседнего блока (например, левого и/или верхнего соседних блоков) текущего блока на основе принятого индекса mpm, и выбирать один из других оставшихся режимов интра-предсказания, не включенных в кандидаты mpm (и планарный режим), на основе оставшейся информации режима интра-предсказания. Список mpm может быть сконфигурирован, чтобы включать или не включать в себя планарный режим в качестве кандидата. Например, если список mpm включает в себя планарный режим в качестве кандидата, список mpm может иметь шесть кандидатов. Если список mpm не включает в себя планарный режим в качестве кандидата, список mpm может иметь три кандидата. Когда список mpm не включает в себя планарный режим в качестве кандидата, флаг не-планарный (например, intra_luma_not_planar_flag), указывающий, не является ли режим интра-предсказания текущего блока планарным режимом, может сигнализироваться. Например, флаг mpm может сигнализироваться первым, и индекс mpm и флаг не-планарный могут сигнализироваться, когда значение флага mpm равно 1. К тому же, индекс mpm может сигнализироваться, когда значение флага не-планарный равно 1. Здесь, список mpm сконфигурирован, чтобы не включать планарный режим в качестве кандидата, не должен сигнализировать сначала флаг не-планарный, чтобы проверить, является ли он планарным режимом, поскольку планарный режим всегда рассматривается как mpm. [114] When intra prediction is applied, the intra prediction mode applied to the current block may be determined using the neighboring block's intra prediction mode. For example, the decoder may select one of the most likely mode candidates (mpm) from a list of mpm derived based on the neighbor block intra-prediction mode (e.g., left and/or top neighboring blocks) of the current block based on the received mpm index, and select one from other remaining intra-prediction modes not included in the mpm (and planar) candidates, based on the remaining intra-prediction mode information. The mpm list may be configured to include or not include the planar mode as a candidate. For example, if the mpm list includes the planar mode as a candidate, the mpm list can have six candidates. If the mpm list does not include the planar mode as a candidate, the mpm list can have three candidates. When the mpm list does not include a planar mode as a candidate, a non-planar flag (eg, intra_luma_not_planar_flag) indicating whether the intra-prediction mode of the current block is not a planar mode may be signaled. For example, the mpm flag may be signaled first, and the mpm index and the non-planar flag may be signaled when the value of the mpm flag is 1. Also, the mpm index may be signaled when the value of the non-planar flag is 1. Here, the mpm list is configured, to not include a planar mode as a candidate, the non-planar flag must not be signaled first to check if it is a planar mode, since the planar mode is always treated as mpm.

[115] Например, то, находится ли режим интра-предсказания, применяемый к текущему блоку, в кандидатах mpm (и планарном режиме) или в оставшемся режиме, может указываться на основе флага mpm (например, Intra_luma_mpm_flag). Значение 1 флага mpm может указывать, что режим интра-предсказания для текущего блока находится в кандидатах mpm (и планарном режиме), и значение 0 флага mpm может указывать, что режим интра-предсказания для текущего блока не находится в кандидатах mpm (и планарном режиме). Значение 0 флага не-планарный (например, Intra_luma_not_planar_flag) может указывать, что режим интра-предсказания для текущего блока является планарным режимом, и значение 1 флага не-планарный может указывать, что режим интра-предсказания для текущего блока не является планарным режимом. Индекс mpm может сигнализироваться в форме синтаксического элемента mpm_idx или intra_luma_mpm_idx, и оставшаяся информация режима интра-предсказания может сигнализироваться в форме синтаксического элемента rem_intra_luma_pred_mode или intra_luma_mpm_remainder. Например, оставшаяся информация режима интра-предсказания может индексировать оставшиеся режимы интра-предсказания, не включенные в кандидаты mpm (и планарный режим), среди всех режимов интра-предсказания по порядку числа режимов предсказания, чтобы указать один из них. Режим интра-предсказания может представлять собой режим интра-предсказания для компонента (выборки) яркости. Далее, информация режима интра-предсказания может включать в себя по меньшей мере одно из флага mpm (например, Intra_luma_mpm_flag), флага не-планарный (например, Intra_luma_not_planar_flag), индекса mpm (например, mpm_idx или intra_luma_mpm_idx) и оставшейся информации режима интра-предсказания (rem_intra_luma_pred_mode или intra_luma_mpm_remainder). В настоящем документе, список МРМ может называться различными терминами, такими как список кандидатов MPM и candModeList. Когда MIP применяется к текущему блоку, отдельный флаг mpm (например, intra_mip_mpm_flag), индекс mpm (например, intra_mip_mpm_idx) и оставшаяся информация режима интра-предсказания (например, intra_mip_mpm_remainder) для MIP могут сигнализироваться, а флаг не-планарный не сигнализируется.[115] For example, whether the intra prediction mode applied to the current block is in mpm candidates (and planar mode) or remaining mode may be indicated based on an mpm flag (eg, Intra_luma_mpm_flag). The mpm flag value 1 may indicate that the intra-prediction mode for the current block is in mpm candidates (and planar mode), and the mpm flag value 0 may indicate that the intra-prediction mode for the current block is not in mpm candidates (and planar mode). ). A non-planar flag value of 0 (eg, Intra_luma_not_planar_flag) may indicate that the intra-prediction mode for the current block is a planar mode, and a non-planar flag value of 1 may indicate that the intra-prediction mode for the current block is not a planar mode. The index mpm may be signaled in the form of an mpm_idx or intra_luma_mpm_idx syntax element, and the remaining intra-prediction mode information may be signaled in the form of a rem_intra_luma_pred_mode or intra_luma_mpm_remainder syntax element. For example, the remaining intra prediction mode information may index the remaining intra prediction modes not included in the candidates mpm (and planar mode) among all intra prediction modes in order of the number of prediction modes to indicate one of them. The intra-prediction mode may be an intra-prediction mode for the luma component (sample). Further, the intra prediction mode information may include at least one of an mpm flag (eg, Intra_luma_mpm_flag), a non-planar flag (eg, Intra_luma_not_planar_flag), an mpm index (eg, mpm_idx or intra_luma_mpm_idx), and remaining intra prediction mode information. (rem_intra_luma_pred_mode or intra_luma_mpm_remainder). In this document, the MPM list may be referred to by various terms such as MPM candidate list and candModeList. When MIP is applied to the current block, the individual mpm flag (eg, intra_mip_mpm_flag), the mpm index (eg, intra_mip_mpm_idx), and the remaining intra-prediction mode information (eg, intra_mip_mpm_remainder) for the MIP may be signaled, but the non-planar flag is not signalled.

[116] Другими словами, в общем, когда разделение блока выполняется на изображении, текущий блок и соседний блок, подлежащие кодированию, имеют аналогичные характеристики изображения. Поэтому, текущий блок и соседний блок с высокой вероятностью имеют один и тот же или аналогичный режим интра-предсказания. Таким образом, кодер может использовать режим интра-предсказания соседнего блока, чтобы кодировать режим интра-предсказания текущего блока.[116] In other words, in general, when block division is performed on an image, the current block and the adjacent block to be encoded have similar image characteristics. Therefore, the current block and the neighboring block are highly likely to have the same or similar intra-prediction mode. Thus, the encoder can use the intra-prediction mode of the neighboring block to encode the intra-prediction mode of the current block.

[117] Например, кодер/декодер может конфигурировать список наиболее вероятных режимов (MPM) для текущего блока. Список МРМ может также называться списком кандидатов MPM. Здесь, MPM может относиться к режиму, используемому, чтобы улучшать эффективность кодирования с учетом сходства между текущим блоком и соседним блоком в кодировании режима интра-предсказания. Как описано выше, список МРМ может быть сконфигурирован, чтобы включать в себя планарный режим, или может быть сконфигурирован, чтобы исключать планарный режим. Например, когда список МРМ включает в себя планарный режим, число кандидатов в списке МРМ может составлять 6. И, если список МРМ не включает в себя планарный режим, число кандидатов в списке МРМ может составлять 5.[117] For example, the encoder/decoder may configure a list of most likely modes (MPM) for the current block. The MPM List may also be referred to as the MPM Candidate List. Here, MPM may refer to a mode used to improve coding efficiency in view of the similarity between a current block and a neighboring block in intra-prediction mode coding. As described above, the MPM list may be configured to include planar mode, or may be configured to exclude planar mode. For example, when the MPM list includes planar mode, the number of candidates in the MPM list may be 6. And, if the MPM list does not include planar mode, the number of candidates in the MPM list may be 5.

[118] Кодер/декодер может конфигурировать список МРМ, включающий в себя 5 или 6 MPM.[118] The encoder/decoder may configure an MPM list including 5 or 6 MPMs.

[119] Чтобы сконфигурировать список МРМ, могут рассматриваться три типа режимов: интра-режимы по умолчанию, соседние интра-режимы и выведенные интра-режимы.[119] To configure the MPM list, three types of modes can be considered: default intra modes, adjacent intra modes, and derived intra modes.

[120] Для соседних интра-режимов, могут рассматриваться два соседних блока, т.е. левый соседний блок и верхний соседний блок.[120] For adjacent intra modes, two adjacent blocks may be considered, i.e. the left neighbor block and the top neighbor block.

[121] Как описано выше, если список МРМ сконфигурирован не включать в себя планарный режим, планарный режим исключается из списка, и число кандидатов списка МРМ может устанавливаться в 5.[121] As described above, if the MPM list is configured not to include the planar mode, the planar mode is excluded from the list, and the number of MPM list candidates may be set to 5.

[122] К тому же, ненаправленный режим (или не-угловой режим) среди режимов интра-предсказания может включать в себя режим DC на основе среднего соседних опорных выборок текущего блока или планарный режим на основе интерполяции.[122] In addition, the non-directional mode (or non-angular mode) among the intra-prediction modes may include a DC mode based on the average of neighboring reference samples of the current block or a planar mode based on interpolation.

[123] Когда интер-предсказание применяется, предсказатель устройства кодирования/устройства декодирования может выводить выборку предсказания путем выполнения интер-предсказания в единицах блоков. Интер-предсказание может представлять собой предсказание, выводимое способом, который зависит от элементов данных (например, значений выборки или информации движения) картинки(ок), отличной от текущей картинки. Когда интер-предсказание применяется к текущему блоку, предсказанный блок (массив выборок предсказания) для текущего блока может выводиться на основе опорного блока (опорного массива выборок), специфицированного вектором движения на опорной картинке, указанной индексом опорной картинки. Здесь, чтобы уменьшить количество информации движения, передаваемой в режиме интер-предсказания, информация движения текущего блока может предсказываться в единицах блоков, подблоков или выборках на основе корреляции информации движения между соседним блоком и текущим блоком. Информация движения может включать в себя вектор движения и индекс опорной картинки. Информация движения может дополнительно включать в себя информацию типа интер-предсказания (предсказание L0, предсказание L1, Bi-предсказание и т.д.). В случае интер-предсказания, соседний блок может включать в себя пространственный соседний блок, представленный в текущей картинке, и временной соседний блок, представленный в опорной картинке. Опорная картинка, включающая в себя опорный блок, и опорная картинка, включающая в себя временной соседний блок, могут быть одинаковыми или разными. Временной соседний блок может называться совместно расположенным опорным блоком, совместно расположенной CU (colCU) и т.п., и опорная картинка, включающая в себя временной соседний блок, может называться совместно расположенной картинкой (colPic). Например, список кандидатов информации движения может быть сконфигурирован на основе соседних блоков текущего блока, и информация флага или индекса, указывающая, какой кандидат выбран (используется), может сигнализироваться, чтобы вывести вектор движения и/или индекс опорной картинки текущего блока. Интер-предсказание может выполняться на основе различных режимов предсказания. Например, в случае режима пропуска и режима объединения, информация движения текущего блока может быть той же самой, что и информация движения соседнего блока. В режиме пропуска, в отличие от режима объединения, остаточный сигнал может не передаваться. В случае режима предсказания вектора движения (MVP), вектор движения выбранного соседнего блока может использоваться как предсказатель вектора движения, и вектор движения текущего блока может сигнализироваться. В этом случае, вектор движения текущего блока может выводиться с использованием суммы предсказателя вектора движения и разности векторов движения.[123] When inter prediction is applied, the encoder/decoder predictor may output a prediction sample by performing inter prediction in units of blocks. The inter-prediction may be a prediction output in a manner that depends on the data elements (eg, sample values or motion information) of the picture(s) other than the current picture. When inter-prediction is applied to the current block, a predicted block (prediction sample array) for the current block may be derived based on a reference block (reference sample array) specified by a motion vector in a reference picture indicated by the reference picture index. Here, in order to reduce the amount of motion information transmitted in the inter-prediction mode, the motion information of the current block may be predicted in units of blocks, sub-blocks, or samples based on the correlation of the motion information between the neighboring block and the current block. The motion information may include a motion vector and a reference picture index. The motion information may further include inter prediction type information (L0 prediction, L1 prediction, Bi prediction, etc.). In the case of inter-prediction, the neighbor block may include a spatial neighbor block represented in the current picture and a temporal neighbor block represented in the reference picture. The reference picture including the reference block and the reference picture including the temporal neighbor block may be the same or different. The temporal neighbor block may be referred to as a co-located reference block, co-located CU (colCU) or the like, and a reference picture including the temporal neighbor block may be referred to as a co-located picture (colPic). For example, a motion information candidate list may be configured based on neighboring blocks of the current block, and flag or index information indicating which candidate is selected (in use) may be signaled to output a motion vector and/or a reference picture index of the current block. Inter-prediction may be performed based on various prediction modes. For example, in the case of the skip mode and the join mode, the motion information of the current block may be the same as the motion information of the adjacent block. In the skip mode, unlike the combine mode, the residual signal may not be transmitted. In the case of a motion vector prediction (MVP) mode, the motion vector of a selected neighboring block may be used as a motion vector predictor, and the motion vector of the current block may be signaled. In this case, the motion vector of the current block may be output using the sum of the motion vector predictor and the motion vector difference.

[124] Информация движения может включать в себя информацию движения L0 и/или информацию движения L1 в соответствии с типом интер-предсказания (предсказание L0, предсказание L1, Bi-предсказание и т.д.). Вектор движения в направлении L0 может называться вектором движения L0 или MVL0, и вектор движения в направлении L1 может называться вектором движения L1 или MVL1. Предсказание на основе вектора движения L0 может называться предсказанием L0, предсказание на основе вектора движения L1 может называться предсказанием L1, и предсказание на основе вектора движения L0 и вектора движения L1, может называться bi-предсказанием. Здесь, вектор движения L0 может указывать вектор движения, ассоциированный со списком L0 опорных картинок (L0), и вектор движения L1 может указывать вектор движения, ассоциированный со списком L1 опорных картинок (L1). Список L0 опорных картинок может включать в себя картинки, которые являются более ранними в порядке вывода, чем текущая картинка, как опорные картинки, и список L1 опорных картинок может включать в себя картинки, которые являются более поздними в порядке вывода, чем текущая картинка. Предыдущие картинки могут называться прямыми (опорными) картинками, и последующие картинки могут называться обратными (опорными) картинками. Список L0 опорных картинок может дополнительно включать в себя картинки, которые являются более поздними в порядке вывода, чем текущая картинка, как опорные картинки. В этом случае, предыдущие картинки могут индексироваться первыми в списке L0 опорных картинок, и последующие картинки могут индексироваться позже. Список L1 опорных картинок может дополнительно включать в себя картинки, предшествующие в порядке вывода текущей картинке, как опорные картинки. В этом случае, последующие картинки могут индексироваться первыми в списке 1 опорных картинок, и предыдущие картинки могут индексироваться позже. Порядок вывода может соответствовать порядку подсчета порядка картинок (POC).[124] The motion information may include L0 motion information and/or L1 motion information according to the type of inter prediction (L0 prediction, L1 prediction, Bi prediction, etc.). The motion vector in the L0 direction may be referred to as the L0 motion vector or MVL0, and the motion vector in the L1 direction may be referred to as the L1 or MVL1 motion vector. Prediction based on motion vector L0 may be referred to as L0 prediction, prediction based on motion vector L1 may be referred to as L1 prediction, and prediction based on motion vector L0 and motion vector L1 may be referred to as bi-prediction. Here, the motion vector L0 may indicate a motion vector associated with the reference picture list L0 (L0), and the motion vector L1 may indicate a motion vector associated with the reference picture list L1 (L1). The reference picture list L0 may include pictures that are earlier in the output order than the current picture as reference pictures, and the reference picture list L1 may include pictures that are later in the output order than the current picture. Previous pictures may be called forward (reference) pictures, and subsequent pictures may be called reverse (reference) pictures. The reference picture list L0 may further include pictures that are later in the output order than the current picture as reference pictures. In this case, previous pictures may be indexed first in the reference picture list L0, and subsequent pictures may be indexed later. The reference picture list L1 may further include pictures preceding the current picture in output order as reference pictures. In this case, subsequent pictures may be indexed first in reference picture list 1, and previous pictures may be indexed later. The output order may correspond to a picture order counting (POC) order.

[125] Фиг. 4 показывает примерную иерархическую структуру для закодированного изображения/видео.[125] FIG. 4 shows an exemplary hierarchical structure for an encoded image/video.

[126] Со ссылкой на фиг. 4, закодированное изображение/видео делится на уровень кодирования видео (VCL), который проводит процесс декодирования изображения/видео, подсистему, которая передает и сохраняет закодированную информацию, и NAL (уровень сетевой абстракции), отвечающий за функцию и представленный между VCL и подсистемой.[126] With reference to FIG. 4, the encoded image/video is divided into a video coding layer (VCL) that conducts the image/video decoding process, a subsystem that transmits and stores the encoded information, and a NAL (Network Abstraction Layer) responsible for the function and presented between the VCL and the subsystem.

[127] В VCL, генерируются данные VCL, включающие в себя данные сжатого изображения (данные вырезки), или могут генерироваться набор параметров, включающий в себя набор параметров картинки (PSP), набор параметров последовательности (SPS) и набор параметров видео (VPS) или сообщение информации дополнительной оптимизации (SEI), дополнительно требуемое для процесса декодирования изображения.[127] In the VCL, VCL data including compressed image data (crop data) is generated, or a parameter set including a picture parameter set (PSP), a sequence parameter set (SPS), and a video parameter set (VPS) may be generated. or a Supplemental Optimization Information (SEI) message further required for the picture decoding process.

[128] В NAL, единица NAL может генерироваться путем добавления информации заголовка (заголовка единицы NAL) к полезной нагрузке последовательности необработанных байтов (RBSP), генерируемой в VCL. В этом случае, RBSP относится к данным вырезки, набору параметров, сообщению SEI и т.д., генерируемыми в VCL. Заголовок единицы NAL может включать в себя информацию типа единицы NAL, специфицированную в соответствии с данными RBSP, включенными в соответствующую единицу NAL.[128] In NAL, a NAL unit may be generated by adding header information (NAL unit header) to a raw byte sequence (RBSP) payload generated in the VCL. In this case, RBSP refers to slice data, parameter set, SEI message, etc. generated in the VCL. The NAL unit header may include NAL unit type information specified according to the RBSP data included in the corresponding NAL unit.

[129] Как показано на чертеже, единица NAL может классифицироваться на единицу VCL NAL и единицу не-VCL NAL в соответствии с RBSP, сгенерированным в VCL. Единица VCL NAL может означать единицу NAL, которая включает в себя информацию об изображении (данные вырезки) об изображении, и единица не-VCL NAL может означать единицу NAL, которая включает в себя информацию (набор параметров или сообщение SEI), требуемую для декодирования изображения.[129] As shown in the drawing, the NAL unit can be classified into a VCL NAL unit and a non-VCL NAL unit according to the RBSP generated in the VCL. A VCL NAL unit may mean a NAL unit that includes image information (cut data) about an image, and a non-VCL NAL unit may mean a NAL unit that includes information (parameter set or SEI message) required to decode a picture. .

[130] Вышеописанные единица VCL NAL и единица не-VCL NAL могут передаваться через сеть путем прикрепления информации заголовка в соответствии со стандартом данных подсистемы. Например, единица NAL может преобразовываться в формат данных предопределенного стандарта, такой как формат файла H.266/VVC, транспортный протокол в реальном времени (RTP), транспортный поток (TS) и т.д., и передаваться через различные сети.[130] The above-described VCL NAL unit and non-VCL NAL unit can be transmitted over the network by attaching header information in accordance with the subsystem data standard. For example, the NAL unit can be converted to a predefined standard data format such as H.266/VVC file format, Real Time Transport Protocol (RTP), Transport Stream (TS), etc., and transmitted through various networks.

[131] Как описано выше, единица NAL может быть специфицирована при помощи типа единицы NAL в соответствии со структурой данных RBSP, включенной в соответствующую единицу NAL, и информация о типе единицы NAL может храниться и сигнализироваться в заголовке единицы NAL.[131] As described above, the NAL unit may be specified by the NAL unit type according to the RBSP data structure included in the corresponding NAL unit, and the NAL unit type information may be stored and signaled in the NAL unit header.

[132] Например, единица NAL может классифицироваться на тип единицы VCL NAL и тип единицы не-VCL NAL в соответствии с тем, включает ли в себя единица NAL информацию (данные вырезки) об изображении. Тип единицы VCL NAL может классифицироваться в соответствии с характером и типом картинок, включенных в единицу VCL NAL, и тип единицы не-VCL NAL может классифицироваться в соответствии с типами наборов параметров.[132] For example, the NAL unit may be classified into a VCL NAL unit type and a non-VCL NAL unit type according to whether the NAL unit includes image information (cut data). A VCL NAL unit type may be classified according to the nature and type of pictures included in a VCL NAL unit, and a non-VCL NAL unit type may be classified according to parameter set types.

[133] Описанное далее представляет собой пример типа единицы NAL, специфицированной в соответствии с типом набора параметров, включенного в тип единицы не-VCL NAL.[133] The following is an example of a NAL unit type specified according to a parameter set type included in a non-VCL NAL unit type.

[134] - Единица NAL APS (набор параметров адаптации): Тип для единицы NAL, включающей в себя APS[134] - APS NAL Unit (Adaptation Parameter Set): A type for a NAL unit including APS

[135] - Единица NAL DPS (набор параметров декодирования): Тип для единицы NAL, включающей в себя DPS[135] - DPS NAL Unit (Decoding Parameter Set): A type for a NAL unit including a DPS

[136] - Единица NAL VPS (набор параметров видео): Тип для единицы NAL, включающей в себя VPS[136] - VPS NAL Unit (Video Parameter Set): Type for a NAL unit including a VPS

[137] - Единица NAL SPS (набор параметров последовательности): Тип для единицы NAL, включающей в себя SPS[137] - SPS NAL Unit (Sequence Parameter Set): A type for a NAL unit including an SPS

[138] - Единица NAL PPS (набор параметров картинки) NAL: Тип для единицы NAL, включающей в себя PPS[138] - NAL Unit PPS (Picture Parameter Set) NAL: Type for a NAL unit including PPS

[139] - Единица NAL PH (заголовок картинки): Тип для единицы NAL, включающей в себя PH[139] - NAL unit PH (picture title): Type for NAL unit including PH

[140] Вышеупомянутые типы единицы NAL могут иметь синтаксическую информацию для типов единицы NAL, и синтаксическая информация может храниться и сигнализироваться в заголовке единицы NAL. Например, синтаксическая информация может представлять собой nal_unit_type, и типы единицы NAL могут быть специфицированы значением nal_unit_type.[140] The above NAL unit types may have syntax information for NAL unit types, and the syntax information may be stored and signaled in the NAL unit header. For example, the syntax information may be nal_unit_type, and NAL unit types may be specified by the value of nal_unit_type.

[141] Между тем, как описано выше, одна картинка может включать в себя множество вырезок, и одна вырезка может включать в себя заголовок вырезки и данные вырезки. В этом случае, один заголовок картинки может дополнительно добавляться к множеству вырезок (набору заголовка вырезки и данных вырезки) в одной картинке. Заголовок картинки (синтаксис заголовка картинки) может включать в себя информацию/параметры, обычно применяемые к картинке. В настоящем документе, вырезка может быть смешана или заменена на группу мозаичных элементов. Также, в настоящем документе, заголовок вырезки может быть смешан или заменен на заголовок группы мозаичных элементов.[141] Meanwhile, as described above, one picture may include a plurality of slices, and one slice may include a slice header and slice data. In this case, one picture title may be further added to a plurality of slices (a set of slice header and slice data) in one picture. The picture title (picture title syntax) may include information/parameters normally applied to the picture. In this document, the clipping may be mixed or replaced with a group of tiles. Also, herein, the slice header may be mixed or replaced with a tile group header.

[142] Заголовок вырезки (синтаксис заголовка вырезки) может включать в себя информацию/параметры, которые могут обычно применяться к вырезке. APS (синтаксис APS) или PPS (синтаксис PPS) может включать в себя информацию/параметры, которые могут обычно применяться к одной или более вырезкам или картинкам. SPS (синтаксис SPS) может включать в себя информацию/параметры, которые могут обычно применяться к одной или более последовательностям. VPS (синтаксис VPS) может включать в себя информацию/параметры, которые могут обычно применяться ко множеству уровней. DPS (синтаксис DPS) может включать в себя информацию/параметры, которые могут обычно применяться ко всему видео. DPS может включать в себя информацию/параметры, относящиеся к конкатенации закодированной последовательности видео (CVS). Синтаксис высокого уровня (HLS) в настоящем документе может включать в себя по меньшей мере одно из синтаксиса APS, синтаксиса PPS, синтаксиса SPS, синтаксиса VPS, синтаксиса DPS и синтаксиса заголовка вырезки.[142] The slice header (slice header syntax) may include information/parameters that may normally be applied to the slice. APS (APS syntax) or PPS (PPS syntax) may include information/parameters that may typically be applied to one or more clippings or pictures. The SPS (SPS Syntax) may include information/parameters that may typically be applied to one or more sequences. VPS (VPS Syntax) may include information/parameters that may typically apply to multiple layers. DPS (DPS Syntax) may include information/parameters that may generally be applied to the entire video. The DPS may include information/parameters related to coded video sequence (CVS) concatenation. High-level syntax (HLS) herein may include at least one of APS syntax, PPS syntax, SPS syntax, VPS syntax, DPS syntax, and slice header syntax.

[143] В настоящем документе, изображение/информация изображения, закодированные устройством кодирования и сигнализированные на устройство декодирования в форме битового потока, включают в себя не только информацию, относящуюся к разбиению в картинке, информацию интер/интра-предсказания, информацию остатка, информацию внутриконтурной фильтрации и т.д., но также информацию, включенную в заголовок вырезки, информацию, включенную в APS, информацию, включенную в PPS, информацию, включенную в SPS, и/или информацию, включенную в VPS.[143] Here, the image/image information encoded by an encoder and signaled to a decoder in the form of a bitstream includes not only information related to splitting in a picture, inter/intra prediction information, residual information, in-loop information, filtering, etc., but also information included in the slice header, information included in the APS, information included in the PPS, information included in the SPS, and/or information included in the VPS.

[144] Между тем, чтобы скомпенсировать разницу между исходным изображением и восстановленным изображением вследствие ошибки, возникающей в процессе кодирования сжатия, таком как квантование, процесс внутриконтурной фильтрации может выполняться на восстановленных выборках или восстановленных картинках, как описано выше. Как описано выше, внутриконтурная фильтрация может выполняться фильтром устройства кодирования и фильтром устройства декодирования, и могут применяться фильтр устранения блочности, SAO и/или адаптивный контурный фильтр (ALF). Например, процесс ALF может выполняться после того, как завершены процесс фильтрации устранения блочности и/или процесс SAO. Однако, даже в этом случае, процесс фильтрации устранения блочности и/или процесс SAO могут опускаться.[144] Meanwhile, in order to compensate for the difference between the original image and the reconstructed image due to an error occurring in a compression encoding process such as quantization, an in-loop filtering process may be performed on the reconstructed samples or reconstructed pictures as described above. As described above, in-loop filtering may be performed by an encoder filter and a decoder filter, and a deblocking filter, SAO, and/or an adaptive loop filter (ALF) may be applied. For example, the ALF process may be executed after the deblocking filtering process and/or the SAO process is completed. However, even in this case, the deblocking filtering process and/or the SAO process may be omitted.

[145] Между тем, чтобы повысить эффективность кодирования, отображение яркости с масштабированием цветности (LMCS) может применяться, как описано выше. LMCS может упоминаться как контурный формирователь (повторное формирование). Чтобы повысить эффективность кодирования, управление LMCS и/или сигнализация относящейся к LMCS информации могут выполняться иерархически.[145] Meanwhile, in order to improve coding efficiency, luminance chrominance scaling (LMCS) mapping may be applied as described above. The LMCS may be referred to as a contour former (reshaping). To improve coding efficiency, LMCS control and/or signaling of LMCS related information may be performed hierarchically.

[146] Фиг. 5 иллюстрирует примерную иерархическую структуру CVS в соответствии с вариантом осуществления настоящего документа. Закодированная последовательность видео (CVS) может включать в себя набор параметров последовательности (SPS), набор параметров картинки (PPS), заголовок группы мозаичных элементов, данные мозаичного элемента и/или CTU. Здесь, заголовок группы мозаичных элементов и данные мозаичного элемента могут называться заголовком вырезки и данными вырезки, соответственно.[146] FIG. 5 illustrates an exemplary hierarchical structure of CVS in accordance with an embodiment of the present document. The encoded video sequence (CVS) may include a sequence parameter set (SPS), a picture parameter set (PPS), a tile group header, tile data, and/or a CTU. Here, a tile group header and tile data may be referred to as a slice header and slice data, respectively.

[147] SPS может включать в себя флаги, предназначенные для задействования инструментов, подлежащих использованию в CVS. К тому же, к SPS можно обращаться при помощи PPS, включающего в себя информацию о параметрах, которые меняются для каждой картинки. Каждая из закодированных картинок может включать в себя один или более закодированных мозаичных элементов прямоугольной области. Мозаичные элементы могут группироваться на растровые сканирования, образующие группы мозаичных элементов. Каждая группа мозаичных элементов инкапсулирована с информацией заголовка, называемой заголовком группы мозаичных элементов. Каждый мозаичный элемент состоит из CTU, содержащей закодированные данные. Здесь данные могут включать в себя значения исходной выборки, значения выборки предсказания и его компоненты яркости и цветности (значения выборок предсказания яркости и значения выборок предсказания цветности).[147] The SPS may include flags for enabling tools to be used in CVS. In addition, the SPS can be accessed using the PPS, which includes information about the parameters that change for each picture. Each of the encoded pictures may include one or more encoded rectangular area tiles. Tiles can be grouped into raster scans forming groups of tiles. Each tile group is encapsulated with header information called a tile group header. Each tile consists of a CTU containing encoded data. Here, the data may include original sample values, prediction sample values, and its luminance and chrominance components (luminance prediction sample values and chrominance prediction sample values).

[148] Фиг. 6 иллюстрирует примерную структуру LMCS в соответствии с вариантом осуществления настоящего документа. Структура 600 LMCS на фиг. 6 включает в себя часть 610 внутриконтурного отображения компонентов яркости на основе адаптивных кусочно-линейных (адаптивных PWL) моделей и часть 620 зависимого от яркости остаточного масштабирования цветности для компонентов цветности. Блоки деквантования и обратного преобразования 611, восстановления 612 и интра-предсказания 613 части 610 внутриконтурного отображения представляют процессы, применимые в отображенной (переформированной) области. Блоки контурных фильтров 615, компенсации движения или интер-предсказания 617 части 610 внутриконтурного отображения и блоки восстановления 622, интра-предсказания 623, компенсации движения или интер-предсказания 624, контурных фильтров 625 части 620 остаточного масштабирования цветности представляют процессы, применимые в исходной (не-отображенной, не-переформированной) области.[148] FIG. 6 illustrates an exemplary LMCS structure in accordance with an embodiment of the present document. LMCS structure 600 in FIG. 6 includes a luma component in-contour mapping portion 610 based on adaptive piecewise linear (adaptive PWL) models and a luminance dependent residual chrominance scaling portion 620 for chrominance components. The dequantizer and inverse transform 611, reconstruction 612, and intra-prediction 613 blocks of the in-loop mapping portion 610 represent processes applicable in the mapped (reformed) region. The loop filter blocks 615, motion compensation or inter-prediction 617 of the in-peak display portion 610 and the reconstruction blocks 622, intra-prediction 623, motion compensation or inter-prediction 624, loop filters 625 of the residual chrominance scaling portion 620 represent processes applicable in the original (not -mapped, non-reformed) area.

[149] Как проиллюстрировано на фиг. 6, когда LMCS включено, может применяться по меньшей мере один из процесса 614 обратного отображения (повторного формирования), процесса 618 прямого отображения (повторного формирования) и процесса 621 масштабирования цветности. Например, процесс обратного отображения может применяться к (восстановленной) выборке яркости (или выборкам яркости или массиву выборок яркости) в восстановленной картинке. Процесс обратного отображения может выполняться на основе кусочного индекса (обратной) функции выборки яркости. Кусочный индекс (обратной) функции может идентифицировать фрагмент, которому принадлежит выборка яркости. Выводом процесса обратного отображения является модифицированная (восстановленная) выборка яркости (или модифицированные выборки яркости или массив модифицированных выборок яркости). LMCS может включаться или выключаться на уровне группы мозаичных элементов (или вырезки), картинки или выше.[149] As illustrated in FIG. 6, when LMCS is enabled, at least one of a demapping (regeneration) process 614 , a forward mapping (regeneration) process 618 , and a chrominance scaling process 621 may be applied. For example, the inverse mapping process may be applied to the (restored) luminance sample (or luminance samples or array of luminance samples) in the reconstructed picture. The inverse mapping process may be performed based on a piecewise index (inverse) luminance sampling function. The piecewise index of the (inverse) function may identify the fragment to which the brightness sample belongs. The output of the inverse mapping process is a modified (restored) luminance sample (or modified luma samples or an array of modified luma samples). LMCS can be turned on or off at the level of the tile group (or cutout), picture, or higher.

[150] Процесс прямого отображения и/или процесс масштабирования цветности могут применяться, чтобы сгенерировать восстановленную картинку. Картинка может содержать выборки яркости и выборки цветности. Восстановленная картинка с выборками яркости может называться восстановленной картинкой яркости, и восстановленная картинка с выборками цветности может называться восстановленной картинкой цветности. Комбинация восстановленной картинки яркости и восстановленной картинки цветности может называться восстановленной картинкой. Восстановленная картинка яркости может генерироваться на основе процесса прямого отображения. Например, если интер-предсказание применяется к текущему блоку, прямое отображение применяется к выборке предсказания яркости, выведенной на основе (восстановленной) выборки яркости в опорной картинке. Поскольку (восстановленная) выборка яркости в опорной картинке генерируется на основе процесса обратного отображения, прямое отображение может применяться к выборке предсказания яркости, таким образом, может выводиться отображенная (переформированная) выборка предсказания яркости. Процесс прямого отображения может выполняться на основе кусочного индекса функции выборки предсказания яркости. Кусочный индекс функции может выводиться на основе значения выборки предсказания яркости или значения выборки яркости в опорной картинке, используемой для интер-предсказания. Если интра-предсказание (или внутриблочное копирование (IBC)) применяется к текущему блоку, прямое отображение не является обязательным, поскольку процесс обратного отображения еще не применялся к восстановленным выборкам в текущей картинке. (Восстановленная) выборка яркости в восстановленной картинке яркости генерируется на основе отображенной выборки предсказания яркости и соответствующей остаточной выборки яркости.[150] A direct mapping process and/or a chroma scaling process may be applied to generate a reconstructed picture. A picture may contain luma samples and chrominance samples. The reconstructed luma sampled picture may be referred to as a reconstructed luminance picture, and the reconstructed chrominance sampled picture may be referred to as a reconstructed chrominance picture. The combination of the reconstructed luminance picture and the reconstructed chrominance picture may be referred to as the reconstructed picture. The reconstructed luminance picture may be generated based on a direct mapping process. For example, if inter-prediction is applied to the current block, forward mapping is applied to the luminance prediction sample derived based on the (reconstructed) luminance sample in the reference picture. Since the (restored) luminance sample in the reference picture is generated based on the inverse mapping process, forward mapping can be applied to the luminance prediction sample, thus a mapped (reformed) luminance prediction sample can be output. The direct mapping process may be performed based on the piecewise index of the luminance prediction sampling function. The piecewise function index may be derived based on a luminance prediction sample value or a luminance sample value in a reference picture used for inter-prediction. If intra-prediction (or intra-block copy (IBC)) is applied to the current block, forward mapping is not necessary because the inverse mapping process has not yet been applied to the reconstructed samples in the current picture. The (recovered) luminance sample in the reconstructed luminance picture is generated based on the mapped luminance prediction sample and the corresponding residual luminance sample.

[151] Восстановленная картинка цветности может генерироваться на основе процесса масштабирования цветности. Например, (восстановленная) выборка цветности в восстановленной картинке цветности может выводиться на основе выборки цветности предсказания и остаточной выборки цветности (cres) в текущем блоке. Остаточная выборка цветности (cres) выводится на основе (масштабированной) остаточной выборки цветности (cresScale), и коэффициента остаточного масштабирования цветности (cScaleInv может упоминаться как varScale) для текущего блока. Коэффициент остаточного масштабирования цветности может вычисляться на основе значений переформированной выборки предсказания яркости для текущего блока. Например, коэффициент масштабирования может вычисляться на основе среднего значения ave(Y'pred) яркости значений Y'pred переформированной выборки предсказания яркости. Для ссылки, на фиг. 6, (масштабированная) остаточная выборка цветности, выведенная на основе обратного преобразования/ деквантования, может упоминаться как cresScale, и остаточная выборка цветности, выведенная путем выполнения процесса (обратного) масштабирования в (масштабированную) остаточную выборку цветности, может упоминаться как cres.[151] The reconstructed chrominance picture may be generated based on the chrominance scaling process. For example, the (restored) chrominance sample in the reconstructed chrominance picture may be derived based on the prediction chroma sample and the residual chrominance sample (c res ) in the current block. The residual chroma sample (c res ) is derived based on the (scaled) residual chroma sample (c resScale ), and the residual chroma scaling factor (cScaleInv may be referred to as varScale) for the current block. The residual chrominance scaling factor may be calculated based on the values of the regenerated luminance prediction sample for the current block. For example, the scaling factor may be computed based on the average luminance value ave(Y' pred ) of the luminance values Y' pred of the reshaped luminance prediction sample. For reference, in FIG. 6, the (scaled) chrominance residual sample derived based on the inverse transform/dequantization may be referred to as c resScale , and the chroma residual sample output by performing the (reverse) scaling process into a (scaled) chroma residual sample may be referred to as c res .

[152] Фиг. 7 иллюстрирует структуру LMCS в соответствии с другим вариантом осуществления настоящего документа. Фиг. 7 описана со ссылкой на фиг. 6. Здесь, главным образом, описана разница между структурой LMCS по фиг. 7 и структурой 600 LMCS по фиг. 6. Часть внутриконтурного отображения и часть зависимого от яркости остаточного масштабирования цветности на фиг. 7 могут работать так же (аналогично), как и часть 610 внутриконтурного отображения и часть 620 зависимого от яркости остаточного масштабирования цветности на фиг. 6.[152] FIG. 7 illustrates the structure of an LMCS according to another embodiment of the present document. Fig. 7 is described with reference to FIG. 6. Here, the difference between the LMCS structure of FIG. 7 and the LMCS structure 600 of FIG. 6. The in-loop display part and the luminance-dependent residual chroma scaling part in FIG. 7 may operate in the same (similar) way as the in-contour display portion 610 and the luminance-dependent residual chroma scaling portion 620 in FIG. 6.

[153] Со ссылкой на фиг. 7, коэффициент остаточного масштабирования цветности может выводиться на основе восстановленных выборок яркости. В этом случае, среднее значение (avgYr) яркости может быть получено (выведено) на основе соседних восстановленных выборок яркости вне восстановленного блока, а не внутренних восстановленных выборок яркости восстановленного блока, и коэффициент остаточного масштабирования цветности выводится на основе среднего значения (avgYr) яркости. Здесь, соседние восстановленные выборки яркости могут быть соседними восстановленными выборками яркости текущего блока или могут быть соседними восстановленными выборками яркости единиц данных виртуального конвейера (VPDU), включающих в себя текущий блок. Например, когда интра-предсказание применяется к целевому блоку, восстановленные выборки могут выводиться на основе выборок предсказания, которые выводятся на основе интра-предсказания. В другом примере, когда интер-предсказание применяется к целевому блоку, прямое отображение применяется к выборкам предсказания, которые выведены на основе интер-предсказания, и восстановленные выборки генерируются (выводятся) на основе переформированных (или прямо отображенных) выборок предсказания яркости.[153] With reference to FIG. 7, the residual chrominance scaling factor may be derived based on the reconstructed luminance samples. In this case, an average luminance value (avgYr) can be obtained (derived) based on neighboring reconstructed luminance samples outside the reconstructed block rather than internal reconstructed luma samples of the reconstructed block, and a residual chrominance scaling factor is derived based on the average luminance value (avgYr). Here, the adjacent luma recovery samples may be adjacent luminance recovery samples of the current block, or may be adjacent luminance recovery samples of Virtual Pipeline Data Units (VPDUs) including the current block. For example, when intra-prediction is applied to a target block, the reconstructed samples may be derived based on the prediction samples that are derived based on the intra-prediction. In another example, when inter-prediction is applied to a target block, forward mapping is applied to the prediction samples that are derived from the inter-prediction, and reconstructed samples are generated (derived) based on the reshaped (or forward-mapped) luma prediction samples.

[154] Информация видео/изображения, сигнализированная через битовый поток, может включать в себя параметры LMCS (информацию о LMCS). Параметры LMCS могут быть сконфигурированы как синтаксис высокого уровня (HLS, включающий в себя синтаксис заголовка вырезки) или тому подобное. Подробное описание и конфигурация параметров LMCS будут описаны далее. Как описано выше, синтаксические таблицы, описанные в настоящем документе (и последующих вариантах осуществления), могут быть сконфигурированы/закодированы на стороне кодера и сигнализироваться на сторону декодера посредством битового потока. Декодер может выполнять синтаксический анализ/ декодировать информацию о LMCS (в форме синтаксических компонентов) в синтаксических таблицах. Один или более вариантов осуществления, которые будут описаны ниже, могут комбинироваться. Кодер может кодировать текущую картинку на основе информации о LMCS, и декодер может декодировать текущую картинку на основе информации о LMCS.[154] The video/image information signaled via the bitstream may include LMCS parameters (LMCS information). The LMCS parameters may be configured as high-level syntax (HLS including slice header syntax) or the like. The detailed description and configuration of the LMCS parameters will be described next. As described above, the syntax tables described herein (and subsequent embodiments) may be configured/encoded on the encoder side and signaled to the decoder side via a bitstream. The decoder may parse/decode the LMCS information (in the form of syntax components) in the syntax tables. One or more embodiments to be described below may be combined. The encoder may encode the current picture based on the LMCS information, and the decoder may decode the current picture based on the LMCS information.

[155] Внутриконтурное отображение компонентов яркости может регулировать динамический диапазон сигнала ввода путем перераспределения кодовых слов по динамическому диапазону, чтобы улучшить эффективность сжатия. Для отображения яркости, могут использоваться функция прямого отображения (повторного формирования) (FwdMap) и функция обратного отображения (повторного формирования) (InvMap), соответствующая функции прямого отображения (FwdMap). Функция FwdMap может сигнализироваться с использованием кусочно-линейных моделей, например, кусочно-линейная модель может иметь 16 фрагментов или бинов. Фрагменты могут иметь равную длину. В одном примере, функция InvMap не должна сигнализироваться и вместо этого выводится из функции FwdMap. То есть, обратное отображение может быть функцией прямого отображения. Например, функция обратного отображения может быть математически построена как симметричная функция прямого отображения, как отражается линией y=x.[155] Luminance component in-loop mapping can adjust the dynamic range of the input signal by redistributing the codewords over the dynamic range to improve compression efficiency. For luminance mapping, a forward mapping (regeneration) function (FwdMap) and an inverse mapping (regeneration) function (InvMap) corresponding to the forward mapping (FwdMap) function can be used. The FwdMap function may be signaled using piecewise linear models, for example a piecewise linear model may have 16 tiles or bins. Fragments can be of equal length. In one example, the InvMap function should not be signaled and is instead derived from the FwdMap function. That is, the reverse mapping may be a forward mapping function. For example, the back mapping function can be mathematically constructed as a symmetric forward mapping function, as reflected by the line y=x.

[156] Внутриконтурное повторное формирование (яркости) может использоваться, чтобы отображать входные (выборки) значения яркости на измененные значения в переформированной области. Переформированные значения могут кодироваться и затем отображаться обратно на исходную (не-отображенную, не-переформированную) область после восстановления. Чтобы скомпенсировать взаимодействие между сигналом яркости и сигналом цветности, может применяться остаточное масштабирование цветности. Внутриконтурное повторное формирование выполняется путем специфицирования синтаксиса высокого уровня для модели формирователя. Синтаксис модели формирователя может сигнализировать кусочно-линейную модель (модель PWL). Например, синтаксис модели формирователя может сигнализировать модель PWL с 16 бинами или фрагментами равной длины. Прямая поисковая таблица (FwdLUT) и/или обратная поисковая таблица (InvLUT) могут выводиться на основе кусочно-линейной модели. Например, модель PWL предварительно вычисляет прямую (FwdLUT) и обратную (InvLUT) поисковые таблицы (LUT) с 1024 записями. В качестве примера, когда прямая поисковая таблица FwdLUT выведена, обратная поисковая таблица InvLUT может выводиться на основе прямой поисковой таблицы FwdLUT. Прямая поисковая таблица FwdLUT может отображать входные значения Yi яркости на измененные значения Yr, и обратная поисковая таблица InvLUT может отображать измененные значения Yr на восстановленные значения Y'i. Восстановленные значения Y′i могут выводиться на основе входных значений яркости Yi.[156] In-loop reshaping (luminance) can be used to map input (sample) luminance values to changed values in the reshaped area. The reshaped values may be encoded and then mapped back to the original (non-mapped, non-reshaped) area after restoration. Chroma residual scaling may be applied to compensate for the interaction between the luminance signal and the chrominance signal. In-loop regeneration is performed by specifying a high-level syntax for the shaper model. The shaper model syntax can signal a piecewise linear model (PWL model). For example, the shaper model syntax may signal a PWL model with 16 bins or equal length chunks. The forward lookup table (FwdLUT) and/or the inverse lookup table (InvLUT) may be derived based on a piecewise linear model. For example, the PWL model precomputes forward (FwdLUT) and inverse (InvLUT) lookup tables (LUTs) with 1024 entries. As an example, when the forward lookup table FwdLUT is derived, the reverse lookup table InvLUT may be derived based on the forward lookup table FwdLUT. The FwdLUT forward lookup table may map input luminance values Yi to modified Yr values, and the reverse InvLUT lookup table may map modified Yr values to reconstructed Y'i values. The reconstructed Y'i values may be derived based on the input brightness values Yi.

[157] В одном примере, SPS может включать в себя синтаксис Таблицы 1 ниже. Синтаксис Таблицы 1 может включать в себя sps_reshaper_enabled_flag как инструмент, задействующий флаг. Здесь, sps_reshaper_enabled_flag может использоваться, чтобы специфицировать, используется ли формирователь в закодированной последовательности видео (CVS). То есть, sps_reshaper_enabled_flag может быть флагом для включения повторного формирования в SPS. В одном примере, синтаксис Таблицы 1 может быть частью SPS. [157] In one example, the SPS may include the syntax of Table 1 below. The syntax of Table 1 may include sps_reshaper_enabled_flag as a flag enabling tool. Here, sps_reshaper_enabled_flag can be used to specify whether the shaper is used in a coded video sequence (CVS). That is, sps_reshaper_enabled_flag may be a flag to enable reshaper in the SPS. In one example, the syntax of Table 1 may be part of the SPS.

[158] [Таблица 1][158] [Table 1]

Figure 00000001
Figure 00000001

[159] В одном примере, семантика синтаксических элементов sps_seq_parameter_set_id и sps_reshaper_enabled_flag может быть такой, как показано в Таблице 2 ниже.[159] In one example, the semantics of the sps_seq_parameter_set_id and sps_reshaper_enabled_flag syntax elements may be as shown in Table 2 below.

[160] [Таблица 2][160] [Table 2]

Figure 00000002
Figure 00000002

[161] В одном примере, заголовок группы мозаичных элементов или заголовок вырезки может включать в себя синтаксис Таблицы 3 или Таблицы 4 ниже.[161] In one example, a tile group header or slice header may include the syntax of Table 3 or Table 4 below.

[162] [Таблица 3][162] [Table 3]

Figure 00000003
Figure 00000003

[163] [Таблица 4][163] [Table 4]

Figure 00000004
Figure 00000004

[164] Семантика синтаксических элементов, включенных в синтаксис Таблицы 3 или Таблицы 4, может включать в себя, например, содержимое, раскрытое в следующих таблицах.[164] The semantics of the syntax elements included in the syntax of Table 3 or Table 4 may include, for example, the content disclosed in the following tables.

[165] [Таблица 5][165] [Table 5]

Figure 00000005
Figure 00000005

[166] [Таблица 6][166] [Table 6]

Figure 00000006
Figure 00000006

[167] В качестве одного примера, когда флаг, задействующий повторное формирование (т.е., sps_reshaper_enabled_flag), синтаксически анализируется в SPS, заголовок группы мозаичных элементов может синтаксически анализировать дополнительные данные (т.е., информацию, включенную в Таблицу 5 или 6), которые используются для создания поисковых таблиц (FwdLUT и/или InvLUT). Для этого, статус флага формирователя SPS (sps_reshaper_enabled_flag) может сначала проверяться в заголовке вырезки или заголовке группы мозаичных элементов. Когда sps_reshaper_enabled_flag истинно (или 1), дополнительный флаг, т.е., tile_group_reshaper_model_present_flag (или slice_reshaper_model_present_flag) может синтаксически анализироваться. Цель tile_group_reshaper_model_present_flag (или slice_reshaper_model_present_flag) может состоять в том, чтобы указывать наличие модели повторного формирования. Например, когда tile_group_reshaper_model_present_flag (или slice_reshaper_model_present_flag) истинно (или 1), может указываться, что формирователь представлен для текущей группы мозаичных элементов (или текущей вырезки). Когда tile_group_reshaper_model_present_flag (или slice_reshaper_model_present_flag) ложно (или 0), может указываться, что формирователь не представлен для текущей группы мозаичных элементов (или текущей вырезки).[167] As one example, when a flag enabling reshaping (i.e., sps_reshaper_enabled_flag) is parsed in the SPS, a tile group header may parse additional data (i.e., information included in Table 5 or 6) that are used to create lookup tables (FwdLUT and/or InvLUT). To do this, the status of the SPS shaper flag (sps_reshaper_enabled_flag) may first be checked in the slice header or tile group header. When sps_reshaper_enabled_flag is true (or 1), an additional flag, i.e., tile_group_reshaper_model_present_flag (or slice_reshaper_model_present_flag) can be parsed. The purpose of tile_group_reshaper_model_present_flag (or slice_reshaper_model_present_flag) may be to indicate the presence of a reshaper model. For example, when tile_group_reshaper_model_present_flag (or slice_reshaper_model_present_flag) is true (or 1), it may indicate that the shaper is present for the current tile group (or current slice). When tile_group_reshaper_model_present_flag (or slice_reshaper_model_present_flag) is false (or 0), it may indicate that no shaper is present for the current tile group (or current slice).

[168] Если формирователь представлен и формирователь включен в текущей группе мозаичных элементов (или текущей вырезке), модель формирователя (т.е., tile_group_reshaper_model() или slice_reshaper_model()) может обрабатываться. В дополнение к этому, дополнительный флаг, tile_group_reshaper_enable_flag (или slice_reshaper_enable_flag) может также синтаксически анализироваться. tile_group_reshaper_enable_flag (или slice_reshaper_enable_flag) может указывать, используется ли модель повторного формирования для текущей группы мозаичных элементов (или вырезки). Например, если tile_group_reshaper_enable_flag (или slice_reshaper_enable_flag) равен 0 (или ложно), может указываться, что модель повторного формирования не используется для текущей группы мозаичных элементов (или текущей вырезки). Если tile_group_reshaper_enable_flag (или slice_reshaper_enable_flag) равен 1 (или истинно), может указываться, что модель повторного формирования используется для текущей группы мозаичных элементов (или вырезки).[168] If a shaper is present and the shaper is enabled in the current tile group (or current slice), the shaper model (ie, tile_group_reshaper_model() or slice_reshaper_model()) may be processed. In addition to this, an additional flag, tile_group_reshaper_enable_flag (or slice_reshaper_enable_flag) may also be parsed. tile_group_reshaper_enable_flag (or slice_reshaper_enable_flag) may indicate whether a reshaper model is used for the current tile group (or slice). For example, if tile_group_reshaper_enable_flag (or slice_reshaper_enable_flag) is 0 (or false), it may be indicated that the reshaper model is not used for the current tile group (or current slice). If tile_group_reshaper_enable_flag (or slice_reshaper_enable_flag) is 1 (or true), it may be indicated that a reshaper model is used for the current tile group (or slice).

[169] В качестве одного примера, tile_group_reshaper_model_present_flag (или slice_reshaper_model_present_flag) может быть истинно (или 1), и tile_group_reshaper_enable_flag (или slice_reshaper_enable_flag) может быть ложно (или 0). Это означает, что модель повторного формирования представлена, но не используется в текущей группе мозаичных элементов (или вырезке). В этом случае, модель повторного формирования может использоваться в будущих группах мозаичных элементов (или вырезках). В качестве примера, tile_group_reshaper_enable_flag может быть истинно (или 1), и tile_group_reshaper_model_present_flag может быть ложно (или 0). В таком случае, декодер использует формирователь из предыдущей инициализации.[169] As one example, tile_group_reshaper_model_present_flag (or slice_reshaper_model_present_flag) may be true (or 1), and tile_group_reshaper_enable_flag (or slice_reshaper_enable_flag) may be false (or 0). This means that the reshaping model is present but not used in the current tile group (or clipping). In this case, the reshaping model can be used in future tile groups (or cutouts). As an example, tile_group_reshaper_enable_flag may be true (or 1) and tile_group_reshaper_model_present_flag may be false (or 0). In such a case, the decoder uses the shaper from the previous initialization.

[170] Когда модель повторного формирования (т.е., tile_group_reshaper_model() или slice_reshaper_model()) и tile_group_reshaper_enable_flag (или slice_reshaper_enable_flag) синтаксически проанализированы, может определяться (оцениваться), представлены ли условия, необходимые для масштабирования цветности. Условия выше включают в себя условие 1 (текущая группа мозаичных элементов/вырезка не была интра-кодирована) и/или условие 2 (текущая группа мозаичных элементов/вырезка не была разбита на две отдельных структуры квадродерева кодирования для яркости и цветности, т.е. структура блока для текущей группы мозаичных элементов/вырезки не является структурой двойного дерева). Если условие 1 и/или условие 2 истинно и/или tile_group_reshaper_enable_flag (или slice_reshaper_enable_flag) истинно (или 1), то tile_group_reshaper_chroma_residual_scale_flag (или slice_reshaper_chroma_residual_scale_flag) может синтаксически анализироваться. Когда tile_group_reshaper_chroma_residual_scale_flag (или slice_reshaper_chroma_residual_scale_flag) включено (если 1 или истинно), может указываться, что остаточное масштабирование цветности включено для текущей группы мозаичных элементов (или вырезки). Когда tile_group_reshaper_chroma_residual_scale_flag (или slice_reshaper_chroma_residual_scale_flag) выключено (если 0 или ложно), может указываться, что остаточное масштабирование цветности отключено для текущей группы мозаичных элементов (или вырезки).[170] When the reshaper model (i.e., tile_group_reshaper_model() or slice_reshaper_model()) and tile_group_reshaper_enable_flag (or slice_reshaper_enable_flag) are parsed, it can be determined (judged) whether conditions necessary for chroma scaling are present. The conditions above include condition 1 (the current tile/cut has not been intra-coded) and/or condition 2 (the current tile/cut has not been split into two separate coding quadtree structures for luma and chrominance, i.e. the block structure for the current tile/cut group is not a double tree structure). If condition 1 and/or condition 2 is true and/or tile_group_reshaper_enable_flag (or slice_reshaper_enable_flag) is true (or 1), then tile_group_reshaper_chroma_residual_scale_flag (or slice_reshaper_chroma_residual_scale_flag) may be parsed. When tile_group_reshaper_chroma_residual_scale_flag (or slice_reshaper_chroma_residual_scale_flag) is enabled (if 1 or true), residual chroma scaling may be indicated to be enabled for the current tile group (or slice). When tile_group_reshaper_chroma_residual_scale_flag (or slice_reshaper_chroma_residual_scale_flag) is off (if 0 or false), residual chroma scaling may be indicated to be disabled for the current tile group (or slice).

[171] Цель модели повторного формирования группы мозаичных элементов состоит в том, чтобы синтаксически анализировать данные, которые будут необходимы для создания поисковых таблиц (LUT). Эти LUT создаются на основе идеи, что распределение допустимого диапазона значений яркости может быть разделено на множество бинов (например, 16 бинов), которые могут быть представлены с использованием набора системы 16 PWL уравнений. Поэтому, любое значение яркости, которое лежит в пределах данного бина, может отображаться на измененное значение яркости.[171] The purpose of the tile group regeneration model is to parse the data that will be needed to create lookup tables (LUTs). These LUTs are created based on the idea that the distribution of the allowable range of luminance values can be divided into many bins (eg, 16 bins), which can be represented using a set of 16 PWL equations. Therefore, any luminance value that lies within a given bin can be mapped to the modified luminance value.

[172] Фиг. 8 показывает график, представляющий примерное прямое отображение. На фиг. 8, пять бинов проиллюстрированы в качестве примера.[172] FIG. 8 shows a graph representing an exemplary forward display. In FIG. 8, five bins are illustrated as an example.

[173] Со ссылкой на фиг. 8, ось x представляет входные значения яркости, и ось y представляет измененные выходные значения яркости. Ось x делится на 5 бинов или вырезок, каждый бин имеет длину L. То есть, пять бинов, отображаемых на измененные значения яркости, имеют одну и ту же длину. Прямая поисковая таблица (FwdLUT) может создаваться с использованием данных (т.е., данных формирователя), доступных из заголовка группы мозаичных элементов, и поэтому отображение может облегчаться.[173] With reference to FIG. 8, the x-axis represents input luminance values, and the y-axis represents modified output luminance values. The x-axis is divided into 5 bins or slices, each bin has a length L. That is, the five bins mapped to changed brightness values have the same length. A forward lookup table (FwdLUT) can be created using data (ie, shaper data) available from a tile group header, and therefore display can be facilitated.

[174] В одном варианте осуществления, могут вычисляться выходные точки поворота, ассоциированные с индексами бинов. Выходные точки поворота могут устанавливать (маркировать) минимальную и максимальную границы диапазона вывода повторного формирования кодового слова яркости. Процесс вычисления выходных точек поворота может выполняться путем вычисления кусочно-кумулятивной функции распределения (CDF) числа кодовых слов. Выходной диапазон поворота может сегментироваться на основе максимального числа бинов, подлежащих использованию, и размера поисковой таблицы (FwdLUT или InvLUT). В качестве одного примера, выходной диапазон поворота может сегментироваться на основе произведения максимального числа бинов и размера поисковой таблицы (размер LUT * максимальное число индексов бинов). Например, если произведение максимального числа бинов и размеров поисковой таблицы составляет 1024, выходной диапазон поворота может сегментироваться в 1024 входов. Этот зубец выходного диапазона поворота может выполняться (применяться или достигаться) на основе (с использованием) коэффициента масштабирования. В одном примере, коэффициент масштабирования может выводиться на основе Уравнения 1 ниже.[174] In one embodiment, output pivot points associated with bin indices can be calculated. The output pivot points may set (mark) the minimum and maximum boundaries of the output range of the luminance codeword regeneration. The process of computing the output turning points may be performed by computing a piecewise cumulative distribution function (CDF) of the number of codewords. The output rotation range may be segmented based on the maximum number of bins to be used and the size of the lookup table (FwdLUT or InvLUT). As one example, the output rotation range may be segmented based on the product of the maximum number of bins and the size of the lookup table (LUT size * maximum number of bin indexes). For example, if the product of the maximum number of bins and the sizes of the lookup table is 1024, the output rotation range can be segmented into 1024 inputs. This rotation output range tooth may be performed (applied or achieved) based on (using) the scaling factor. In one example, the scaling factor may be derived based on Equation 1 below.

[175] [Уравнение 1][175] [Equation 1]

Figure 00000007
Figure 00000007

[176] В Уравнении 1, SF обозначает коэффициент масштабирования, и y1 и y2 обозначают выходные точки поворота, соответствующие каждому бину. Также, FP_PREC и c могут быть предопределенными постоянными. Коэффициент масштабирования, определенный на основе Уравнения 1, может называться коэффициентом масштабирования для прямого повторного формирования.[176] In Equation 1, SF denotes a scaling factor, and y1 and y2 denote output pivot points corresponding to each bin. Also, FP_PREC and c can be predefined constants. The scaling factor determined based on Equation 1 may be referred to as the scaling factor for direct regeneration.

[177] В другом варианте осуществления, в отношении обратного повторного формирования (обратного отображения), для определенного диапазона бинов, подлежащих использованию (т.е., от reshaper_model_min_bin_idx до reshape_model_max_bin_idx), входные переформированные точки поворота, которые соответствуют отображенным точкам поворота прямого LUT, и отображенные обратные выходные точки поворота (заданные индексом бина с учетом * числа исходных кодовых слов), выводятся. В другом примере, коэффициент SF масштабирования может выводиться на основе Уравнения 2 ниже.[177] In another embodiment, with respect to reverse reshaping (reverse mapping), for a specific range of bins to be used (i.e., from reshaper_model_min_bin_idx to reshape_model_max_bin_idx), input reshaped pivots that correspond to the mapped pivots of the forward LUT, and the mapped reverse output pivot points (given by the bin index given * the number of original codewords) are output. In another example, the scaling factor SF may be derived based on Equation 2 below.

[178] [Уравнение 2][178] [Equation 2]

Figure 00000008
Figure 00000008

[179] В Уравнении 2, SF обозначает коэффициент масштабирования, x1 и x2 обозначают входные точки поворота, и y1 и y2 обозначают выходные точки поворота, соответствующие каждому фрагменту (бину) (выходные точки поворота обратного отображения). Здесь, входные точки поворота могут представлять точки поворота, отображаемые на основе прямой поисковой таблицы (FwdLUT), и выходные точки поворота могут представлять точки поворота, обратно отображенные на основе обратной поисковой таблицы (InvLUT). Также, FP_PREC может быть предопределенным постоянным значением. FP_PREC из Уравнения 2 может быть тем же или отличным от FP_PREC из Уравнения 1. Коэффициент масштабирования, определенный на основе Уравнения 2, может называться коэффициентом масштабирования для обратного повторного формирования. При обратном повторном формировании, разбиение входных точек поворота может выполняться на основе коэффициента масштабирования Уравнения 2. Коэффициент SF масштабирования используется для сегментации диапазона входных точек поворота. На основе сегментированных входных точек поворота, индексам бинов в диапазоне от 0 до минимального индекса бина (reshaper_model_min_bin_idx) и/или от минимального индекса бина (reshaper_model_min_bin_idx) до максимального индекса бина (reshape_model_max_bin_idx) назначаются значения поворота соответственно минимальному и максимальному значениям бинов.[179] In Equation 2, SF denotes a scaling factor, x1 and x2 denote input pivots, and y1 and y2 denote output pivots corresponding to each bin (inverse mapping output pivots). Here, input pivots may represent pivots mapped based on a forward lookup table (FwdLUT) and output pivots may represent pivots mapped inversely based on an inverse lookup table (InvLUT). Also, FP_PREC may be a predefined constant value. FP_PREC of Equation 2 may be the same or different from FP_PREC of Equation 1. The scaling factor determined based on Equation 2 may be referred to as the scaling factor for inverse regeneration. In reverse reshaping, the splitting of the input pivot points can be performed based on the scaling factor of Equation 2. The scaling factor SF is used to segment the range of input pivot points. Based on the segmented input pivot points, bin indices ranging from 0 to the minimum bin index (reshaper_model_min_bin_idx) and/or from the minimum bin index (reshaper_model_min_bin_idx) to the maximum bin index (reshape_model_max_bin_idx) are assigned rotation values corresponding to the minimum and maximum bin values.

[180] Таблица 7 ниже показывает синтаксис модели формирователя в соответствии с вариантом осуществления. Модель формирователя может называться моделью повторного формирования или моделью LMCS. Здесь, модель формирователя была описана для примера как формирователь группы мозаичных элементов, но настоящий документ не ограничен этим вариантом осуществления. Например, модель формирователя может быть включена в APS, или модель формирователя группы мозаичных элементов может называться моделью формирователя вырезки или данными LMCS. Также, префикс reshaper_model или Rsp может использоваться взаимозаменяемо с lmcs. Например, в следующих таблицах и описании ниже, reshaper_model_min_bin_idx, reshaper_model_delta_max_bin_idx, reshaper_model_max_bin_idx, RspCW, RsepDeltaCW могут использоваться взаимозаменяемо с lmcs_min_bin_idx, lmcs_delta_cs_bin_idx, lmx, lmcs_delta_csDcselta_idx, lmx, соответственно.[180] Table 7 below shows the syntax of the builder model according to the embodiment. The shaper model may be referred to as a regeneration model or an LMCS model. Here, a builder model has been described as a tile group builder by way of example, but the present document is not limited to this embodiment. For example, a builder model may be included in the APS, or a tile group builder model may be referred to as a cutout builder model or LMCS data. Also, the reshaper_model or Rsp prefix can be used interchangeably with lmcs. For example, in the following tables and description below, reshaper_model_min_bin_idx, reshaper_model_delta_max_bin_idx, reshaper_model_max_bin_idx, RspCW, RsepDeltaCW can be used interchangeably with lmcs_min_bin_idx, lmcs_delta_cs_bin_idx, lmx, lmcs_delta_csDcselta_idx, lmx, respectively.

[181] [Таблица 7][181] [Table 7]

Figure 00000009
Figure 00000009

[182] Семантика синтаксических элементов, включенных в синтаксис Таблицы 7, может включать в себя, например, содержимое, раскрытое в следующей таблице.[182] The semantics of the syntax elements included in the syntax of Table 7 may include, for example, the content disclosed in the following table.

[183] [Таблица 8][183] [Table 8]

Figure 00000010
Figure 00000010

[184]

Figure 00000011
[184]
Figure 00000011

[185] Процесс обратного отображения для выборки яркости в соответствии с настоящим документом может быть описан в форме документа стандарта, как показано в Таблице ниже.[185] The demapping process for luminance sampling according to the present document may be described in the form of a standard document as shown in the Table below.

[186] [Таблица 9][186] [Table 9]

Figure 00000012
Figure 00000012

[187] Идентификация процесса кусочного индекса функции для выборки яркости в соответствии с настоящим документом может быть описана в форме документа стандарта, как показано в Таблице ниже. В Таблице 10, idxYInv может называться индексом обратного отображения, и индекс обратного отображения может выводиться на основе восстановленных выборок яркости (lumaSample).[187] The process identification of a piecewise function index for luminance sampling according to the present document may be described in the form of a standard document as shown in the Table below. In Table 10, idxYInv may be referred to as a demap index, and the demap index may be derived based on the recovered luma samples (lumaSample).

[188] [Таблица 10][188] [Table 10]

Figure 00000013
Figure 00000013

[189] Отображение яркости может выполняться на основе вышеописанных вариантов осуществления и примеров, и вышеописанные синтаксис и компоненты, включенные в них, могут быть только примерными представлениями, и варианты осуществления в настоящем документе не ограничены вышеупомянутыми таблицами или уравнениями. Далее описан способ для выполнения остаточного масштабирования цветности (масштабирования для компонентов цветности остаточных выборок) на основе отображения яркости.[189] Luminance display can be performed based on the above-described embodiments and examples, and the above-described syntax and components included therein can only be exemplary representations, and the embodiments herein are not limited to the above tables or equations. The following describes a method for performing residual chrominance scaling (scaling for chrominance components of residual samples) based on luminance mapping.

[190] (Зависимое от яркости) остаточное масштабирование цветности предназначено для компенсации взаимодействия между сигналом яркости и его соответствующими сигналами цветности. Например, то, включено ли или нет остаточное масштабирование цветности, также сигнализируется на уровне группы мозаичных элементов. В одном примере, если отображение яркости включено и если разбиение двойного дерева (также известное как отдельное дерево цветности) не применяется к текущей группе мозаичных элементов, дополнительная метка сигнализируется, чтобы указывать, включено или нет зависимое от яркости остаточное масштабирование цветности. В другом примере, когда отображение яркости не используется или когда разбиение двойного дерева используется в текущей группе мозаичных элементов, зависимое от яркости остаточное масштабирование цветности выключено. В другом примере, зависимое от яркости остаточное масштабирование цветности всегда выключено для блоков цветности, у которых площадь меньше или равна 4.[190] The (Luminance Dependent) residual chrominance scaling is designed to compensate for the interaction between the luminance signal and its corresponding chrominance signals. For example, whether residual chroma scaling is enabled or not is also signaled at the tile group level. In one example, if luminance mapping is enabled and if a binary tree split (also known as a separate chroma tree) is not applied to the current tile group, an additional flag is signaled to indicate whether luminance-dependent residual chroma scaling is enabled or not. In another example, when luminance mapping is not used or when binary tree splitting is used in the current tile group, luminance-dependent residual chroma scaling is turned off. In another example, luma-dependent residual chroma scaling is always off for chrominance blocks whose area is less than or equal to 4.

[191] Остаточное масштабирование цветности может быть основано на среднем значении соответствующего блока предсказания яркости (компонента яркости блока предсказания, к которому применяется режим интра-предсказания и/или режим интер-предсказания). Операции масштабирования на стороне кодера и/или стороне декодера могут быть реализованы при помощи целочисленной арифметики с фиксированной запятой на основе Уравнения 3 ниже.[191] The residual chrominance scaling may be based on the average value of the corresponding luminance prediction block (the luminance component of the prediction block to which the intra-prediction mode and/or the inter-prediction mode is applied). The scaling operations on the encoder side and/or the decoder side may be implemented using fixed-point integer arithmetic based on Equation 3 below.

[192] [Уравнение 3][192] [Equation 3]

Figure 00000014
Figure 00000014

[193] В Уравнении 3, c обозначает остаток цветности (остаточную выборку цветности, компонент цветности остаточной выборки), c' обозначает масштабированную остаточную выборку цветности (масштабированный компонент цветности остаточной выборки), s обозначает коэффициент остаточного масштабирования цветности, и CSCALE_FP_PREC обозначает (предопределенное) постоянное значение, чтобы специфицировать степень точности. Например, CSCALE_FP_PREC может составлять 11. Коэффициент масштаба остатка цветности вычисляется из ChromaScaleCoef[idxS], где idxS определяется соответствующим средним значением яркости TU в переформированной области.[193] In Equation 3, c denotes the chrominance residual (chroma residual sample, residual sample chrominance component), c' denotes the scaled chrominance residual sample (scaled residual sample chrominance component), s denotes the chrominance residual scaling factor, and CSCALE_FP_PREC denotes (predefined) a constant value to specify the degree of precision. For example, CSCALE_FP_PREC may be 11. The chroma residual scale factor is calculated from ChromaScaleCoef[idxS], where idxS is determined by the corresponding average TU luminance value in the reshaped area.

[194] Фиг. 9 является блок-схемой последовательности операций, иллюстрирующей способ для вывода индекса остаточного масштабирования цветности в соответствии с вариантом осуществления настоящего документа. Способ на фиг. 9 может выполняться на основе фиг. 6, и таблиц, уравнений, переменных, массивов и функций, включенных в описание, относящееся к фиг. 6.[194] FIG. 9 is a flowchart illustrating a method for outputting a residual chrominance scaling index according to an embodiment of the present document. The method in FIG. 9 can be performed based on FIG. 6 and the tables, equations, variables, arrays, and functions included in the description relating to FIG. 6.

[195] На этапе S910, может определяться, является ли режим предсказания для текущего блока режимом интра-предсказания или режимом интер-предсказания, на основе информации режима предсказания. Если режим предсказания является режимом интра-предсказания, текущий блок или выборки предсказания текущего блока рассматриваются как находящиеся в переформированной (отображенной) области. Если режим предсказания является режимом интер-предсказания, текущий блок или выборки предсказания текущего блока рассматриваются как находящиеся в исходной (не-отображенной, не-переформированной) области.[195] In step S910, it may be determined whether the prediction mode for the current block is the intra prediction mode or the inter prediction mode based on the prediction mode information. If the prediction mode is an intra-prediction mode, the current block or prediction samples of the current block are considered to be in the reshaped (mapped) area. If the prediction mode is an inter-prediction mode, the current block or prediction samples of the current block are considered to be in the original (non-mapped, non-reformed) region.

[196] На этапе S920, когда режим предсказания является режимом интра-предсказания, среднее текущего блока (или выборки предсказания яркости текущего блока) может вычисляться (выводиться). То есть, среднее текущего блока в уже переформированной области вычисляется непосредственно. Среднее может также называться средним значением, средним или усредненным значением.[196] In step S920, when the prediction mode is an intra-prediction mode, the average of the current block (or luminance prediction samples of the current block) may be calculated (output). That is, the average of the current block in the already reshaped area is calculated directly. The mean may also be referred to as mean, average, or average.

[197] На этапе S921, когда режим предсказания является режимом интер-предсказания, прямое повторное формирование (прямое отображение) может выполняться (применяться) на выборках предсказания яркости текущего блока. Через прямое повторное формирование, выборки предсказания яркости на основе режима интер-предсказания могут отображаться из исходной области в переформированную область. В одном примере, прямое повторное формирование выборок предсказания яркости может выполняться на основе модели повторного формирования, описанной при помощи Таблицы 7 выше.[197] In step S921, when the prediction mode is an inter prediction mode, direct regeneration (forward mapping) may be performed (applied) on the brightness prediction samples of the current block. Through forward reshaping, luma prediction samples based on the inter prediction mode can be mapped from the original region to the regenerated region. In one example, direct luma prediction resampling may be performed based on the resampling model described with Table 7 above.

[198] На этапе S922, среднее прямых переформированных (прямых отображенных) выборок предсказания яркости может вычисляться (выводиться). То есть, может выполняться процесс усреднения для прямого переформированного результата.[198] In step S922, the average of the forward reshaped (forward mapped) luminance prediction samples may be calculated (output). That is, an averaging process can be performed for the direct reshaped result.

[199] На этапе S930, может вычисляться индекс остаточного масштабирования цветности. Когда режим предсказания является режимом интра-предсказания, индекс остаточного масштабирования цветности может вычисляться на основе среднего выборок предсказания яркости. Когда режим предсказания является режимом интер-предсказания, индекс остаточного масштабирования цветности может вычисляться на основе среднего прямых переформированных выборок предсказания яркости.[199] In step S930, a residual chrominance scaling index may be calculated. When the prediction mode is an intra prediction mode, a residual chrominance scaling index may be calculated based on an average of the luminance prediction samples. When the prediction mode is an inter-prediction mode, a residual chrominance scaling index may be calculated based on the average of the direct reshaped luma prediction samples.

[200] В варианте осуществления, индекс остаточного масштабирования цветности может вычисляться на основе контурного синтаксиса. Таблица ниже показывает пример для контура синтаксиса для вывода (вычисления) индекса остаточного масштабирования цветности.[200] In an embodiment, the chroma residual scaling index may be calculated based on the outline syntax. The table below shows an example for a syntax loop for deriving (calculating) the chroma residual scaling index.

[201] [Таблица 11][201] [Table 11]

Figure 00000015
Figure 00000015

[202] В Таблице 11, idxS представляет индекс остаточного масштабирования цветности, idxFound представляет индекс, идентифицирующий, получен ли индекс остаточного масштабирования цветности, удовлетворяющий условию оператора if, S представляет предопределенное постоянное значение, и MaxBinIdx представляет максимальный разрешенный индекс бина. ReshapPivot[idxS+1] может выводиться на основе Таблицы 7 и/или 8, описанной выше.[202] In Table 11, idxS represents the residual chroma scaling index, idxFound represents an index identifying whether a residual chroma scaling index satisfying the condition of the if statement is obtained, S represents a predefined constant value, and MaxBinIdx represents the maximum allowed bin index. ReshapPivot[idxS+1] may be derived based on Table 7 and/or 8 described above.

[203] В варианте осуществления, коэффициент остаточного масштабирования цветности может выводиться на основе индекса остаточного масштабирования цветности. Уравнение 4 является примером для вывода коэффициента остаточного масштабирования цветности.[203] In an embodiment, the chroma residual scaling factor may be derived based on the chroma residual scaling index. Equation 4 is an example for deriving the residual chrominance scaling factor.

[204] [Уравнение 4][204] [Equation 4]

Figure 00000016
Figure 00000016

[205] В Уравнении 4, s представляет коэффициент остаточного масштабирования цветности, и ChromaScaleCoef может быть переменной (или массивом), выведенной на основе Таблицы 7 и/или 8, описанной выше.[205] In Equation 4, s represents the residual chroma scaling factor, and ChromaScaleCoef may be a variable (or array) derived from Table 7 and/or 8 described above.

[206] Как описано выше, может быть получено среднее значение яркости опорных выборок, и коэффициент остаточного масштабирования цветности может выводиться на основе среднего значения яркости. Как описано выше, остаточная выборка компонента цветности может масштабироваться на основе коэффициента остаточного масштабирования цветности, и выборка восстановления компонента цветности может генерироваться на основе масштабированной остаточной выборки компонента цветности.[206] As described above, an average luminance value of the reference samples may be obtained, and a residual chrominance scaling factor may be derived based on the average luminance value. As described above, the chrominance residual sample may be scaled based on the chrominance residual scaling factor, and the chrominance component reconstruction sample may be generated based on the scaled chrominance residual sample.

[207] В одном варианте осуществления настоящего документа, предложена структура сигнализации для эффективного применения вышеописанного LMCS. В соответствии с этим вариантом осуществления настоящего документа, например, данные LMCS могут быть включены в HLS (т.е., APS), и через информацию заголовка (т.е., заголовок картинки, заголовок вырезки), которая представляет собой более низкий уровень APS, модель LMCS (модель формирователя) может адаптивно выводиться путем сигнализации ID APS, которое называется информацией заголовка. Модель LMCS может выводиться на основе параметров LMCS. Также, например, множество APS ID может сигнализироваться через информацию заголовка, и посредством этого, разные модели LMCS могут применяться в единицах блоков в пределах одной и той же картинки/вырезки.[207] In one embodiment of the present document, a signaling framework is proposed for the efficient use of the above-described LMCS. According to this embodiment of the present document, for example, LMCS data can be included in the HLS (i.e., APS), and through header information (i.e., picture title, slice title), which is a lower level APS, LMCS model (model shaper) can be adaptively derived by signaling the APS ID, which is called header information. The LMCS model can be derived based on the LMCS parameters. Also, for example, a plurality of APS IDs may be signaled via header information, and thereby, different LMCS models may be applied in units of blocks within the same picture/cutout.

[208] В одном варианте осуществления в соответствии с настоящим документом, предложен способ для эффективного выполнения операции, требуемой для LMCS. В соответствии с семантикой, описанной выше в Таблице 8, операция деления на длину фрагмента lmcsCW[i] (также обозначаемого RspCW[i] в настоящем документе) требуется для выведения InvScaleCoeff[i]. Длина фрагмента обратного отображения может не быть степенью 2, что означает, что деление не может выполняться посредством битового сдвига.[208] In one embodiment, according to the present document, a method is provided for efficiently performing an operation required for an LMCS. In accordance with the semantics described above in Table 8, a division by the fragment length lmcsCW[i] (also referred to as RspCW[i] in this document) is required to derive InvScaleCoeff[i]. The length of the inverse map fragment may not be a power of 2, which means that the division cannot be performed by a bit shift.

[209] Например, вычисление InvScaleCoeff может требовать до 16 делений на вырезку. В соответствии с Таблицей 8, описанной выше, для кодирования 10 битов, диапазон lmcsCW[i] составляет от 8 до 511, поэтому, чтобы реализовать операцию деления на lmcsCW[i] с использованием LUT, размер LUT должен составлять 504. Также, для кодирования 12 битов, диапазон lmcsCW[i] составляет от 32 до 2047, поэтому размер LUT должен составлять 2016, чтобы реализовать операцию деления на lmcsCW[i] с использованием LUT. То есть, деление является затратным в аппаратной реализации, поэтому желательно по возможности избегать деления.[209] For example, the calculation of InvScaleCoeff may require up to 16 divisions per slice. According to Table 8 above, for encoding 10 bits, the range of lmcsCW[i] is from 8 to 511, so in order to implement the division by lmcsCW[i] operation using LUT, the LUT size must be 504. Also, for encoding 12 bits, lmcsCW[i] range is 32 to 2047, so the LUT size must be 2016 in order to implement divide by lmcsCW[i] using LUT. That is, division is costly in hardware implementation, so it is desirable to avoid division whenever possible.

[210] В одном аспекте этого варианта осуществления, lmcsCW[i] может быть ограничено как кратное фиксированного числа (или предварительно определенного числа). Соответственно, поисковая таблица (LUT) (емкость или размер LUT) для деления может быть уменьшена. Например, если lmcsCW[i] становится кратным 2, размер LUT для замены процесса деления может уменьшаться вполовину.[210] In one aspect of this embodiment, lmcsCW[i] may be limited to a multiple of a fixed number (or a predetermined number). Accordingly, the lookup table (LUT) (capacity or LUT size) for division can be reduced. For example, if lmcsCW[i] becomes a multiple of 2, the size of the LUT to replace the fission process can be halved.

[211] В другом аспекте этого варианта осуществления, предложено, что для кодирования с кодированием более высокой внутренней битовой глубины, в дополнение к существующим ограничениям «значение lmcsCW[i] должно находиться в диапазоне от (OrgCW>>3) до (OrgCW<<3−1)», дополнительным ограничением должно быть то, что lmcsCW[i] кратно 1<<(BitDepthY-10), если битовая глубина кодирования выше, чем 10. Здесь, BitDepthY может представлять собой битовую глубину яркости. Соответственно, возможное число lmcsCW[i] не будет меняться с битовой глубиной кодирования, и размер LUT, необходимый для вычисления InvScaleCoeff, не увеличивается для более высокой глубины кодирования. Например, для внутренней битовой глубины кодирования 12 битов, ограничение lmcsCW[i] является кратным 4, тогда LUT для замены процесса деления будет той же самой, что и LUT, подлежащая использованию для кодирования 10 битов. Этот аспект может быть реализован отдельно, но он может также быть реализован в комбинации с вышеупомянутым аспектом.[211] In another aspect of this embodiment, it is proposed that in order to encode with a higher internal bit depth encoding, in addition to the existing restrictions, "the value of lmcsCW[i] must be in the range of (OrgCW>>3) to (OrgCW<< 3-1)", an additional constraint should be that lmcsCW[i] is a multiple of 1<<(BitDepthY-10) if the encoding bit depth is higher than 10. Here, BitDepthY may represent the luma bit depth. Accordingly, the possible number lmcsCW[i] will not change with the bit depth, and the size of the LUT required to calculate InvScaleCoeff does not increase for a higher bit depth. For example, for an internal encoding bit depth of 12 bits, the constraint lmcsCW[i] is a multiple of 4, then the LUT to replace the division process will be the same as the LUT to be used to encode 10 bits. This aspect may be implemented alone, but it may also be implemented in combination with the above aspect.

[212] В другом аспекте этого варианта осуществления, lmcsCW[i] может быть ограничено более узким диапазоном. Например, lmcsCW[i] может быть ограничено в пределах диапазона от (OrgCW>>1) до (OrgCW<<1)-1. Тогда для кодирования 10 битов, диапазон lmcsCW[i] может составлять [32, 127], и поэтому необходима только LUT, имеющая размер 96, для вычисления InvScaleCoeff.[212] In another aspect of this embodiment, lmcsCW[i] may be limited to a narrower range. For example, lmcsCW[i] can be limited to the range (OrgCW>>1) to (OrgCW<<1)-1. Then for encoding 10 bits, the range of lmcsCW[i] can be [32, 127], and therefore only a LUT having a size of 96 is needed to calculate InvScaleCoeff.

[213] В другом аспекте настоящего варианта осуществления, lmcsCW[i] аппроксимироваться ближайшими числами, являющимися степенью 2, и использоваться при разработке формирователя. Соответственно, деление в обратном отображении может выполняться (и заменяться) битовым сдвигом.[213] In another aspect of the present embodiment, lmcsCW[i] is approximated by nearest numbers that are powers of 2 and used in the design of the shaper. Accordingly, the division in the inverse mapping can be performed (and replaced) by a bit shift.

[214] В одном варианте осуществления в соответствии с настоящим документом, предложено ограничение диапазона кодовых слов LMCS. В соответствии с Таблицей 8, описанной выше, значения кодовых слов LMCS находятся в диапазоне от (OrgCW>>3) до (OrgCW<<3)-1. Этот диапазон кодовых слов является слишком широким. Это может приводить к проблеме визуального артефакта, когда существуют большие разности между RspCW [i] и OrgCW.[214] In one embodiment, according to the present document, a range limitation of LMCS codewords is proposed. As shown in Table 8 above, the LMCS codeword values range from (OrgCW>>3) to (OrgCW<<3)-1. This codeword range is too wide. This can lead to a visual artifact problem when there are large differences between RspCW[i] and OrgCW.

[215] В соответствии с одним вариантом осуществления согласно настоящему документу, предложено ограничивать кодовое слово отображения LMCS PWL более узким диапазоном. Например, диапазон lmcsCW[i] может находиться в диапазоне от (OrgCW>>1) до (OrgCW<<1)-1.[215] In accordance with one embodiment according to the present document, it is proposed to limit the LMCS PWL mapping codeword to a narrower range. For example, lmcsCW[i] can range from (OrgCW>>1) to (OrgCW<<1)-1.

[216] В одном варианте осуществления в соответствии с настоящим документом, использование одного коэффициента остаточного масштабирования цветности предложено для остаточного масштабирования цветности в LMCS. Существующий способ для вывода коэффициента остаточного масштабирования цветности использует среднее значение соответствующего блока яркости и выводит наклон каждого фрагмента обратного отображения яркости как соответствующий коэффициент масштабирования. К тому же, процесс для идентификации кусочного индекса требует доступности соответствующего блока яркости, это приводит к проблеме задержки. Это нежелательно для аппаратной реализации. В соответствии с этим вариантом осуществления настоящего документа, масштабирование в блоке цветности может не зависеть от значения блока яркости, и может не требоваться идентифицировать кусочный индекс. Поэтому, процесс остаточного масштабирования цветности в LMCS может выполняться без проблемы задержки.[216] In one embodiment according to the present document, the use of a single chroma residual scaling factor is proposed for chroma residual scaling in an LMCS. The existing method for outputting the residual chrominance scaling factor uses the average value of the corresponding luma block and outputs the slope of each luminance inverse map tile as the corresponding scaling factor. In addition, the process for identifying a chunked index requires the availability of the corresponding luma block, which leads to a latency problem. This is undesirable for hardware implementation. In accordance with this embodiment of the present document, the scaling in the chrominance block may not depend on the value of the luminance block, and it may not be necessary to identify the chunk index. Therefore, the residual chroma scaling process in the LMCS can be performed without a delay problem.

[217] В одном варианте осуществления в соответствии с настоящим документом, один коэффициент масштабирования цветности может выводиться как из кодера, так и декодера на основе информации яркости LMCS. Когда модель яркости LMCS принята, коэффициент остаточного масштабирования цветности может обновляться. Например, когда модель LMCS обновляется, один коэффициент остаточного масштабирования цветности может обновляться.[217] In one embodiment according to the present document, one chrominance scaling factor can be derived from both the encoder and the decoder based on the luminance information of the LMCS. When the LMCS luma model is received, the residual chrominance scaling factor may be updated. For example, when the LMCS model is updated, one residual chroma scaling factor may be updated.

[218] Таблица ниже показывает пример для получения одного коэффициента масштабирования цветности в соответствии с настоящим вариантом осуществления.[218] The table below shows an example for obtaining one chrominance scaling factor in accordance with the present embodiment.

[219] [Таблица 12][219] [Table 12]

Figure 00000017
Figure 00000017

[220] Со ссылкой на Таблицу 12, один коэффициент масштабирования цветности (например, ChromaScaleCoeff или ChromaScaleCoeffSingle) может быть получен путем усреднения наклонов обратного отображения яркости всех фрагментов в пределах lmcs_min_bin_idx и lmcs_max_bin_idx.[220] With reference to Table 12, one chroma scaling factor (eg, ChromaScaleCoeff or ChromaScaleCoeffSingle) can be obtained by averaging the luma inverse mapping slopes of all tiles within lmcs_min_bin_idx and lmcs_max_bin_idx.

[221] Фиг. 10 иллюстрирует линейную аппроксимацию точек поворота в соответствии с вариантом осуществления настоящего документа. На фиг. 10, показаны точки P1, Ps и P2 поворота. Следующие варианты осуществления или их примеры будут описаны при помощи фиг. 10.[221] FIG. 10 illustrates a linear approximation of turning points in accordance with an embodiment of the present document. In FIG. 10, turning points P1, Ps and P2 are shown. The following embodiments or examples thereof will be described with reference to FIGS. ten.

[222] В примере этого варианта осуществления, один коэффициент масштабирования цветности может быть получен на основе линейного приближения отображения яркости PWL между точками lmcs_min_bin_idx и lmcs_max_bin_idx+1 поворота. То есть, обратный наклон линейного отображения может использоваться как коэффициент остаточного масштабирования цветности. Например, линейная линия 1 на фиг. 10 может быть прямой линией, соединяющей точки P1 и P2 поворота. Со ссылкой на фиг. 10, в P1, входное значение составляет x1, и отображенное значение составляет 0, и в P2, входное значение составляет x2, и отображенное значение составляет y2. Обратный наклон (обратный масштаб) линейной линии 1 составляет (x2-x1)/y2, и один коэффициент ChromaScaleCoeffSingle масштабирования цветности может вычисляться на основе входных значений и отображенных значений точек P1, P2 поворота и следующего уравнения.[222] In an example of this embodiment, one chroma scaling factor can be obtained based on a linear approximation of the PWL luminance display between the pivot points lmcs_min_bin_idx and lmcs_max_bin_idx+1. That is, the inverse slope of the linear display can be used as the residual chrominance scaling factor. For example, linear line 1 in FIG. 10 may be a straight line connecting the pivot points P1 and P2. With reference to FIG. 10, at P1, the input value is x1 and the displayed value is 0, and at P2, the input value is x2 and the displayed value is y2. The inverse slope (inverse scale) of the linear line 1 is (x2-x1)/y2, and one chroma scaling factor ChromaScaleCoeffSingle may be calculated based on the input values and the displayed values of the pivot points P1, P2 and the following equation.

[223] [Уравнение 5][223] [Equation 5]

Figure 00000018
Figure 00000018

[224] В Уравнении 5, CSCALE_FP_PREC представляет коэффициент сдвига, например, CSCALE_FP_PREC может представлять собой предопределенное постоянное значение. В одном примере, CSCALE_FP_PREC может составлять 11.[224] In Equation 5, CSCALE_FP_PREC represents a shift factor, for example, CSCALE_FP_PREC may be a predetermined constant value. In one example, CSCALE_FP_PREC may be 11.

[225] В другом примере в соответствии с этим вариантом осуществления, со ссылкой на фиг. 10, входное значение в точке поворота Ps составляет min_bin_idx+1, и отображенное значение в точке поворота Ps составляет ys. Соответственно, обратный наклон (обратный масштаб) линейной линии 1 может вычисляться как (xs-x1)/ys, и один коэффициент ChromaScaleCoeffSingle масштабирования цветности может вычисляться на основе входных значений и отображенных значений точек поворота P1, Ps и следующего уравнения.[225] In another example according to this embodiment, with reference to FIG. 10, the input value at the pivot point Ps is min_bin_idx+1, and the displayed value at the pivot point Ps is ys. Accordingly, the inverse slope (inverse scale) of the linear line 1 may be calculated as (xs-x1)/ys, and one ChromaScaleCoeffSingle chroma scaling factor may be calculated based on the input values and the displayed values of the turning points P1, Ps and the following equation.

[226] [Уравнение 6][226] [Equation 6]

Figure 00000019
Figure 00000019

[227] В Уравнении 6, CSCALE_FP_PREC представляет коэффициент сдвига (коэффициент для битового сдвига), например, CSCALE_FP_PREC может представлять собой предопределенное постоянное значение. В одном примере, CSCALE_FP_PREC может составлять 11, и битовый сдвиг для обратного масштаба может выполняться на основе CSCALE_FP_PREC.[227] In Equation 6, CSCALE_FP_PREC represents a shift factor (factor for bit shift), for example, CSCALE_FP_PREC may be a predetermined constant value. In one example, CSCALE_FP_PREC may be 11 and the bit shift for inverse scaling may be performed based on CSCALE_FP_PREC.

[228] В другом примере в соответствии с этим вариантом осуществления, один коэффициент остаточного масштабирования цветности может выводиться на основе линии линейной аппроксимации. Пример для вывода линии линейной аппроксимации может включать в себя линейное соединение точек поворота (т.е., lmcs_min_bin_idx, lmcs_max_bin_idx+1). Например, результат линейной аппроксимации может быть представлен кодовыми словами отображения PWL. Отображенное значение y2 в P2 может быть суммой кодовых слов всех бинов (фрагментов), и разность между входным значением в P2 и входным значением в P1 (x2-x1) составляет OrgCW*(lmcs_max_bin_idx-lmcs_min_bin_idx+1) (для OrgCW, см. Таблицу 8 выше). Таблица ниже показывает пример получения одного коэффициента масштабирования цветности в соответствии с вышеописанным вариантом осуществления.[228] In another example, according to this embodiment, one residual chrominance scaling factor may be derived based on a linear approximation line. An example for deriving a linear approximation line may include a linear connection of the turning points (ie, lmcs_min_bin_idx, lmcs_max_bin_idx+1). For example, the result of the linear approximation may be represented by PWL mapping codewords. The displayed value of y2 in P2 can be the sum of the codewords of all bins (fragments), and the difference between the input value in P2 and the input value in P1 (x2-x1) is OrgCW*(lmcs_max_bin_idx-lmcs_min_bin_idx+1) (for OrgCW, see Table 8 above). The table below shows an example of obtaining one chrominance scaling factor according to the above-described embodiment.

[229] [Таблица 13][229] [Table 13]

Figure 00000020
Figure 00000020

[230] Со ссылкой на Таблицу 13, один коэффициент масштабирования цветности (например, ChromaScaleCoeffSingle) может быть получен из двух точек поворота (т.е., lmcs_min_bin_idx, lmcs_max_bin_idx). Например, обратный наклон линейного отображения может использоваться как коэффициент масштабирования цветности.[230] With reference to Table 13, one chroma scaling factor (eg, ChromaScaleCoeffSingle) can be obtained from two pivot points (ie, lmcs_min_bin_idx, lmcs_max_bin_idx). For example, the inverse slope of a linear display may be used as a chrominance scaling factor.

[231] В другом примере этого варианта осуществления, один коэффициент масштабирования цветности может быть получен путем линейной аппроксимации точек поворота, чтобы минимизировать ошибку (или среднеквадратичную ошибку) между линейной аппроксимацией и существующим отображением PWL. Этот пример может быть более точным, чем просто соединение двух точек поворота в lmcs_min_bin_idx и lmcs_max_bin_idx. Существует много способов найти оптимальное линейное отображение, и такой пример описан ниже.[231] In another example of this embodiment, one chroma scaling factor can be obtained by linear approximation of the turning points to minimize the error (or rms error) between the linear approximation and the existing PWL mapping. This example can be more accurate than just concatenating the two pivots in lmcs_min_bin_idx and lmcs_max_bin_idx. There are many ways to find the optimal line mapping, and such an example is described below.

[232] В одном примере, параметры b1 и b0 уравнения y=b1*x+b0 линейной аппроксимации для минимизации суммы наименьшей квадратичной ошибки могут вычисляться на основе Уравнений 7 и/или 8 ниже.[232] In one example, the parameters b1 and b0 of the linear approximation equation y=b1*x+b0 for minimizing the sum of the least squared error can be calculated based on Equations 7 and/or 8 below.

[233] [Уравнение 7][233] [Equation 7]

Figure 00000021
Figure 00000021

[234] [Уравнение 8][234] [Equation 8]

Figure 00000022
Figure 00000022

[235] В Уравнении 7 и 8, x является исходными значениями яркости, и y является переформированными значениями яркости, и

Figure 00000023
и
Figure 00000024
являются средним x и y, и xi и yi представляют значения i-ых точек поворота.[235] In Equations 7 and 8, x is the original luminance values and y is the reshaped luminance values, and
Figure 00000023
and
Figure 00000024
are the average of x and y, and x i and y i represent the values of the i-th pivot points.

[236] Со ссылкой на фиг. 10, другая простая аппроксимация для идентификации линейного отображения задается следующим образом:[236] With reference to FIG. 10, another simple approximation for identifying a line mapping is given as follows:

[237] - Получить линейную линию 1 путем соединения точек поворота отображения PWL в lmcs_min_bin_idx и lmcs_max_bin_idx+1, вычисленных lmcs_pivots_linear[i] этой линейной линии при входных значениях кратных OrgW.[237] - Obtain linear line 1 by joining the PWL mapping pivot points at lmcs_min_bin_idx and lmcs_max_bin_idx+1 computed by lmcs_pivots_linear[i] of this linear line with input multiples of OrgW.

[238] - Суммировать разности между отображенными значениями точек поворота с использованием линейной линии 1 и с использованием отображения PWL. [238] - Sum the differences between the displayed values of the turning points using Linear 1 and using the PWL display.

[239] - Получить среднюю разность avgDiff.[239] - Get the average difference avgDiff.

[240] - Отрегулировать последнюю точку поворота линейной линии в соответствии со средней разностью, например, 2*avgDiff.[240] - Adjust the last turning point of the linear line according to the mean difference, eg 2*avgDiff.

[241] - Использовать обратный наклон отрегулированной линейной линии как масштаб остатка цветности.[241] - Use the reverse slope of the adjusted linear line as the chroma residual scale.

[242] В соответствии с вышеописанной линейной аппроксимацией, коэффициент масштабирования цветности (т.е., обратный наклон прямого отображения) может выводиться (получаться) на основе Уравнения 9 или 10 ниже.[242] According to the linear approximation described above, the chrominance scaling factor (i.e., forward display inverse slope) can be derived (obtained) based on Equation 9 or 10 below.

[243] [Уравнение 9][243] [Equation 9]

Figure 00000025
Figure 00000025

[244] [Уравнение 10][244] [Equation 10]

Figure 00000026
Figure 00000026

[245] В вышеописанных уравнениях, lmcs_pivots_lienar[i] может представлять собой отображенные значения линейного отображения. При линейном отображении, все фрагменты отображения PWL между минимальным и максимальным индексами бинов могут иметь одно и то же кодовое слово LMCS (lmcsCW). То есть, lmcs_pivots_linear[lmcs_min_bin_idx+1] может быть тем же самым, что и lmcsCW[lmcs_min_bin_idx].[245] In the above equations, lmcs_pivots_lienar[i] may be mapped values of the linear map. In a linear mapping, all PWL mapping tiles between the minimum and maximum bin indexes may have the same LMCS codeword (lmcsCW). That is, lmcs_pivots_linear[lmcs_min_bin_idx+1] can be the same as lmcsCW[lmcs_min_bin_idx].

[246] Также, в Уравнениях 9 и 10, CSCALE_FP_PREC представляет коэффициент сдвига (коэффициент для битового сдвига), например, CSCALE_FP_PREC может представлять собой предопределенное постоянное значение. В одном примере, CSCALE_FP_PREC может составлять 11.[246] Also, in Equations 9 and 10, CSCALE_FP_PREC represents a shift factor (factor for bit shift), for example, CSCALE_FP_PREC may be a predetermined constant value. In one example, CSCALE_FP_PREC may be 11.

[247] С одним коэффициентом остаточного масштабирования цветности (ChromaScaleCoeffSingle), больше нет необходимости вычислять среднее соответствующего блока яркости, находить индекс в линейном отображении PWL, чтобы получить коэффициент остаточного масштабирования цветности. Соответственно, эффективность кодирования с использованием остаточного масштабирования цветности может быть повышена. Это не только устраняет зависимость от соответствующего блока яркости, решает проблему задержки, но также уменьшает сложность.[247] With one chroma residual scaling factor (ChromaScaleCoeffSingle), it is no longer necessary to calculate the average of the corresponding luminance block, find the index in the PWL linear mapping, to obtain the chroma residual scaling factor. Accordingly, coding efficiency using residual chrominance scaling can be improved. This not only eliminates the dependency on the corresponding luminance block, solves the delay problem, but also reduces the complexity.

[248] В другом варианте осуществления настоящего документа, кодер может определять параметры, относящиеся к одному коэффициенту масштабирования цветности, и сигнализировать параметры на декодер. При сигнализации, кодер может использовать другую информацию, доступную в кодере, чтобы вывести коэффициент масштабирования цветности. Этот вариант осуществления нацелен на устранение проблемы задержки остаточного масштабирования цветности.[248] In another embodiment of the present document, an encoder may determine parameters related to one chrominance scaling factor and signal the parameters to a decoder. When signaling, the encoder may use other information available at the encoder to derive a chroma scaling factor. This embodiment aims to eliminate the residual chrominance scaling delay problem.

[249] Например, другой пример для идентификации линейного отображения, подлежащего использованию для определения остаточного коэффициента масштабирования цветности, задается следующим образом:[249] For example, another example for identifying a linear display to be used to determine the residual chrominance scaling factor is given as follows:

[250] - Путем соединения точек поворота отображения PWL в lcs_min_bin_idx и lmcs_max_bin_idx+1, вычисленных lmcs_pivots_linear[i] из этой линейной линия при входных значениях, кратных OrgW[250] - By connecting the PWL mapping pivots at lcs_min_bin_idx and lmcs_max_bin_idx+1 computed by lmcs_pivots_linear[i] from this linear line at input multiples of OrgW

[251] - Получить взвешенную сумму разностей между отображенными значениями точек поворота с использованием линейной линии 1 и значениями отображения яркости PWL. Вес может быть основан на статистике кодера, такой как гистограмма бина. [251] - Get the weighted sum of the differences between the displayed pivot point values using Linear 1 and the PWL luminance display values. The weight may be based on an encoder statistic such as a bin histogram.

[252] - Получить взвешенную усредненную разность avgDiff.[252] - Get the weighted average difference avgDiff.

[253] - Отрегулировать последнюю точку поворота линейной линии 1 в соответствии с взвешенной усредненной разностью, например, 2*avgDiff.[253] - Adjust the last turning point of linear line 1 according to the weighted average difference, eg 2*avgDiff.

[254] - Использовать обратный наклон отрегулированной линейной линии, чтобы вычислить масштаб остатка цветности.[254] - Use the inverse slope of the adjusted linear line to calculate the chroma residual scale.

[255] Таблица ниже показывает примеры синтаксисов для сигнализации значения y для вывода коэффициента масштабирования цветности.[255] The table below shows examples of syntaxes for signaling the value of y to output the chrominance scaling factor.

[256] [Таблица 14][256] [Table 14]

Figure 00000027
Figure 00000027

[257] В Таблице 14, синтаксический элемент lmcs_chroma_scale может специфицировать один коэффициент (остаточного) масштабирования цветности, используемый для остаточного масштабирования цветности LMCS (ChromaScaleCoeffSingle=lmcs_chroma_scale). То есть, информация о коэффициенте остаточного масштабирования цветности может непосредственно сигнализироваться, и сигнализированная информация может выводиться как коэффициент остаточного масштабирования цветности. Другими словами, значение сигнализированной информации о коэффициенте остаточного масштабирования цветности может (непосредственно) выводиться как значение одного коэффициента остаточного масштабирования цветности. Здесь, синтаксический элемент lmcs_chroma_scale может сигнализироваться вместе с другими данными LMCS (т.е. синтаксическим элементом, относящимся к абсолютному значению и знаку кодового слова, и т.д.).[257] In Table 14, the lmcs_chroma_scale syntax element may specify one chroma (residual) scaling factor used for LMCS residual chroma scaling (ChromaScaleCoeffSingle=lmcs_chroma_scale). That is, the chroma residual scaling factor information can be directly signaled, and the signaled information can be output as the chroma residual scaling factor. In other words, the value of the signaled chroma residual scaling factor information can be (directly) output as the value of one chroma residual scaling factor. Here, the lmcs_chroma_scale syntax element may be signaled along with other LMCS data (ie, a syntax element relating to the absolute value and sign of the codeword, etc.).

[258] Альтернативно, кодер может сигнализировать только необходимые параметры, чтобы вывести коэффициент остаточного масштабирования цветности в декодере. Чтобы вывести коэффициент остаточного масштабирования цветности в декодере, требуется входное значение x и отображенное значение y. Поскольку значение x является длиной бина и является известным числом, его не нужно сигнализировать. В сущности, только значение y должно сигнализироваться, чтобы вывести коэффициент остаточного масштабирования цветности. Здесь, значение y может быть отображенным значением любой точки поворота в линейном отображении (т.е., отображенные значения P2 или Ps на фиг. 10).[258] Alternatively, the encoder may signal only the necessary parameters to output the residual chrominance scaling factor at the decoder. To output the residual chrominance scaling factor at the decoder, an input x value and a mapped y value are required. Since the value of x is the length of the bin and is a known number, it does not need to be signaled. In essence, only the value of y needs to be signaled to output the residual chroma scaling factor. Here, the value of y may be the mapped value of any pivot point in the linear display (ie, the mapped values of P2 or Ps in FIG. 10).

[259] Следующие таблицы показывают примеры сигнализации отображенных значений для вывода коэффициента остаточного масштабирования цветности.[259] The following tables show examples of signaling mapped values for deriving the residual chrominance scaling factor.

[260] [Таблица 15][260] [Table 15]

Figure 00000028
Figure 00000028

[261] [Таблица 16][261] [Table 16]

Figure 00000029
Figure 00000029

[262] Один из синтаксисов Таблиц 15 и 16, описанных выше, может использоваться, чтобы сигнализировать значение y в любых линейных точках поворота, специфицированных кодером и декодером. То есть, кодер и декодер могут выводить значение y с использованием одного и того же синтаксиса.[262] One of the syntaxes of Tables 15 and 16 described above may be used to signal the value of y at any linear turning points specified by the encoder and decoder. That is, the encoder and decoder can output the value of y using the same syntax.

[263] Сначала, описан вариант осуществления в соответствии с Таблицей 15. В Таблице 15, lmcs_cw_linear может обозначать отображенное значение при Ps или P2. То есть, в варианте осуществления в соответствии с Таблицей 15, фиксированное число может сигнализироваться через lmcs_cw_linear.[263] First, an embodiment is described in accordance with Table 15. In Table 15, lmcs_cw_linear may denote a mapped value at Ps or P2. That is, in the embodiment according to Table 15, the fixed number may be signaled via lmcs_cw_linear.

[264] В примере в соответствии с этим вариантом осуществления, если lmcs_cw_linear обозначает отображенное значение одного бина (т.е. lmcs_pivots_linear[lmcs_min_bin_idx+1] в Ps согласно фиг. 10), коэффициент масштабирования цветности может выводиться на основе следующего уравнения.[264] In the example according to this embodiment, if lmcs_cw_linear denotes a mapped value of one bin (i.e., lmcs_pivots_linear[lmcs_min_bin_idx+1] in Ps according to Fig. 10), the chrominance scaling factor may be derived based on the following equation.

[265] [Уравнение 11][265] [Equation 11]

Figure 00000030
Figure 00000030

[266] В другом примере в соответствии с этим вариантом осуществления, если lmcs_cw_linear обозначает lmcs_max_bin_idx+1 (т.е. lmcs_pivots_linear[lmcs_max_bin_idx+1] в P2 согласно фиг. 10), коэффициент масштабирования цветности может выводиться на основе следующего уравнения.[266] In another example according to this embodiment, if lmcs_cw_linear denotes lmcs_max_bin_idx+1 (i.e., lmcs_pivots_linear[lmcs_max_bin_idx+1] in P2 of FIG. 10), the chroma scaling factor may be derived based on the following equation.

[267] [Уравнение 12][267] [Equation 12]

Figure 00000031
Figure 00000031

[268] В вышеописанных уравнениях, CSCALE_FP_PREC представляет коэффициент сдвига (коэффициент для битового сдвига), например, CSCALE_FP_PREC может представлять собой предопределенное постоянное значение. В одном примере, CSCALE_FP_PREC может составлять 11.[268] In the above equations, CSCALE_FP_PREC represents a shift factor (coefficient for bit shift), for example, CSCALE_FP_PREC may be a predetermined constant value. In one example, CSCALE_FP_PREC may be 11.

[269] Далее, описан вариант осуществления в соответствии с Таблицей 16. В этом варианте осуществления, lmcs_cw_linear может сигнализироваться как значение дельта относительно фиксированного числа (т.е. lmcs_delta_abs_cw_linear, lmcs_delta_sign_cw_linear_flag). В примере этого варианта осуществления, когда lmcs_cw_linear представляет отображенное значение в lmcs_pivots_linear[lmcs_min_bin_idx+1] (т.е. Ps согласно фиг. 10), lmcs_cw_linear_delta и lmcs_cw_linear могут выводиться на основе следующих уравнений.[269] Next, an embodiment is described in accordance with Table 16. In this embodiment, lmcs_cw_linear may be signaled as a delta value about a fixed number (i.e., lmcs_delta_abs_cw_linear, lmcs_delta_sign_cw_linear_flag). In the example of this embodiment, when lmcs_cw_linear represents the mapped value in lmcs_pivots_linear[lmcs_min_bin_idx+1] (i.e. Ps according to FIG. 10), lmcs_cw_linear_delta and lmcs_cw_linear can be derived based on the following equations.

[270] [Уравнение 13][270] [Equation 13]

Figure 00000032
Figure 00000032

[271] [Уравнение 14][271] [Equation 14]

Figure 00000033
Figure 00000033

[272] В другом примере этого варианта осуществления, когда lmcs_cw_linear представляет отображенное значение в lmcs_pivots_linear[lmcs_max_bin_idx+1] (т.е. P2 согласно фиг. 10), lmcs_cw_linear_delta и lmcs_cw_linear могут выводиться на основе следующих уравнений.[272] In another example of this embodiment, when lmcs_cw_linear represents the mapped value in lmcs_pivots_linear[lmcs_max_bin_idx+1] (i.e., P2 of FIG. 10), lmcs_cw_linear_delta and lmcs_cw_linear may be derived based on the following equations.

[273] [Уравнение 15][273] [Equation 15]

Figure 00000034
Figure 00000034

[274] [Уравнение 16][274] [Equation 16]

Figure 00000035
Figure 00000035

[275] В вышеописанных уравнениях, OrgCW может представлять собой значение, выведенное на основе Таблицы 8, описанной выше.[275] In the above equations, OrgCW may be a value derived from Table 8 described above.

[276] Фиг. 11 иллюстрирует один пример линейного повторного формирования (или линейного переформирования, линейного отображения) в соответствии с вариантом осуществления настоящего документа. То есть, в этом варианте осуществления, предложено использование линейного формирователя в LMCS. Например, пример на фиг. 11 может относиться к прямому линейному повторному формированию (отображению).[276] FIG. 11 illustrates one example of a linear reshaping (or linear reshaping, linear mapping) according to an embodiment of the present document. That is, in this embodiment, the use of a line driver in the LMCS is proposed. For example, the example in FIG. 11 may refer to direct linear regeneration (display).

[277] В существующем примере, LMCS может использовать кусочно-линейное отображение с фиксированными 16 фрагментами. Это усложняет схему формирователя, поскольку резкий переход между точками поворота может вызывать нежелательный артефакт. Также, для обратного отображения яркости формирователя, необходимо идентифицировать кусочный индекс функции. Процесс идентификации кусочного индекса функции является процессом итерации с множеством сравнений. Более того, для остаточного масштабирования цветности с использованием соответствующего среднего блока яркости, также необходим такой процесс идентификации кусочного индекса яркости. Это не только имеет проблему сложности, это также вызывает задержку остаточного масштабирования цветности в зависимости от восстановления всего блока яркости. Чтобы решить эту проблему, использование линейного формирователя предложено для LMCS.[277] In the present example, the LMCS may use a piecewise linear mapping with fixed 16 tiles. This complicates the shaper circuit, since a sharp transition between turning points can cause an unwanted artifact. Also, in order to inversely display the brightness of the shaper, it is necessary to identify the piecewise index of the function. The process of identifying a piecewise function index is an iterative process with many comparisons. Moreover, for residual chrominance scaling using the corresponding average luminance block, such a piecewise luminance index identification process is also needed. Not only does this have a complexity issue, it also causes a delay in residual chroma scaling depending on restoring the entire luma block. To solve this problem, the use of a line driver is proposed for the LMCS.

[278] Со ссылкой на фиг. 11, линейный формирователь может включать в себя две точки поворота т.е., P1 и P2. P1 и P2 могут представлять входное и отображенное значения, например, P1 может составлять (min_input, 0) и P2 может составлять (max_input, max_mapped). Здесь, min_input представляет минимальное входное значение, и max_input представляет максимальное входное значение. Любые входные значения, меньшие или равные min_input, отображаются в 0, любые входные значения, большие max_input, отображаются в max_mapped. Любые входные значения яркости в пределах min_input и max_input линейно отображаются в другие значения. Фиг. 11 показывает пример отображения. Точки P1, P2 поворота могут определяться в кодере, и линейная аппроксимация может использоваться, чтобы аппроксимировать кусочно-линейное отображение.[278] With reference to FIG. 11, the line driver may include two pivot points, i.e., P1 and P2. P1 and P2 may represent input and mapped values, for example, P1 may be (min_input, 0) and P2 may be (max_input, max_mapped). Here, min_input represents the minimum input value and max_input represents the maximum input value. Any input values less than or equal to min_input are mapped to 0, any input values greater than max_input are mapped to max_mapped. Any brightness input values within min_input and max_input map linearly to other values. Fig. 11 shows a display example. The pivot points P1, P2 may be determined in the encoder and a linear approximation may be used to approximate a piecewise linear mapping.

[279] Существует много способов сигнализировать линейный формирователь. В примере способа сигнализации линейного формирователя, исходный диапазон яркости может делиться на равное число бинов. То есть, отображение яркости между минимальным и максимальным бинами может равномерно распределяться. Например, все бины могут иметь одно и то же кодовое слово LMCS (lmcsCW). По этой причине, минимальный и максимальный индексы бинов могут сигнализироваться. Поэтому должен сигнализироваться только один набор reshape_model_bin_delta_abs_CW (или reshaper_model_delta_abs_CW, lmcs_delta_abs_CW) и reshaper_model_bin_delta_sign_CW_flag (или reshaper_model_delta_sign_CW_flag_sign_CW_flag).[279] There are many ways to signal a line driver. In an example of a line driver signaling method, the original luminance range may be divided into an equal number of bins. That is, the luminance mapping between the minimum and maximum bins can be evenly distributed. For example, all bins may have the same LMCS codeword (lmcsCW). For this reason, the minimum and maximum bin indexes can be signaled. Therefore, only one set of reshape_model_bin_delta_abs_CW (or reshaper_model_delta_abs_CW, lmcs_delta_abs_CW) and reshaper_model_bin_delta_sign_CW_flag (or reshaper_model_delta_sign_CW_flag_sign_CW_flag) should be signaled.

[280] Следующие таблицы показывают примерный синтаксис и семантику сигнализации линейного формирователя в соответствии с этим примером.[280] The following tables show exemplary syntax and signaling semantics of a linear driver in accordance with this example.

[281] [Таблица 17][281] [Table 17]

Figure 00000036
Figure 00000036

[282] [Таблица 18][282] [Table 18]

Figure 00000037
Figure 00000037

[283] Со ссылкой на Таблицы 17 и 18, синтаксический элемент log2_lmcs_num_bins_minus4 может представлять собой информацию о числе бинов. На основе этой информации, число бинов может сигнализироваться, чтобы разрешать лучшее управление минимальной и максимальной точками поворота. В другом существующем примере, кодер и/или декодер может выводить (специфицировать) (фиксированное) число бинов без сигнализации, например, число бинов выводится как 16 или 32. Однако, в соответствии с примерами Таблиц 17 и 18, log2_lmcs_num_bins_minus4 plus 4 может представлять двоичный логарифм числа бинов. Число бинов, выведенное на основе синтаксического элемента, может быть в диапазоне от 4 до значения битовой глубины яркости BitDepthY.[283] With reference to Tables 17 and 18, the syntax element log2_lmcs_num_bins_minus4 may represent information about the number of bins. Based on this information, the number of bins can be signaled to allow better control of the minimum and maximum turning points. In another existing example, the encoder and/or decoder may output (specify) the (fixed) number of bins without signaling, for example, the number of bins is output as 16 or 32. However, in accordance with the examples of Tables 17 and 18, log2_lmcs_num_bins_minus4 plus 4 may represent a binary logarithm of the number of bins. The number of bins derived from the syntax element can be in the range from 4 to the luma bit depth value BitDepthY.

[284] В Таблице 18, ScaleCoeffSingle может упоминаться как один коэффициент прямого масштабирования яркости, и InvScaleCoeffSingle может упоминаться как один коэффициент обратного масштабирования яркости. (Прямое) отображение на предсказании выборки яркости может выполняться на основе одного коэффициента прямого масштабирования яркости, и (обратное) отображение на восстановленных выборках яркости может выполняться на основе одного коэффициента обратного масштабирования яркости. ChromaScaleCoeffSingle, как описано выше, может упоминаться как один коэффициент остаточного масштабирования цветности. ScaleCoeffSingle, InvScaleCoeffSingle и ChromaScaleCoeffSingle могут использоваться для прямого отображения яркости, обратного отображения яркости и остаточного масштабирования цветности, соответственно. ScaleCoeffSingle, InvScaleCoeffSingle и ChromaScaleCoeffSingle могут одинаково применяться ко всем бинам (отображениям PWL 16 бинов) как один коэффициент.[284] In Table 18, ScaleCoeffSingle may be referred to as one forward luminance scaling factor, and InvScaleCoeffSingle may be referred to as one inverse luminance scaling factor. (Forward) mapping on the luminance sample prediction may be performed based on a single forward luminance scaling factor, and (inverse) mapping on the reconstructed luma samples may be performed based on a single inverse luminance scaling factor. ChromaScaleCoeffSingle, as described above, may be referred to as one residual chroma scaling factor. ScaleCoeffSingle, InvScaleCoeffSingle, and ChromaScaleCoeffSingle can be used for luminance forward mapping, luminance inverse mapping, and chroma residual scaling, respectively. ScaleCoeffSingle, InvScaleCoeffSingle and ChromaScaleCoeffSingle can be equally applied to all bins (16 bin PWL mappings) as a single coefficient.

[285] Со ссылкой на Таблицу 18, FP_PREC и CSCALE_FP_PREC могут быть постоянными значениями для битового сдвига. FP_PREC и CSCALE_FP_PREC могут или не могут быть одинаковыми. Например, FP_PREC может быть больше или равно CSCALE_FP_PREC. В одном примере, FP_PREC и CSCALE_FP_PREC могут оба составлять 11. В другом примере, FP_PREC может составлять 15, и CSCALE_FP_PREC может составлять 11.[285] With reference to Table 18, FP_PREC and CSCALE_FP_PREC may be constant values for the bit shift. FP_PREC and CSCALE_FP_PREC may or may not be the same. For example, FP_PREC may be greater than or equal to CSCALE_FP_PREC. In one example, FP_PREC and CSCALE_FP_PREC may both be 11. In another example, FP_PREC may be 15 and CSCALE_FP_PREC may be 11.

[286] В другом примере способа сигнализации линейного формирователя, кодовое слово LMCS (lmcsCWlinearALL) может выводиться на основе следующих уравнений в Таблице 19. Также в этом примере, могут использоваться синтаксические элементы линейного повторного формирования в Таблице 17. Следующая таблица показывает пример семантики, описанной в соответствии с этим примером.[286] In another example of a linear generator signaling method, an LMCS codeword (lmcsCWlinearALL) may be derived based on the following equations in Table 19. Also in this example, the linear regeneration syntax elements in Table 17 may be used. The following table shows an example of the semantics described according to this example.

[287] [Таблица 19][287] [Table 19]

Figure 00000038
Figure 00000038

[288] Со ссылкой на Таблицу 19, FP_PREC и CSCALE_FP_PREC могут быть постоянными значениями для битового сдвига. FP_PREC и CSCALE_FP_PREC могут или не могут быть одинаковыми. Например, FP_PREC может быть больше или равным CSCALE_FP_PREC. В одном примере, FP_PREC и CSCALE_FP_PREC могут оба составлять 11. В другом примере, FP_PREC может составлять 15, и CSCALE_FP_PREC может составлять 11.[288] With reference to Table 19, FP_PREC and CSCALE_FP_PREC may be constant values for the bit shift. FP_PREC and CSCALE_FP_PREC may or may not be the same. For example, FP_PREC may be greater than or equal to CSCALE_FP_PREC. In one example, FP_PREC and CSCALE_FP_PREC may both be 11. In another example, FP_PREC may be 15 and CSCALE_FP_PREC may be 11.

[289] В Таблице 19, lmcs_max_bin_idx может использоваться взаимозаменяемо с LmcsMaxBinIdx. lmcs_max_bin_idx и LmcsMaxBinIdx могут выводиться на основе lmcs_delta_max_bin_idx синтаксиса Таблиц 17 и 18, описанных выше. Например, Таблица 19 может интерпретироваться со ссылкой на Таблицу 18.[289] In Table 19, lmcs_max_bin_idx can be used interchangeably with LmcsMaxBinIdx. lmcs_max_bin_idx and LmcsMaxBinIdx may be derived based on the lmcs_delta_max_bin_idx syntax of Tables 17 and 18 described above. For example, Table 19 may be interpreted with reference to Table 18.

[290] В другом варианте осуществления в соответствии с настоящим документом, может быть предложен другой пример способа для сигнализации линейного формирователя. Точки P1, P2 поворота модели линейного формирователя могут сигнализироваться явно. Следующие таблицы показывают пример синтаксиса и семантики для явной сигнализации модели линейного формирователя в соответствии с этим примером.[290] In another embodiment according to the present document, another exemplary method for signaling a line driver may be provided. The turning points P1, P2 of the linear generator model can be signaled explicitly. The following tables show an example of the syntax and semantics for explicitly signaling a linear conditioner model according to this example.

[291] [Таблица 20][291] [Table 20]

Figure 00000039
Figure 00000039

[292] [Таблица 21][292] [Table 21]

Figure 00000040
Figure 00000040

[293] Со ссылкой на Таблицы 20 и 21, входное значение первой точки поворота может выводиться на основе синтаксического элемента lmcs_min_input, и входное значение второй точки поворота может выводиться на основе синтаксического элемента lmcs_max_input. Отображенное значение первой точки поворота может представлять собой предопределенное значение (значение, известное кодеру и декодеру), например, отображенное значение первой точки поворота равно 0. Отображенное значение второй точки поворота может выводиться на основе синтаксического элемента lmcs_max_mapped. То есть, модель линейного формирователя может явно (непосредственно) сигнализироваться на основе информации, сигнализированной в синтаксисе Таблицы 20.[293] With reference to Tables 20 and 21, the first pivot point input value may be derived based on the lmcs_min_input syntax element, and the second pivot point input value may be derived based on the lmcs_max_input syntax element. The mapped value of the first pivot point may be a predefined value (a value known to the encoder and decoder), for example, the mapped value of the first pivot point is 0. The mapped value of the second pivot point may be inferred based on the lmcs_max_mapped syntax element. That is, the line driver model can be explicitly (directly) signaled based on the information signaled in the syntax of Table 20.

[294] Альтернативно, lmcs_max_input и lmcs_max_mapped могут сигнализироваться как значения дельта. Следующие таблицы показывают пример синтаксиса и семантики для сигнализации модели линейного формирователя как значений дельта.[294] Alternatively, lmcs_max_input and lmcs_max_mapped may be signaled as delta values. The following tables show an example of the syntax and semantics for signaling a linear shaper model as delta values.

[295] [Таблица 22][295] [Table 22]

Figure 00000041
Figure 00000041

[296] [Таблица 23][296] [Table 23]

Figure 00000042
Figure 00000042

[297] Со ссылкой на Таблицу 23, входное значение первой точки поворота может выводиться на основе синтаксического элемента lmcs_min_input. Например, lmcs_min_input может иметь отображенное значение 0. lmcs_max_input_delta может специфицировать разность между входным значением второй точки поворота и максимальным значением яркости (т.е., (1<<bitdepthY)-1). lmcs_max_mapped_delta может специфицировать разность между отображенным значением второй точки поворота и максимальным значением яркости (т.е., (1<<bitdepthY)-1).[297] With reference to Table 23, the input value of the first pivot point may be derived based on the lmcs_min_input syntax element. For example, lmcs_min_input may have a mapped value of 0. lmcs_max_input_delta may specify the difference between the second pivot input value and the maximum brightness value (ie, (1<<bitdepthY)-1). lmcs_max_mapped_delta may specify the difference between the mapped value of the second pivot point and the maximum brightness value (ie, (1<<bitdepthY)-1).

[298] В соответствии с вариантом осуществления настоящего документа, прямое отображение для выборки предсказания яркости, обратное отображение для выборок восстановления яркости и остаточное масштабирование цветности могут выполняться на основе вышеописанных примеров линейного формирователя. В одном примере, только один обратный коэффициент масштабирования может требоваться для обратного масштабирования для (восстановленных) выборок (пикселов) яркости в обратном отображении на основе линейного формирователя. Это также истинно для прямого отображения и остаточного масштабирования цветности. То есть, этапы для определения ScaleCoeff[i], InvScaleCoeff[i] и ChromaScaleCoeff[i], где i является индексом бина, могут быть заменены на только один коэффициент. Здесь, один коэффициент является представлением фиксированной точки (прямого) наклона или обратного наклона линейного отображения. В одном примере, коэффициент масштабирования обратного отображения яркости (коэффициент обратного масштабирования в обратном отображении для выборок восстановления яркости) может выводиться на основе по меньшей мере одного из следующих уравнений.[298] According to an embodiment of the present document, forward mapping for luminance prediction samples, inverse mapping for luminance restoration samples, and residual chroma scaling can be performed based on the above-described examples of the linear generator. In one example, only one inverse scaling factor may be required for inverse scaling for (reconstructed) luma samples (pixels) in a linearizer-based inverse mapping. This is also true for direct mapping and residual chroma scaling. That is, the steps for determining ScaleCoeff[i], InvScaleCoeff[i], and ChromaScaleCoeff[i], where i is a bin index, can be replaced with only one coefficient. Here, one coefficient is a fixed-point representation of the (forward) slope or inverse slope of the linear display. In one example, the luminance inverse mapping scaling factor (the luminance inverse mapping inverse scaling factor for luminance restoration samples) may be derived based on at least one of the following equations.

[299] [Уравнение 17][299] [Equation 17]

Figure 00000043
Figure 00000043

[300] [Уравнение 18][300] [Equation 18]

Figure 00000044
Figure 00000044

[301] [Уравнение 19][301] [Equation 19]

Figure 00000045
Figure 00000045

[302] lmcsCWLinear из Уравнения 17 может выводиться из Таблиц 17 и 18, описанных выше. lmcsCWLinearALL из Уравнений 18 и 19 может выводиться из по меньшей мере одной из Таблиц 19-23, описанных выше. В Уравнении 17 или 18, OrgCW может выводиться из Таблицы 8 или 18.[302] lmcsCWLinear from Equation 17 can be derived from Tables 17 and 18 described above. lmcsCWLinearALL from Equations 18 and 19 may be derived from at least one of Tables 19-23 described above. In Equation 17 or 18, OrgCW may be derived from Table 8 or 18.

[303] Следующие таблицы описывают уравнения и синтаксис (условные утверждения), указывающие процесс прямого отображения для выборок яркости (т.е. выборок предсказания яркости) в восстановлении картинки. В следующих таблицах и уравнениях, FP_PREC является постоянным значением для битового сдвига и может быть предопределенным значением. Например, FP_PREC может составлять 11 или 15.[303] The following tables describe equations and syntax (conditional statements) indicating a direct mapping process for luminance samples (ie, luminance prediction samples) in picture reconstruction. In the following tables and equations, FP_PREC is a constant value for bit shift and may be a predefined value. For example, FP_PREC could be 11 or 15.

[304] [Таблица 24][304] [Table 24]

Figure 00000046
Figure 00000046

[305] [Таблица 25][305] [Table 25]

Figure 00000047
Figure 00000047

[306] Таблица 24 может быть предназначена для вывода прямых отображенных выборок яркости в процессе отображения яркости на основе Таблицы 7 и 8, описанных выше. То есть, Таблица 24 может быть описана вместе с Таблицами 7 и 8. В Таблице 24, прямые отображенные выборки (предсказания) яркости PredMAPSamples[i][j] в качестве выхода могут выводиться из выборок (предсказания) яркости predSamples[i][j] в качестве входа. idxY из Таблицы 24 может называться индексом (прямого) отображения, и индекс отображения может выводиться на основе выборок яркости предсказания.[306] Table 24 may be for outputting direct mapped luminance samples in a luminance mapping process based on Tables 7 and 8 described above. That is, Table 24 may be described in conjunction with Tables 7 and 8. In Table 24, direct mapped luma samples (predictions) PredMAPSamples[i][j] as an output may be derived from luma samples (predictions) predSamples[i][j ] as input. idxY of Table 24 may be referred to as a (forward) display index, and the display index may be derived based on prediction luma samples.

[307] Таблица 25 может быть предназначена для вывода прямых отображенных выборок яркости в отображении яркости на основе линейного формирователя. Например, lmcs_min_input, lmcs_max_input, lmcs_max_mapped и ScaleCoeffSingle из Таблицы 25 могут выводиться по меньшей мере из одной из Таблиц 20-23. В Таблице 25, в случае ‘lmcs_min_input < predSamples[i][j] < lmcs_max_input’, прямые отображенные выборки (предсказания) яркости PredMAPSamples[i][j] могут выводиться как выход из входа, выборки (предсказания) яркости predSamples[i][j]. В сравнении между Таблицей 24 и Таблицей 25, изменение от существующего LMCS в соответствии с применением линейного формирователя можно видеть с точки зрения прямого отображения.[307] Table 25 may be designed to output direct mapped luminance samples in a luminance mapping based on a linear shaper. For example, lmcs_min_input, lmcs_max_input, lmcs_max_mapped, and ScaleCoeffSingle from Table 25 may be derived from at least one of Tables 20-23. In Table 25, in the case of 'lmcs_min_input < predSamples[i][j] < lmcs_max_input', direct mapped luma samples (predictions) PredMAPSamples[i][j] can be output as output from input, luma samples (predictions) predSamples[i] [j]. In comparison between Table 24 and Table 25, the change from the existing LMCS according to the application of the line driver can be seen in terms of direct mapping.

[308] Следующие уравнения описывают процесс обратного отображения для выборок яркости (т.е. выборок восстановления яркости). В следующих уравнениях, ‘lumaSample’ как вход может представлять собой выборку восстановления яркости до обратного отображения (до модификации). ‘invSample’ как выход может представлять собой обратную отображенную (модифицированную) выборку восстановления яркости. В других случаях, усеченное invSample может упоминаться как модифицированная выборка восстановления яркости.[308] The following equations describe the inverse mapping process for luminance samples (ie, luminance recovery samples). In the following equations, 'lumaSample' as an input can be a pre-backmap luminance restoration sample (before modification). 'invSample' as an output may be an inverse mapped (modified) brightness restoration sample. In other cases, the truncated invSample may be referred to as a modified brightness restoration sample.

[309] [Уравнение 20][309] [Equation 20]

Figure 00000048
Figure 00000048

[310] [Уравнение 21][310] [Equation 21]

Figure 00000049
Figure 00000049

[311] Со ссылкой на Уравнение 20, индекс idxInv может выводиться на основе Таблицы 10, описанной выше. То есть, Уравнение 20 может быть предназначено для вывода обратных отображенных выборок яркости в процессе отображения яркости на основе Таблиц 7 и 8, описанных выше. Уравнение 20 может быть описано вместе с Таблицей 9, описанной выше.[311] With reference to Equation 20, the idxInv index may be derived based on Table 10 described above. That is, Equation 20 may be designed to output inverse mapped luminance samples in a luminance mapping process based on Tables 7 and 8 described above. Equation 20 may be described in conjunction with Table 9 described above.

[312] Уравнение 21 может быть предназначено для вывода обратно отображенных выборок яркости в отображении яркости на основе линейного формирователя. Например, lmcs_min_input из Уравнения 21 может выводиться в соответствии с по меньшей мере одной из Таблиц 20-23. В сравнении между Уравнением 20 и Уравнением 21, изменение от существующего LMCS в соответствии с применением линейного формирователя можно видеть с точки зрения прямого отображения.[312] Equation 21 may be designed to output inversely mapped luminance samples in a luminance mapping based on a linear shaper. For example, lmcs_min_input from Equation 21 may be output according to at least one of Tables 20-23. In comparison between Equation 20 and Equation 21, the change from the existing LMCS according to the application of the line driver can be seen in terms of direct mapping.

[313] На основе вышеописанных примеров линейного формирователя, процесс идентификации кусочного индекса может опускаться. То есть, в настоящих примерах, поскольку существует только один фрагмент, имеющий действительные переформированные пикселы яркости, процесс идентификации кусочного индекса, используемый для обратного отображения яркости и остаточного масштабирования цветности, может быть устранен. Соответственно, сложность обратного отображения яркости может быть уменьшена. К тому же, проблемы задержки, вызываемые зависимостью от идентификации кусочного индекса яркости во время остаточного масштабирования цветности, могут быть устранены. [313] Based on the examples of the linear generator described above, the piecewise index identification process may be omitted. That is, in the present examples, since there is only one fragment having actual reshaped luminance pixels, the chunk index identification process used for luma inverse mapping and residual chroma scaling can be eliminated. Accordingly, the complexity of luminance inverse mapping can be reduced. Also, latency problems caused by dependency on the identification of the chunked luma index during residual chroma scaling can be eliminated.

[314] В соответствии с вариантом осуществления использования линейного формирователя, описанным выше, следующие преимущества могут быть обеспечены для LMCS: i) можно упростить схему формирователя кодера, предотвращая возможный артефакт, вызванный резкими изменениями между кусочными линейными фрагментами, ii) процесс обратного отображения декодера, в котором процесс идентификации кусочного индекса может быть устранен, может упрощаться за счет устранения процесса идентификации кусочного индекса, iii) путем устранения процесса идентификации кусочного индекса, можно устранить проблему задержки в остаточном масштабировании цветности, вызываемую зависимостью от соответствующих блоков яркости, iv) можно уменьшить перекрытие сигнализации и сделать частое обновление формирователя более рациональным, v) для множества мест, которые требовались для контура из 16 фрагментов, контур можно устранить. Например, чтобы вывести InvScaleCoeff[i], число операций деления на lmcsCW[i] может быть уменьшено до 1.[314] According to the line generator embodiment described above, the following advantages can be provided for LMCS: i) the encoder generator circuit can be simplified, preventing possible artifact caused by abrupt changes between piecewise line tiles, ii) the decoder demapping process, in which the piecewise index identification process can be eliminated can be simplified by eliminating the piecewise index identification process, iii) by eliminating the piecewise index identification process, the problem of delay in residual chroma scaling caused by dependence on the respective luma blocks can be eliminated, iv) overlap can be reduced signaling and make frequent updating of the shaper more rational, v) for the many places that were required for the 16 fragment loop, the loop can be eliminated. For example, to output InvScaleCoeff[i], the number of divisions by lmcsCW[i] can be reduced to 1.

[315] В другом варианте осуществления в соответствии с настоящим документом, предложено LMCS на основе гибких бинов. Здесь, гибкие бины могут относиться к числу бинов, не фиксированному на предопределенное (предварительно определенное, конкретное) число. В существующем варианте осуществления, число бинов в LMCS фиксировано в 16, и 16 бинов равномерно распределены для входных значений выборки. В этом варианте осуществления, предложено гибкое число бинов, и фрагменты (бины) могут не распределяться одинаково с точки зрения исходных значений пикселов.[315] In another embodiment, in accordance with the present document, the proposed LMCS based on flexible bins. Here, flexible bins may refer to the number of bins not fixed to a predetermined (predetermined, specific) number. In the current embodiment, the number of bins in the LMCS is fixed at 16, and 16 bins are evenly distributed for input sample values. In this embodiment, a flexible number of bins is provided, and fragments (bins) may not be equally distributed in terms of original pixel values.

[316] Следующие таблицы показывают примерный синтаксис для данных LMCS (поля данных) в соответствии с этим вариантом осуществления и семантику для синтаксических элементов, включенных в него.[316] The following tables show exemplary syntax for LMCS data (data fields) in accordance with this embodiment and the semantics for the syntax elements included therein.

[317] [Таблица 26][317] [Table 26]

Figure 00000050
Figure 00000050

[318] [Таблица 27][318] [Table 27]

Figure 00000051
Figure 00000051

[319] Со ссылкой на Таблицу 26, информация о числе бинов lmcs_num_bins_minus1 может сигнализироваться. Со ссылкой на Таблицу 27, lmcs_num_bins_minus1+1 может быть равно числу бинов, из которого число бинов может находиться в диапазоне от 1 до (1<<BitDepthY)-1. Например, lmcs_num_bins_minus1 или lmcs_num_bins_minus1+1 могут быть кратны степени 2.[319] With reference to Table 26, information about the number of bins lmcs_num_bins_minus1 may be signaled. With reference to Table 27, lmcs_num_bins_minus1+1 may be equal to the number of bins, of which the number of bins may range from 1 to (1<<BitDepthY)-1. For example, lmcs_num_bins_minus1 or lmcs_num_bins_minus1+1 can be a multiple of a power of 2.

[320] В варианте осуществления, описанном вместе с таблицами 26 и 27, число точек поворота может выводиться на основе lmcs_num_bins_minus1 (информации о числе бинов), независимо от того, является ли формирователь линейным или нет (сигнализация lmcs_num_bins_minus1), и входные значения и отображенные значения точек поворота (LmcsPivot_input[i], LmcsPivot_mapped[i]) могут выводиться на основе суммирования сигнализированных значений кодовых слов (lmcs_delta_input_cw[i], lmcs_delta_mapped_cw[i]) (здесь, исходное входное значение LmcsPivot_input[0] и исходное выходное значение LmcsPivot_mapped[0] равны 0).[320] In the embodiment described in conjunction with Tables 26 and 27, the number of pivot points may be derived based on lmcs_num_bins_minus1 (bin number information), whether the shaper is linear or not (lmcs_num_bins_minus1 signaling), and the input values and displayed pivot point values (LmcsPivot_input[i], LmcsPivot_mapped[i]) may be derived based on summation of signaled codeword values (lmcs_delta_input_cw[i], lmcs_delta_mapped_cw[i]) (here, original input value LmcsPivot_input[0] and original output value LmcsPivot_mapped[ 0] are equal to 0).

[321] Фиг. 12 показывает пример линейного прямого отображения в варианте осуществления настоящего документа. Фиг. 13 показывает пример обратного прямого отображения в варианте осуществления настоящего документа. В варианте осуществления в соответствии с фиг. 12 и фиг. 13, предложен способ для поддержки как регулярного LMCS, так и линейного LMCS. В примере в соответствии с этим вариантом осуществления, регулярное LMCS и/или линейное LMCS может указываться на основе синтаксического элемента lmcs_is_linear. В кодере, после того как линия линейного LMCS определена, отображенное значение (т.е., отображенное значение в pL на фиг. 12 и фиг. 13) может делиться на равные фрагменты (т.е., LmcsMaxBinIdx-lmcs_min_bin_idx+1). Кодовое слово в бине LmcsMaxBinIdx может сигнализироваться с использованием синтаксисов для данных lmcs или режима формирователя, описанных выше.[321] FIG. 12 shows an example of linear forward mapping in an embodiment of the present document. Fig. 13 shows an example of reverse forward mapping in an embodiment of the present document. In the embodiment according to FIG. 12 and FIG. 13, a method is proposed to support both regular LMCS and linear LMCS. In an example according to this embodiment, regular LMCS and/or linear LMCS may be indicated based on the lmcs_is_linear syntax element. At the encoder, after the linear LMCS line is determined, the mapped value (i.e., the mapped value in pL in FIG. 12 and FIG. 13) may be divided into equal chunks (i.e., LmcsMaxBinIdx-lmcs_min_bin_idx+1). The codeword in the LmcsMaxBinIdx bin may be signaled using the syntaxes for lmcs data or shaper mode described above.

[322] Следующие таблицы показывают примерный синтаксис для данных LMCS (поля данных) и семантику для синтаксических элементов, включенных в него, в соответствии с примером этого варианта осуществления.[322] The following tables show exemplary syntax for LMCS data (data fields) and semantics for the syntax elements included therein, in accordance with an example of this embodiment.

[323] [Таблица 28][323] [Table 28]

Figure 00000052
Figure 00000052

[324] [Таблица 29][324] [Table 29]

Figure 00000053
Figure 00000053

[325]

Figure 00000054
[325]
Figure 00000054

[326] Следующие таблицы примерно показывают синтаксис для данных LMCS (поля данных) и семантику для синтаксических элементов, включенных в него, в соответствии с другим примером этого варианта осуществления.[326] The following tables roughly show the syntax for LMCS data (data fields) and the semantics for the syntax elements included therein, in accordance with another example of this embodiment.

[327] [Таблица 30][327] [Table 30]

Figure 00000055
Figure 00000055

[328] [Таблица 31][328] [Table 31]

Figure 00000056
Figure 00000056

[329]

Figure 00000057
[329]
Figure 00000057

[330] Со ссылкой на Таблицы 28-31, когда lmcs_is_linear_flag истинно, все lmcsDeltaCW[i] между lmcs_min_bin_idx и LmcsMaxBinIdx могут иметь одинаковые значения. То есть, lmcsCW[i] всех фрагментов между lmcs_min_bin_idx и LmcsMaxBinIdx может иметь одинаковые значения. Масштабирование и обратное масштабирование и масштабирование цветности всех фрагментов между lmcs_min_bin_idx и lmcsMaxBinIdx могут быть одинаковыми. Тогда, если линейный формирователь является истинным, то нет необходимости выводить индекс фрагмента, можно использовать масштабирование, обратное масштабирование из только одного из фрагментов.[330] With reference to Tables 28-31, when lmcs_is_linear_flag is true, all lmcsDeltaCW[i] between lmcs_min_bin_idx and LmcsMaxBinIdx may have the same value. That is, lmcsCW[i] of all fragments between lmcs_min_bin_idx and LmcsMaxBinIdx can have the same value. Scaling and inverse scaling and chrominance scaling of all tiles between lmcs_min_bin_idx and lmcsMaxBinIdx can be the same. Then, if the linearizer is true, then there is no need to output the fragment index, one can use scaling, inverse scaling from only one of the fragments.

[331] Следующая таблица показывает примерный процесс идентификации кусочного индекса в соответствии с настоящим вариантом осуществления.[331] The following table shows an exemplary process for identifying a piece index in accordance with the present embodiment.

[332] [Таблица 32][332] [Table 32]

Figure 00000058
Figure 00000058

[333] В соответствии с другим вариантом осуществления настоящего документа, применение регулярного 16-кусочного PWL LMCS и линейного LMCS может зависеть от синтаксиса более высокого уровня (т.е., уровня последовательности).[333] In accordance with another embodiment of the present document, the use of regular 16-piece PWL LMCS and linear LMCS may depend on the syntax of a higher level (ie, sequence level).

[334] Следующие таблицы показывают синтаксис для SPS в соответствии с настоящим вариантом осуществления и семантику для синтаксических элементов, включенных в него.[334] The following tables show the syntax for the SPS according to the present embodiment and the semantics for the syntax elements included therein.

[335] [Таблица 33][335] [Table 33]

Figure 00000059
Figure 00000059

[336] [Таблица 34][336] [Table 34]

Figure 00000060
Figure 00000060

[337] Со ссылкой на Таблицы 33 и 34, включение регулярного LMCS и/или линейного LMCS может определяться (сигнализироваться) синтаксическим элементом, включенным в SPS. Со ссылкой на Таблицу 34, на основе синтаксического элемента sps_linear_lmcs_enabled_flag, одно из регулярного LMCS или линейного LMCS может использоваться в единицах последовательности.[337] With reference to Tables 33 and 34, the inclusion of regular LMCS and/or linear LMCS may be determined (signaled) by a syntax element included in the SPS. With reference to Table 34, based on the sps_linear_lmcs_enabled_flag syntax element, one of a regular LMCS or a linear LMCS may be used in sequence units.

[338] К тому же, то, следует ли включить только линейное LMCS или регулярное LMCS или оба, может также зависеть от уровня профиля. В одном примере, для конкретного профиля (т.е., профиля SDR), может быть разрешено только линейное LMCS, для другого профиля (т.е., профиля HDR), может быть разрешено только регулярное LMCS, и для другого профиля, могут быть разрешены регулярное LMCS и/или линейное LMCS.[338] In addition, whether only linear LMCS or regular LMCS or both should be included may also depend on the profile level. In one example, for a particular profile (i.e., SDR profile), only linear LMCS may be allowed, for another profile (i.e., HDR profile), only regular LMCS may be allowed, and for another profile, regular LMCS and/or linear LMCS be allowed.

[339] В соответствии с другим вариантом осуществления настоящего документа, процесс идентификации кусочного индекса LMCS может использоваться в обратном отображении яркости и остаточном масштабировании цветности. В этом варианте осуществления, процесс идентификации кусочного индекса может использоваться для блоков с включенным остаточным масштабированием цветности и также вызываться для всех выборок яркости в переформированной (отображенной) области. Настоящий вариант осуществления нацелен на поддержание сложности низкой.[339] In accordance with another embodiment of the present document, the LMCS chunk index identification process can be used in luma inverse mapping and chrominance residual scaling. In this embodiment, the chunked index identification process can be used for blocks with residual chroma scaling enabled and also invoked for all luminance samples in the reshaped (mapped) region. The present embodiment aims to keep complexity low.

[340] Следующая таблица показывает процесс идентификации (процесс выведения) существующего кусочного индекса функции.[340] The following table shows the identification process (derivation process) of an existing piecewise function index.

[341] [Таблица 35][341] [Table 35]

Figure 00000061
Figure 00000061

[342] В примере, в процессе идентификации кусочного индекса, входные выборки могут классифицироваться на по меньшей мере две категории. Например, входные выборки могут классифицироваться на три категории, первую, вторую и третью категории. Например, первая категория может представлять выборки (их значения), меньшие, чем LmcsPivot[lmcs_min_bin_idx+1], и вторая категория может представлять выборки (их значения), большие или равные (значениям) LmcsPivot[LmcsMaxBinIdx], третья категория может указывать выборки (их значения) между LmcsPivot[lmcs_min_bin_idx+1] и LmcsPivot[LmcsMaxBinIdx].[342] In an example, in the process of identifying a piecewise index, the input samples may be classified into at least two categories. For example, the input samples may be classified into three categories, first, second, and third categories. For example, the first category may represent samples (their values) less than LmcsPivot[lmcs_min_bin_idx+1], and the second category may represent samples (their values) greater than or equal to (their values) LmcsPivot[LmcsMaxBinIdx], the third category may indicate samples ( their values) between LmcsPivot[lmcs_min_bin_idx+1] and LmcsPivot[LmcsMaxBinIdx].

[343] В этом варианте осуществления, предложено оптимизировать процесс идентификации путем устранения классификаций на категории. То есть, поскольку входом в процесс идентификации кусочного индекса являются значения яркости в переформированной (отображенной) области, не должно быть значений помимо отображенных значений в точках поворота lmcs_min_bin_idx и LmcsMaxBinIdx+1. Соответственно, условный процесс для классификации выборок на категории в существующем процессе идентификации кусочного индекса не нужен. Что касается деталей, конкретные примеры будут описаны ниже при помощи таблиц.[343] In this embodiment, it is proposed to optimize the identification process by eliminating classifications into categories. That is, since the input to the chunked index identification process is the luminance values in the reshaped (mapped) region, there should be no values other than the mapped values at the pivot points lmcs_min_bin_idx and LmcsMaxBinIdx+1. Accordingly, a conditional process for classifying samples into categories is not needed in the existing chunked index identification process. With regard to details, specific examples will be described below using tables.

[344] В примере в соответствии с этим вариантом осуществления, процесс идентификации, включенный в Таблицу 35, может заменяться на процесс Таблиц 36 или 37 ниже. Со ссылкой на Таблицы 36 и 37, первые две категории Таблицы 35 могут быть удалены, и для последней категории, граничное значение (второе граничное значение или конечная точка) в итерации для контура изменяется с LmcsMaxBinIdx на LmcsMaxBinIdx+1. То есть, процесс идентификации может быть упрощен, и сложность для вывода кусочного индекса может быть уменьшена. Соответственно, связанное с LMCS кодирование может эффективно выполняться в соответствии с настоящим вариантом осуществления.[344] In the example according to this embodiment, the identification process included in Table 35 may be replaced by the process of Tables 36 or 37 below. With reference to Tables 36 and 37, the first two categories of Table 35 can be removed, and for the last category, the limit value (second limit value or end point) in the loop iteration is changed from LmcsMaxBinIdx to LmcsMaxBinIdx+1. That is, the identification process can be simplified and the complexity for deriving the piecewise index can be reduced. Accordingly, LMCS-related coding can be efficiently performed according to the present embodiment.

[345] [Таблица 36][345] [Table 36]

Figure 00000062
Figure 00000062

[346] [Таблица 37][346] [Table 37]

Figure 00000063
Figure 00000063

[347] Со ссылкой на Таблицу 36, процесс сравнения, соответствующий условию оператора if (уравнению, соответствующему условию оператора if), может повторно выполняться на всех индексах бинов от минимального индекса бина до максимального индекса бина. Индекс бина, в случае, где уравнение, соответствующее условию оператора if, истинно, может выводиться как индекс обратного отображения для обратного отображения яркости (или индекс обратного масштабирования для остаточного масштабирования цветности). На основе индекса обратного отображения, могут выводиться модифицированные восстановленные выборки яркости (или масштабированные остаточные выборки цветности).[347] With reference to Table 36, the comparison process corresponding to the condition of the if statement (the equation corresponding to the condition of the if statement) may be repeatedly performed on all bin indices from the minimum bin index to the maximum bin index. The index of the bin, in the case where the equation corresponding to the condition of the if statement is true, can be output as a backmap index for luma backmap (or a backscaling index for residual chroma scaling). Based on the inverse mapping index, modified reconstructed luminance samples (or scaled chrominance residual samples) may be output.

[348] Следующие чертежи поясняют конкретные примеры настоящей спецификации. Поскольку названия конкретных устройств, приведенные на чертежах, или названия конкретных сигналов/сообщений/полей представлены в качестве примера, технические признаки настоящей спецификации не ограничены конкретными названиями, используемыми в следующих чертежах.[348] The following drawings explain specific examples of this specification. Since the names of specific devices shown in the drawings or the names of specific signals/messages/fields are given by way of example, the technical features of this specification are not limited to the specific names used in the following drawings.

[349] Фиг. 14 и фиг. 15 схематично показывают пример способа кодирования видео/изображения и связанные компоненты в соответствии с вариантом(ами) осуществления настоящего документа. Способ, раскрытый на фиг. 14, может выполняться устройством кодирования, раскрытым на фиг. 2. Конкретно, например, S1400 на фиг. 14 может выполняться процессором 230 остатка или предсказателем 220 устройства кодирования, S1410 может выполняться предсказателем 220 или сумматором 250 устройства кодирования. S1420 может выполняться процессором 230 остатка или сумматором 250 устройства кодирования, предсказателем 220 или процессором 230 остатка устройства кодирования, S1430 и/или S1440 могут выполняться процессором 230 остатка устройства кодирования, и S1450 может выполняться энтропийным кодером 240 устройства кодирования. Способ, раскрытый на фиг. 14, может включать в себя варианты осуществления, описанные выше в настоящем документе.[349] FIG. 14 and FIG. 15 schematically show an example of a video/image coding method and related components according to the embodiment(s) of the present document. The method disclosed in FIG. 14 may be performed by the encoder disclosed in FIG. 2. Specifically, for example, S1400 in FIG. 14 may be performed by residual processor 230 or encoder predictor 220, S1410 may be performed by predictor 220 or encoder adder 250. S1420 may be performed by encoder residual processor 230 or encoder adder 250, predictor 220 or encoder residual processor 230, S1430 and/or S1440 may be performed by encoder residual processor 230, and S1450 may be performed by entropy encoder 240 of the encoder. The method disclosed in FIG. 14 may include the embodiments described above herein.

[350] Со ссылкой на фиг. 14, устройство кодирования может генерировать выборки яркости предсказания (S1410). Со ссылкой на выборки яркости предсказания, устройство кодирования может выводить выборки яркости предсказания текущего блока на основе режима предсказания. В этом случае, могут применяться различные способы предсказания, раскрытые в настоящем документе, такие как интер-предсказание или интра-предсказания.[350] With reference to FIG. 14, the encoder may generate prediction luma samples (S1410). With reference to the prediction luma samples, the encoding device may output the prediction luma samples of the current block based on the prediction mode. In this case, various prediction methods disclosed herein, such as inter-prediction or intra-prediction, may be applied.

[351] Устройство кодирования может выводить выборки цветности предсказания. Устройство кодирования может выводить остаточные выборки цветности на основе исходных выборок цветности и выборок цветности предсказания текущего блока. Например, устройство кодирования может выводить остаточные выборки цветности на основе разности между выборками цветности предсказания и исходными выборками цветности.[351] An encoder may output prediction chrominance samples. The encoder may derive residual chroma samples based on the original chroma samples and the prediction chroma samples of the current block. For example, the encoder may derive residual chroma samples based on a difference between the prediction chroma samples and the original chroma samples.

[352] Устройство кодирования может генерировать отображенные выборки яркости предсказания (S1410). Например, устройство кодирования может выводить входные значения и отображенные значения (выходные значения) точек поворота для отображения яркости и может генерировать отображенные выборки яркости предсказания на основе входных значений и отображенных значений. В одном примере, устройство кодирования может выводить индекс отображения (idxY) на основе первой выборки предсказания яркости и может генерировать первую отображенную выборку предсказания яркости на основе входного значения и отображенного значения точки поворота, соответствующей индексу отображения. В другом примере, линейное отображение (линейное повторное формирование, линейное LMCS) может использоваться, и отображенные выборки яркости предсказания могут генерироваться на основе коэффициента масштабирования прямого отображения, выведенного из двух точек поворота в линейном отображении, таким образом, процесс вывода индекса может опускаться вследствие линейного отображения.[352] The encoding device may generate mapped prediction luma samples (S1410). For example, the encoder may output input values and mapped values (output values) of pivot points for displaying luminance, and may generate mapped prediction luminance samples based on the input values and mapped values. In one example, the encoder may derive a display index (idxY) based on the first luminance prediction sample, and may generate a first mapped luminance prediction sample based on the input value and the mapped pivot value corresponding to the display index. In another example, a linear mapping (linear regeneration, linear LMCS) may be used, and the mapped prediction luma samples may be generated based on the direct mapping scaling factor derived from the two pivot points in the linear mapping, thus the index derivation process may be omitted due to the linear display.

[353] Устройство кодирования может генерировать масштабированные остаточные выборки цветности. Конкретно, устройство кодирования может выводить коэффициент остаточного масштабирования цветности и генерировать масштабированные остаточные выборки цветности на основе коэффициента остаточного масштабирования цветности. Здесь, остаточное масштабирование цветности стадии кодирования может называться прямым остаточным масштабированием цветности. Соответственно, коэффициент остаточного масштабирования цветности, выведенный устройством кодирования, может называться прямым коэффициентом остаточного масштабирования цветности, и могут генерироваться прямые масштабированные остаточные выборки цветности.[353] An encoder may generate scaled chrominance residual samples. Specifically, the encoding device may output a chroma residual scaling factor and generate scaled chrominance residual samples based on the chrominance residual scaling factor. Here, the residual chrominance scaling of the encoding stage may be referred to as direct residual chroma scaling. Accordingly, the chrominance residual scaling factor output by the encoder may be referred to as the direct chrominance residual scaling factor, and direct scaled chrominance residual samples may be generated.

[354] Устройство кодирования может выводить связанную с LMCS информацию на основе отображенных выборок яркости предсказания (S1420). Кроме того, устройство кодирования может генерировать связанную с LMCS информацию на основе отображенных выборок яркости предсказания и/или масштабированных остаточных выборок цветности. Устройство кодирования может генерировать связанную с LMCS информацию для восстановленных выборок. Устройство кодирования может выводить связанные с LMCS параметры, которые могут применяться для фильтрации восстановленных выборок, и может генерировать связанную с LMCS информацию на основе связанных с LMCS параметров. Например, связанная с LMCS информация может включать в себя информацию об отображении яркости (т.е. прямое отображение, обратное отображение, линейное отображение), информацию об остаточном масштабировании цветности и/или индексы (т.е. максимальный индекс бина, минимальный индекс бина, индекс отображения), связанные с LMCS (или повторным формированием, повторным формирователем). [354] The encoder may derive LMCS related information based on the mapped prediction luma samples (S1420). In addition, the encoder may generate LMCS related information based on the mapped prediction luma samples and/or the scaled chrominance residual samples. The encoder may generate LMCS related information for the recovered samples. The encoder may output LMCS related parameters that can be used to filter the reconstructed samples, and can generate LMCS related information based on the LMCS related parameters. For example, the LMCS-related information may include luma mapping information (i.e., forward mapping, inverse mapping, linear mapping), chroma residual scaling information, and/or indices (i.e., maximum bin index, minimum bin index , display index) associated with the LMCS (or reshaping, reshaper).

[355] Устройство кодирования может генерировать остаточные выборки яркости на основе отображенных выборок яркости предсказания (S1430). Например, устройство кодирования может выводить остаточные выборки яркости на основе разности между отображенными выборками яркости предсказания и исходными выборками яркости.[355] The encoding device may generate residual luminance samples based on the mapped prediction luminance samples (S1430). For example, the encoder may derive residual luminance samples based on a difference between the mapped prediction luminance samples and the original luminance samples.

[356] Устройство кодирования может выводить информацию остатка (S1440). Устройство кодирования может выводить информацию остатка на основе масштабированных остаточных выборок цветности и/или остаточных выборок яркости. Устройство кодирования может выводить коэффициенты преобразования на основе масштабированных остаточных выборок цветности и/или процесса преобразования для остаточных выборок яркости. Например, процесс преобразования может включать в себя по меньшей мере одно из DCT, DST, GBT или CNT. Устройство кодирования может выводить квантованные коэффициенты преобразования на основе процесса квантования для коэффициентов преобразования. Квантованные коэффициенты преобразования могут иметь форму одномерного вектора на основе порядка сканирования коэффициентов. Устройство кодирования может генерировать информацию остатка, специфицирующую квантованные коэффициенты преобразования. Информация остатка может генерироваться посредством различных способов кодирования, такие как экспоненциальное кодирование Голомба, CAVLC, CABAC и тому подобное.[356] The encoder may output residual information (S1440). The encoder may derive residual information based on the scaled chroma residuals and/or luminance residuals. The encoder may derive transform coefficients based on the scaled chroma residuals and/or a transform process for the luma residuals. For example, the conversion process may include at least one of DCT, DST, GBT, or CNT. The encoder may derive quantized transform coefficients based on a quantization process for the transform coefficients. The quantized transform coefficients may be in the form of a one-dimensional vector based on the scan order of the coefficients. The encoder may generate residual information specifying the quantized transform coefficients. The residual information may be generated by various coding methods such as exponential Golomb coding, CAVLC, CABAC, and the like.

[357] Устройство кодирования может кодировать информацию изображения/видео (S1450). Информация изображения может включать в себя связанную с LMCS информацию и/или информацию остатка. Например, связанная с LMCS информация может включать в себя информацию о линейном LMCS. В одном примере, по меньшей мере одно кодовое слово LMCS может выводиться на основе информации о линейном LMCS. Закодированная информация видео/изображения может выводиться в форме битового потока. Битовый поток может передаваться на устройство декодирования через сеть или носитель хранения.[357] An encoding device may encode image/video information (S1450). The image information may include LMCS related information and/or residual information. For example, the LMCS related information may include linear LMCS information. In one example, at least one LMCS codeword may be derived based on linear LMCS information. The encoded video/image information may be output in the form of a bitstream. The bit stream may be transmitted to the decoding device via a network or a storage medium.

[358] Информация изображения/видео может включать в себя различную информацию в соответствии с вариантом осуществления настоящего документа. Например, информация изображения/видео может включать в себя информацию, раскрытую в по меньшей мере одной из Таблиц 1-37, описанных выше.[358] The image/video information may include various information according to an embodiment of the present document. For example, the image/video information may include information disclosed in at least one of Tables 1-37 described above.

[359] В одном варианте осуществления, минимальный индекс бина (т.е., lmcs_min_bin_idx) и/или максимальный индекс бина (т.е., LmcsMaxBinIdx) могут выводиться на основе связанной с LMCS информации. Информация о минимальном индексе бина (т.е., lmcs_min_bin_idx) и/или максимальном индексе бина (т.е., LmcsMaxBinIdx) может быть включена в связанную с LMCS информацию. Первое отображенное значение (LmcsPivot[lmcs_min_bin_idx]) может выводиться на основе минимального индекса бина. Второе отображенное значение (LmcsPivot[LmcsMaxBinIdx] или LmcsPivot[LmcsMaxBinIdx+1]) может выводиться на основе максимального индекса бина. Значения восстановленных выборок яркости (т.е., lumaSample Таблицы 36 или 37) могут находиться в диапазоне от первого отображенного значения до второго отображенного значения. В одном примере, значения всех восстановленных выборок яркости могут находиться в диапазоне от первого отображенного значения до второго отображенного значения. В другом примере, значения некоторых из восстановленных выборок яркости могут находиться в диапазоне от первого отображенного значения до второго отображенного значения.[359] In one embodiment, a minimum bin index (ie, lmcs_min_bin_idx) and/or a maximum bin index (ie, LmcsMaxBinIdx) may be derived based on LMCS related information. Information about the minimum bin index (ie, lmcs_min_bin_idx) and/or the maximum bin index (ie, LmcsMaxBinIdx) may be included in the LMCS related information. The first mapped value (LmcsPivot[lmcs_min_bin_idx]) may be inferred based on the minimum bin index. The second mapped value (LmcsPivot[LmcsMaxBinIdx] or LmcsPivot[LmcsMaxBinIdx+1]) may be derived based on the maximum bin index. The values of the reconstructed luma samples (ie, lumaSample of Tables 36 or 37) may range from the first mapped value to the second mapped value. In one example, the values of all recovered luminance samples may range from the first displayed value to the second displayed value. In another example, the values of some of the reconstructed brightness samples may range from the first displayed value to the second displayed value.

[360] В одном варианте осуществления, информация изображения может включать в себя набор параметров последовательности (SPS). SPS может включать в себя флаг включенного линейного LMCS, специфицирующий, включено ли линейное LMCS.[360] In one embodiment, the image information may include a sequence parameter set (SPS). The SPS may include a linear LMCS enabled flag specifying whether linear LMCS is enabled.

[361] В одном варианте осуществления, устройство кодирования может генерировать (выводить) кусочный индекс для остаточного масштабирования цветности. Устройство кодирования может выводить коэффициент остаточного масштабирования цветности на основе кусочного индекса. Устройство кодирования может генерировать масштабированные остаточные выборки цветности на основе остаточных выборок цветности и коэффициента остаточного масштабирования цветности.[361] In one embodiment, the encoder may generate (output) a chunked index for residual chrominance scaling. The encoder may derive a residual chrominance scaling factor based on the chunked index. The encoder may generate scaled chroma residual samples based on the chrominance residual samples and the chrominance residual scaling factor.

[362] В одном варианте осуществления, коэффициент остаточного масштабирования цветности может представлять собой один коэффициент остаточного масштабирования цветности.[362] In one embodiment, the chroma residual scaling factor may be one chroma residual scaling factor.

[363] В одном варианте осуществления, связанная с LMCS информация может включать в себя поле данных LMCS и информацию о линейном LMCS. Информация о линейном LMCS может называться информацией о линейном отображении. Поле данных LMCS может включать в себя флаг линейного LMCS, указывающий, применяется ли линейное LMCS. Когда значение флага линейного LMCS равно 1, отображенные выборки яркости предсказания могут генерироваться на основе информации о линейном LMCS.[363] In one embodiment, the LMCS related information may include an LMCS data field and linear LMCS information. The linear LMCS information may be referred to as linear mapping information. The LMCS data field may include a linear LMCS flag indicating whether linear LMCS is applied. When the linear LMCS flag value is 1, mapped prediction luma samples may be generated based on the linear LMCS information.

[364] В одном варианте осуществления, информация о линейном LMCS включает в себя информацию о первой точке поворота (т.е. Р1 на фиг. 11) и информацию о второй точке поворота (т.е. Р2 на фиг. 11). Например, входное значение и отображенное значение первой точки поворота представляют собой минимальное входное значение и минимальное отображенное значение, соответственно. Входное значение и отображенное значение второй точки поворота представляют собой максимальное входное значение и максимальное отображенное значение, соответственно. Входные значения между минимальным входным значением и максимальным входным значением являются линейно отображенными.[364] In one embodiment, the linear LMCS information includes first pivot point information (ie, P1 in FIG. 11) and second pivot point information (ie, P2 in FIG. 11). For example, the input value and the displayed value of the first pivot point are the minimum input value and the minimum displayed value, respectively. The input value and the displayed value of the second pivot point are the maximum input value and the maximum displayed value, respectively. Input values between the minimum input value and the maximum input value are linearly mapped.

[365] В одном варианте осуществления, информация изображения включает в себя информацию о максимальном входном значении и информацию о максимальном отображенном значении. Максимальное входное значение равно значению информации о максимальном входном значении (т.е., lmcs_max_input в Таблице 20). Максимальное отображенное значение равно значению информации о максимальном отображенном значении (т.е., lmcs_max_mapped в Таблице 20).[365] In one embodiment, the image information includes information about the maximum input value and information about the maximum displayed value. The maximum input value is equal to the maximum input value information value (ie, lmcs_max_input in Table 20). The maximum mapped value is equal to the maximum mapped value information value (ie, lmcs_max_mapped in Table 20).

[366] В одном варианте осуществления, информация о линейном отображении включает в себя информацию о входном значении дельта второй точки поворота (т.е., lmcs_max_input_delta в Таблице 22) и информацию об отображенном значении дельта второй точки поворота (т.е., lmcs_max_mapped_delta в Таблице 22). Максимальное входное значение может выводиться на основе входного значения дельта второй точки поворота, и максимальное отображенное значение может выводиться на основе отображенного значения дельта второй точки поворота.[366] In one embodiment, the linear mapping information includes information about the input delta value of the second pivot (i.e., lmcs_max_input_delta in Table 22) and information about the mapped delta value of the second pivot (i.e., lmcs_max_mapped_delta in Table 22). The maximum input value may be output based on the input delta value of the second pivot point, and the maximum displayed value may be output based on the displayed delta value of the second pivot point.

[367] В одном варианте осуществления, максимальное входное значение и максимальное отображенное значение могут выводиться на основе по меньшей мере одного уравнения, включенного в Таблицу 23, описанную выше.[367] In one embodiment, the maximum input value and the maximum displayed value may be derived based on at least one equation included in Table 23 described above.

[368] В одном варианте осуществления, генерация отображенных выборок яркости предсказания содержит вывод коэффициента масштабирования прямого отображения (т.е., ScaleCoeffSingle) для выборок яркости предсказания и генерацию отображенных выборок яркости предсказания на основе коэффициента масштабирования прямого отображения. Коэффициент масштабирования прямого отображения может представлять собой один коэффициент для выборок яркости предсказания.[368] In one embodiment, generating mapped prediction luminance samples comprises deriving a direct mapping scaling factor (i.e., ScaleCoeffSingle) for the prediction luminance samples and generating mapped prediction luminance samples based on the direct mapping scaling factor. The forward display scaling factor may be one factor for prediction luma samples.

[369] В одном варианте осуществления, коэффициент масштабирования прямого отображения может выводиться на основе по меньшей мере одного уравнения, включенного в Таблицы 21 и/или 23, описанные выше.[369] In one embodiment, the direct display scaling factor may be derived based on at least one equation included in Tables 21 and/or 23 described above.

[370] В одном варианте осуществления, отображенные выборки яркости предсказания могут выводиться на основе по меньшей мере одного уравнения, включенного в Таблицу 25, описанную выше.[370] In one embodiment, the mapped prediction brightness samples may be derived based on at least one equation included in Table 25 described above.

[371] В одном варианте осуществления, устройство кодирования может выводить коэффициент масштабирования обратного отображения (т.е., InvScaleCoeffSingle) для восстановленных выборок яркости (т.е., lumaSample). Также, устройство кодирования может генерировать модифицированные восстановленные выборки яркости (т.е., invSample) на основе восстановленных выборок яркости и коэффициента масштабирования обратного отображения. Коэффициент масштабирования обратного отображения может представлять собой один коэффициент для восстановленных выборок яркости.[371] In one embodiment, the encoder may derive an inverse mapping scaling factor (ie, InvScaleCoeffSingle) for the reconstructed luma samples (ie, lumaSample). Also, the encoder may generate modified reconstructed luma samples (ie, invSample) based on the reconstructed luma samples and the inverse mapping scaling factor. The inverse display scaling factor may be one factor for the reconstructed luminance samples.

[372] В одном варианте осуществления, коэффициент масштабирования обратного отображения может выводиться с использованием кусочного индекса, выведенного на основе восстановленных выборок яркости.[372] In one embodiment, the inverse display scaling factor may be derived using a piecewise index derived from the recovered luminance samples.

[373] В одном варианте осуществления, кусочный индекс может выводиться на основе Таблицы 36, описанной выше. То есть, процесс сравнения, включенный в Таблицу 36 (lumaSample<LmcsPivot[idxYInv+1]), может итеративно выполняться от кусочного индекса, который является минимальным индексом бина, до кусочного индекса, который является максимальным индексом бина.[373] In one embodiment, the piece index may be derived based on Table 36 described above. That is, the comparison process included in Table 36 (lumaSample<LmcsPivot[idxYInv+1]) can be iteratively performed from a piecewise index that is a minimum bin index to a piecewise index that is a maximum bin index.

[374] В одном варианте осуществления, модифицированные восстановленные выборки яркости могут генерироваться на основе отображенных значений на основе индексов бинов от минимального индекса бина до максимального индекса бина.[374] In one embodiment, modified reconstructed luminance samples may be generated based on mapped values based on bin indices from a minimum bin index to a maximum bin index.

[375] В одном варианте осуществления, индексы бинов включают в себя первый индекс бина, указывающий первое отображенное значение. Первый индекс бина может быть выведен на основе отображенных значений на основе индексов бинов от минимального индекса бина до максимального индекса бина и сравнения между значениями восстановленных выборок яркости. По меньшей мере одна из модифицированных восстановленных выборок яркости может быть выведена на основе восстановленных выборок яркости и первого отображенного значения.[375] In one embodiment, the bin indices include a first bin index indicating the first mapped value. The first bin index may be inferred based on the mapped values based on the bin indices from the minimum bin index to the maximum bin index and a comparison between the values of the reconstructed luminance samples. At least one of the modified recovered luminance samples may be derived based on the recovered luminance samples and the first displayed value.

[374] В одном варианте осуществления, индексы бинов включают в себя первый индекс бина, указывающий первое отображенное значение, и первый индекс бина может выводиться на основе уравнения сравнения, включенного в Таблицу 36 (lumaSample<LmcsPivot[idxYInv+1]). Например, в уравнении выше, lumaSample представляет значение целевой выборки яркости среди восстановленных выборок яркости, idxYInv представляет один из индексов бинов, и LmcsPivot[idxYinv+1] представляет одно из отображенных значений на основе индексов бинов от минимального индекса бина до максимального бина. По меньшей мере одна из восстановленных выборок яркости может выводиться на основе восстановленных выборок яркости и первого отображенного значения.[374] In one embodiment, the bin indices include a first bin index indicating the first mapped value, and the first bin index may be derived based on the comparison equation included in Table 36 (lumaSample<LmcsPivot[idxYInv+1]). For example, in the equation above, lumaSample represents the value of the target luminance sample among the reconstructed luminance samples, idxYInv represents one of the bin indices, and LmcsPivot[idxYinv+1] represents one of the mapped values based on the bin indices from the minimum bin index to the maximum bin. At least one of the recovered luminance samples may be inferred based on the recovered luminance samples and the first displayed value.

[377] В одном варианте осуществления, процесс сравнения (lumaSample<LmcsPivot[idxYInv+1]), включенный в Таблицу 36, может выполняться на всех из индексов бинов от минимального индекса бина до максимального индекса бина.[377] In one embodiment, the comparison process (lumaSample<LmcsPivot[idxYInv+1]) included in Table 36 may be performed on all of the bin indices from the minimum bin index to the maximum bin index.

[378] В одном варианте осуществления, коэффициент масштабирования обратного отображения может быть выведен на основе по меньшей мере одного из уравнений, включенных в Таблицы 18, 19, 21 и 23, или уравнений 11 или 12, описанных выше.[378] In one embodiment, the inverse display scaling factor may be derived based on at least one of the equations included in Tables 18, 19, 21, and 23, or equations 11 or 12 described above.

[379] В одном варианте осуществления, модифицированные восстановленные выборки яркости могут выводиться на основе Уравнения 21, описанного выше.[379] In one embodiment, the modified reconstructed luminance samples may be derived based on Equation 21 described above.

[380] В одном варианте осуществления, связанная с LMCS информация может включать в себя информацию о числе бинов для вывода отображенных выборок яркости предсказания (т.е., lmcs_num_bins_minus1 в Таблице 26). Например, число точек поворота для отображения яркости может быть установлено равным числу бинов. В одном примере, устройство кодирования может генерировать входные значения дельта и отображенные значения дельта точек поворота по числу бинов, соответственно. В одном примере, входные значения и отображенные значения точек поворота выводятся на основе входных значений дельта (т.е., lmcs_delta_input_cw[i] в Таблице 26) и отображенных значений дельта (т.е., lmcs_delta_mapped_cw[i] в Таблице 26), и отображенные выборки яркости предсказания могут генерироваться на основе входных значений (т.е., LmcsPivot_input[i] Таблицы 27 или InputPivot[i] Таблицы 8) и отображенных значений (т.е., LmcsPivot_mapped[i] Таблицы 27 или LmcsPivot[i] Таблицы 8).[380] In one embodiment, the LMCS related information may include information about the number of bins for outputting mapped prediction luma samples (ie, lmcs_num_bins_minus1 in Table 26). For example, the number of pivot points for displaying brightness may be set to the number of bins. In one example, the encoder may generate input delta values and mapped pivot delta values by number of bins, respectively. In one example, input values and mapped pivot point values are derived based on input delta values (i.e., lmcs_delta_input_cw[i] in Table 26) and mapped delta values (i.e., lmcs_delta_mapped_cw[i] in Table 26), and mapped prediction luma samples may be generated based on input values (i.e., LmcsPivot_input[i] of Table 27 or InputPivot[i] of Table 8) and mapped values (i.e., LmcsPivot_mapped[i] of Table 27 or LmcsPivot[i ] Tables 8).

[381] В одном варианте осуществления, устройство кодирования может выводить кодовое слово дельта LMCS на основе по меньшей мере одного кодового слова LMCS и исходного кодового слова (OrgCW), включенных в связанную с LMCS информацию, и отображенные выборки предсказания яркости могут выводиться на основе по меньшей мере одного кодового слова LMCS и исходного кодового слова. В одном примере, информация о линейном отображении может включать в себя информацию о кодовом слове дельта LMCS.[381] In one embodiment, an encoder may derive a delta LMCS codeword based on at least one LMCS codeword and an original codeword (OrgCW) included in the LMCS related information, and mapped luminance prediction samples may be derived based on at least one LMCS codeword and the original codeword. In one example, the linear mapping information may include delta LMCS codeword information.

[382] В одном варианте осуществления, по меньшей мере одно кодовое слово LMCS может выводиться на основе суммирования кодового слова дельта LMCS и OrgCW, например, OrgCW составляет (1<<BitDepthY)/16, где BitDepthY представляет битовую глубину яркости. Этот вариант осуществления может быть основан на Уравнении 12.[382] In one embodiment, at least one LMCS codeword may be derived based on the summation of the LMCS delta codeword and OrgCW, for example, OrgCW is (1<<BitDepthY)/16, where BitDepthY represents the luma bit depth. This embodiment may be based on Equation 12.

[383] В одном варианте осуществления, по меньшей мере одно кодовое слово LMCS может выводиться на основе суммирования кодового слова дельта LMCS и OrgCW*(lmcs_max_bin_idx-lmcs_min_bin_idx+1), например, lmcs_max_bin_idx и lmcs_min_bin_idx являются максимальным индексом бина и минимальным индексом бина, соответственно, и OrgCW может составлять (1<<BitDepthY)/16. Этот вариант осуществления может быть основан на Уравнениях 15 и 16.[383] In one embodiment, at least one LMCS codeword may be derived based on the summation of the LMCS delta codeword and OrgCW*(lmcs_max_bin_idx-lmcs_min_bin_idx+1), for example, lmcs_max_bin_idx and lmcs_min_bin_idx are the maximum bin index and the minimum bin index, respectively , and OrgCW can be (1<<BitDepthY)/16. This embodiment may be based on Equations 15 and 16.

[384] В одном варианте осуществления, по меньшей мере одно кодовое слово LMCS может быть кратно двум.[384] In one embodiment, at least one LMCS codeword may be a multiple of two.

[385] В одном варианте осуществления, когда битовая глубина яркости (BitDepthY) восстановленных выборок яркости выше 10, по меньшей мере одно кодовое слово LMCS может быть кратно 1<<(BitDepthY-10).[385] In one embodiment, when the luminance bit depth (BitDepthY) of the reconstructed luminance samples is greater than 10, at least one LMCS codeword may be a multiple of 1<<(BitDepthY-10).

[386] В одном варианте осуществления, по меньшей мере одно кодовое слово LMCS может находиться в диапазоне от (OrgCW>>1) до (OrgCW<<1)-1.[386] In one embodiment, at least one LMCS codeword may range from (OrgCW>>1) to (OrgCW<<1)-1.

[387] Фиг. 16 и фиг. 17 схематично показывают пример способа декодирования изображения/видео и связанные компоненты в соответствии с вариантом осуществления настоящего документа. Способ, раскрытый на фиг. 16, может выполняться устройством декодирования, проиллюстрированным на фиг. 3. Конкретно, например, S1600 на фиг. 16 может выполняться энтропийным декодером 310 устройства декодирования, S1610 может выполняться предсказателем 330 устройства декодирования, S1620 может выполняться процессором 320 остатка, предсказателем 330 и/или сумматором 340 устройства декодирования, и S1630 может выполняться сумматором 340 устройства декодирования. Способ, раскрытый на фиг. 16, может включать в себя варианты осуществления, описанные выше в настоящем документе.[387] FIG. 16 and FIG. 17 schematically show an example of an image/video decoding method and related components according to an embodiment of the present document. The method disclosed in FIG. 16 may be performed by the decoding apparatus illustrated in FIG. 3. Specifically, for example, S1600 in FIG. 16 may be performed by decoder entropy decoder 310, S1610 may be performed by decoder predictor 330, S1620 may be performed by residual processor 320, predictor 330, and/or decoder adder 340, and S1630 may be performed by decoder adder 340. The method disclosed in FIG. 16 may include the embodiments described above herein.

[388] Со ссылкой на фиг. 16, устройство декодирования может принимать/получать информацию видео/изображения (S1600). Информация видео/изображения может включать в себя связанную с LMCS информацию. Например, связанная с LMCS информация может включать в себя информацию об отображении яркости (т.е., прямом отображении, обратном отображении, линейном отображении), информацию об остаточном масштабировании цветности и/или индексы (т.е., максимальный индекс бина, минимальный индекс бина, индекс отображения), относящиеся к LMCS (или повторному формированию, формирователю). Устройство декодирования может принимать/ получать информацию изображения/видео через битовый поток.[388] With reference to FIG. 16, the decoding apparatus can receive/acquire video/image information (S1600). The video/image information may include LMCS related information. For example, LMCS-related information may include luma mapping information (i.e., forward mapping, inverse mapping, linear mapping), chroma residual scaling information, and/or indices (i.e., maximum bin index, minimum bin index, mapping index) related to the LMCS (or reshaping, shaper). The decoding device can receive/receive image/video information via the bitstream.

[389] Информация изображения/видео может включать в себя различную информацию в соответствии с вариантом осуществления настоящего документа. Например, информация изображения/видео может включать в себя информацию, раскрытую в по меньшей мере одной из Таблиц 1-37, описанных выше.[389] The image/video information may include various information according to an embodiment of the present document. For example, the image/video information may include information disclosed in at least one of Tables 1-37 described above.

[390] Устройство декодирования может генерировать выборки яркости предсказания (S1610). Устройство декодирования может выводить выборки яркости предсказания текущего блока на основе режима предсказания. В этом случае, могут применяться различные способы предсказания, раскрытые в настоящем документе, такие как интер-предсказание или интра-предсказание. [390] The decoding apparatus may generate prediction brightness samples (S1610). The decoding apparatus may output prediction luminance samples of the current block based on the prediction mode. In this case, various prediction methods disclosed herein, such as inter-prediction or intra-prediction, may be applied.

[391] Информация изображения может включать в себя информацию остатка. Устройство декодирования может генерировать остаточные выборки цветности и/или остаточные выборки яркости на основе информации остатка. Конкретно, устройство декодирования может выводить квантованные коэффициенты преобразования на основе информации остатка. Квантованные коэффициенты преобразования могут иметь форму одномерного вектора на основе порядка сканирования коэффициентов. Устройство декодирования может выводить коэффициенты преобразования на основе процесса деквантования для квантованных коэффициентов преобразования. Устройство декодирования может выводить остаточные выборки цветности и/или остаточные выборки яркости на основе коэффициентов преобразования.[391] The image information may include residual information. The decoder may generate residual chrominance samples and/or residual luminance samples based on the residual information. Specifically, the decoding apparatus may derive quantized transform coefficients based on the residual information. The quantized transform coefficients may be in the form of a one-dimensional vector based on the scan order of the coefficients. The decoding apparatus may derive transform coefficients based on a dequantization process for the quantized transform coefficients. The decoder may output chrominance residual samples and/or luminance residual samples based on the transform coefficients.

[392] Устройство декодирования может генерировать отображенные выборки яркости предсказания (S1620). Например, устройство декодирования может выводить входные значения и отображенные значения (выходные значения) точек поворота для отображения яркости и может генерировать отображенные выборки яркости предсказания на основе входных значений и отображенных значений. В одном примере, устройство декодирования может выводить индекс (прямого) отображения (idxY) на основе первой выборки яркости предсказания, и первая отображенная выборка яркости предсказания может генерироваться на основе входного значения и отображенного значения точки поворота, соответствующей индексу отображения. В другом примере, линейное отображение (линейное повторное формирование, линейное LMCS) может использоваться, и отображенные выборки яркости предсказания могут генерироваться на основе коэффициента масштабирования прямого отображения, выведенного из двух точек поворота в линейном отображении, таким образом, процесс вывода индекса может опускаться вследствие линейного отображения.[392] The decoding apparatus may generate mapped prediction luma samples (S1620). For example, the decoding apparatus may output input values and mapped values (output values) of pivot points for displaying luminance, and may generate mapped prediction luminance samples based on the input values and mapped values. In one example, the decoding device may derive a (forward) display index (idxY) based on the first prediction luminance sample, and the first mapped prediction luminance sample may be generated based on the input value and the mapped pivot value corresponding to the display index. In another example, a linear mapping (linear regeneration, linear LMCS) may be used, and the mapped prediction luma samples may be generated based on the direct mapping scaling factor derived from the two pivot points in the linear mapping, thus the index derivation process may be omitted due to the linear display.

[393] Устройство декодирования может генерировать восстановленные выборки яркости (S1630). Устройство декодирования может генерировать восстановленные выборки яркости на основе отображенных выборок яркости предсказания. Конкретно, устройство декодирования может суммировать остаточные выборки яркости с отображенными выборками яркости предсказания и может генерировать восстановленные выборки яркости на основе результата суммирования.[393] The decoder may generate recovered luminance samples (S1630). The decoder may generate reconstructed luminance samples based on the mapped prediction luminance samples. Specifically, the decoding apparatus may add the residual luminance samples with the mapped prediction luminance samples, and may generate reconstructed luminance samples based on the result of the summation.

[394] Устройство декодирования может генерировать масштабированные остаточные выборки цветности. Конкретно, устройство декодирования может выводить коэффициент остаточного масштабирования цветности и генерировать масштабированные остаточные выборки цветности на основе коэффициента остаточного масштабирования цветности. Здесь, остаточное масштабирование цветности стороны декодирования может называться обратным остаточным масштабированием цветности, в противоположность стороне кодирования. Соответственно, коэффициент остаточного масштабирования цветности, выведенный устройством декодирования, может называться обратным коэффициентом остаточного масштабирования цветности, и могут генерироваться обратные масштабированные остаточные выборки цветности.[394] The decoder may generate scaled chrominance residual samples. Specifically, the decoding apparatus may derive a chrominance residual scaling factor and generate scaled chrominance residual samples based on the chrominance residual scaling factor. Here, the residual chrominance scaling of the decoding side may be referred to as inverse residual chrominance scaling, as opposed to the encoding side. Accordingly, the chrominance residual scaling factor output by the decoding apparatus may be referred to as an inverse chroma residual scaling factor, and inversely scaled chrominance residual samples may be generated.

[395] Устройство декодирования может генерировать восстановленные выборки цветности. Устройство декодирования может генерировать восстановленные выборки цветности на основе масштабированных остаточных выборок цветности. Конкретно, устройство декодирования может выполнять процесс предсказания для компонента цветности и может генерировать выборки цветности предсказания. Устройство декодирования может генерировать восстановленные выборки цветности на основе суммирования выборок цветности предсказания и масштабированных остаточных выборок цветности.[395] The decoder may generate reconstructed chrominance samples. The decoder may generate reconstructed chrominance samples based on the scaled residual chrominance samples. Specifically, the decoding apparatus may perform a prediction process for the chrominance component, and may generate prediction chrominance samples. The decoder may generate reconstructed chroma samples based on the sum of the prediction chroma samples and the scaled residual chroma samples.

[396] В одном варианте осуществления, минимальный индекс бина (т.е., lmcs_min_bin_idx) и/или максимальный индекс бина (т.е., LmcsMaxBinIdx) могут выводиться на основе связанной с LMCS информации. Первое отображенное значение (LmcsPivot[lmcs_min_bin_idx]) может выводиться на основе минимального индекса бина. Второе отображенное значение (LmcsPivot[LmcsMaxBinIdx] или LmcsPivot[LmcsMaxBinIdx+1]) может выводиться на основе максимального индекса бина. Значения восстановленных выборок яркости (т.е., lumaSample Таблицы 36 или 37) могут находиться в диапазоне от первого отображенного значения до второго отображенного значения. В одном примере, значения всех восстановленных выборок яркости могут находиться в диапазоне от первого отображенного значения до второго отображенного значения. В другом примере, значения некоторых из восстановленных выборок яркости могут находиться в диапазоне от первого отображенного значения до второго отображенного значения.[396] In one embodiment, a minimum bin index (ie, lmcs_min_bin_idx) and/or a maximum bin index (ie, LmcsMaxBinIdx) may be derived based on LMCS related information. The first mapped value (LmcsPivot[lmcs_min_bin_idx]) may be inferred based on the minimum bin index. The second mapped value (LmcsPivot[LmcsMaxBinIdx] or LmcsPivot[LmcsMaxBinIdx+1]) may be derived based on the maximum bin index. The values of the reconstructed luma samples (ie, lumaSample of Tables 36 or 37) may range from the first mapped value to the second mapped value. In one example, the values of all recovered luminance samples may range from the first displayed value to the second displayed value. In another example, the values of some of the reconstructed brightness samples may range from the first displayed value to the second displayed value.

[397] В одном варианте осуществления, информация изображения может включать в себя набор параметров последовательности (SPS). SPS может включать в себя флаг включенного линейного LMCS, специфицирующий, включено ли линейное LMCS.[397] In one embodiment, the image information may include a sequence parameter set (SPS). The SPS may include a linear LMCS enabled flag specifying whether linear LMCS is enabled.

[398] В одном варианте осуществления, кусочный индекс (т.е., idxYInv в Таблицах 35, 36 или 37) может идентифицироваться на основе связанной с LMCS информации. Устройство декодирования может выводить коэффициент остаточного масштабирования цветности на основе кусочного индекса. Устройство декодирования может генерировать масштабированные остаточные выборки цветности на основе остаточных выборок цветности и коэффициента остаточного масштабирования цветности.[398] In one embodiment, a piece index (ie, idxYInv in Tables 35, 36 or 37) can be identified based on LMCS related information. The decoding device may derive a residual chrominance scaling factor based on the piecewise index. The decoder may generate scaled chrominance residual samples based on the chroma residual samples and the chrominance residual scaling factor.

[399] В одном варианте осуществления, коэффициент остаточного масштабирования цветности может представлять собой один коэффициент остаточного масштабирования цветности.[399] In one embodiment, the chroma residual scaling factor may be one chroma residual scaling factor.

[400] В одном варианте осуществления, связанная с информация может включать в себя поле данных LMCS и информацию о линейном LMCS. Информация о линейном LMCS может называться информацией о линейном отображении. Поле данных LMCS может включать в себя флаг линейного LMCS, указывающий, применяется ли линейное LMCS. Когда значение флага линейного LMCS равно 1, отображенные выборки яркости предсказания могут генерироваться на основе информации о линейном LMCS.[400] In one embodiment, the associated information may include an LMCS data field and linear LMCS information. The linear LMCS information may be referred to as linear mapping information. The LMCS data field may include a linear LMCS flag indicating whether linear LMCS is applied. When the linear LMCS flag value is 1, mapped prediction luma samples may be generated based on the linear LMCS information.

[401] В одном варианте осуществления, информация о линейном LMCS включает в себя информацию о первой точке поворота (т.е., P1 на фиг. 11) и информацию о второй точке поворота (т.е., P2 на фиг. 11). Например, входное значение и отображенное значение первой точки поворота являются минимальным входным значением и минимальным отображенным значением, соответственно. Входное значение и отображенное значение второй точки поворота являются максимальным входным значением и максимальным отображенным значением, соответственно. Входные значения между минимальным входным значением и максимальным входным значением являются линейно отображенными.[401] In one embodiment, the linear LMCS information includes first pivot information (i.e., P1 in FIG. 11) and second pivot information (i.e., P2 in FIG. 11) . For example, the input value and the displayed value of the first pivot point are the minimum input value and the minimum displayed value, respectively. The input value and the displayed value of the second pivot point are the maximum input value and the maximum displayed value, respectively. Input values between the minimum input value and the maximum input value are linearly mapped.

[402] В одном варианте осуществления, информация изображения включает в себя информацию о максимальном входном значении и информацию о максимальном отображенном значении. Максимальное входное значение равно значению информации о максимальном входном значении (т.е., lmcs_max_input в Таблице 20). Максимальное отображенное значение равно значению информации о максимальном отображенном значении (т.е., lmcs_max_mapped в Таблице 20).[402] In one embodiment, the image information includes information about the maximum input value and information about the maximum displayed value. The maximum input value is equal to the maximum input value information value (ie, lmcs_max_input in Table 20). The maximum mapped value is equal to the maximum mapped value information value (ie, lmcs_max_mapped in Table 20).

[403] В одном варианте осуществления, информация о линейном отображении включает в себя информацию о входном значении дельта второй точки поворота (т.е., lmcs_max_input_delta в Таблице 22) и информацию об отображенном значении дельта второй точки поворота (т.е., lmcs_max_mapped_delta в Таблице 22). Максимальное входное значение может выводиться на основе входного значения дельта второй точки поворота, и максимальное отображенное значение может выводиться на основе отображенного значения дельта второй точки поворота.[403] In one embodiment, the linear mapping information includes information about the input delta value of the second pivot (i.e., lmcs_max_input_delta in Table 22) and information about the mapped delta value of the second pivot (i.e., lmcs_max_mapped_delta in Table 22). The maximum input value may be output based on the input delta value of the second pivot point, and the maximum displayed value may be output based on the displayed delta value of the second pivot point.

[404] В одном варианте осуществления, максимальное входное значение и максимальное отображенное значение могут выводиться на основе по меньшей мере одного уравнения, включенного в Таблицу 23, описанную выше.[404] In one embodiment, the maximum input value and the maximum displayed value may be derived based on at least one equation included in Table 23 described above.

[405] В одном варианте осуществления, генерация отображенных выборок яркости предсказания содержит вывод коэффициента масштабирования прямого отображения (т.е., ScaleCoeffSingle) для выборок яркости предсказания и генерацию отображенных выборок яркости предсказания на основе коэффициента масштабирования прямого отображения. Коэффициент масштабирования прямого отображения может представлять собой один коэффициент для выборок яркости предсказания.[405] In one embodiment, generating mapped prediction luminance samples comprises deriving a direct mapping scaling factor (i.e., ScaleCoeffSingle) for the prediction luminance samples and generating mapped prediction luminance samples based on the direct mapping scaling factor. The forward display scaling factor may be one factor for prediction luma samples.

[406] В одном варианте осуществления, коэффициент масштабирования обратного отображения может выводиться с использованием кусочного индекса, выведенного на основе восстановленных выборок яркости.[406] In one embodiment, the inverse display scaling factor may be derived using a piecewise index derived from the recovered luminance samples.

[407] В одном варианте осуществления, кусочный индекс может выводиться на основе Таблицы 36, описанной выше. То есть, процесс сравнения, включенный в Таблицу 36 (lumaSample<LmcsPivot[idxYInv+1]), может итеративно выполняться от кусочного индекса, который является минимальным индексом бина, до кусочного индекса, который является максимальным индексом бина.[407] In one embodiment, the piece index may be derived based on Table 36 described above. That is, the comparison process included in Table 36 (lumaSample<LmcsPivot[idxYInv+1]) can be iteratively performed from a piecewise index that is a minimum bin index to a piecewise index that is a maximum bin index.

[408] В одном варианте осуществления, модифицированные восстановленные выборки яркости могут генерироваться на основе отображенных значений на основе индексов бинов от минимального индекса бина до максимального индекса бина. [408] In one embodiment, modified reconstructed luminance samples may be generated based on mapped values based on bin indices from a minimum bin index to a maximum bin index.

[409] В одном варианте осуществления, индексы бинов включают в себя первый индекс бина, указывающий первое отображенное значение. Первый индекс бина может быть выведен на основе отображенных значений на основе индексов бинов от минимального индекса бина до максимального индекса бина и сравнения между значениями восстановленных выборок яркости. По меньшей мере одна из модифицированных восстановленных выборок яркости может быть выведена на основе восстановленных выборок яркости и первого отображенного значения.[409] In one embodiment, the bin indices include a first bin index indicating the first mapped value. The first bin index may be inferred based on the mapped values based on the bin indices from the minimum bin index to the maximum bin index and a comparison between the values of the reconstructed luminance samples. At least one of the modified recovered luminance samples may be derived based on the recovered luminance samples and the first displayed value.

[410] В одном варианте осуществления, индексы бинов включают в себя первый индекс бина, указывающий первое отображенное значение, и первый индекс бина может выводиться на основе уравнения сравнения, включенного в Таблицу 36 (lumaSample<LmcsPivot[idxYInv+1]). Например, в уравнении выше, lumaSample представляет значение целевой выборки яркости среди восстановленных выборок яркости, idxYInv представляет один из индексов бинов, и LmcsPivot[idxYinv+1] представляет одно из отображенных значений на основе индексов бинов от минимального индекса бина до максимального бина. По меньшей мере одна из восстановленных выборок яркости может выводиться на основе восстановленных выборок яркости и первого отображенного значения.[410] In one embodiment, the bin indices include a first bin index indicating the first mapped value, and the first bin index may be derived based on the comparison equation included in Table 36 (lumaSample<LmcsPivot[idxYInv+1]). For example, in the equation above, lumaSample represents the value of the target luminance sample among the reconstructed luminance samples, idxYInv represents one of the bin indices, and LmcsPivot[idxYinv+1] represents one of the mapped values based on the bin indices from the minimum bin index to the maximum bin. At least one of the recovered luminance samples may be inferred based on the recovered luminance samples and the first displayed value.

[411] В одном варианте осуществления, процесс сравнения (lumaSample<LmcsPivot[idxYInv+1]), включенный в Таблицу 36, может выполняться на всех из индексов бинов от минимального индекса бина до максимального индекса бина.[411] In one embodiment, the comparison process (lumaSample<LmcsPivot[idxYInv+1]) included in Table 36 may be performed on all of the bin indices from the minimum bin index to the maximum bin index.

[412] В одном варианте осуществления, коэффициент масштабирования прямого отображения может выводиться на основе по меньшей мере одного уравнения, включенного в Таблицы 21 и/или 23, описанные выше.[412] In one embodiment, the direct display scaling factor may be derived based on at least one equation included in Tables 21 and/or 23 described above.

[413] В одном варианте осуществления, отображенные выборки яркости предсказания могут выводиться на основе по меньшей мере одного уравнения, включенного в Таблицу 25, описанную выше.[413] In one embodiment, the mapped prediction brightness samples may be derived based on at least one equation included in Table 25 described above.

[414] В одном варианте осуществления, устройство декодирования может выводить коэффициент масштабирования обратного отображения (т.е., InvScaleCoeffSingle) для восстановленных выборок яркости (т.е., lumaSample). Также, устройство декодирования может генерировать модифицированные восстановленные выборки яркости (т.е., invSample) на основе восстановленных выборок яркости и коэффициента масштабирования обратного отображения. Коэффициент масштабирования обратного отображения может представлять собой один коэффициент для восстановленных выборок яркости.[414] In one embodiment, the decoder may derive an inverse mapping scaling factor (ie, InvScaleCoeffSingle) for the reconstructed luma samples (ie, lumaSample). Also, the decoder may generate modified reconstructed luminance samples (ie, invSample) based on the reconstructed luminance samples and the inverse mapping scaling factor. The inverse display scaling factor may be one factor for the reconstructed luminance samples.

[415] В одном варианте осуществления, коэффициент масштабирования обратного отображения может выводиться на основе по меньшей мере одного из уравнений, включенных в Таблицы 18, 19, 20 и 23, или Уравнений 11 или 12, описанных выше.[415] In one embodiment, the inverse display scaling factor may be derived based on at least one of the equations included in Tables 18, 19, 20, and 23, or Equations 11 or 12 described above.

[416] В одном варианте осуществления, модифицированные восстановленные выборки яркости могут выводиться на основе Уравнения 21, описанного выше.[416] In one embodiment, the modified reconstructed luminance samples may be derived based on Equation 21 described above.

[417] В одном варианте осуществления, связанная с LMCS информация может включать в себя информацию о числе бинов для вывода отображенных выборок яркости предсказания (т.е., lmcs_num_bins_minus1 в Таблице 26). Например, число точек поворота для отображения яркости может быть установлено равным числу бинов. В одном примере, устройство декодирования может генерировать входные значения дельта и отображенные значения дельта точек поворота по числу бинов, соответственно. В одном примере, входные значения и отображенные значения точек поворота выводятся на основе входных значений дельта (т.е., lmcs_delta_input_cw[i] в Таблице 26) и отображенных значений дельта (т.е., lmcs_delta_mapped_cw[i] в Таблице 26), и отображенные выборки яркости предсказания могут генерироваться на основе входных значений (т.е., LmcsPivot_input[i] Таблицы 27 или InputPivot[i] Таблицы 8) и отображенных значений (т.е., LmcsPivot_mapped[i] Таблицы 27 или LmcsPivot[i] Таблицы 8).[417] In one embodiment, the LMCS related information may include information about the number of bins for outputting mapped prediction luma samples (ie, lmcs_num_bins_minus1 in Table 26). For example, the number of pivot points for displaying brightness may be set to the number of bins. In one example, the decoder may generate input delta values and mapped pivot delta values by number of bins, respectively. In one example, input values and mapped pivot point values are derived based on input delta values (i.e., lmcs_delta_input_cw[i] in Table 26) and mapped delta values (i.e., lmcs_delta_mapped_cw[i] in Table 26), and mapped prediction luma samples may be generated based on input values (i.e., LmcsPivot_input[i] of Table 27 or InputPivot[i] of Table 8) and mapped values (i.e., LmcsPivot_mapped[i] of Table 27 or LmcsPivot[i ] Tables 8).

[418] В одном варианте осуществления, устройство декодирования может выводить кодовое слово дельта LMCS на основе по меньшей мере одного кодового слова LMCS и исходного кодового слова (OrgCW), включенных в связанную с LMCS информацию, и отображенные выборки предсказания яркости могут выводиться на основе по меньшей мере одного кодового слова LMCS и исходного кодового слова. В одном примере, информация о линейном отображении может включать в себя информацию о кодовом слове дельта LMCS.[418] In one embodiment, a decoder may derive a delta LMCS codeword based on at least one LMCS codeword and an original codeword (OrgCW) included in the LMCS related information, and mapped luminance prediction samples may be derived based on at least one LMCS codeword and the original codeword. In one example, the linear mapping information may include delta LMCS codeword information.

[419] В одном варианте осуществления, по меньшей мере одно кодовое слово LMCS может выводиться на основе суммирования кодового слова дельта LMCS и OrgCW, например, OrgCW составляет (1<<BitDepthY)/16, где BitDepthY представляет битовую глубину яркости. Этот вариант осуществления может быть основан на Уравнении 12.[419] In one embodiment, at least one LMCS codeword may be derived based on the summation of the delta LMCS codeword and OrgCW, for example, OrgCW is (1<<BitDepthY)/16, where BitDepthY represents the luma bit depth. This embodiment may be based on Equation 12.

[420] В одном варианте осуществления, по меньшей мере одно кодовое слово LMCS может выводиться на основе суммирования кодового слова дельта LMCS и OrgCW*(lmcs_max_bin_idx-lmcs_min_bin_idx+1), например, lmcs_max_bin_idx и lmcs_min_bin_idx являются максимальным индексом бина и минимальным индексом бина, соответственно, и OrgCW может составлять (1<<BitDepthY)/16. Этот вариант осуществления может быть основан на Уравнениях 15 и 16.[420] In one embodiment, at least one LMCS codeword may be derived based on the summation of the LMCS delta codeword and OrgCW*(lmcs_max_bin_idx-lmcs_min_bin_idx+1), for example, lmcs_max_bin_idx and lmcs_min_bin_idx are the maximum bin index and the minimum bin index, respectively , and OrgCW can be (1<<BitDepthY)/16. This embodiment may be based on Equations 15 and 16.

[421] В одном варианте осуществления, по меньшей мере одно кодовое слово LMCS может быть кратно двум.[421] In one embodiment, at least one LMCS codeword may be a multiple of two.

[422] В одном варианте осуществления, когда битовая глубина яркости (BitDepthY) восстановленных выборок яркости выше 10, по меньшей мере одно кодовое слово LMCS может быть кратно 1<<(BitDepthY-10).[422] In one embodiment, when the luminance bit depth (BitDepthY) of the reconstructed luminance samples is greater than 10, at least one LMCS codeword may be a multiple of 1<<(BitDepthY-10).

[423] В одном варианте осуществления, по меньшей мере одно кодовое слово LMCS может находиться в диапазоне от (OrgCW>>1) до (OrgCW<<1)-1.[423] In one embodiment, at least one LMCS codeword may range from (OrgCW>>1) to (OrgCW<<1)-1.

[424] В вышеописанном варианте осуществления, способы описаны на основе блок-схемы последовательности операций, имеющей последовательность этапов или блоков. Настоящее раскрытие не ограничено порядком этапов или блоков выше. Некоторые этапы или блоки могут выполняться одновременно или в другом порядке относительно других этапов или блоков, как описано выше. Дополнительно, специалисты в данной области техники поймут, что этапы, показанные в блок-схеме последовательности операций выше, не являются исключительными, что дополнительные этапы могут быть включены или что один или более этапов в блок-схеме последовательности операций могут быть удалены без влияния на объем настоящего раскрытия.[424] In the above embodiment, the methods are described based on a flowchart having a sequence of steps or blocks. The present disclosure is not limited to the order of steps or blocks above. Some steps or blocks may be performed simultaneously or in a different order from other steps or blocks, as described above. Additionally, those skilled in the art will appreciate that the steps shown in the flowchart above are not exclusive, that additional steps may be included, or that one or more steps in the flowchart may be deleted without affecting scope. of this disclosure.

[425] Способ в соответствии с вышеописанными вариантами осуществления настоящего документа может быть реализован в форме программного обеспечения, и устройство кодирования и/или устройство декодирования в соответствии с настоящим документом, например, может быть включено в устройство, которое выполняет обработку изображения телевизора, компьютера, смартфона, телевизионной приставки, устройства отображения и т.д.[425] The method according to the above-described embodiments of the present document may be implemented in the form of software, and the encoder and/or decoder according to the present document, for example, may be included in an apparatus that performs image processing of a TV, computer, smartphone, set-top box, display device, etc.

[426] Когда варианты осуществления в настоящем документе реализованы в программном обеспечении, вышеописанный способ может быть реализован как модуль (процесс, функция и т.д.), который выполняет вышеописанную функцию. Модуль может храниться в памяти и исполняться процессором. Память может быть внутренней или внешней по отношению к процессору и может быть связана с процессором различными хорошо известными средствами. Процессор может включать в себя специализированную интегральную схему (ASIC), другие чипсеты, логические схемы и/или устройства обработки данных. Память может включать в себя постоянную память (ROM), память с произвольным доступом (RAM), флэш-память, карты памяти, носители хранения и/или другие устройства хранения. То есть, варианты осуществления, описанные в настоящем документе, могут реализовываться и выполняться на процессоре, микропроцессоре, контроллере или чипе. Например, функциональные блоки, показанные на каждом чертеже, могут реализовываться и выполняться на компьютере, процессоре, микропроцессоре, контроллере или чипе. В этом случае, информация об инструкциях или алгоритм для реализации могут храниться в цифровом носителе хранения.[426] When the embodiments herein are implemented in software, the above-described method may be implemented as a module (process, function, etc.) that performs the above-described function. A module may be stored in memory and executed by a processor. The memory may be internal or external to the processor and may be coupled to the processor by various well known means. The processor may include an application specific integrated circuit (ASIC), other chipsets, logic circuits, and/or data processing devices. The memory may include Read Only Memory (ROM), Random Access Memory (RAM), flash memory, memory cards, storage media, and/or other storage devices. That is, the embodiments described herein may be implemented and executed on a processor, microprocessor, controller, or chip. For example, the functional blocks shown in each figure may be implemented and executed on a computer, processor, microprocessor, controller, or chip. In this case, the instruction information or the algorithm for implementation may be stored in the digital storage medium.

[427] К тому же, устройство декодирования и устройство кодирования, к которым применяется настоящее раскрытие, могут быть включены в устройство передачи/приема мультимедийного вещания, мобильный терминал связи, устройство домашнего кинотеатра, устройство цифрового кинотеатра, камеру наблюдения, устройство для разговора по видео, устройство связи в реальном времени, такой как видеосвязь, мобильное устройство стриминга, носитель хранения, камеру-регистратор, устройство обеспечения услуги VoD, устройство доставки видео непосредственно от провайдера контента (OTT), устройство обеспечения услуги Интернет-стриминга, устройство трехмерного (3D) видео, устройство видео-телеконференции, пользовательское оборудование на транспорте (т.е., пользовательское оборудование наземного транспортного средства, пользовательское оборудование самолета, пользовательское оборудование корабля и т.д.) и медицинское видео-устройство и могут использоваться, чтобы обрабатывать сигналы видео и сигналы данных. Например, ОТТ-устройство доставки видео может включать в себя игровую консоль, проигрыватель blue-ray, телевизор с Интернет-доступом, систему домашнего кинотеатра, смартфон, планшетный PC, цифровой рекордер видео (DVR) и тому подобное.[427] In addition, the decoding device and the encoding device to which the present disclosure applies can be included in a multimedia broadcast transmission/reception device, a mobile communication terminal, a home theater device, a digital cinema device, a surveillance camera, a video talking device , real-time communication device such as video communication, mobile streaming device, storage media, recorder camera, VoD service providing device, direct-to-content (OTT) video delivery device, Internet streaming service providing device, 3D device video, video teleconferencing device, vehicle user equipment (i.e., ground vehicle user equipment, aircraft user equipment, ship user equipment, etc.) and medical video device and can be used to process video signals and data signals. For example, an OTT video delivery device may include a game console, a blue-ray player, an Internet access TV, a home theater system, a smartphone, a tablet PC, a digital video recorder (DVR), and the like.

[428] Более того, способ обработки, к которому применяется настоящий документ, может выполняться в форме программы, которая подлежит исполнению компьютером, и может храниться в считываемом компьютером носителе записи. Мультимедийные данные, имеющие структуру данных в соответствии с настоящим раскрытием, могут также храниться в считываемых компьютером носителях записи. Считываемые компьютером носители записи включают в себя все типы устройств хранения, в которых хранятся данные, считываемые компьютерной системой. Считываемые компьютером носители записи могут включать в себя, например, BD, универсальную последовательную шину (USB), ROM, PROM, EPROM, EEPROM, RAM, CD-ROM, магнитную ленту, флоппи-диск и устройство оптического хранения данных. Более того, считываемые компьютером носители записи включают в себя носители, реализуемые в форме несущей волны (т.е., передача через Интернет). К тому же, битовый поток, сгенерированный способом кодирования, может храниться в считываемом компьютером носителе записи или может передаваться по сетям проводной/беспроводной связи.[428] Moreover, the processing method to which this document applies may be in the form of a program to be executed by a computer and may be stored in a computer-readable recording medium. Multimedia data having a data structure in accordance with the present disclosure may also be stored in computer-readable recording media. Computer-readable recording media includes all types of storage devices that store data that is readable by a computer system. Computer-readable recording media may include, for example, BD, Universal Serial Bus (USB), ROM, PROM, EPROM, EEPROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical storage. Moreover, computer-readable recording media includes media implemented in the form of a carrier wave (ie, transmission over the Internet). In addition, the bitstream generated by the encoding method may be stored in a computer-readable recording medium, or may be transmitted over wired/wireless communication networks.

[429] К тому же, варианты осуществления настоящего документа могут быть реализованы при помощи компьютерного программного продукта в соответствии с программными кодами, и программные коды могут выполняться в компьютере посредством вариантов осуществления настоящего документа. Программные коды могут храниться на носителе, который может считываться компьютером.[429] In addition, embodiments of the present document may be implemented by a computer program product in accordance with program codes, and the program codes may be executed on a computer by the embodiments of this document. The program codes may be stored on a medium that can be read by a computer.

[430] Фиг. 18 показывает пример системы стриминга контента, к которой могут применяться варианты осуществления, раскрытые в настоящем документе.[430] FIG. 18 shows an example of a content streaming system to which the embodiments disclosed herein may be applied.

[431] Со ссылкой на фиг. 18, система стриминга контента, к которой применяется вариант(ы) осуществления настоящего документа, может в широком смысле включать в себя сервер кодирования, стриминговый сервер, веб-сервер, медиа-хранилище, устройство пользователя и устройство мультимедийного ввода.[431] With reference to FIG. 18, the content streaming system to which the embodiment(s) of the present document is applied may broadly include an encoding server, a streaming server, a web server, a media storage, a user device, and a media input device.

[432] Сервер кодирования сжимает контент, введенный из устройств мультимедийного ввода, таких как смартфон, камера, камера-регистратор и т.д. в цифровые данные, чтобы сгенерировать битовый поток и передать битовый поток на стриминговый сервер. В качестве примера, когда устройства мультимедийного ввода, такие как смартфоны, камеры, камеры-регистраторы и т.д., непосредственно генерируют битовый поток, сервер кодирования может опускаться.[432] The encoding server compresses content input from multimedia input devices such as a smartphone, a camera, a camera recorder, and so on. into digital data to generate a bitstream and transmit the bitstream to a streaming server. As an example, when media input devices such as smartphones, cameras, camera recorders, etc. directly generate a bitstream, the encoding server may be omitted.

[433] Битовый поток может генерироваться способом кодирования или способом генерации битового потока, к которым применяется вариант(ы) осуществления настоящего раскрытия, и стриминговый сервер может временно хранить битовый поток в процессе передачи или приема битового потока.[433] The bitstream may be generated by the encoding method or the bitstream generation method to which the embodiment(s) of the present disclosure applies, and the streaming server may temporarily store the bitstream in the process of transmitting or receiving the bitstream.

[434] Стриминговый сервер передает мультимедийные данные на устройство пользователя на основе запроса пользователя через веб-сервер, и веб-сервер служит как носитель для информирования пользователя об услуге. Когда пользователь запрашивает желаемую услугу от веб-сервера, веб-сервер доставляет ее на стриминговый сервер, и стриминговый сервер передает мультимедийные данные пользователю. В этом случае, система стриминга контента может включать в себя отдельный сервер управления. В этом случае, сервер управления служит, чтобы управлять командой/откликом между устройствами в системе стриминга контента.[434] The streaming server transmits media data to the user's device based on the user's request through the web server, and the web server serves as a medium for informing the user about the service. When the user requests a desired service from the web server, the web server delivers it to the streaming server, and the streaming server transmits the media data to the user. In this case, the content streaming system may include a separate control server. In this case, the control server serves to manage the command/response between devices in the content streaming system.

[435] Стриминговый сервер может принимать контент от хранения медиа и/или сервера кодирования. Например, когда контент принимается от сервера кодирования, контент может приниматься в реальном времени. В этом случае, чтобы обеспечить плавную стриминговую услугу, стриминговый сервер может хранить битовый поток в течение предопределенного времени.[435] A streaming server may receive content from a media storage and/or encoding server. For example, when content is received from an encoding server, the content may be received in real time. In this case, in order to provide a smooth streaming service, the streaming server may store the bitstream for a predetermined time.

[436] Примеры пользовательского устройства могут включать в себя мобильный телефон, смартфон, ноутбук, цифровой терминал вещания, персональный цифровой помощник (PDA), портативный мультимедийный проигрыватель (PMP), навигатор, тонкий PC, планшетные PC, ультрабуки, носимые устройства (например, умные часы, умные очки, наголовные дисплеи), цифровые телевизоры, настольный компьютер, цифровые указатели и тому подобное. Каждый сервер в системе стриминга контента может применяться как распределенный сервер, в этом случае, данные, принятые от каждого сервера, могут распределяться.[436] Examples of a user device may include a mobile phone, smartphone, laptop, digital broadcast terminal, personal digital assistant (PDA), portable media player (PMP), navigator, thin PC, tablet PCs, ultrabooks, wearable devices (e.g., smart watches, smart glasses, head-mounted displays), digital TVs, desktop computer, digital signage, and the like. Each server in the content streaming system may be used as a distributed server, in which case, data received from each server may be distributed.

[437] Каждый сервер в системе стриминга контента может применяться как распределенный сервер, и в этом случае, данные, принятые от каждого сервера, могут распределяться и обрабатываться.[437] Each server in the content streaming system may be applied as a distributed server, in which case, data received from each server may be distributed and processed.

[438] Пункты формулы изобретения, описанные здесь, могут комбинироваться различными способами. Например, технические признаки пунктов формулы на способ согласно настоящему документу могут комбинироваться и реализовываться как устройство, и технические признаки пунктов формулы на устройство согласно настоящему документу могут комбинироваться и реализовываться как способ. К тому же, технические признаки пунктов формулы на способ согласно настоящему документу и технические признаки пунктов формулы на устройство могут комбинироваться для реализации как устройство, и технические признаки пунктов формулы на способ согласно настоящему документу и технические признаки пунктов формулы на устройство могут комбинироваться и реализовываться как способ.[438] The claims described herein may be combined in various ways. For example, the technical features of the claims on the method according to this document can be combined and implemented as a device, and the technical features of the claims on the device according to this document can be combined and implemented as a method. In addition, the technical features of the claims on the method according to this document and the technical features of the claims on the device can be combined to be implemented as a device, and the technical features of the claims on the method according to this document and the technical features of the claims on the device can be combined and implemented as a method. .

Claims (91)

1. Способ декодирования изображения, выполняемый устройством декодирования, причем способ содержит:1. An image decoding method performed by a decoding device, the method comprising: получение информации изображения, включающей в себя информацию, связанную с предсказанием, и информацию, связанную с отображением яркости с масштабированием цветности (LMCS), из битового потока;obtaining image information including information related to prediction and information related to luminance display with chrominance scaling (LMCS) from the bitstream; генерацию выборки яркости предсказания на основе информации, связанной с предсказанием;generating a prediction brightness sample based on the prediction-related information; генерацию восстановленной выборки яркости на основе выборки яркости предсказания;generating a reconstructed luminance sample based on the prediction luminance sample; вывод индекса кусочной функции на основе связанной с LMCS информации; иderiving a piecewise function index based on the LMCS related information; and генерацию модифицированной восстановленной выборки яркости на основе восстановленной выборки яркости и индекса кусочной функции;generating a modified reconstructed luminance sample based on the reconstructed luminance sample and the piecewise function index; причем минимальный индекс бина и максимальный индекс бина выводятся на основе связанной с LMCS информации,wherein the minimum bin index and the maximum bin index are derived based on the LMCS related information, причем вывод индекса кусочной функции содержит: определение, является ли первое отображенное значение, в случае когда индекс кусочной функции равен минимальному индексу бина, большим, чем значение восстановленной выборки яркости; иmoreover, the output of the index of the piecewise function contains: determining whether the first displayed value, in the case where the index of the piecewise function is equal to the minimum index of the bin, is greater than the value of the recovered luminance sample; and определение, является ли второе отображенное значение, в случае когда индекс кусочной функции равен максимальному индексу бина - 1, большим, чем значение восстановленной выборки яркости; иdetermining whether the second mapped value, in the case where the index of the piecewise function is equal to the maximum bin index - 1, is greater than the value of the reconstructed luminance sample; and определение, является ли третье отображенное значение, в случае когда индекс кусочной функции равен максимальному индексу бина, большим, чем значение восстановленной выборки яркости, на основе определения, что второе отображенное значение, в случае когда индекс кусочной функции равен максимальному индексу бина -1, не больше, чем значение восстановленной выборки яркости.determining whether the third mapped value, in the case where the piecewise function index is equal to the maximum bin index, is larger than the recovered luminance sample value, based on determining that the second mapped value, in the case where the piecework index is equal to the maximum bin index -1, is not greater than the value of the reconstructed brightness sample. 2. Способ по п. 1, в котором информация изображения включает в себя набор параметров последовательности (SPS), и2. The method of claim 1, wherein the image information includes a sequence parameter set (SPS), and причем SPS включает в себя флаг включенного линейного LMCS, специфицирующий, включено ли линейное LMCS.wherein the SPS includes a linear LMCS enabled flag specifying whether linear LMCS is enabled. 3. Способ по п. 1, причем информация изображения включает в себя информацию остатка,3. The method of claim 1, wherein the image information includes residual information, причем остаточные выборки цветности генерируются на основе информации остатка,wherein the residual chrominance samples are generated based on the residual information, причем коэффициент остаточного масштабирования цветности выводится на основе индекса кусочной функции, иwherein the residual chrominance scaling factor is derived based on the index of the piecewise function, and причем масштабированные остаточные выборки цветности генерируются на основе остаточных выборок цветности и коэффициента остаточного масштабирования цветности.wherein the scaled chrominance residual samples are generated based on the chrominance residual samples and the chrominance residual scaling factor. 4. Способ по п. 1, в котором связанная с LMCS информация включает в себя поле данных LMCS и информацию о линейном LMCS,4. The method of claim 1, wherein the LMCS related information includes an LMCS data field and linear LMCS information, причем поле данных LMCS включает в себя флаг линейного LMCS, указывающий, применяется ли линейное LMCS, иwherein the LMCS data field includes a linear LMCS flag indicating whether linear LMCS is applied, and причем, когда значение флага линейного LMCS равно 1, отображенная выборка яркости предсказания генерируется на основе информации о линейном LMCS.wherein, when the value of the linear LMCS flag is 1, a mapped prediction luminance sample is generated based on the linear LMCS information. 5. Способ по п. 4, в котором информация о линейном LMCS включает в себя информацию о первой точке поворота и информацию о второй точке поворота,5. The method of claim 4, wherein the linear LMCS information includes first turning point information and second turning point information, причем входное значение и отображенное значение первой точки поворота представляют собой минимальное входное значение и минимальное отображенное значение соответственно,wherein the input value and the displayed value of the first pivot point are the minimum input value and the minimum displayed value, respectively, причем входное значение и отображенное значение второй точки поворота представляют собой максимальное входное значение и максимальное отображенное значение соответственно, иwherein the input value and the displayed value of the second pivot point are the maximum input value and the maximum displayed value, respectively, and причем входные значения между минимальным входным значением и максимальным входным значением являются линейно отображенными.wherein the input values between the minimum input value and the maximum input value are linearly mapped. 6. Способ по п. 4, в котором информация изображения включает в себя информацию о максимальном входном значении и информацию о максимальном отображенном значении, 6. The method of claim 4, wherein the image information includes maximum input value information and maximum displayed value information, причем максимальное входное значение равно значению информации о максимальном входном значении, иwherein the maximum input value is equal to the maximum input value information value, and причем максимальное отображенное значение равно значению информации о максимальном отображенном значении.wherein the maximum displayed value is equal to the information value of the maximum displayed value. 7. Способ по п. 4, в котором информация о линейном отображении включает в себя информацию о входном значении дельта второй точки поворота и информацию об отраженном значении дельта второй точки поворота,7. The method of claim 4, wherein the linear mapping information includes input delta value information of the second pivot point and information of the reflected delta value of the second pivot point, причем информация о входном значении дельта второй точки поворота представляет собой разность между входным значением второй точки поворота и максимальным входным значением,wherein the input value delta information of the second pivot point is the difference between the input value of the second pivot point and the maximum input value, причем информация об отображенном значении дельта второй точки поворота представляет собой разность между отображенным значением второй точки поворота и максимальным отображенным значением,wherein the information about the displayed delta value of the second pivot point is the difference between the displayed value of the second pivot point and the maximum displayed value, причем максимальное входное значение выводится на основе входного значения дельта второй точки поворота, иwherein the maximum input value is derived based on the delta input value of the second pivot point, and причем максимальное отображенное значение выводится на основе отображенного значения дельта второй точки поворота.wherein the maximum displayed value is derived based on the displayed delta value of the second pivot point. 8. Способ по п. 1, причем способ дополнительно содержит генерацию отображенной выборки яркости предсказания, и 8. The method of claim 1, wherein the method further comprises generating a mapped prediction luma sample, and причем генерация отображенной выборки яркости предсказания содержит:wherein the generation of the mapped prediction brightness sample comprises: вывод коэффициента масштабирования прямого отображения для выборки яркости предсказания:deriving the direct mapping scaling factor for the prediction brightness sample: генерацию отображенной выборки яркости предсказания на основе коэффициента масштабирования прямого отображения, иgenerating a mapped prediction luminance sample based on the direct mapping scaling factor, and причем коэффициент масштабирования прямого отображения представляет собой один коэффициент для выборки яркости предсказания.wherein the direct display scaling factor is one factor for sampling the prediction luminance. 9. Способ по п. 1, в котором второе отображенное значение, в случае когда индекс кусочной функции равен максимальному индексу бина -1, представляет собой отображенное значение в бине, указанном максимальным индексом бина, и9. The method of claim 1, wherein the second mapped value, in the case where the index of the piecewise function is equal to the maximum bin index -1, is the mapped value in the bin indicated by the maximum bin index, and причем третье отображенное значение, в случае когда индекс кусочной функции равен максимальному индексу бина, представляет собой отображенное значение в бине, указанном максимальным индексом бина +1.wherein the third mapped value, in the case where the index of the piecewise function is equal to the maximum bin index, is the mapped value in the bin indicated by the maximum bin index +1. 10. Способ по п. 1, в котором вывод индекса кусочной функции содержит выполнение операции следующего синтаксиса10. The method of claim 1, wherein deriving the index of the piecewise function comprises executing the operation of the following syntax
Figure 00000064
Figure 00000064
где синтаксис idxYInv представляет индекс кусочной функции, lmcs_min_bin_idx представляет минимальный индекс бина, LmcsMaxBinIdx представляет максимальный индекс бина, lumaSample представляет значение восстановленной выборки яркости и LmcsPivot[idxYInv+1] представляет отображенное значение в idxYInv+1-м бине.where the syntax idxYInv represents the index of the piecewise function, lmcs_min_bin_idx represents the minimum bin index, LmcsMaxBinIdx represents the maximum bin index, lumaSample represents the reconstructed luma sample value, and LmcsPivot[idxYInv+1] represents the mapped value in the idxYInv+1st bin. 11. Способ по п. 1, причем минимальный индекс бина не равен 0.11. The method according to claim 1, and the minimum bin index is not equal to 0. 12. Способ по п. 1, в котором связанная с LMCS информация включает в себя информацию о числе бинов для вывода отображенных выборок яркости предсказания,12. The method of claim 1, wherein the LMCS related information includes information about the number of bins for outputting prediction luminance mapped samples, причем число точек поворота для отображения яркости установлено равным числу бинов,wherein the number of pivot points for displaying brightness is set to the number of bins, причем входные значения дельта точек поворота и отображенные значения дельта точек поворота сигнализируются в количестве, равном числу бинов,wherein the input delta pivot values and the displayed delta pivot values are signaled in an amount equal to the number of bins, причем входные значения точек поворота и отображенные значения точек поворота выводятся на основе входных значений дельта точек поворота и отображенных значений дельта точек поворота, и wherein the pivot point input values and the pivot point mapped values are derived based on the pivot point delta input values and the pivot point delta mapped values, and причем отображенные выборки яркости предсказания генерируются на основе входных значений точек поворота и отображенных значений точек поворота,wherein the mapped prediction luminance samples are generated based on the input pivot values and the mapped pivot values, причем входные значения дельта точек поворота представляют собой входные значения дельта кодовых слов точек поворота и отображенные значения дельта точек поворота представляют собой отображенные значения дельта кодовых слов точек поворота. wherein the input delta pivot values are the input delta pivot codeword values and the mapped delta pivot values are the mapped delta pivot codeword values. 13. Способ кодирования изображения, выполняемый устройством кодирования, причем способ содержит:13. An image encoding method performed by an encoding device, the method comprising: генерацию выборки яркости предсказания;generating a prediction brightness sample; генерацию отображенной выборки яркости предсказания на основе выборки яркости предсказания;generating a mapped prediction luminance sample based on the prediction luma sample; генерацию информации, связанной с отображением яркости с масштабированием цветности (LMCS), на основе отображенной выборки яркости предсказания;generating information related to luminance chrominance scaling (LMCS) display based on the mapped prediction luminance sample; генерацию остаточной выборки яркости на основе отображенной выборки яркости предсказания;generating a residual luminance sample based on the mapped prediction luminance sample; вывод информации остатка на основе остаточной выборки яркости; иoutputting residual information based on the luminance residual sample; and кодирование информации изображения, включающей в себя связанную с LMCS информацию и информацию остатка,encoding image information including LMCS related information and residual information, причем способ кодирования изображения дополнительно содержит:wherein the image encoding method further comprises: генерацию восстановленной выборки яркости на основе предсказанной выборки яркости;generating a reconstructed luminance sample based on the predicted luminance sample; вывод индекса кусочной функции на основе связанной с LMCS информации; иderiving a piecewise function index based on the LMCS related information; and генерацию модифицированной восстановленной выборки яркости на основе восстановленной выборки яркости и индекса кусочной функции, generating a modified reconstructed luminance sample based on the reconstructed luminance sample and the piecewise function index, причем минимальный индекс бина и максимальный индекс бина выводятся на основе связанной с LMCS информации,wherein the minimum bin index and the maximum bin index are derived based on the LMCS related information, причем вывод индекса кусочной функции содержит:and the output of the index of the piecewise function contains: определение, является ли первое отображенное значение, в случае когда индекс кусочной функции равен минимальному индексу бина, большим, чем значение восстановленной выборки яркости; иdetermining whether the first mapped value, in the case where the index of the piecewise function is equal to the minimum index of the bin, is greater than the value of the reconstructed luminance sample; and определение, является ли второе отображенное значение, в случае когда индекс кусочной функции равен максимальному индексу бина -1, большим, чем значение восстановленной выборки яркости; иdetermining whether the second mapped value, in the case where the index of the piecewise function is equal to the maximum bin index -1, is larger than the recovered luminance sample value; and определение, является ли третье отображенное значение, в случае когда индекс кусочной функции равен максимальному индексу бина, большим, чем значение восстановленной выборки яркости, на основе определения, что второе отображенное значение, в случае когда индекс кусочной функции равен максимальному индексу бина -1, не больше, чем значение восстановленной выборки яркости.determining whether the third mapped value, in the case where the piecewise function index is equal to the maximum bin index, is larger than the recovered luminance sample value, based on determining that the second mapped value, in the case where the piecework index is equal to the maximum bin index -1, is not greater than the value of the reconstructed brightness sample. 14. Невременный считываемый компьютером цифровой носитель хранения, хранящий битовый поток, генерируемый способом, причем способ содержит:14. A non-transitory computer-readable digital storage medium storing a bitstream generated by a method, the method comprising: генерацию выборки яркости предсказания;generating a prediction brightness sample; генерацию отображенной выборки яркости предсказания на основе выборки яркости предсказания;generating a mapped prediction luminance sample based on the prediction luma sample; генерацию информации, связанной с отображением яркости с масштабированием цветности (LMCS), на основе отображенной выборки яркости предсказания;generating information related to luminance chrominance scaling (LMCS) display based on the mapped prediction luminance sample; генерацию остаточной выборки яркости на основе отображенной выборки яркости предсказания;generating a residual luminance sample based on the mapped prediction luminance sample; вывод информации остатка на основе остаточной выборки яркости; иoutputting residual information based on the luminance residual sample; and кодирование информации изображения, включающей в себя связанную с LMCS информацию и информацию остатка,encoding image information including LMCS related information and residual information, причем способ дополнительно содержит:wherein the method further comprises: генерацию восстановленной выборки яркости на основе предсказанной выборки яркости;generating a reconstructed luminance sample based on the predicted luminance sample; вывод индекса кусочной функции на основе связанной с LMCS информации; иderiving a piecewise function index based on the LMCS related information; and генерацию модифицированной восстановленной выборки яркости на основе восстановленной выборки яркости и индекса кусочной функции, generating a modified reconstructed luminance sample based on the reconstructed luminance sample and the piecewise function index, причем минимальный индекс бина и максимальный индекс бина выводятся на основе связанной с LMCS информации,wherein the minimum bin index and the maximum bin index are derived based on the LMCS related information, причем вывод индекса кусочной функции содержит:and the output of the index of the piecewise function contains: определение, является ли первое отображенное значение, в случае когда индекс кусочной функции равен минимальному индексу бина, большим, чем значение восстановленной выборки яркости; иdetermining whether the first mapped value, in the case where the index of the piecewise function is equal to the minimum index of the bin, is greater than the value of the reconstructed luminance sample; and определение, является ли второе отображенное значение, в случае когда индекс кусочной функции равен максимальному индексу бина -1, большим, чем значение восстановленной выборки яркости; иdetermining whether the second mapped value, in the case where the index of the piecewise function is equal to the maximum bin index -1, is larger than the recovered luminance sample value; and определение, является ли третье отображенное значение, в случае когда индекс кусочной функции равен максимальному индексу бина, большим, чем значение восстановленной выборки яркости, на основе определения, что второе отображенное значение, в случае когда индекс кусочной функции равен максимальному индексу бина -1, не больше, чем значение восстановленной выборки яркости. determining whether the third mapped value, in the case where the piecewise function index is equal to the maximum bin index, is larger than the recovered luminance sample value, based on determining that the second mapped value, in the case where the piecework index is equal to the maximum bin index -1, is not greater than the value of the reconstructed brightness sample. 15. Способ передачи данных для информации изображения, содержащий:15. A data transmission method for image information, comprising: получение битового потока информации изображения, включающей в себя информацию, связанную с отображением яркости с масштабированием цветности (LMCS), и информацию остатка, причем связанная с LMCS информация генерируется путем генерации выборки яркости предсказания, генерации отображенной выборки яркости предсказания на основе выборки яркости предсказания и вывода связанной с LMCS информации на основе отображенной выборки яркости предсказания, и причем информация остатка генерируется путем генерации остаточной выборки яркости на основе отображенной выборки яркости предсказания и вывода информации остатка на основе остаточной выборки яркости; иobtaining a bitstream of image information including information related to luminance mapping with chrominance scaling (LMCS) and residual information, wherein the LMCS related information is generated by generating a prediction luminance sample, generating a mapped prediction luminance sample based on the prediction luminance sample, and outputting LMCS-related information based on the mapped prediction luminance sample, wherein the residual information is generated by generating a residual luminance sample based on the mapped prediction luma sample and outputting residual information based on the residual luma sample; and передачу данных, содержащих битовый поток информации изображения, включающей в себя связанную с LMCS информацию и информацию остатка,transmitting data containing a bitstream of image information including LMCS related information and residual information, причем восстановленная выборка яркости генерируется на основе предсказанной выборки яркости;wherein the reconstructed luminance sample is generated based on the predicted luminance sample; причем индекс кусочной функции выводится на основе связанной с LMCS информации; иwherein the index of the piecewise function is derived based on the LMCS related information; and причем модифицированная восстановленная выборка яркости генерируется на основе восстановленной выборки яркости и индекса кусочной функции;wherein the modified reconstructed luminance sample is generated based on the reconstructed luminance sample and the index of the piecewise function; причем минимальный индекс бина и максимальный индекс бина выводятся на основе связанной с LMCS информации,wherein the minimum bin index and the maximum bin index are derived based on the LMCS related information, причем для вывода индекса кусочной функции,moreover, to display the index of a piecewise function, определяется, является ли первое отображенное значение, в случае когда индекс кусочной функции равен минимальному индексу бина, большим, чем значение восстановленной выборки яркости; иit is determined whether the first mapped value, in the case where the index of the piecewise function is equal to the minimum index of the bin, is greater than the value of the reconstructed luminance sample; and определяется, является ли второе отображенное значение, в случае когда индекс кусочной функции равен максимальному индексу бина -1, большим, чем значение восстановленной выборки яркости; иit is determined whether the second mapped value, in the case where the index of the piecewise function is equal to the maximum bin index -1, is greater than the value of the reconstructed luminance sample; and определяется, является ли третье отображенное значение, в случае когда индекс кусочной функции равен максимальному индексу бина, большим, чем значение восстановленной выборки яркости, на основе определения, что второе отображенное значение, в случае когда индекс кусочной функции равен максимальному индексу бина -1, не больше, чем значение восстановленной выборки яркости.it is determined whether the third mapped value, in the case where the piecewise function index is equal to the maximum bin index, is greater than the recovered luminance sample value, based on determining that the second mapped value, in the case where the piecework index is equal to the maximum bin index -1, is not greater than the value of the reconstructed brightness sample.
RU2021134763A 2019-06-17 2020-06-17 Encoding video or images based on brightness display RU2781172C1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US62/862,651 2019-06-17

Related Child Applications (1)

Application Number Title Priority Date Filing Date
RU2022125575A Division RU2804324C2 (en) 2019-06-17 2020-06-17 Encoding video or images based on brightness display

Publications (1)

Publication Number Publication Date
RU2781172C1 true RU2781172C1 (en) 2022-10-07

Family

ID=

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120134412A1 (en) * 2009-08-06 2012-05-31 Youji Shibahara Encoding method, decoding method, encoding device and decoding device
US9661338B2 (en) * 2010-07-09 2017-05-23 Qualcomm Incorporated Coding syntax elements for adaptive scans of transform coefficients for video coding
WO2017091759A1 (en) * 2015-11-25 2017-06-01 Qualcomm Incorporated Linear-model prediction with non-square prediction units in video coding
WO2018053293A1 (en) * 2016-09-15 2018-03-22 Qualcomm Incorporated Linear model chroma intra prediction for video coding
WO2018166429A1 (en) * 2017-03-16 2018-09-20 Mediatek Inc. Method and apparatus of enhanced multiple transforms and non-separable secondary transform for video coding
WO2018174402A1 (en) * 2017-03-21 2018-09-27 엘지전자 주식회사 Transform method in image coding system and apparatus for same
WO2018236051A1 (en) * 2017-06-21 2018-12-27 엘지전자 주식회사 Method and device for decoding image according to intra-prediction in image coding system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120134412A1 (en) * 2009-08-06 2012-05-31 Youji Shibahara Encoding method, decoding method, encoding device and decoding device
US9661338B2 (en) * 2010-07-09 2017-05-23 Qualcomm Incorporated Coding syntax elements for adaptive scans of transform coefficients for video coding
WO2017091759A1 (en) * 2015-11-25 2017-06-01 Qualcomm Incorporated Linear-model prediction with non-square prediction units in video coding
WO2018053293A1 (en) * 2016-09-15 2018-03-22 Qualcomm Incorporated Linear model chroma intra prediction for video coding
WO2018166429A1 (en) * 2017-03-16 2018-09-20 Mediatek Inc. Method and apparatus of enhanced multiple transforms and non-separable secondary transform for video coding
WO2018174402A1 (en) * 2017-03-21 2018-09-27 엘지전자 주식회사 Transform method in image coding system and apparatus for same
WO2018236051A1 (en) * 2017-06-21 2018-12-27 엘지전자 주식회사 Method and device for decoding image according to intra-prediction in image coding system

Similar Documents

Publication Publication Date Title
US11930191B2 (en) Luma mapping—and chroma scaling-based video or image coding
US20240121412A1 (en) Luma mapping- and chroma scaling-based video or image coding
US11924448B2 (en) Luma-mapping-based video or image coding
KR20210118194A (en) Video or video coding based on luma mapping and chroma scaling
JP2024038444A (en) Luma mapping-based video or image coding
US20240073434A1 (en) Luma mapping-based video or image coding
US20230328264A1 (en) Video or image coding based on mapping of luma samples and scaling of chroma samples
KR20210118947A (en) Video or video coding based on luma mapping and chroma scaling
US20230039761A1 (en) Video or image coding based on luma mapping and chroma scaling
US11924431B2 (en) LMCS-based image coding method and device therefor
RU2781172C1 (en) Encoding video or images based on brightness display
RU2804324C2 (en) Encoding video or images based on brightness display
RU2781435C1 (en) Encoding of videos or images based on brightness display and chroma scaling
RU2811987C1 (en) Encoding video or images based on luminance display and colour mapping
RU2804453C2 (en) Encoding video or images based on luminance display and color mapping
US11563956B2 (en) Luma mapping-based video or image coding
US12028534B2 (en) Video or image coding based on mapped luma component and scaled chroma component
US11729404B2 (en) Luma mapping- and chroma scaling-based video or image coding
US20220256174A1 (en) Video or image coding based on mapped luma component and scaled chroma component