RU2806282C2 - Interaction between in-loop transformation and tools for interframe coding - Google Patents

Interaction between in-loop transformation and tools for interframe coding Download PDF

Info

Publication number
RU2806282C2
RU2806282C2 RU2021123616A RU2021123616A RU2806282C2 RU 2806282 C2 RU2806282 C2 RU 2806282C2 RU 2021123616 A RU2021123616 A RU 2021123616A RU 2021123616 A RU2021123616 A RU 2021123616A RU 2806282 C2 RU2806282 C2 RU 2806282C2
Authority
RU
Russia
Prior art keywords
block
region
video
video block
motion
Prior art date
Application number
RU2021123616A
Other languages
Russian (ru)
Other versions
RU2021123616A (en
Inventor
Ли ЧЖАН
Кай Чжан
Хунбинь Лю
Цзичжэн СЮЙ
Юэ Ван
Original Assignee
Бейджин Байтдэнс Нетворк Текнолоджи Ко., Лтд.
Байтдэнс Инк.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Бейджин Байтдэнс Нетворк Текнолоджи Ко., Лтд., Байтдэнс Инк. filed Critical Бейджин Байтдэнс Нетворк Текнолоджи Ко., Лтд.
Publication of RU2021123616A publication Critical patent/RU2021123616A/en
Application granted granted Critical
Publication of RU2806282C2 publication Critical patent/RU2806282C2/en

Links

Abstract

FIELD: means for image encoding and decoding.
SUBSTANCE: first predictive block is determined in the first region from at least one reference image using unspecified motion information. The current video block is a block of the luminance component. A motion information refinement procedure is applied to obtain motion offset information. A second predictive block is generated from the samples on the specified at least one reference image using information about the motion offset. Based on the direct mapping procedure the second predictive block is transformed from the first region to the second region. Reconstructed samples of the current video block are generated based on the second predicted block in the second region. To display the readings of the second predictive block, a piecewise linear model is used, the scaling factors of which are determined based on the first variables, which are determined on the basis of the syntax elements included in the set of adaptation parameters, and the second variables, determined on the basis of bit depth.
EFFECT: increase in efficiency of image encoding.
14 cl, 74 dwg

Description

Перекрестные ссылки на родственные заявкиCross references to related applications

Область техники, к которой относится изобретениеField of technology to which the invention relates

Настоящий патентный документ относится к технологиям, устройствам и системам для обработки видео.This patent document relates to video processing technologies, devices and systems.

Уровень техникиState of the art

Несмотря на все достижения в области сжатия видео, цифровое видео по-прежнему занимает наибольшую долю полосы в сети Интернет и в других цифровых сетях связи. Поскольку число присоединенных пользовательских устройств, способных принимать и представлять видео, увеличивается, ожидается, что потребности в полосе для использования цифровым видео будут продолжать расти.Despite all the advances in video compression, digital video still takes up the largest share of bandwidth on the Internet and other digital communications networks. As the number of connected user devices capable of receiving and presenting video increases, bandwidth requirements for digital video use are expected to continue to increase.

Раскрытие сущности изобретенияDisclosure of the invention

Описаны устройства, системы и способы, относящиеся к обработке цифрового видео и, в частности, к внутриконтурному переформированию (in-loop reshaping (ILR)) для обработки видео. Описываемые способы могут быть применены и к существующим стандартам обработки видео (например, к стандарту высокоэффективного видеокодирования (High Efficiency Video Coding (HEVC))), и к стандартам будущего для обработки видео или к процессорам видео, включая видеокодеки.Devices, systems and methods related to digital video processing and, in particular, to in-loop reshaping (ILR) for video processing are described. The described methods can be applied to both existing video processing standards (for example, High Efficiency Video Coding (HEVC)) and future video processing standards or video processors, including video codecs.

Согласно одному из репрезентативных аспектов, предлагаемая технология может быть использована для обеспечения способа обработки видео. Этот способ содержит выполнение, для преобразования между текущим видеоблоком видео и кодированным представлением видео, процедуры уточнения информации о движении на основе отсчетов в первой области или во второй области; и выполнение преобразования на основе результата процедуры уточнения информации о движении, причем при преобразовании получают отсчеты для текущего видеоблока из первого прогнозируемого блока в первой области с использованием неуточненной информации о движении, генерируют во второй области по меньшей мере второй прогнозируемый блок с использованием уточненной информации о движении для определения реконструированного блока и генерируют реконструированные отсчеты текущего видеоблока на основе по меньшей мере второго прогнозируемого блока.According to one exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises performing, for converting between a current video block of video and an encoded video representation, a procedure for refining motion information based on samples in a first region or a second region; and performing a transformation based on the result of the motion information refinement procedure, wherein during the transformation, samples for the current video block are obtained from the first predicted block in the first region using the unspecified motion information, and at least a second prediction block is generated in the second region using the refined motion information to determine a reconstructed block and generate reconstructed samples of the current video block based on at least the second predicted block.

Согласно другому репрезентативному аспекту, предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит выполнение преобразования между текущим видеоблоком видео и кодированным представлением видео, причем при преобразовании конструируют текущий видеоблок на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, при этом при преобразовании применяют инструмент кодирования с использованием параметров, получаемых по меньшей мере на основе первого набора отсчетов в видеообласти видео и второго набора отсчетов в опорного изображении текущего видеоблока, при этом область для первых отсчетов и область для вторых отсчетов совмещены.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises performing a transformation between a current video video block and an encoded video representation, wherein during the transformation the current video block is constructed based on the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component, wherein the transformation uses an encoding tool using parameters , obtained from at least the first set of samples in the video video area and the second set of samples in the reference image of the current video block, wherein the area for the first samples and the area for the second samples are combined.

Согласно другому репрезентативному аспекту, предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит определение, для текущего видеоблока текущей видеообласти видео, параметра для режима кодирования текущего видеоблока на основе одного или более параметров для режима кодирования предыдущей видеообласти; и выполнение кодирования для текущего видеоблока для генерирования кодированного представления видео на основе указанного определения, при этом указанный параметр для режима кодирования включен в набор параметров в кодированном представлении видео, и выполнение кодирования содержит трансформацию представления текущего видеоблока в первой области в представление текущего видеоблока во второй области, и при выполнении кодирования с использованием указанного режима кодирования конструируют текущий видеоблок на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises determining, for the current video block of the current video video region, a parameter for the encoding mode of the current video block based on one or more parameters for the encoding mode of the previous video region; and performing encoding on the current video block to generate an encoded video representation based on said definition, wherein said parameter for an encoding mode is included in a set of parameters in the encoded video representation, and performing encoding comprises transforming a representation of the current video block in the first region to a representation of the current video block in the second region , and when encoding is performed using the specified encoding mode, a current video block is constructed based on the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component.

Согласно другому репрезентативному аспекту, предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит прием кодированного представления видео, содержащего набор параметров, включающий в себя информацию о параметрах для режима кодирования; и выполнение декодирования кодированного представления с использованием указанной информации о параметрах для генерирования текущего видеоблока текущей видеообласти видео на основе кодированного представления, при этом информация о параметрах для режима кодирования основана на одном или более параметрах для режима кодирования предыдущей видеообласти, причем в указанном режиме кодирования конструируют текущий видеоблок на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises receiving an encoded representation of a video containing a set of parameters including parameter information for an encoding mode; and performing decoding of the encoded representation using said parameter information to generate a current video block of the current video region of the video based on the encoded representation, wherein the parameter information for the encoding mode is based on one or more parameters for the encoding mode of the previous video region, wherein in said encoding mode constructing the current a video block based on the first region and the second region and/or scaling the remainder of the chrominance component in a manner dependent on the luminance component.

Согласно другому репрезентативному аспекту, предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит выполнение преобразования между текущим видеоблоком видео и кодированным представлением видео, и преобразование содержит применение операции фильтрации к прогнозируемому блоку в первой области или во второй области, отличной от первой области.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises performing a transformation between a current video block of video and an encoded representation of the video, and the transformation comprises applying a filtering operation to a predicted block in a first region or in a second region different from the first region.

Согласно другому репрезентативному аспекту, предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит выполнение преобразования между текущим видеоблоком видео и кодированным представлением видео, причем при преобразовании определяют конечный реконструированный блок для текущего видеоблока, генерируют временный реконструированный блок с использованием способа прогнозирования и представляют указанный блок во второй области.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises performing a transformation between a current video video block and an encoded video representation, wherein the transformation determines a final reconstructed block for the current video block, generates a temporary reconstructed block using a prediction method, and presents the specified block in a second region.

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Этот способ содержит выполнения преобразования между текущим видеоблоком видеообласти видео и кодированным представлением видео, причем преобразование использует режим кодирования, в котором конструируют текущий видеоблок на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, при этом набор параметров в кодированном представлении содержит информацию о параметрах для указанного режима кодированияAccording to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises performing a transformation between a current video block of a video region of a video and an encoded representation of the video, wherein the transformation uses an encoding mode that constructs the current video block based on a first region and a second region and/or scales the remainder of the chroma component in a manner dependent on the luminance component, wherein the set parameters in encoded representation contains information about parameters for the specified encoding mode

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит осуществление преобразования между текущим видеоблоком, представляющим собой блок цветностной составляющей видео, и кодированным представлением видео, причем при преобразовании текущий видеоблок конструируют на основе первой области и второй области, при этом преобразование дополнительно содержит применение процедуры прямого переформирования и/или процедуры обратного переформирования к одной или более цветностным составляющим текущего видеоблока.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises performing a transformation between a current video block, which is a block of the color component of a video, and an encoded representation of the video, wherein during the transformation, the current video block is constructed based on a first region and a second region, wherein the transformation further comprises applying a forward reformation procedure and/or an inverse reformation procedure to one or more chrominance components of the current video block.

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит выполнение преобразования между текущим видеоблоком цветностной составляющей видео и кодированным представлением видео, причем выполнение преобразования содержит: определение, активизировано ли зависящее от яркостной составляющей масштабирование остатка цветностной составляющей (luma-dependent chroma residue scaling (LCRS)) на основе правила, и реконструкцию текущего видеоблока цветностной составляющей на основе указанного определения.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises performing a transformation between a current chroma video block and an encoded video representation, wherein performing the transformation comprises: determining whether luma-dependent chroma residue scaling (LCRS) is enabled based on the rule, and reconstructing the current video block of the chrominance component based on the specified definition.

Согласно другому репрезентативному аспекту, предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит определение, для преобразования между текущим видеоблоком видео и кодированным представлением видео, следует ли отменить активизацию использования режима кодирования на основе одного или более значений коэффициентов для текущего видеоблока; и выполнение преобразования на основе указанного определения, при этом при преобразовании с использованием указанного режим кодирования конструируют текущий видеоблок на основе первого блока и второго блока и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises determining, for conversion between a current video video block and an encoded video representation, whether to deactivate the use of an encoding mode based on one or more coefficient values for the current video block; and performing a conversion based on said definition, wherein when converting using said encoding mode, constructing a current video block based on the first block and the second block and/or scaling the remainder of the chrominance component in a manner dependent on the luminance component.

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит разбиение, для преобразования между текущим видеоблоком видео, превосходящим единицу данных виртуального конвейера (virtual pipeline data unit (VPDU)) видео, текущего видеоблока на области; и выполнение преобразования путем применения режима кодирования по отдельности к каждой области, причем при преобразовании с применением соответствующего режима кодирования конструируют текущий видеоблок на основе первого блока и второго блока и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющейAccording to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises partitioning, for converting between a current video block of video larger than a virtual pipeline data unit (VPDU) of video, the current video block into an area; and performing the conversion by applying the encoding mode separately to each area, wherein when converting using the corresponding encoding mode, constructing the current video block based on the first block and the second block and/or scaling the remainder of the chrominance component in a manner dependent on the luminance component

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Этот способ содержит определение, для преобразования между текущим видеоблоком и кодированным представлением видео, следует ли отменить активизацию использования режима кодирования на основе размера или цветового формата текущего видеоблока; и выполнение преобразования на основе указанного определения, причем при преобразовании с использованием указанного режима кодирования конструируют текущий видеоблок на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющейAccording to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises determining, for conversion between the current video block and an encoded video representation, whether to deactivate the use of an encoding mode based on the size or color format of the current video block; and performing a conversion based on said definition, wherein when converting using said encoding mode, constructing a current video block based on the first region and the second region and/or scaling the remainder of the chrominance component in a manner dependent on the luminance component

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит выполнение преобразования между текущим видеоблоком видео и кодированным представлением видео, причем преобразование использует режим кодирования, в котором конструируют текущий видеоблок на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, при этом по меньшей мере один синтаксический элемент в кодированном представлении создает указание использования режима кодирования и указание модели устройства переформирования.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises performing a transformation between a current video block of video and an encoded representation of the video, wherein the transformation uses an encoding mode that constructs the current video block based on a first region and a second region and/or scales the remainder of the chrominance component in a manner dependent on the luminance component, wherein at least one syntactic element in the encoded representation creates an indication of the use of the encoding mode and an indication of the model of the reshaping device.

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит определение, что режим кодирования не активизирован для преобразования между текущим видеоблоком и кодированным представлением видео; и условный пропуск прямого переформирования и/или обратного переформирования на основе указанного определения причем в режиме кодирования конструируют текущий видеоблок на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises determining that an encoding mode is not activated for conversion between the current video block and the encoded video representation; and conditionally skipping direct reformation and/or reverse reformation based on the specified definition, wherein in the encoding mode the current video block is constructed based on the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component.

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит выполнение преобразования между текущим видеоблоком видео и кодированным представлением видео, причем преобразование использует режим кодирования, в котором конструируют текущий видеоблок на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, при этом применяют множество операций прямого переформирования и/или множество операций обратного переформирования в режиме переформирования для видеообласти.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises performing a transformation between a current video block of video and an encoded representation of the video, wherein the transformation uses an encoding mode that constructs the current video block based on a first region and a second region and/or scales the remainder of the chrominance component in a manner dependent on the luminance component, using a plurality of operations forward reformatting and/or a plurality of reverse reformatting operations in a reformatting mode for the video domain.

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит выполнение определения, что режим кодирования активизирован для преобразования между текущим видеоблоком видео и кодированным представлением видео; и выполнение преобразования с использованием режим палитры, причем по меньшей мере палитра репрезентативных значений отсчетов используется для текущего видеоблока, при этом в указанном режиме кодирования конструируют текущий видеоблок на основе отсчетов в первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises determining that an encoding mode is activated for conversion between a current video block of video and an encoded representation of the video; and performing a transformation using a palette mode, wherein at least a palette of representative sample values is used for the current video block, wherein in said encoding mode, constructing the current video block based on the samples in the first region and the second region and/or scaling the remainder of the chrominance component in a manner dependent on brightness component.

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит определение, для преобразования между текущим видеоблоком видео и кодированным представлением видео, что текущий видеоблок кодирован в режиме палитры, причем по меньшей мере палитра репрезентативных величин отсчетов используется для кодирования текущего видеоблока; и выполнение, на основе указанного определения, преобразования посредством отмены активизации режима кодирования, при этом, когда режим кодирования применяют к видеоблоку, конструируют видеоблок на основе остатка цветностной составляющей, масштабированного способом, зависящим от яркостной составляющей.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises determining, for conversion between a current video video block and an encoded video representation, that the current video block is encoded in a palette mode, wherein at least a palette of representative sample values is used to encode the current video block; and performing, based on the above definition, conversion by deactivating the encoding mode, wherein when the encoding mode is applied to the video block, constructing a video block based on the remainder of the chrominance component scaled in a manner dependent on the luminance component.

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит выполнение преобразования между первым видеоблоком видео и кодированным представлением видео, причем преобразования использует первый режим кодирования и режим кодирования палитры, в котором по меньшей мере палитра репрезентативных значений пикселей используется для кодирования текущего видеоблока; и выполнение преобразования между вторым видеоблоком видео, который кодирован без использования режима кодирования палитры, и кодированным представлением видео, причем преобразование второго видеоблока использует первый режим кодирования, при этом, если к видеоблоку применяют первый режим кодирования, конструируют видеоблок на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, при этом указанный первый режим кодирования применяют различными способами к первому видеоблоку и ко второму видеоблоку.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises performing a transformation between a first video block of video and an encoded representation of the video, the transformation using a first encoding mode and a palette encoding mode in which at least a palette of representative pixel values is used to encode the current video block; and performing a transformation between a second video block of video that is encoded without using a palette encoding mode and the encoded video representation, wherein the transformation of the second video block uses the first coding mode, wherein if the first coding mode is applied to the video block, constructing a video block based on the first region and the second region and/or scaling the remainder of the chrominance component in a manner dependent on the luminance component, wherein said first encoding mode is applied in different ways to the first video block and the second video block.

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит определение, что режим кодирования активизирован для преобразования между текущим видеоблоком и кодированным представлением видео, и выполнение преобразования с использованием режима внутрикадрового копирования блоков, в котором генерируют прогнозируемый блок с использованием по меньшей мере вектора блока, указывающего на изображение, содержащее текущий видеоблок, при этом в указанном режиме кодирования конструируют текущий видеоблок на основе отсчетов в первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises determining that an encoding mode is activated for conversion between the current video block and an encoded video representation, and performing the conversion using an intra-frame block copy mode in which a predicted block is generated using at least a block vector pointing to an image containing the current video block, at In this case, in the specified coding mode, the current video block is constructed based on the samples in the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component.

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит определение, для выполнения преобразования между текущим видеоблоком и кодированным представлением видео, что текущий видеоблок кодирован в режиме внутрикадрового копирования блоков (intra block copy (IBC)), генерирующем прогнозируемый блок с использованием по меньшей мере вектора блока, указывающего на кадр видео, содержащий указанный текущий видеоблок, для кодирования текущего видеоблока; и осуществление, на основе указанного определения, преобразования посредством отмены активизации режима кодирования, при этом, если к видеоблоку применяется указанный режим кодирования, конструируют видеоблок на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises determining, for performing a conversion between the current video block and an encoded video representation, that the current video block is encoded in an intra block copy (IBC) mode generating a predicted block using at least a block vector pointing to a video frame containing specified current video block, for encoding the current video block; and, based on said determination, performing conversion by deactivating the encoding mode, wherein if said encoding mode is applied to the video block, constructing the video block based on the first region and the second region and/or scaling the remainder of the chrominance component in a manner dependent on the luminance component.

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит выполнение преобразования между первым видеоблоком видео и кодированным представлением видео, причем преобразование использует режим внутрикадрового копирования блоков, генерирующий прогнозируемый блок с использованием по меньшей мере вектора блока, указывающего на видеокадр, содержащий текущий видеоблок, и первый режим кодирования; и выполнение преобразования между вторым видеоблоком видео, кодируемым без использования режима внутрикадрового копирования блоков, и кодированным представлением видео, причем преобразование второго блока видео использует первый режим кодирования, при этом, если первый режим кодирования применяется к видеоблоку, конструируют видеоблок на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, причем первый режим кодирования применяют по-разному к первому видеоблоку и ко второму видеоблоку.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises performing a transformation between a first video video block and an encoded representation of the video, the transformation using an intra-frame block copy mode generating a predicted block using at least a block vector pointing to a video frame containing the current video block, and a first encoding mode; and performing a transformation between a second video block of video encoded without using an intraframe block copy mode and an encoded representation of the video, wherein the transformation of the second video block uses the first coding mode, wherein if the first coding mode is applied to the video block, constructing a video block based on the first region and the second areas and/or scale the remainder of the chrominance component in a manner dependent on the luminance component, the first encoding mode being applied differently to the first video block and to the second video block.

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит определение, что режим кодирования активизирован для преобразования между текущим видеоблоком видео и кодированным представлением видео; и выполнение преобразования с использованием режима дельта-импульсно-кодовой модуляции на блочной основе (block-based delta pulse code modulation (BDPCM)), причем в указанном режиме кодирования конструируют текущий видеоблок на основе отсчетов в первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises determining that an encoding mode is activated to convert between a current video video block and an encoded video representation; and performing the conversion using a block-based delta pulse code modulation (BDPCM) mode, wherein in said coding mode, constructing a current video block based on samples in the first region and the second region and/or scaling the remainder chrominance component in a manner dependent on the luminance component.

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит определение, для преобразования между текущим видеоблоком видео и кодированным представлением видео, что текущий видеоблок кодирован с использованием режима дельта-импульсно-кодовой модуляции на блочной основе (BDPCM); и выполнение, на основе указанного определения, преобразования посредством отмены активизации режима кодирования, причем, если указанный режим кодирования применяют к видеоблоку, конструируют видеоблок на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises determining, for conversion between a current video video block and an encoded video representation, that the current video block is encoded using a block-based delta pulse code modulation (BDPCM) mode; and performing, based on said determination, a transformation by deactivating the encoding mode, wherein, if said encoding mode is applied to a video block, constructing a video block based on the first region and the second region and/or scaling the remainder of the chrominance component in a manner dependent on the luminance component.

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит выполнение преобразования между первым видеоблоком видео и кодированным представлением видео, причем преобразование первого видеоблока использует первый режим кодирования и режим дельта-импульсно-кодовой модуляции на блочной основе (BDPCM); и выполнение преобразования между вторым видеоблоком видео и кодированным представлением видео, причем второй видеоблок кодирован без использования режима модуляции BDPCM, и преобразования второго видеоблока использует первый режим кодирования, при этом, если к видеоблоку применяют первый режим кодирования, конструируют видеоблок на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, при этом первый режим кодирования применяют по-разному к первому видеоблоку и ко второму видеоблоку.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises performing a transformation between a first video block of video and an encoded representation of the video, wherein the transformation of the first video block uses a first coding mode and a block-based delta pulse code modulation (BDPCM) mode; and performing a transformation between the second video block of video and an encoded representation of the video, wherein the second video block is encoded without using a BDPCM modulation mode, and the transformation of the second video block uses the first encoding mode, wherein if the first encoding mode is applied to the video block, constructing the video block based on the first region and the second areas and/or scale the remainder of the chrominance component in a manner dependent on the luminance component, wherein the first encoding mode is applied differently to the first video block and to the second video block.

Согласно другому репрезентативному аспекту, предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит определение, что режим кодирования активизирован для преобразования между текущим видеоблоком видео и кодированным представлением видео; и выполнение преобразования с использованием режим пропуска трансформации, причем трансформацию остатка прогнозирования пропускают при кодировании текущего видеоблока, причем в указанном режиме кодирования конструируют текущий видеоблок на основе отсчетов в первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises determining that an encoding mode is activated to convert between a current video video block and an encoded video representation; and performing the transformation using the skip transformation mode, wherein the transformation of the prediction remainder is skipped when encoding the current video block, wherein in the specified encoding mode the current video block is constructed based on the samples in the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component.

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит выполнение определения, для осуществления преобразования между текущим видеоблоком и кодированным представлением видео, что текущий видеоблок кодирован в режиме пропуска трансформации, в котором трансформацию остатка прогнозирования пропускают при кодировании текущего видеоблока; и выполнение, на основе указанного определения, преобразования посредством отмены режима кодирования, причем, если указанные режим кодирования применяется к видеоблоку, конструируют видеоблок на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises determining, to perform a transformation between the current video block and an encoded video representation, that the current video block is encoded in a skip transformation mode, in which the transformation of the prediction residual is skipped when encoding the current video block; and performing, based on said determination, a conversion by canceling the encoding mode, wherein if said encoding mode is applied to the video block, constructing a video block based on the first region and the second region and/or scaling the remainder of the chrominance component in a manner dependent on the luminance component.

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит выполнение преобразования между первым видеоблоком видео и кодированным представлением видео, причем преобразование первого видеоблока использует первый режим кодирования и режим пропуска трансформации, в котором трансформацию остатка прогнозирования пропускают при кодировании текущего видеоблока; и выполнение преобразования между вторым видеоблоком видео и кодированным представлением видео, причем второй видеоблок кодирован без использования режима пропуска трансформации, и преобразование второго видеоблока использует первый режим кодирования, при этом, если первый режим кодирования применяется к видеоблоку, конструируют видеоблок на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, при этом первый режим кодирования применяют по-разному к первому видеоблоку и ко второму видеоблоку.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises performing a transformation between a first video block of video and an encoded representation of the video, wherein the transformation of the first video block uses a first encoding mode and a skip transformation mode in which the transformation of the prediction residual is skipped when encoding the current video block; and performing a transformation between the second video block of video and the encoded representation of the video, wherein the second video block is encoded without using a skip transformation mode, and the transformation of the second video block uses the first encoding mode, wherein if the first encoding mode is applied to the video block, constructing a video block based on the first region and the second areas and/or scale the remainder of the chrominance component in a manner dependent on the luminance component, wherein the first encoding mode is applied differently to the first video block and to the second video block.

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит определение, что режим кодирования активизирован для преобразования между текущим видеоблоком видео и кодированным представлением видео; и выполнение преобразования с использованием режима внутрикадрового прогнозирования с импульсно-кодовой модуляцией, при этом текущий видеоблок кодируют без применения трансформации и квантования в трансформированной области, причем в указанном режиме кодирования конструируют текущий видеоблок на основе отсчетов в первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises determining that an encoding mode is activated to convert between a current video video block and an encoded video representation; and performing the transformation using the intra-frame prediction mode with pulse code modulation, wherein the current video block is encoded without applying transformation and quantization in the transformed area, and in the specified encoding mode, the current video block is constructed based on samples in the first area and the second area and/or the remainder is scaled chrominance component in a manner dependent on the luminance component.

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Cпособ содержит определение, для преобразования между текущим видеоблоком видео и кодированным представлением видео, что текущий блок кодирован в режиме внутрикадрового прогнозирования с импульсно-кодовой модуляцией, в котором текущий видеоблок кодируют без применения трансформации и квантования в трансформированной области; и выполнение, на основе указанного определения, преобразования посредством отмены активизации режима кодирования, причем, если указанный режим кодирования применяется к видеоблоку, конструируют видеоблок на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises determining, for the transformation between a current video video block and an encoded video representation, that the current block is encoded in an intra-frame prediction mode with pulse code modulation, in which the current video block is encoded without applying transformation and quantization in the transformed region; and performing, based on said determination, a transformation by deactivating the encoding mode, wherein, if said encoding mode is applied to a video block, constructing a video block based on the first region and the second region and/or scaling the remainder of the chrominance component in a manner dependent on the luminance component.

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Cпособ содержит выполнение преобразования между первым видеоблоком видео и кодированным представлением видео, причем преобразование первого видеоблока использует первый режим кодирования и режим внутрикадрового прогнозирования с импульсно-кодовой модуляцией, в котором текущий видеоблок кодируют без применения трансформации и квантования в трансформированной области; и выполнение преобразования между вторым видеоблоком видео и кодированным представление видео, причем второй видеоблок кодирован без использования режима внутрикадрового прогнозирования с импульсно-кодовой модуляцией, при этом преобразование второго видеоблока использует первый режим кодирования, причем, если первый режим кодирования применяют к видеоблоку, конструируют видеоблок на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и первый режим кодирования применяют по-разному к первому видеоблоку и ко второму видеоблоку.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises performing a transformation between a first video block of video and an encoded representation of the video, wherein the transformation of the first video block uses a first encoding mode and a PCM intra-frame prediction mode in which the current video block is encoded without applying transformation and quantization in the transformed region; and performing a transformation between the second video block of video and the encoded video representation, wherein the second video block is encoded without using an intra-frame prediction mode with pulse code modulation, wherein the transformation of the second video block uses a first encoding mode, wherein, if the first encoding mode is applied to the video block, constructing a video block on based on the first region and the second region and/or scaling the remainder of the chrominance component in a manner dependent on the luminance component, and the first encoding mode is applied differently to the first video block and to the second video block.

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит определение, что режим кодирования активизирован для осуществления преобразования между текущим видеоблоком и кодированным представлением видео; и выполнение преобразования с использованием модифицированного режима обхода трансформации и квантования, в котором текущий видеоблок кодируют без потерь и без применения трансформации и квантования, причем в указанном режиме кодирования конструируют текущий видеоблок на основе отсчетов в первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises determining that an encoding mode is activated to perform a conversion between a current video block and an encoded video representation; and performing the transformation using a modified transformation and quantization bypass mode, in which the current video block is encoded without loss and without applying transformation and quantization, and in the specified encoding mode, the current video block is constructed based on samples in the first region and the second region and/or the remainder of the chrominance component is scaled in a way that depends on the brightness component.

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Cпособ содержит определение, для преобразования между текущим видеоблоком видео и кодированным представлением видео, что текущий видеоблок кодирован в режиме обхода трансформации и квантования, в котором текущий видеоблок кодируют без потерь и без применения трансформации и квантования; и выполнение, на основе указанного определения, преобразования путем отмены активизации режима кодирования, причем, если режим кодирования применяется к видеоблоку, конструируют видеоблок на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises determining, for conversion between a current video video block and an encoded video representation, that the current video block is encoded in a transformation and quantization bypass mode, in which the current video block is encoded losslessly and without applying transformation and quantization; and performing, based on said determination, a transformation by deactivating the encoding mode, wherein, if the encoding mode is applied to the video block, constructing the video block based on the first region and the second region and/or scaling the remainder of the chrominance component in a manner dependent on the luminance component.

Согласно другому репрезентативному аспекту, предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит выполнение преобразования между первым видеоблоком видео и кодированным представлением видео, причем для преобразования первого видеоблока используется первый режим кодирования и режим обхода трансформации и квантования, в котором текущий видеоблок кодируют без потерь и без применения трансформации и квантования; и выполнение преобразования между вторым видеоблоком видео и кодированным представлением видео, причем второй видеоблок кодирован без использования режима обхода трансформации и квантования и для преобразования второго видеоблока используют первый режим кодирования, причем, если первый режим кодирования применяется к видеоблоку, конструируют видеоблок на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, при этом первый режим кодирования применяют различными способами к первому видеоблоку и ко второму видеоблоку.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises performing a transformation between a first video block of video and an encoded representation of the video, wherein to transform the first video block, a first encoding mode and a transformation and quantization bypass mode are used, in which the current video block is encoded losslessly and without applying transformation and quantization; and performing a transformation between the second video block of video and the encoded representation of the video, wherein the second video block is encoded without using a transform and quantization bypass mode and a first encoding mode is used to transform the second video block, wherein if the first encoding mode is applied to the video block, constructing a video block based on the first region and the second region and/or scale the remainder of the chrominance component in a manner dependent on the luminance component, wherein the first encoding mode is applied in different ways to the first video block and to the second video block.

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит выполнение преобразования между текущим видеоблоком видео и кодированным представлением видео, причем преобразование использует режим кодирования, в котором конструируют текущий видеоблок на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, причем информацию, используемую для режима кодирования, сообщают в виде сигнализации в наборе параметров, отличном от набора параметров последовательности (sequence parameter set (SPS)), набора параметров видео (video parameter set (VPS)), набора параметров изображения (picture parameter set (PPS)) или набора параметров адаптации (adaptation parameter set (APS)), используемых для передачи параметров адаптивной контурной фильтрации (adaptive loop filtering (ALF)).According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises performing a transformation between a current video block of video and an encoded representation of the video, wherein the transformation uses an encoding mode that constructs the current video block based on a first region and a second region and/or scales the remainder of the chrominance component in a manner dependent on the luminance component, the information used to encoding mode is signaled in a parameter set other than the sequence parameter set (SPS), video parameter set (VPS), picture parameter set (PPS), or adaptation parameter set (APS) used to transmit adaptive loop filtering (ALF) parameters.

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит выполнение преобразования между текущим видеоблоком видео и кодированным представлением видео, причем преобразование использует режим кодирования, в котором конструируют текущий видеоблок на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, причем информацию, используемую для режима кодирования, передают в виде сигнализации в наборе параметров адаптации (APS) вместе с информацией адаптивной контурной фильтрации (ALF), при этом указанная информация, используемая для режима кодирования, и информация фильтрация ALF включены в одну единицу уровня сетевой абстракции (network abstraction layer (NAL)).According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises performing a transformation between a current video block of video and an encoded representation of the video, wherein the transformation uses an encoding mode that constructs the current video block based on a first region and a second region and/or scales the remainder of the chrominance component in a manner dependent on the luminance component, the information used to encoding mode is signaled in an adaptation parameter set (APS) together with adaptive loop filtering (ALF) information, wherein the information used for the encoding mode and the ALF filtering information are included in one network abstraction layer unit ( NAL)).

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит выполнение преобразования между текущим видеоблоком видеообласти видео и кодированным представлением видео, причем преобразование использует режим кодирования, в котором конструируют текущий видеоблок на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, при этом информацию, используемую для режима кодирования, сообщают в виде сигнализации в наборе параметров адаптации (APS) первого типа, отличающемся от набора APS второго типа, используемого для передачи сигнализации с информацией адаптивной контурной фильтрации (ALF).According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises performing a transformation between a current video block of a video region of a video and an encoded representation of the video, wherein the transformation uses an encoding mode that constructs the current video block based on the first region and the second region and/or scales the remainder of the chroma component in a manner dependent on the luminance component, wherein the information used for the encoding mode is signaled in a first type adaptation parameter set (APS) different from a second type APS used for signaling with adaptive loop filtering (ALF) information.

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит выполнение преобразования между текущим видеоблоком видеообласти видео и кодированным представлением видео, причем преобразование использует режим кодирования, в котором конструируют текущий видеоблок на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, при этом для указанной видеообласти не допускается обращение к набору параметров адаптации или к какому-либо набору параметров, сообщенному в виде сигнализации прежде структуры данных определенного типа, используемой для обработки видео, причем структуру данных определенного типа передают в виде сигнализации прежде указанной видеообласти.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises performing a transformation between a current video block of a video region of a video and an encoded representation of the video, wherein the transformation uses an encoding mode in which the current video block is constructed based on the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component, wherein for the specified The video domain is not allowed to access an adaptation parameter set or any parameter set signaled prior to a data structure of a specific type used for video processing, wherein the data structure of a specific type is signaled prior to the video domain.

Согласно другому репрезентативному аспекту предлагаемая технология может быть использована для обеспечения способа обработки видео. Способ содержит выполнение преобразования между текущим видеоблоком видео и кодированным представлением видео, причем преобразование использует режим кодирования, в котором конструируют текущий видеоблок на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, при этом синтаксический элемент набора параметров, содержащий параметры, используемые для обработки видео, имеет заданные значения в потоке битов данных соответствия.According to another exemplary aspect, the proposed technology can be used to provide a video processing method. The method comprises performing a transformation between a current video block of video and an encoded representation of the video, wherein the transformation uses an encoding mode in which the current video block is constructed based on a first region and a second region and/or scales the remainder of the chrominance component in a manner dependent on the luminance component, wherein the syntax element of the set parameters, containing parameters used for video processing, has specified values in the match data bit stream.

Согласно другому репрезентативному аспекту описанный выше способ реализован в виде выполняемого процессором кода и сохранен на читаемом компьютером носителе программ.According to another exemplary aspect, the method described above is implemented as processor-executable code and stored on a computer-readable program medium.

Согласно другому репрезентативному аспекту предложено устройство, конфигурированное или оперируемое для осуществления описанного выше способа. Это устройство может содержать процессор, запрограммированный для осуществления этого способа.According to another representative aspect, there is provided a device configured or operable to implement the method described above. This device may include a processor programmed to implement this method.

Согласно другому репрезентативному аспекту, описываемый здесь способ может быть реализован в декодирующем устройстве для видео.According to another exemplary aspect, the method described herein may be implemented in a video decoding apparatus.

Приведенные выше и другие аспекты и признаки предлагаемой технологии рассмотрены более подробно на чертежах, в описании и в формуле изобретения.The above and other aspects and features of the proposed technology are discussed in more detail in the drawings, in the description and in the claims.

Краткое описание чертежейBrief description of drawings

Фиг. 1 показывает пример построения списка объединяемых кандидатов.Fig. 1 shows an example of constructing a list of merged candidates.

Фиг. 2 показывает пример позиций пространственных кандидатов.Fig. 2 shows an example of spatial candidate positions.

Фиг. 3 показывает пример пар кандидатов, подвергаемых контролю избыточности, из совокупности пространственных объединяемых кандидатов.Fig. 3 shows an example of redundancy-checked candidate pairs from a population of spatial merging candidates.

Фиг. 4A и 4B показывают примеры положения второй единицы прогнозирования (prediction unit (PU)) на основе размера и формы текущего блока.Fig. 4A and 4B show examples of the position of the second prediction unit (PU) based on the size and shape of the current block.

Фиг. 5 показывает пример масштабирования векторов движения для временных объединяемых кандидатов.Fig. 5 shows an example of scaling motion vectors for temporal fusion candidates.

Фиг. 6 показывает пример позиций кандидатов для временных объединяемых кандидатов.Fig. 6 shows an example of candidate positions for temporary merged candidates.

Фиг. 7 показывает пример комбинированного двунаправленно интерполированного (прогнозируемого) объединяемого кандидата.Fig. 7 shows an example of a combined bidirectionally interpolated (predicted) merge candidate.

Фиг. 8 показывает пример построения кандидата с прогнозированием вектора движения.Fig. 8 shows an example of candidate construction with motion vector prediction.

Фиг. 9 показывает пример масштабирования векторов движения для пространственных объединяемых кандидатов.Fig. 9 shows an example of scaling motion vectors for spatial fusion candidates.

Фиг. 10 показывает пример прогнозирования движения с использованием алгоритма прогнозирования альтернативного временного вектора движения (alternative temporal motion vector prediction (ATMVP)) для единиц кодирования (coding unit (CU)).Fig. 10 shows an example of motion prediction using an alternative temporal motion vector prediction (ATMVP) algorithm for a coding unit (CU).

Фиг. 11 показывает пример единицы кодирования (CU) с суб-блоками и соседними блоками, используемыми алгоритмом прогнозирования пространственно-временного вектора движения (spatial-temporal motion vector prediction (STMVP)).Fig. 11 shows an example of a coding unit (CU) with sub-blocks and neighboring blocks used by a spatial-temporal motion vector prediction (STMVP) algorithm.

Фиг. 12 показывает пример соседних отсчетов для определения параметров компенсации освещенности (IC).Fig. 12 shows an example of adjacent samples for determining illuminance compensation (IC) parameters.

Фиг. 13A и 13B показывают примеры упрощенной 4-параметрической аффинной модели и упрощенной 6-параметрической аффинной модели, соответственно.Fig. 13A and 13B show examples of a simplified 4-parameter affine model and a simplified 6-parameter affine model, respectively.

Фиг. 14 показывает пример аффинного поля вектора движения (motion vector field (MVF)) на один суб-блок.Fig. 14 shows an example of an affine motion vector field (MVF) per sub-block.

Фиг. 15A и 15B показывают примеры 4-параметрической и 6-параметрической аффинных моделей, соответственно.Fig. 15A and 15B show examples of 4-parameter and 6-parameter affine models, respectively.

Фиг. 16 показывает пример прогнозирования вектора движения для режима AF_INTER для изначально аффинных кандидатов.Fig. 16 shows an example of motion vector prediction for AF_INTER mode for initially affine candidates.

Фиг. 17 показывает пример прогнозирования вектора движения для режима AF_INTER для сконструированных аффинных кандидатов.Fig. 17 shows an example of motion vector prediction for AF_INTER mode for constructed affine candidates.

Фиг. 18A и 18B показывают примеры блоков-кандидатов и получения предикторов векторов движения контрольных точек (control-point motion vector (CPMV)), соответственно, для режима AF_MERGE.Fig. 18A and 18B show examples of candidate blocks and control-point motion vector (CPMV) predictor acquisition, respectively, for the AF_MERGE mode.

Фиг. 19 показывает пример положений кандидатов для режима объединения аффинных объектов.Fig. 19 shows an example of candidate positions for the affine object fusion mode.

Фиг. 20 показывает пример процедуры поиска выражения окончательного вектора движения (ultimate motion vector expression (UMVE)).Fig. 20 shows an example of the ultimate motion vector expression (UMVE) search procedure.

Фиг. 21 показывает пример точки поиска выражения UMVE.Fig. 21 shows an example of a UMVE expression search point.

Фиг. 22 показывает пример уточнения вектора движения на стороне декодирующего устройства (decoder side motion vector refinement (DMVR)) на основе согласования двусторонних шаблонов.Fig. 22 shows an example of decoder side motion vector refinement (DMVR) based on bilateral template matching.

Фиг. 23 показывает пример логической схемы процедуры декодирования с применением переформирования.Fig. 23 shows an example of a logic diagram of a decoding procedure using reshaping.

Фиг. 24 показывает пример соседних отсчетов, используемых в двустороннем фильтре.Fig. 24 shows an example of adjacent samples used in a two-way filter.

Фиг. 25 показывает пример окон, покрывающих два отсчета, используемые при вычислениях весовых коэффициентов.Fig. 25 shows an example of windows covering two samples used in weighting calculations.

Фиг. 26 показывает пример схемы сканирования.Fig. 26 shows an example of a scanning circuit.

Фиг. 27 показывает пример процедуры декодирования с использованием режима межкадрового прогнозирования.Fig. 27 shows an example of a decoding procedure using the inter-frame prediction mode.

Фиг. 28 показывает другой пример процедуры декодирования с использованием режима межкадрового прогнозирования.Fig. 28 shows another example of a decoding procedure using the inter prediction mode.

Фиг. 29 показывает пример процедуры декодирования с использованием режима межкадрового прогнозирования с фильтрами, применяемыми после реконструкции.Fig. 29 shows an example of a decoding procedure using the inter-prediction mode with filters applied after reconstruction.

Фиг. 30 показывает другой пример процедуры декодирования с использованием режима межкадрового прогнозирования с фильтрами, применяемыми после реконструкции.Fig. 30 shows another example of a decoding procedure using the inter-prediction mode with filters applied after reconstruction.

Фиг. 31A и 31B показывают логические схемы примеров способов обработки видео.Fig. 31A and 31B show logic diagrams of examples of video processing methods.

Фиг. 32A - 32D показывают логические схемы примеров способов обработки видео.Fig. 32A - 32D show logic diagrams of examples of video processing methods.

Фиг. 33 показывает логическую схему примера способов обработки видео.Fig. 33 shows a logic diagram of an example of video processing methods.

Фиг. 34A и 34B показывают логические схемы примеров способов обработки видео.Fig. 34A and 34B show logic diagrams of examples of video processing methods.

Фиг. 35A - 35F показывают логические схемы примеров способов обработки видео.Fig. 35A - 35F show logic diagrams of examples of video processing methods.

Фиг. 36A - 36C показывают логические схемы примеров способов обработки видео.Fig. 36A - 36C show logic diagrams of examples of video processing methods.

Фиг. 37A - 37C показывают логические схемы примеров способов обработки видео.Fig. 37A - 37C show logic diagrams of examples of video processing methods.

Фиг. 38A - 38L показывают логические схемы примеров способов обработки видео.Fig. 38A - 38L show logic diagrams of examples of video processing methods.

Фиг. 39A - 39E показывают логические схемы примеров способов обработки видео.Fig. 39A - 39E show logic diagrams of examples of video processing methods.

Фиг. 40A и 40B показывают примеры аппаратных платформ для реализации способа декодирования визуальной информации или способа кодирования визуальной информации, описываемых в настоящем документе.Fig. 40A and 40B show examples of hardware platforms for implementing a visual information decoding method or a visual information encoding method described herein.

Осуществление изобретенияCarrying out the invention

Вследствие растущей потребности в видеопрограммах с все более высоким разрешением повсеместное распространение в современной технике получили способы и технологии обработки видео. Видеокодеки обычно содержат электронную схему или программное обеспечение, которое сжимает или расширяет цифровое видео, и непрерывно совершенствуются для достижения все более высокой эффективности кодирования. Видеокодек преобразует несжатое видео в сжатый формат или наоборот. Качество видео, объем данных, используемый для представления видео (определяется скоростью передачи битов данных), сложность алгоритмов кодирования и декодирования, чувствительность к потерям данных и ошибкам, простота редактирования, произвольный доступ и сквозная задержка сигнала от одного конца линии до другого связаны сложными соотношениями. Сжатый формат обычно соответствует стандартным спецификациям сжатия видео, например, стандарту высокоэффективного видеокодирования (High Efficiency Video Coding (HEVC)) (также известному под названиями H.265 или MPEG-H Part 2), стандарту универсального видеокодирования (Versatile Video Coding (VVC)), который еще дорабатывается, или другим современным или будущим стандартам видеокодирования.Due to the growing need for video programs with ever higher resolution, video processing methods and technologies have become widespread in modern technology. Video codecs typically contain electronic circuitry or software that compresses or expands digital video, and are continually being improved to achieve ever-higher encoding efficiency. A video codec converts uncompressed video to a compressed format or vice versa. Video quality, the amount of data used to represent the video (determined by the bit rate), the complexity of encoding and decoding algorithms, sensitivity to data loss and errors, ease of editing, random access and end-to-end latency are all related in complex ways. The compressed format typically follows standard video compression specifications, such as High Efficiency Video Coding (HEVC) (also known as H.265 or MPEG-H Part 2), Versatile Video Coding (VVC) , which is still being finalized, or other current or future video coding standards.

Варианты предлагаемой технологии могут быть применены к существующим стандартам видеокодирования (например, стандарту HEVC, H.265) и к будущим стандартам для улучшения характеристик сжатия. Заголовки разделов в настоящем документе используются для улучшения читаемости описания и никоим образом не ограничивают обсуждение или варианты (и/или варианты реализации) только соответствующими разделами.Variations of the proposed technology can be applied to existing video coding standards (eg, HEVC, H.265) and to future standards to improve compression performance. The section headings in this document are used to enhance the readability of the description and in no way limit the discussion or options (and/or implementation options) to the relevant sections.

1. Примеры межкадрового прогнозирования в стандарте кодирования HEVC/H.2651. Examples of interframe prediction in the HEVC/H.265 coding standard

Стандарты видеокодирования в последние годы были значительно усовершенствованы и на сегодняшний день они обеспечивают, частично, высокую эффективность кодирования и поддерживают более высокие разрешения. Последние стандарты, такие как стандарты HEVC и H.265 основаны на гибридной структуре видеокодирования, где используется временное прогнозирование плюс трансформационное кодирование.Video coding standards have been significantly improved in recent years and today they provide, in part, high coding efficiency and support higher resolutions. Recent standards such as HEVC and H.265 are based on a hybrid video coding structure that uses time prediction plus transformation coding.

1.1. Примеры режимов прогнозирования1.1. Examples of forecast modes

Каждая единица межкадрового прогнозирования PU (prediction unit (единица прогнозирования)) имеет параметры движения для одного или двух списков опорных изображений. В некоторых вариантах совокупность параметров движения содержит вектор движения и индекс опорного изображения. В других вариантах, об использовании одного или двух списков опорных изображений может быть также передано в виде сигнализации с применением параметра inter_pred_idc. Еще в одной группе других вариантов, векторы движения могут быть в явной форме закодированы в виде приращений относительно предикторов.Each PU prediction unit has motion parameters for one or two reference picture lists. In some embodiments, the plurality of motion parameters comprises a motion vector and a reference image index. In other embodiments, the use of one or two reference picture lists may also be signaled using the inter_pred_idc parameter. In yet another group of other options, the motion vectors may be explicitly encoded as increments relative to the predictors.

Когда единица CU кодирована в режиме пропуска, с этой единицей CU ассоциирована одна единица PU, и при этом нет ни значительных коэффициентов остатка, ни кодированного приращения вектора движения или индекса опорного изображения. Режим объединения специфицирован таким образом, что параметры движения для текущей единицы PU получают из соседних единиц PU, включая пространственные и временные кандидаты. Режим объединения может быть применен к любой единице PU межкадрового прогнозирования, не только в режиме пропуска. Альтернативой режима объединения является передача параметров движения в явном виде, где векторы движения (более точно, разницы векторов движения (motion vector difference (MVD)) относительно предиктора вектора движения), соответствующий индекс опорного изображения для каждого списка опорных изображений и показатель использования списка опорных изображений передают в виде сигнализации в явной форме для каждой единицы PU. Этот тип режима называется в этом документе усовершенствованным прогнозированием вектора движения (advanced motion vector prediction (AMVP)).When a CU is encoded in the skip mode, there is one PU associated with the CU, and there are no significant residual coefficients or encoded motion vector increment or reference picture index. The fusion mode is specified such that the motion parameters for the current PU are obtained from neighboring PUs, including spatial and temporal candidates. The combining mode can be applied to any inter-prediction PU, not just the skip mode. An alternative to the fusion mode is to pass the motion parameters explicitly, where the motion vectors (more precisely, the motion vector differences (MVD) relative to the motion vector predictor), the corresponding reference picture index for each reference picture list, and the reference picture list utilization rate signaled explicitly for each PU. This type of mode is referred to in this document as advanced motion vector prediction (AMVP).

Когда сигнализация указывает, что следует использовать один из двух списков опорных изображений, единицу PU создают из одного блока отсчетов. Это называется «однонаправленным прогнозированием» (‘uni-prediction’). Однонаправленное прогнозирование доступно для срезов обоих видов - P-среза (P-slice) или среза со ссылкой на предыдущий срез (предсказанного среза) и B-среза (B-slice) или среза со ссылками на предыдущий и последующий срезы (или двунаправленно интерполированного среза).When signaling indicates that one of the two reference picture lists should be used, a PU is created from one block of samples. This is called 'uni-prediction'. Unidirectional prediction is available for both types of slices - P-slice or slice with reference to the previous slice (predicted slice) and B-slice or slice with reference to previous and subsequent slices (or bidirectionally interpolated slice ).

Когда сигнализация указывает, что следует использовать оба списка опорных изображений, единицу PU создают из двух блоков отсчетов. Это называется «двунаправленной интерполяцией (прогнозированием)» (‘bi-prediction’). Двунаправленная интерполяция доступна только для B-срезов.When signaling indicates that both reference picture lists should be used, a PU is created from two sample blocks. This is called 'bi-prediction'. Bidirectional interpolation is only available for B-slices.

Список опорных изображенийList of reference images

В стандарте кодирования HEVC, термин «межкадровое прогнозирование» обозначает прогнозирование, выводимое из элементов данных (например, величин отсчетов или векторов движения) опорных изображений, отличных от декодируемого в текущий момент изображения (текущего изображения). Аналогично стандарту кодирования H.264/AVC, изображение можно прогнозировать из нескольких опорных изображений. Опорные изображения, используемые для межкадрового прогнозирования, организованы в одном или нескольких списках опорных изображений. Индекс опоры идентифицирует, какие из опорных изображений в списке следует использовать для создания прогнозируемого сигнала.In the HEVC coding standard, the term “inter-picture prediction” refers to prediction derived from data elements (eg, sample values or motion vectors) of reference pictures other than the currently decoded picture (current picture). Similar to the H.264/AVC coding standard, a picture can be predicted from multiple reference pictures. The reference pictures used for inter-picture prediction are organized in one or more reference picture lists. The support index identifies which of the reference pictures in the list should be used to create the predicted signal.

Один список опорных изображений, Список 0, используется для P-среза, и два списка опорных изображений, Список 0 и Список 1, используются для B-срезов. Следует отметить, что опорные изображения из Списка 0/1 могут быть из прошлых и будущих изображений с точки зрения захвата/представления на дисплее этих изображений.One reference picture list, List 0, is used for the P-slice, and two reference picture lists, List 0 and List 1, are used for the B-slice. It should be noted that the reference pictures from List 0/1 may be from past and future pictures in terms of capturing/displaying those pictures.

1.1.1. Варианты построения кандидатов для режима объединения1.1.1. Options for constructing candidates for the merging mode

Когда единицу PU прогнозируют с использованием режима объединения, индекс, указывающий на входную позицию в список объединяемых кандидатов, выделяют путем синтаксического анализа из потока битов данных и используют для извлечения информации о движении. Процедуру построения указанного списка можно суммировать в соответствии со следующей последовательностью этапов:When a PU is predicted using the merging mode, an index indicating an input position in the merging candidate list is parsed from the data bit stream and used to extract motion information. The procedure for constructing the specified list can be summarized in accordance with the following sequence of steps:

Этап 1: Получение первоначального списка кандидатовStep 1: Obtaining an initial list of candidates

Этап 1.1: Получение пространственных кандидатовStep 1.1: Obtaining spatial candidates

Этап 1.2: Контроль избыточности для пространственных кандидатовStep 1.2: Redundancy control for spatial candidates

Этап 1.3: Получение временных кандидатовStage 1.3: Obtaining temporary candidates

Этап 2: Вставка дополнительных кандидатовStep 2: Inserting Additional Candidates

Этап 2.1: Создание двунаправленно интерполированных кандидатовStep 2.1: Generating Bidirectionally Interpolated Candidates

Этап 2.2: Вставка кандидатов с нулевым движениемStep 2.2: Inserting Zero Motion Candidates

Фиг. 1 показывает пример построения списка объединяемых кандидатов на основе последовательности этапов, суммированной выше. Для получения пространственных объединяемых кандидатов, выбирают максимум четыре объединяемых кандидата из совокупности кандидатов, расположенных в пяти различных положениях. Для получения временных объединяемых кандидатов выбирают максимум одного объединяемого кандидата из двух кандидатов. Поскольку в декодирующем устройстве предполагается постоянное число кандидатов для каждой единицы PU, если число кандидатов не достигает максимального числа объединяемых кандидатов (MaxNumMergeCand), передаваемого в форме сигнализации в заголовке среза (кадра), генерируют дополнительных кандидатов. Поскольку число кандидатов является постоянным, индекс наилучшего объединяемого кандидата кодируют с использованием усеченной унарной бинаризации (truncated unary binarization (TU)). Если размер единицы CU равен 8, все единицы PU из текущей единицы CU совместно используют один список объединяемых кандидатов, который идентичен списку объединяемых кандидатов для единицы прогнозирования размером 2N×2N.Fig. 1 shows an example of constructing a list of merging candidates based on the sequence of steps summarized above. To obtain spatial fusion candidates, a maximum of four fusion candidates are selected from a pool of candidates located at five different positions. To obtain temporary merge candidates, a maximum of one merge candidate is selected from two candidates. Since the decoder assumes a constant number of candidates for each PU, if the number of candidates does not reach the maximum number of candidates to be merged (MaxNumMergeCand) signaled in the slice (frame) header, additional candidates are generated. Since the number of candidates is constant, the index of the best merging candidate is encoded using truncated unary binarization (TU). If the CU size is 8, all PUs from the current CU share one merge candidate list, which is identical to the merge candidate list for a 2N×2N prediction unit.

1.1.2. Построение пространственных объединяемых кандидатов1.1.2. Construction of spatial merging candidates

При получении пространственных объединяемых кандидатов выбирают максимум четырех объединяемых кандидатов из совокупности кандидатов, расположенных в позициях, показанных на фиг. 2. Кандидатов выбирают в следующем порядке A1, B1, B0, A0 и B2. Позицию B2 учитывают только тогда, когда какая-либо из единиц PU, которые должны быть в позициях A1, B1, B0, A0, недоступна (например, потому, что эта единица принадлежит другому срезу или плитке) или кодирована с применением внутрикадрового прогнозирования. После добавления кандидата в позиции A1 добавление остальных кандидатов должно происходить с контролем избыточности, что обеспечивает исключение кандидатов с одинаковой информацией о движении из списка, так что эффективность кодирования улучшается.When obtaining spatial fusion candidates, a maximum of four fusion candidates are selected from the plurality of candidates located at the positions shown in FIG. 2. Candidates are selected in the following order: A 1, B 1, B 0, A 0 and B 2 . Position B 2 is only taken into account when any of the PU units that should be in positions A 1 , B 1 , B 0 , A 0 is not available (for example, because that unit belongs to another slice or tile) or is coded with using intra-frame prediction. After adding a candidate at position A 1 , the addition of the remaining candidates must be done with redundancy control, which ensures that candidates with the same motion information are excluded from the list, so that coding efficiency is improved.

Для уменьшения вычислительной сложности не все возможные пары кандидатов рассматривают в процессе упомянутого контроля избыточности. Напротив, учитывают только пары, связанные стрелкой на фиг. 3, и какого-либо кандидата добавляют в список только в том случае, если соответствующий кандидат, использованный для контроля избыточности, не имеет такую же самую информацию о движении. Другим источником дублированной информации о движении является “вторая единица PU”, ассоциированная с разбиениями, отличными от 2Nx2N. В качестве примера, фиг. 4A и 4B показывают вторую единицу PU для случаев N×2N и 2N×N, соответственно. Когда текущую единицу PU разбивают как N×2N, кандидат в позиции A1 не учитывается при построении списка. В некоторых вариантах, добавление этого кандидата может привести к тому, что две единицы прогнозирования будут иметь одинаковую информацию о движении, что является избыточным с точки зрения требования иметь только одну единицу PU в единице кодирования. Аналогично, позицию B1 не учитывают, когда текущую единицу PU разбивают как 2N×N.To reduce computational complexity, not all possible candidate pairs are considered in the redundancy check process mentioned above. In contrast, only the pairs connected by the arrow in FIG. 3, and any candidate is added to the list only if the corresponding candidate used for redundancy control does not have the same traffic information. Another source of duplicate motion information is the “second PU” associated with partitions other than 2Nx2N. As an example, FIG. 4A and 4B show the second PU for the N×2N and 2N×N cases, respectively. When the current PU is partitioned as N×2N, the candidate at position A 1 is not taken into account when constructing the list. In some embodiments, adding this candidate may result in two prediction units having the same motion information, which is redundant in terms of the requirement to have only one PU per coding unit. Likewise, position B 1 is not taken into account when the current PU is partitioned as 2N×N.

1.1.3. Построение временных объединяемых кандидатов1.1.3. Construction of temporary merging candidates

На этом этапе в список добавляют только одного кандидата. В частности, при получении этого временного объединяемого кандидата, формируют масштабированный вектор движения на основе расположенной в этом же месте единицы PU, принадлежащей изображению, имеющему наименьшую разницу порядковых номеров картинки (Picture Order Count (POC)) относительно текущего изображения в рассматриваемом списке опорных изображений. О списке опорных изображений, который должен быть использован для получения расположенной в том же месте единицы PU, сигнализируют в явной форме в заголовке среза.At this stage, only one candidate is added to the list. In particular, upon receiving this temporary fusion candidate, a scaled motion vector is generated based on the PU located at the same location, belonging to the image having the smallest difference in Picture Order Count (POC) relative to the current image in the reference picture list under consideration. The list of reference pictures that should be used to obtain a co-located PU is signaled explicitly in the slice header.

Фиг. 5 показывает пример получения масштабированного вектора движения для временного объединяемого кандидата (как показывает штриховая линия), который масштабируют из вектора движения для расположенной в том же месте единицы PU с использованием расстояний по порядковым номерам (POC-расстояний), tb и td, где расстояние tb определяют как разницу номеров POC между опорным изображением для текущего изображения и самим текущим изображением и расстояние td определяют как разницу номеров POC между опорным изображением для расположенного в том же месте изображения и самим расположенным в том же месте изображением. Индекс опорного изображения для временного объединяемого кандидата устанавливают равным нулю. Для B-среза получают два вектора движения, один для списка 0 опорных изображений и другой для списка 1 опорных изображений, и комбинируют эти векторы для получения двунаправленно интерполированного объединяемого кандидата.Fig. 5 shows an example of obtaining a scaled motion vector for a temporary fusion candidate (as shown by the dashed line), which is scaled from the motion vector for a co-located PU using sequence number distances (POC distances), tb and td, where distance tb is defined as the difference in POC numbers between the reference image for the current image and the current image itself; and the distance td is defined as the difference in POC numbers between the reference image for the colocated image and the colocated image itself. The reference image index for the temporary merge candidate is set to zero. For a B-slice, two motion vectors are obtained, one for reference picture list 0 and one for reference picture list 1, and these vectors are combined to obtain a bidirectionally interpolated fusion candidate.

В расположенной в том же месте единице PU (Y), принадлежащей опорному кадру, позицию для временного кандидата выбирают между кандидатами C0 и C1, как показано на фиг. 6. Если единица PU в позиции C0 недоступна, кодирована с применением внутрикадрового прогнозирования или находится вне текущей единицы CTU, используют позицию C1. В противном случае, для получения временного объединяемого кандидата используют позицию C0.In a co-located PU (Y) belonging to the reference frame, a position for a temporary candidate is selected between candidates C 0 and C 1 , as shown in FIG. 6. If the PU at position C0 is not available, is intra-predictive encoded, or is outside the current CTU, position C1 is used. Otherwise, position C 0 is used to obtain a temporary merge candidate.

1.1.4. Построение дополнительных типов объединяемых кандидатов1.1.4. Constructing additional types of merging candidates

Помимо пространственно-временных объединяемых кандидатов имеются еще два дополнительных типа объединяемых кандидатов: комбинированный двунаправленно интерполированный объединяемый кандидат и нулевой объединяемый кандидат. Комбинированных двунаправленно интерполированных объединяемых кандидатов генерируют с использованием пространственно-временных объединяемых кандидатов. Комбинированный двунаправленно интерполированный объединяемый кандидат используется только для B-среза. Таких комбинированных двунаправленно интерполированных кандидатов генерируют путем комбинирования параметров движения из первого списка опорных изображений для первоначального кандидата с параметрами движения из второго списка опорных изображений для другого кандидата. Если эти две группы параметров формируют разные гипотезы движения, они создадут нового двунаправленно интерполированного кандидата.In addition to spatiotemporal merge candidates, there are two additional types of merge candidates: a combined bidirectionally interpolated merge candidate and a null merge candidate. Combined bidirectionally interpolated merge candidates are generated using spatiotemporal merge candidates. The combined bidirectionally interpolated merge candidate is used for B-slice only. Such combined bidirectionally interpolated candidates are generated by combining motion parameters from a first reference picture list for the original candidate with motion parameters from a second reference picture list for another candidate. If these two groups of parameters form different motion hypotheses, they will create a new bidirectionally interpolated candidate.

На фиг. 7 показан пример этой процедуры, где двух кандидатов из исходного списка (710, слева), имеющих параметры mvL0 и refIdxL0 или mvL1 и refIdxL1, используют для создания комбинированного двунаправленно интерполированного объединяемого кандидата, добавляемого в конечный список (720, справа). Имеются многочисленные правила относительно построения таких комбинаций, учитываемые при генерации таких дополнительных объединяемых кандидатов.In fig. 7 shows an example of this procedure, where two candidates from the source list (710, left), having parameters mvL0 and refIdxL0 or mvL1 and refIdxL1, are used to create a combined bidirectionally interpolated merge candidate added to the final list (720, right). There are numerous rules regarding the construction of such combinations that are taken into account when generating such additional merging candidates.

Кандидатов с нулевым движением вставляют для заполнения оставшихся входных позиций в списке объединяемых кандидатов и тем самым достижения максимальной емкости MaxNumMergeCand списка. Эти кандидаты имеют нулевое пространственное смещение, а индекс опорного изображения начинается с нуля и увеличивается каждый раз, когда в список добавляют нового кандидата с нулевым движением. Число опорных кадров, используемых этими кандидатами, равно одному и двум для однонаправленного прогнозирования и двунаправленного прогнозирования, соответственно. В некоторых вариантах, для этих кандидатов контроль избыточности не осуществляется.Zero-motion candidates are inserted to fill the remaining input positions in the list of candidates to be merged, thereby achieving the maximum capacity of the MaxNumMergeCand list. These candidates have zero spatial displacement, and the reference image index starts at zero and is incremented each time a new candidate with zero motion is added to the list. The number of reference frames used by these candidates is one and two for unidirectional prediction and bidirectional prediction, respectively. In some embodiments, no redundancy control is performed for these candidates.

1.2. Варианты усовершенствованного прогнозирования вектора движения (AMVP)1.2. Advanced Motion Vector Prediction (AMVP) options

Прогнозирование AMVP использует пространственно-временную корреляцию вектора движения с соседними единицами PU, что используется для передачи параметров движения в явной форме. При построении списка векторов-кандидатов движения сначала проверяют доступность временных соседних единиц PU в позициях слева сверху, исключают избыточных кандидатов и добавляют нулевой вектор, чтобы сделать список кандидатов постоянной длины. Тогда кодирующее устройство может выбрать наилучшего предиктора из списка кандидатов и передать соответствующий индекс, указывающий выбранного кандидата. Аналогично передаче индекса объединения посредством сигнализации, индекс наилучшего вектора движения кодируют с использованием усеченной унарной бинаризации. Максимальная величина, подлежащая кодированию, в этом случае равна 2 (см. фиг. 8). В последующих разделах приведены подробности процедуры получения кандидата при прогнозировании вектора движения.AMVP prediction uses the spatiotemporal correlation of the motion vector with neighboring PUs, which is used to convey motion parameters explicitly. When constructing a list of candidate motion vectors, they first check the availability of temporary neighboring PUs at top-left positions, eliminate redundant candidates, and add a null vector to make the candidate list of constant length. The encoder can then select the best predictor from the list of candidates and transmit a corresponding index indicating the selected candidate. Similar to the transmission of the pooling index through signaling, the best motion vector index is encoded using truncated unary binarization. The maximum value to be encoded in this case is 2 (see FIG. 8). The following sections provide details of the procedure for obtaining a candidate for motion vector prediction.

1.2.1. Примеры получения кандидатов при прогнозировании AMVP1.2.1. Examples of obtaining candidates when predicting AMVP

Фиг. 8 суммирует процедуру получения кандидата при прогнозировании вектора движения, так что эта процедура может быть реализована для каждого список опорных изображений с использованием параметра refidx в качестве входных данных.Fig. 8 summarizes the procedure for obtaining a motion vector prediction candidate, so that this procedure can be implemented for each reference image list using the refidx parameter as input.

При прогнозировании векторов движения рассматривают два типа векторов-кандидатов движения: пространственный вектор-кандидат движения и временной вектор-кандидат движения. Для формирования пространственного вектора-кандидата движения в конечном итоге получают два вектора-кандидата движения для каждой из единиц PU, расположенных в пяти разных позициях, как было ранее показано на фиг. 2.When predicting motion vectors, two types of candidate motion vectors are considered: a spatial motion vector candidate and a temporal motion vector candidate. To generate a spatial motion candidate vector, two candidate motion vectors are ultimately obtained for each of the PUs located at five different positions, as previously shown in FIG. 2.

Для формирования временного вектора-кандидата движения выбирают одного вектора-кандидата движения из двух кандидатов, получаемых на основе двух разных расположенных в одном месте позиций. После создания первого списка пространственно-временных кандидатов из этого списка исключают дублированные векторы-кандидаты движения. Если число потенциальных кандидатов больше двух, векторы-кандидаты движения, для которых индекс опорного изображения в ассоциированном списке опорных изображений больше 1, исключают из этого списка. Если это число пространственно-временных векторов движения кандидатов меньше двух, в список добавляют дополнительный нулевой вектор-кандидат движения.To generate a temporary motion vector candidate, one motion vector candidate is selected from two candidates obtained based on two different co-located positions. After generating the first list of spatiotemporal candidates, duplicate candidate motion vectors are eliminated from this list. If the number of potential candidates is greater than two, candidate motion vectors for which the reference picture index in the associated reference picture list is greater than 1 are excluded from the list. If this number of candidate spatiotemporal motion vectors is less than two, an additional zero candidate motion vector is added to the list.

1.2.2. Построение пространственных векторов-кандидатов движения1.2.2. Construction of spatial motion candidate vectors

Для формирования пространственного вектора-кандидата движения, учитывают максимум двух потенциальных кандидатов из совокупности пяти потенциальных кандидатов, получаемых из единиц PU, расположенных в позициях, как это ранее показано на фиг. 2, эти позиции являются такими же, как при объединении движения. Порядок формирования для левой стороны от текущей единицы PU задан как кандидат A0, кандидат A1, и масштабированный кандидат A0, масштабированный кандидат A1. Порядок формирования для верхней стороны от текущей единицы PU задан как кандидат B0, кандидат B1, кандидат B2, масштабированный кандидат B0, масштабированный кандидат B1, масштабированный кандидат B2. Для каждой стороны, поэтому, имеются четыре случая, которые могут быть использованы в качестве вектора-кандидата движения, где в двух случаях не требуется использовать пространственное масштабирование, и в двух случаях пространственное масштабирование применяется. Эти четыре разных случая суммированы следующим образом:To generate a spatial motion candidate vector, a maximum of two potential candidates are considered from a population of five candidate candidates obtained from the PUs located at the positions, as previously shown in FIG. 2, these positions are the same as when combining movement. The generation order for the left side of the current PU is specified as candidate A 0 , candidate A 1 , and scaled candidate A 0 , scaled candidate A 1 . The formation order for the upper side from the current PU is specified as candidate B 0 , candidate B 1 , candidate B 2 , scaled candidate B 0 , scaled candidate B 1 , scaled candidate B 2 . For each side, therefore, there are four cases that can be used as a candidate motion vector, where in two cases spatial scaling is not required to be used, and in two cases spatial scaling is applied. These four different cases are summarized as follows:

- Нет пространственного масштабирования- No spatial scaling

(1) Одинаковый список опорных изображений и одинаковый индекс опорного изображения (одинаковый порядок POC)(1) Same reference picture list and same reference picture index (same POC order)

(2) Разные списки опорных изображений, но одинаковое опорное изображение (одинаковый порядок POC)(2) Different reference picture lists, but same reference picture (same POC order)

- Пространственное масштабирование- Spatial scaling

(3) Одинаковый список опорных изображений, но разные опорные изображения (разный порядок POC)(3) Same reference picture list, but different reference pictures (different POC order)

(4) Разные списки опорных изображений и разные опорные изображения (разный порядок POC)(4) Different reference picture lists and different reference pictures (different POC order)

Случаи без пространственного масштабирования проверяют первыми, после чего проверяют случаи, позволяющие пространственное масштабирование. Пространственное масштабирование рассматривается, когда порядок POC различается между опорным изображением для соседней единицы PU и опорным изображением для текущей единицы PU независимо от списка опорных изображений. Если все единицы PU кандидатов слева недоступны или кодированы с применением внутрикадрового прогнозирования, допускается масштабирование вектора движения для единицы сверху, чтобы способствовать параллельному определению векторов-кандидатов MV слева и сверху. В противном случае для вектора движения единицы сверху пространственное масштабирование не допускается.Cases without spatial scaling are tested first, followed by cases that allow spatial scaling. Spatial scaling is considered when the POC order differs between the reference picture for a neighboring PU and the reference picture for the current PU regardless of the reference picture list. If all left candidate PUs are not available or are encoded using intra-frame prediction, motion vector scaling for the top unit is allowed to facilitate parallel determination of left and top candidate MV vectors. Otherwise, spatial scaling is not allowed for the unit motion vector from above.

Как показано в примере, приведенном на фиг. 9, для случая пространственного масштабирования, вектор движения для соседней единицы PU масштабируют способом, аналогичным временному масштабированию. Одно различие состоит в том, в качестве входных данных используют список опорных изображений и индекс текущей единицы PU; фактическая процедура масштабирования является такой же, как в случае временного масштабирования.As shown in the example shown in FIG. 9, for the case of spatial scaling, the motion vector for a neighboring PU is scaled in a manner similar to temporal scaling. One difference is that the reference picture list and the index of the current PU are used as input; the actual scaling procedure is the same as in the case of temporary scaling.

1.2.3. Построение временных векторов-кандидатов движения1.2.3. Constructing Temporal Motion Candidate Vectors

Помимо получения индекса опорного изображения, все процедуры для формирования временных объединяемых кандидатов являются такими же, как и для формирования пространственных векторов-кандидатов движения (как показано в примере на фиг. 6). В некоторых вариантах, индекс опорного изображения сообщают посредством сигнализации декодирующему устройству.Apart from obtaining the reference image index, all procedures for generating temporal fusion candidates are the same as for generating spatial motion vector candidates (as shown in the example of FIG. 6). In some embodiments, the reference picture index is signaled to a decoding device.

2. Пример способов межкадрового прогнозирования в рамках совместной исследовательской модели (Joint Exploration Model (JEM))2. An example of inter-frame forecasting methods within the framework of a joint research model (Joint Exploration Model (JEM))

В некоторых вариантах, технологии будущего для видеокодирования исследованы с использованием совместной исследовательской модели (Joint Exploration Model (JEM)). В модели JEM, прогнозирование на основе суб-блоков принято в ряде инструментов кодирования, таких как аффинное прогнозирование, прогнозирование альтернативного временного вектора движения (ATMVP), прогнозирование пространственно-временного вектора движения (STMVP), двунаправленный оптический поток (bi-directional optical flow (BIO)), повышающее преобразование частоты кадров (Frame-Rate Up Conversion (FRUC)), локально адаптивное разрешение вектора движения (Locally Adaptive Motion vector Resolution (LAMVR)), компенсация движения накладывающихся блоков (Overlapped Block Motion Compensation (OBMC)), локальная компенсация освещенности (Local Illumination Compensation (LIC)) и уточнения векторов движения на стороне декодирующего устройства (Decoder-side Motion vector Refinement (DMVR)).In some embodiments, future video encoding technologies are explored using the Joint Exploration Model (JEM). In the JEM model, sub-block based prediction is adopted in a number of coding tools such as affine prediction, alternate temporal motion vector prediction (ATMVP), spatio-temporal motion vector prediction (STMVP), bi-directional optical flow ( BIO), Frame-Rate Up Conversion (FRUC), Locally Adaptive Motion Vector Resolution (LAMVR), Overlapped Block Motion Compensation (OBMC), Local illumination compensation (Local Illumination Compensation (LIC)) and refinement of motion vectors on the side of the decoding device (Decoder-side Motion vector Refinement (DMVR)).

2.1. Примеры прогнозирования векторов движения на основе суб-единиц CU2.1. Examples of motion vector prediction based on CU sub-units

В модели JEM с использованием деревьев квадратов плюс двоичные деревья (quadtrees plus binary trees (QTBT)), каждая единица CU может иметь самое большее один набор параметров движения на каждое направление прогнозирования. В некоторых вариантах, рассматриваются два способа прогнозирования векторов движения на уровне суб-единиц CU в кодирующем устройстве путем разделения большой единицы CU на суб-единицы CU и формирование информации движения для всех суб-единиц CU из большой единицы CU. Способ прогнозирования альтернативного временного вектора движения (ATMVP) позволяет каждой единице CU осуществлять выборку нескольких наборов информации движения из нескольких блоков меньше текущей единицы CU в расположенном в том же месте опорном изображении. При использовании способа прогнозирования пространственно-временного вектора движения (STMVP) векторы движения суб-единиц CU формируют с применением предиктора временного вектора движения и пространственного соседнего вектора движения. В некоторых вариантах, и для сохранения более точного поля движения для прогнозирования движения суб-единицы CU сжатие движения для опорных кадров может быть не активизировано.In the JEM model using quadtrees plus binary trees (QTBT), each CU can have at most one set of motion parameters per prediction direction. In some embodiments, two methods are contemplated for predicting motion vectors at the sub-CU level in an encoder by dividing a large CU into sub-CUs and generating motion information for all sub-CUs from the large CU. The Alternate Temporal Motion Vector Prediction (ATMVP) method allows each CU to sample multiple sets of motion information from multiple blocks smaller than the current CU in a co-located reference image. When using the spatio-temporal motion vector prediction (STMVP) method, the motion vectors of CU sub-units are generated using a temporal motion vector predictor and a spatial neighbor motion vector. In some embodiments, and to maintain a more accurate motion field for predicting the motion of a CU sub-unit, motion compression for reference frames may not be activated.

2.1.1. Примеры прогнозирования альтернативного временного вектора движения (ATMVP)2.1.1. Alternate Time Motion Vector Prediction (ATMVP) Examples

Согласно способу прогнозирования ATMVP способ прогнозирования временного вектора движения (temporal motion vector prediction (TMVP)) модифицируют путем выборки нескольких наборов информации о движении (включая векторы движения и опорные индексы) из блоков меньше текущей единицы CU.According to the ATMVP prediction method, the temporal motion vector prediction (TMVP) method is modified by sampling multiple sets of motion information (including motion vectors and reference indices) from blocks smaller than the current CU.

Фиг. 10 показывает пример процедуры ATMVP прогнозирования движения для единицы CU 1000. Способ прогнозирования ATMVP осуществляет прогнозирование векторов движения суб-единиц CU 1001 в пределах единицы U 1000 в два этапа. На первом этапе идентифицируют соответствующий блок 1051 в опорном изображении 1050 с временным вектором. Опорное изображение 1050 также называется изображением источника движения. На втором этапе разбивают единицу CU 1000 на суб-единицы CU 1001 и получают векторы движения, равно как опорные индексы каждой суб-единицы CU, из блока, соответствующего каждой суб-единицы CU.Fig. 10 shows an example of a motion prediction procedure ATMVP for a CU 1000. The ATMVP prediction method predicts motion vectors of sub-units CU 1001 within a unit U 1000 in two steps. In the first step, a corresponding block 1051 in the time vector reference image 1050 is identified. The reference image 1050 is also called a motion source image. In the second step, the CU 1000 is divided into sub-CUs 1001 and the motion vectors as well as the reference indices of each CU sub-unit are obtained from the block corresponding to each CU sub-unit.

На первом этапе, опорное изображение 1050 и соответствующий блок определяют посредством информации о движения пространственно соседних блоков для текущей единицы CU 1000. Чтобы избежать повторяющихся процедур сканирования соседних блоков, используют первого объединяемого кандидата из списка объединяемых кандидатов для текущей единицы CU 1000. Первый доступный вектор движения, равно как и ассоциированный опорный индекс устанавливают в качестве временного вектора и индекса для изображения источника движения. Таким способом соответствующий блок может быть более точно идентифицирован, по сравнению со способом прогнозирования TMVP, где соответствующий блок (иногда называемый расположенным в том же месте блоком) всегда находится в нижней правой или в центральной позиции относительно текущей единицы CU.In the first step, the reference image 1050 and the corresponding block are determined by the motion information of spatially adjacent blocks for the current CU 1000. To avoid repeated scanning procedures for adjacent blocks, the first merge candidate from the list of merge candidates for the current CU 1000 is used. The first available motion vector , as well as the associated reference index is set as a temporary vector and index for the motion source image. In this way, the corresponding block can be more accurately identified, compared to the TMVP prediction method, where the corresponding block (sometimes called a co-located block) is always in the lower right or center position relative to the current CU.

На втором этапе, соответствующий блок суб-единицы CU 1051 идентифицируют посредством временного вектора в изображении 1050 источника движения путем добавления временного вектора к координате текущей единице CU. Для каждой суб-единицы CU, информацию о движении ее соответствующего блока (например, наименьшую сетку движения, покрывающую центральный отсчет) используют для получения информации о движении для рассматриваемой суб-единицы CU. После идентификации информации о движении соответствующего блока размером N×N ее преобразуют в векторы движения и опорные индексы текущей суб-единицы CU, таким же образом как способ прогнозирования TMVP в стандарте кодирования HEVC, где применяются масштабирование движения и другие процедуры. Например, декодирующее устройство проверяет, удовлетворяется ли условие малой задержки, (например, порядковые номера POC для всех опорных изображений для текущего изображения меньше порядкового номера POC для текущего изображения) и возможно использует вектор MVx движения (например, вектор движения, соответствующий списку опорных изображений X) для прогнозирования вектора MVy движения (например, при X равном 0 или 1 и Y равным 1-X) для каждой суб-единицы CU.In the second step, the corresponding block of the sub-CU 1051 is identified by a time vector in the motion source image 1050 by adding the time vector to the coordinate of the current CU. For each CU sub-unit, the motion information of its corresponding block (eg, the smallest motion grid covering the central reference) is used to obtain motion information for the CU sub-unit in question. After identifying the motion information of the corresponding N×N block, it is converted into motion vectors and reference indices of the current CU sub-unit, in the same way as the TMVP prediction method in the HEVC coding standard where motion scaling and other procedures are applied. For example, the decoder checks whether a low latency condition is satisfied (eg, the POC sequence numbers for all reference pictures for the current picture are less than the POC sequence number for the current picture) and optionally uses a motion vector MVx (eg, a motion vector corresponding to a list of reference pictures X ) to predict the motion vector MVy (for example, with X equal to 0 or 1 and Y equal to 1-X) for each CU sub-unit.

2.1.2. Примеры прогнозирования пространственно-временного вектора движения (STMVP)2.1.2. Examples of Spatio-Temporal Motion Vector Prediction (STMVP)

Согласно способу прогнозирования STMVP векторы движения суб-единиц CU формируют рекурсивным способом, следуя порядку сканирования растра. Фиг. 11 показывает пример одной единицы CU с четырьмя суб-блоками и соседними блоками. Рассмотрим единицу CU 1100 размером 8×8, содержащую четыре суб-единицы CU размером 4×4, а именно A (1101), B (1102), C (1103) и D (1104). Соседние блоки размером 4×4 в текущем кадре маркированы как a (1111), b (1112), c (1113) и d (1114).According to the STMVP prediction method, the motion vectors of CU sub-units are generated in a recursive manner following the raster scanning order. Fig. 11 shows an example of one CU with four sub-units and adjacent units. Consider an 8x8 CU 1100 containing four 4x4 sub-CUs, namely A(1101), B(1102), C(1103) and D(1104). Adjacent 4x4 blocks in the current frame are labeled a (1111), b (1112), c (1113), and d (1114).

Определение движения для суб-единицы CU A начинается посредством идентификации ее двух соседей в пространстве. Первый сосед представляет собой блок размером N×N, расположенный выше суб-единицы CU A 1101 (блок c 1113). Если этот блок c (1113) недоступен или кодирован с применением внутрикадрового прогнозирования, проверяют другие блоки размером N×N, находящиеся выше суб-единицы CU A (1101), (слева направо, начиная с блока c 1113). Второй сосед представляет собой блок слева от суб-единицы CU A 1101 (блок b 1112). Если блок b (1112) недоступен или кодирован с применением внутрикадрового прогнозирования, проверяют другие блоки, находящиеся выше суб-единицы CU A 1101, (сверху вниз, начиная с блока b 1112). Информацию о движении, получаемую от соседних блоков для каждого списка, масштабируют к первому опорному кадру для конкретного рассматриваемого списка. Далее, формируют предиктор временного вектора движения (TMVP) для суб-блока A 1101 с применением такой же процедуры формирования предиктора TMVP, как это специфицировано в стандарте кодирования HEVC. Информацию о блоке, расположенном в одном месте с блоком D 1104, выбирают и масштабируют соответственно. В конечном итоге, после вызова и масштабирования информации о движения все доступные векторы движения усредняют по отдельности для каждого опорного списка. Усредненный вектор движения назначают в качестве вектора движения для текущей суб-единицы CU.Determining motion for a sub-unit CU A begins by identifying its two neighbors in space. The first neighbor is an N×N block located above the CU sub-unit A 1101 (block c 1113). If this block c (1113) is not available or is intra-predictive encoded, other N×N blocks above the CU sub-unit A (1101) are checked (from left to right, starting with block c 1113). The second neighbor is the block to the left of the CU sub-unit A 1101 (block b 1112). If block b (1112) is not available or is intra-prediction encoded, other blocks above the CU sub-unit A 1101 are checked (from top to bottom, starting from block b 1112). The motion information received from neighboring blocks for each list is scaled to the first reference frame for the particular list in question. Next, a temporal motion vector predictor (TMVP) is generated for sub-block A 1101 using the same TMVP predictor generation procedure as specified in the HEVC coding standard. Information about a block co-located with block D 1104 is selected and scaled accordingly. Finally, after recalling and scaling the motion information, all available motion vectors are averaged separately for each reference list. The average motion vector is assigned as the motion vector for the current CU sub-unit.

2.1.3. Примеры сигнализации о режиме прогнозирования движения для суб-единицы CU2.1.3. Examples of motion prediction mode signaling for a CU sub-unit

В некоторых вариантах, режимы суб-единицы CU активизированы в качестве дополнительных объединяемых кандидатов, так что для сигнализации об этих режимах не требуется никакой дополнительный синтаксический элемент. В список объединяемых кандидатов для каждой единицы CU добавляют двух дополнительных объединяемых кандидатов для представления режима прогнозирования ATMVP и режима прогнозирования STMVP. В других вариантах могут быть использованы вплоть до семи объединяемых кандидатов, если набор параметров последовательности указывает, что активизированы режим прогнозирования ATMVP и режим прогнозирования STMVP. Логика кодирования дополнительных объединяемых кандидатов является такой же, как для объединяемых кандидатов в основной модели HM, что означает, для каждой единицы CU в P-срезе или в B-срезе, что могут потребоваться две дополнительные проверки избыточности (RD) для двух дополнительных объединяемых кандидатов. В некоторых вариантах, например, в модели JEM, все секции с индексом объединения кодированы с применением контекстно-зависимого двоичного арифметического кодирования (CABAC (Context-based Adaptive Binary Arithmetic Coding)). В других вариантах, например, при кодировании HEVC, только первую секцию подвергают контекстно-зависимому кодированию, а остальные секции кодируют независимо от контекста.In some embodiments, the modes of the CU sub-unit are enabled as additional mergeable candidates such that no additional syntax element is required to signal these modes. Two additional merge candidates are added to the merging candidate list for each CU to represent the ATMVP prediction mode and the STMVP prediction mode. In other embodiments, up to seven merging candidates may be used if the sequence parameter set indicates that the ATMVP prediction mode and the STMVP prediction mode are activated. The encoding logic for additional merging candidates is the same as for merging candidates in the main HM model, which means, for each CU in a P-slice or in a B-slice, that two additional redundancy checks (RD) may be required for the two additional merging candidates . In some embodiments, such as the JEM model, all join index sections are encoded using Context-based Adaptive Binary Arithmetic Coding (CABAC). In other embodiments, such as HEVC encoding, only the first section is subjected to context-sensitive encoding and the remaining sections are context-independently encoded.

2.2. Пример локальной компенсации освещенности (LIC) в модели JEM2.2. Example of Local Light Compensation (LIC) in JEM Model

Локальная компенсация освещенности (Local Illumination Compensation (LIC)) основана на линейной модели изменений освещенности, использующей масштабный коэффициент a и сдвиг b. Причем эту компенсацию активизируют и отменяют активизацию адаптивно для единицы кодирования (CU), кодированной с применением межкадрового прогнозирования.Local Illumination Compensation (LIC) is based on a linear illumination variation model using a scale factor a and a shift b. Moreover, this compensation is activated and deactivated adaptively for a coding unit (CU) encoded using interframe prediction.

Когда компенсация LIC применяется для единицы CU, применяют метод наименьших квадратов для получения параметров a и b с использованием соседних отсчетов относительно текущей единицы CU и соответствующих им опорных отсчетов. Более конкретно, как иллюстрирует фиг. 12, используются субдискретизированные (субдискретизация в соотношении 2:1) соседние отсчеты относительно единицы CU и соответствующие отсчеты (идентифицированные информацией о движении текущей единицы CU или суб-единицы CU) из опорного изображения.When LIC compensation is applied to a CU, a least squares method is used to obtain the parameters a and b using adjacent samples relative to the current CU and their corresponding reference samples. More specifically, as illustrated by FIG. 12, downsampled (2:1 downsampled) adjacent samples relative to the CU and corresponding samples (identified by motion information of the current CU or sub-CU) from the reference image are used.

2.2.1. Получение прогнозируемых блоков2.2.1. Retrieving predicted blocks

Параметры компенсации IC получают и применяют для каждого направления прогнозирования по отдельности. Для каждого направления генерируют первый прогнозируемый блок с использованием декодированной информации о движении, а затем получают временный прогнозируемый блок путем применения модели компенсации LIC. После этого, указанные два временных прогнозируемых блока используют для получения конечного прогнозируемого блока.IC compensation parameters are obtained and applied for each prediction direction separately. For each direction, a first prediction block is generated using the decoded motion information, and then a temporary prediction block is obtained by applying the LIC compensation model. Thereafter, these two temporary prediction blocks are used to obtain the final prediction block.

Когда единицу CU кодируют с применением режима объединения, копируют флаг компенсации LIC из соседних блоков способом, аналогичным кодированию информации о движении в режиме объединения; в противном случае флаг компенсации LIC передают в виде сигнализации для единицы CU, чтобы указать, применяется компенсация LIC или нет.When a CU is encoded using the combining mode, the compensation flag LIC is copied from neighboring blocks in a manner similar to encoding motion information in the combining mode; otherwise, the LIC compensation flag is signaled to the CU to indicate whether LIC compensation is applied or not.

Когда для некоторого изображения активизирована компенсация LIC, необходимо осуществить дополнительную проверку избыточности (RD) на уровне единиц CU, чтобы определить, применяется ли компенсация LIC для какой-либо единицы CU. Если для какой-то единицы CU активизирована компенсация LIC, используют сумму абсолютных разностей с исключением среднего (mean-removed sum of absolute difference (MR-SAD)) и трансформированную по преобразованию Адамара сумму абсолютных разностей с исключением среднего (mean-removed sum of absolute Hadamard-transformed difference (MR-SATD)) вместо суммы абсолютных разностей (SAD) и трансформированной по преобразованию Адамара суммы абсолютных разностей (SATD), для поиска целочисленного движения элементов изображения и поиска дробного движения элементов изображения, соответственно.When LIC compensation is enabled for an image, an additional redundancy check (RD) must be performed at the CU level to determine whether LIC compensation is applied to any CU. If LIC compensation is activated for a CU, the mean-removed sum of absolute difference (MR-SAD) and the Hadamard-transformed sum of absolute differences (mean-removed sum of absolute) are used. Hadamard-transformed difference (MR-SATD) instead of sum of absolute differences (SAD) and Hadamard-transformed sum of absolute differences (SATD), to find integer motion of pixels and find fractional motion of pixels, respectively.

Для уменьшения сложности кодирования, в модели JEM применяется следующая схема кодирования: компенсацию LIC не активизируют для всего изображения, когда нет заметных изменений освещенности между текущим изображением и соответствующими ему опорными изображениями. Для идентификации этой ситуации, в кодирующем устройстве вычисляют гистограммы для текущего изображения и для каждого опорного изображения, соответствующего этому текущему изображения. Если разница гистограмм между текущим изображением и каждым из опорных изображений для этого текущего изображения меньше конкретной пороговой величины, компенсацию LIC для текущего изображения не активизируют; в противном случае активизируют эту компенсацию LIC для текущего изображения.To reduce coding complexity, the JEM model uses the following coding scheme: LIC compensation is not activated for the entire image when there are no noticeable illumination changes between the current image and its corresponding reference images. To identify this situation, the encoder calculates histograms for the current image and for each reference image corresponding to that current image. If the histogram difference between the current image and each of the reference images for that current image is less than a specific threshold, LIC compensation for the current image is not activated; otherwise, this LIC compensation is activated for the current image.

2.3. Примеры способов межкадрового прогнозирования при кодировании VVC2.3. Examples of inter-frame prediction methods in VVC coding

Имеется ряд новых инструментов кодирования для усовершенствования межкадрового прогнозирования, таких как адаптивное разрешение разницы векторов движения (Adaptive motion vector difference resolution (AMVR)) для передачи сигнализации о разнице MVD, аффинный режим прогнозирования, треугольный режим прогнозирования (Triangular prediction mode (TPM)), режим прогнозирования ATMVP, обобщенное двунаправленное прогнозирование (Generalized Bi-Prediction (GBI)), двунаправленный оптический поток (Bi-directional Optical flow (BIO)).There are a number of new coding tools available to improve inter-frame prediction, such as Adaptive motion vector difference resolution (AMVR) for MVD difference signaling, affine prediction mode, Triangular prediction mode (TPM), ATMVP prediction mode, Generalized Bi-Prediction (GBI), Bi-directional Optical flow (BIO).

2.3.1. Примеры структуры блоков кодирования в стандарте кодирования VV2.3.1. Examples of coding block structure in the VV coding standard

В стандарте кодирования VVC, принята структура Дерево квадратов/Двоичное дерево/Множественное дерево (QuadTree/BinaryTree/MulitpleTree (QT/BT/TT)) для разбиения изображения на квадратные или прямоугольные блоки. Помимо структуры QT/BT/TT, в стандарте кодирования VVC также принято раздельное дерево (известное как двойное дерево кодирования) для I-кадров (кадров с внутрикадровым прогнозированием). В случае раздельного дерева сигнализацию о структуре блоков кодирования передают по отдельности для яркостной и цветностной составляющих.The VVC encoding standard adopts a QuadTree/BinaryTree/MulitpleTree (QT/BT/TT) structure for dividing an image into square or rectangular blocks. In addition to the QT/BT/TT structure, the VVC coding standard also adopts a split tree (known as dual tree coding) for I-frames (intra-prediction frames). In the case of a separate tree, the coding block structure is signaled separately for the luma and chrominance components.

2.3.2. Примеры адаптивного разрешения разницы векторов движения2.3.2. Examples of adaptive resolution of motion vector differences

В некоторых вариантах, разницы векторов движения (motion vector difference (MVD)) (между вектором движения и прогнозируемым вектором движения для единицы PU) сообщают в виде сигнализации в единицах четвертей яркостных отсчетов, когда флаг use_integer_mv_flag равен 0 в заголовке среза. В модель JEM, введено локально адаптивное разрешение векторов движения (locally adaptive motion vector resolution (LAMVR)). В модели JEM, разность MVD может быть кодирована в единицах четвертей яркостных отсчетов, целых яркостных отсчетов или четверок яркостных отсчетов. Разрешением разностей MVD управляют на уровне единиц кодирования (CU), а флаги разрешения разностей MVD условно передают в виде сигнализации для каждой единицы CU, имеющей по меньшей мере одну ненулевую составляющую разности MVD.In some embodiments, motion vector differences (MVD) (between the motion vector and the predicted motion vector for the PU) are reported as signaling in units of quarter luminance samples when the use_integer_mv_flag is 0 in the slice header. Locally adaptive motion vector resolution (LAMVR) has been introduced into the JEM model. In the JEM model, the MVD difference can be encoded in units of quarter luminance samples, whole luminance samples, or quadruple luminance samples. MVD resolution is controlled at the coding unit (CU) level, and MVD resolution flags are conditionally signaled for each CU having at least one non-zero MVD component.

Для единицы CU, имеющей по меньшей мере одну ненулевую составляющую разности MVD, передают в виде сигнализации первый флаг для указания, используется ли точность в одну четверть единицы измерения яркостного отсчета для вектора MV в этой единице CU. Когда первый флаг (равный 1) указывает, что точность в четверть единицы измерения яркостного отсчета не используется для вектора MV, передают в виде сигнализации другой флаг для указания, что используется точность в одну целую единицу измерения яркостного отчета или в четыре единицы измерения яркостных отсчета для вектора MV.For a CU having at least one non-zero difference component MVD, a first flag is signaled to indicate whether one-quarter luminance unit precision is used for the MV vector in that CU. When the first flag (equal to 1) indicates that quarter luminance unit precision is not used for the MV vector, another flag is signaled to indicate that one whole luminance unit precision or four luminance unit precision is used for vector MV.

Когда первый флаг разрешения разности MVD для единицы CU равен нулю, или не кодирован для единицы CU (это означает, что все разности MVD для этой единицы CU являются нулевыми), для этой единицы CU используется точность в четверть единицы измерения яркостного отсчета для вектора MV. Когда единица CU использует точность в одну единицу измерения яркостного отсчета или в четыре единицы измерения яркостных отсчетов для вектора M, прогнозы MVP в списке кандидатов прогнозирования AMVP для этой единицы CU округляют до соответствующей точности.When the first MVD difference enable flag for a CU is zero, or is not encoded for a CU (meaning that all MVD differences for that CU are zero), a precision of one-quarter of the luminance sample unit for the MV vector is used for that CU. When a CU uses a precision of one luminance unit or four luminance units for a vector M, the MVP predictions in the AMVP prediction candidate list for that CU are rounded to the appropriate precision.

2.3.3. Примеры аффинного прогнозирования с компенсацией движения2.3.3. Examples of affine prediction with motion compensation

В стандарте кодирования HEVC, для прогнозирования с компенсацией движения (motion compensation prediction (MCP)) применяется только модель поступательного движения. Однако видеокамеры и объекты могут совершать движения многих типов, например, приближение/удаление, вращение, перспективные движения и/или другие нерегулярные движения. В стандарте кодирования VVC, применяется упрощенное аффинное прогнозирование с компенсацией движения с 4-параметрической аффинной моделью и 6-параметрической аффинной моделью. Как показано на фиг. 13A и 13B, поле аффинного движения блока описывается двумя (в 4-параметрической аффинной модели, использующей переменные a, b, e и f) или тремя (в 4-параметрической аффинной модели, использующей переменные a, b, c, d, e и f) векторами движения контрольной точки, соответственно.In the HEVC coding standard, motion compensation prediction (MCP) uses only the translational motion model. However, video cameras and objects can exhibit many types of motion, such as zooming in/out, rotation, perspective motion, and/or other irregular motion. The VVC coding standard uses simplified affine prediction with motion compensation with a 4-parameter affine model and a 6-parameter affine model. As shown in FIG. 13A and 13B, the block's affine motion field is described by two (in a 4-parameter affine model using the variables a, b, e and f) or three (in a 4-parameter affine model using the variables a, b, c, d, e and f) the motion vectors of the control point, respectively.

Поле вектора движения (motion vector field (MVF)) для блока описывается следующим уравнением в соответствии с 4-параметрической аффинной моделью и 6-параметрической аффинной моделью, соответственно:The motion vector field (MVF) for a block is described by the following equation according to the 4-parameter affine model and 6-parameter affine model, respectively:

{ m v h ( x , y ) = a x b y + e = ( m v 1 h m v 0 h ) w x ( m v 1 v m v 0 v ) w y + m v 0 h m v v ( x , y ) = b x + a y + f = ( m v 1 v m v 0 v ) w x + ( m v 1 h m v 0 h ) w y + m v 0 v …Ур. (1) { m v h ( x , y ) = a x b y + e = ( m v 1 h m v 0 h ) w x ( m v 1 v m v 0 v ) w y + m v 0 h m v v ( x , y ) = b x + a y + f = ( m v 1 v m v 0 v ) w x + ( m v 1 h m v 0 h ) w y + m v 0 v ...Lv. (1)

{ m v h ( x , y ) = a x + c y + e = ( m v 1 h m v 0 h ) w x + ( m v 2 h m v 0 h ) h y + m v 0 h m v v ( x , y ) = b x + d y + f = ( m v 1 v m v 0 v ) w x + ( m v 2 v m v 0 v ) h y + m v 0 v …Ур. (2) { m v h ( x , y ) = a x + c y + e = ( m v 1 h m v 0 h ) w x + ( m v 2 h m v 0 h ) h y + m v 0 h m v v ( x , y ) = b x + d y + f = ( m v 1 v m v 0 v ) w x + ( m v 2 v m v 0 v ) h y + m v 0 v ...Lv. (2)

Здесь, (mvh 0, mvh 0) обозначает вектор движения motion контрольной точки (CP) в верхнем левом углу, и (mvh 1, mvh 1) обозначает вектор движения контрольной точки в верхнем правом углу и (mvh 2, mvh 2) обозначает вектор движения контрольной точки в нижнем левом углу, (x, y) представляет координаты репрезентативной точки относительно верхнего левого отсчета в текущем блоке. Векторы движения точек CP можно передать в виде сигнализации (как в аффинном режиме прогнозирования AMVP) или получить в реальном времени (как в аффинном режиме объединения). Параметры w и h представляют ширину и высоту текущего блока. На практике разбиение осуществляется посредством операции сдвига вправо и округления. В документе VTM, репрезентативная точка определена как центральная позиция суб-блока, например, когда координаты левого верхнего угла суб-блока относительно верхнего левого отсчета в текущем блоке обозначены (xs, ys), координаты репрезентативной точки определены как (xs+2, ys+2). Для каждого суб-блока (например, размером 4×4 в документе VTM), репрезентативную точку используют для определения вектора движения для всего суб-блока в целом.Here, (mv h 0 , mv h 0 ) denotes the motion vector of the motion control point (CP) in the upper left corner, and (mv h 1 , mv h 1 ) denotes the motion vector of the control point (CP) in the upper right corner, and (mv h 2 , mv h 2 ) denotes the motion vector of the reference point in the lower left corner, (x, y) represents the coordinates of the representative point relative to the upper left reference in the current block. The motion vectors of CPs can be signaled (as in AMVP affine prediction mode) or received in real time (as in affine fusion mode). The w and h parameters represent the width and height of the current block. In practice, partitioning is accomplished through the operation of right shift and rounding. In a VTM document, a representative point is defined as the center position of a sub-block, for example, when the coordinates of the upper left corner of a sub-block relative to the upper left reference in the current block are designated (xs, ys), the coordinates of the representative point are defined as (xs+2, ys+ 2). For each sub-block (eg, 4x4 in a VTM document), a representative point is used to determine the motion vector for the sub-block as a whole.

Фиг. 14 показывает пример аффинного поля MVF на суб-блок применительно к блоку 1300, где с целью дальнейшего упрощения прогнозирования с компенсацией движения применяется прогнозирование с аффинным преобразованием. Для получения вектора движения для каждого суб-блока размером M×N можно вычислить вектор движения центрального отсчета соответствующего суб-блока согласно Уравнениям (1) и (2) и округлить его в соответствии с дробной точностью вектора движения (например, 1/16 в модели JEM). Затем могут быть применены интерполяционные фильтры для компенсации движения с целью генерации прогноза для каждого суб-блока с полученным вектором движения. Аффинный режим вводит интерполяционные фильтры для 1/16-элемента изображения. После прогнозирования MCP, высокоточный вектор движения для каждого суб-блока округляют и сохраняют с той же точностью, как и обычный вектор движения.Fig. 14 shows an example of an affine field MVF per sub-block as applied to block 1300, where affine transform prediction is applied to further simplify motion compensated prediction. To obtain the motion vector for each sub-block of size M×N, you can calculate the motion vector of the central sample of the corresponding sub-block according to Equations (1) and (2) and round it according to the fractional precision of the motion vector (for example, 1/16 in the model JEM). Motion compensation interpolation filters can then be applied to generate a prediction for each sub-block with the resulting motion vector. Affine mode introduces interpolation filters for the 1/16th image element. After MCP prediction, the high-precision motion vector for each sub-block is rounded and stored with the same accuracy as the regular motion vector.

2.3.3.1. Примеры передачи сигнализации об аффинном прогнозировании2.3.3.1. Examples of affine prediction signaling

Аналогично модели поступательного движения здесь также имеются два режима передачи сигнализации дополнительной информации вследствие аффинного прогнозирования. Это режимы AFFINE_INTER и AFFINE_Merge.Similar to the translational model, there are also two modes of signaling additional information due to affine prediction. These are the AFFINE_INTER and AFFINE_Merge modes.

2.3.3.2. Примеры режима AF_INTER2.3.3.2. Examples of AF_INTER mode

Для единиц CU, у которых и ширина, и высота больше 8, может быть применен режим AF_INTER. Сигнализацию флага аффинности на уровне единиц CU передают в потоке битов данных для индикации, используется ли режим AF_INTER.For CUs that have both width and height greater than 8, the AF_INTER mode can be applied. CU-level affinity flag signaling is carried in the data bit stream to indicate whether AF_INTER mode is in use.

В этом режиме, для каждого списка опорных изображений (Список 0 или Список 1), конструируют список кандидатов аффинного прогнозирования AMVP с тремя типами аффинных предикторов движения в следующем порядке, где каждый кандидат содержит оценку векторов CPMV для текущего блока. В виде сигнализации передают разности между наилучшими векторами CPMV, найденными на стороне кодирующего устройства, (такими как на фиг. 17) и оценками этих векторов CPMV. В дополнение к этому, получают индекс кандидата аффинного прогнозирования AMVP, от которого определяют оценки векторов CPMV, и далее передают в виде сигнализации.In this mode, for each reference image list (List 0 or List 1), a list of AMVP affine prediction candidates with three types of affine motion predictors is constructed in the following order, where each candidate contains an estimate of CPMV vectors for the current block. The differences between the best CPMV vectors found at the encoder side (such as in fig. 17) and estimates of these CPMV vectors. In addition, the AMVP affine prediction candidate index is obtained, from which the CPMV vector estimates are determined, and then transmitted as signaling.

Первоначальные аффинные предикторы движенияInitial affine motion predictors

Порядок проверки аналогичен случаю пространственного прогнозирования MVP при построении списка прогнозирования AMVP в стандарте кодирования HEVC. Во-первых, получают левый первоначальный аффинный предиктор движения от первого блока в группе {A1, A0}, кодированной в аффинном режиме и имеющей то же самой опорное изображение, как и текущий блок. Во-вторых, указанный выше первоначальный аффинный предиктор движения получают из первого блока в группе {B1, B0, B2}, кодированной в аффинном режиме и имеющей то же самой опорное изображение, как и текущий блок. На фиг. 16 показаны пять блоков A1, A0, B1, B0, B2.The verification procedure is similar to the case of spatial MVP prediction when constructing the AMVP prediction list in the HEVC encoding standard. First, the left initial affine motion predictor is obtained from the first block in the group {A1, A0} encoded in affine mode and having the same reference image as the current block. Secondly, the above initial affine motion predictor is obtained from the first block in the group {B1, B0, B2} encoded in affine mode and having the same reference image as the current block. In fig. Figure 16 shows five blocks A1, A0, B1, B0, B2.

Когда найден соседний блок для кодирования в аффинном режиме, векторы CPMV для единицы кодирования, покрывающей этот соседний блок, используются для получения предикторов векторов CPMV для текущего блока. Например, если блок A1 кодирован в неаффинном режиме и блок A0 кодирован в 4-параметрическом аффинном режиме, из блока A0 будет получен левый первоначальный аффинный предиктор вектора MV. В таком случае, векторы CPMV для единицы CU, покрывающей блок A0, обозначенные как для верхнего левого вектора CPMV и для верхнего правого вектора CPMV на фиг. 18B, используются для получения оценок векторов CPMV для текущего блока, обозначенных как , для верхней левой (с координатами (x0, y0)), верхней правой (с координатами (x1, y1)) и нижней правой позиций (с координатами (x2, y2)) текущего блока.When a neighboring block for affine mode encoding is found, the CPMV vectors for the coding unit covering that neighboring block are used to obtain predictors of the CPMV vectors for the current block. For example, if block A1 is encoded in non-affine mode and block A0 is encoded in 4-parameter affine mode, the left initial affine vector MV predictor will be obtained from block A0. In such a case, the CPMV vectors for the CU covering block A0, denoted as for the top left CPMV vector and for the top right CPMV vector in Fig. 18B are used to obtain estimates of the CPMV vectors for the current block, denoted by , for the top left (with coordinates (x0, y0)), top right (with coordinates (x1, y1)) and bottom right positions (with coordinates (x2, y2)) of the current block.

Построение аффинных предикторов движенияConstruction of affine motion predictors

Построенный активный предиктор движения состоит из векторов движения контрольных точек (CPMV) полученных из соседних блоков, кодированных с применением межкадрового прогнозирования, как показано на фиг. 17, так что эти блоки имеют одно и то же опорное изображение. Если текущая аффинная модель движения является 4-параметрической аффинной моделью, число векторов CPMV равно 2, в противном случае, если текущая аффинная модель движения является 6-параметрической аффинной моделью, число векторов CPMV равно 3. Верхний левый вектор CPMV получают посредством вектора MV в первом блоке из группы {A, B, C}, кодированном с применением межкадрового прогнозирования и имеющем то же самое опорное изображение, как текущий блок. Верхний правый вектор CPMV получают посредством вектора MV в первом блоке из группы {D, E}, кодированном с применением межкадрового прогнозирования и имеющем то же самое опорное изображение, как текущий блок. Нижний левый вектор CPMV получают посредством вектора MV в первом блоке из группы {F, G}, кодированном с применением межкадрового прогнозирования и имеющем то же самое опорное изображение, как текущий блок.The constructed active motion predictor consists of control point motion vectors (CPMVs) obtained from neighboring blocks encoded using inter-frame prediction, as shown in FIG. 17, so that these blocks have the same reference image. If the current affine motion model is a 4-parameter affine model, the number of CPMV vectors is 2, otherwise, if the current affine motion model is a 6-parameter affine model, the number of CPMV vectors is 3. Top left CPMV vector is obtained by the MV vector in the first block of the group {A, B, C} encoded using inter-frame prediction and having the same reference picture as the current block. Top right CPMV vector is obtained by the MV vector in the first block of the group {D, E} encoded using inter-frame prediction and having the same reference picture as the current block. Lower left CPMV vector is obtained by the MV vector in the first block of the group {F, G} encoded using inter-frame prediction and having the same reference picture as the current block.

Если текущая аффинная модель движения является 4-параметрической аффинной моделью, тогда сконструированный аффинный предиктор движения вставляют в список кандидатов, только если найдены оба вектора и , иными словами, векторы и используются в качестве оценок векторов CPMV для верхней левой (с координатами (x0, y0)), и верхней правой (с координатами (x1, y1)) позиций текущего блока.If the current affine motion model is a 4-parameter affine model, then the constructed affine motion predictor is inserted into the candidate list only if both vectors are found And , in other words, vectors And are used as estimates of the CPMV vectors for the top left (with coordinates (x0, y0)), and top right (with coordinates (x1, y1)) positions of the current block.

Если текущая аффинная модель движения является 4-параметрической аффинной моделью, тогда сконструированный аффинный предиктор движения вставляют в список кандидатов, только если найдены все три вектора , и , иными словами, векторы , и используются в качестве оценок векторов CPMV для верхней левой (с координатами (x0, y0)), верхней правой (с координатами (x1, y1)) и нижней правой (с координатами (x2, y2)) позиций текущего блока.If the current affine motion model is a 4-parameter affine model, then the constructed affine motion predictor is inserted into the candidate list only if all three vectors are found , And , in other words, vectors , And are used as CPMV vector estimates for the top left (at coordinates (x0, y0)), top right (at coordinates (x1, y1)), and bottom right (at coordinates (x2, y2)) positions of the current block.

При вставке сконструированного аффинного предиктора движения в список кандидатов никакая процедура усечения не применяется.When inserting the constructed affine motion predictor into the candidate list, no truncation procedure is applied.

Обычные предикторы движения AMVPConventional AMVP motion predictors

Последующее применяется до тех пор, пока число аффинных предикторов движения не достигнет максимума.The following are applied until the number of affine motion predictors reaches a maximum.

Формирование аффинного предиктора движения путем установления всех векторов CPMV равными вектору , если имеется.Forming an affine motion predictor by setting all CPMV vectors equal to the vector , if available.

Формирование аффинного предиктора движения путем установления всех векторов CPMV равными вектору , если имеется.Forming an affine motion predictor by setting all CPMV vectors equal to the vector , if available.

Формирование аффинного предиктора движения путем установления всех векторов CPMV равными вектору , если имеется.Forming an affine motion predictor by setting all CPMV vectors equal to the vector , if available.

Формирование аффинного предиктора движения путем установления всех векторов CPMV равными прогнозу HEVC TMVP, если имеется.Generating an affine motion predictor by setting all CPMV vectors equal to the HEVC TMVP prediction, if any.

Формирование аффинного предиктора движения путем установления всех векторов CPMV равными нулевому вектору MV.Forming an affine motion predictor by setting all CPMV vectors equal to the null MV vector.

Отметим, что вектор уже сформированного при построении аффинного предиктора движения.Note that the vector already formed during the construction of the affine motion predictor.

В режиме AF_INTER, если используется аффинный режим с 4/6 параметрами, требуются 2/3 контрольные точки, и поэтому необходимо кодировать 2/3 разности MVD для этих контрольных точек, как показано на фиг. 15A и 15B. В существующем варианте реализации вектор MV может быть сформирован следующим образом, например, он прогнозирует разности mvd1 и mvd2 из разности mvd0.In AF_INTER mode, if 4/6 parameter affine mode is used, 2/3 control points are required and therefore 2/3 of the MVD differences for these control points need to be encoded, as shown in FIG. 15A and 15B. In the existing embodiment, the MV vector can be formed as follows, for example, it predicts the differences mvd 1 and mvd 2 from the difference mvd 0 .

Здесь параметры , mvdi и mv1 представляют собой прогнозируемый вектор движения, разницу векторов движения и вектор движения верхнего левого пикселя (i = 0), верхнего правого пикселя (i = 1) или левого нижнего пикселя (i = 2) соответственно, как показано на фиг. 15B. В некоторых вариантах, добавление двух векторов движения (например, mvA(xA, yA) т mvB(xB, yB)) эквивалентно суммированию двух компонентов по отдельности. Например, формула newMV = mvA + mvB неявно предполагает, что два компонента вектора newMV установлены равными (xA + xB) и (yA + yB), соответственно.Here are the parameters , mvd i and mv 1 represent the predicted motion vector, motion vector difference, and motion vector of the top left pixel (i = 0), top right pixel (i = 1), or bottom left pixel (i = 2), respectively, as shown in FIG. . 15B. In some embodiments, adding two motion vectors (eg, mvA(xA, yA) and mvB(xB, yB)) is equivalent to adding the two components separately. For example, the formula newMV = mvA + mvB implicitly assumes that the two components of the vector newMV are set equal to (xA + xB) and (yA + yB), respectively.

2.3.3.3. Примеры режима AF_Merge2.3.3.3. Examples of AF_Merge mode

Когда единицу CU применяют в режиме AF_Merge, она получает первый блок, кодированный в аффинном режиме от действительных соседних реконструированных блоков. При этом блок-кандидат выбирают в следующем порядке - от левого и далее верхний, сверху справа, слева снизу и к верхнему левому, как показано на фиг. 18A (обозначены по порядку как A, B, C, D, E). Например, если соседний слева снизу блок кодируют в аффинном режиме, как обозначено символом A0 на фиг. 18B, осуществляют выборку векторов mv0 N, mv1 N и mv2 N движения контрольных точек (CP) в верхнем левом углу, верхнем правом углу и левом нижнем углу соседней единицы CU/PU, которая содержит блок A. И далее вектор движения mv0 C, mv1 C и mv2 C (который используется только для 6-параметрической аффинной модели) для верхнего левого угла/верхнего правого, нижнего левого угла для текущей единицы CU/PU вычисляют на основе указанных векторов mv0 N, mv1 N и mv2 N. Следует отметить, что в документе VTM-2.0, суб-блок (например, блок размером 4×4 в документе VTM), расположенный в верхнем левом углу, сохраняет вектор mv0, суб-блок, расположенный в верхнем правом углу, сохраняет вектор mv1, если текущий блок кодирован в аффинном режиме. Если текущий блок кодирован в соответствии с 6-параметрической аффинной моделью, тогда суб-блок, расположенный в нижнем левом углу, сохраняет вектор mv2; в противном случае (при 4-параметрической аффинной модули), левый нижний блок (LB) сохраняет вектор mv2’. Другие суб-блоки сохраняют векторы MV, используемые для компенсации MC.When a CU is applied in AF_Merge mode, it receives the first affine-mode encoded block from the valid neighboring reconstructed blocks. In this case, the candidate block is selected in the following order - from left to top, top right, bottom left and top left, as shown in FIG. 18A (designated in order as A, B, C, D, E). For example, if the bottom left adjacent block is encoded in affine mode, as indicated by A0 in FIG. 18B, samples the motion vectors mv 0 N , mv 1 N , and mv 2 N of control points (CPs) in the upper left corner, upper right corner, and lower left corner of the adjacent CU/PU that contains block A. And then the motion vector mv 0 C , mv 1 C and mv 2 C (which is used only for the 6-parameter affine model) for the upper left corner/upper right, lower left corner for the current CU/PU unit are calculated based on the specified vectors mv 0 N , mv 1 N and mv 2 N . It should be noted that in a VTM-2.0 document, a sub-block (for example, a 4x4 block in a VTM document) located in the upper left corner stores the vector mv0, a sub-block located in the upper right corner stores the vector mv1. if the current block is encoded in affine mode. If the current block is encoded according to the 6-parameter affine model, then the sub-block located in the lower left corner stores the vector mv2; otherwise (with 4-parameter affine moduli), the lower left block (LB) stores the vector mv2'. Other sub-blocks store MV vectors used for MC compensation.

После вычисления векторов CPMV для текущей единицы CU v0 и v1 в соответствии с аффинной моделью движения по Уравнениям (1) и (2), может быть сформировано поле MVF для текущей единицы CU. Для идентификации, кодирована ли текущая единица CU в режиме AF_Merge, может быть в виде сигнализации передан в потоке битов данных флаг аффинности, если по меньшей мере один соседний блок кодирован в аффинном режиме.After calculating the CPMV vectors for the current CU unit v0 and v1 according to the affine motion model according to Equations (1) and (2), the MVF field for the current CU unit can be generated. To identify whether the current CU is encoded in AF_Merge mode, an affinity flag may be signaled in the data bitstream if at least one adjacent block is encoded in affine mode.

В некоторых вариантах (например, JVET-L0142 и JVET-L0632), список аффинных объединяемых кандидатов может быть построен в соответствии со следующими этапами:In some embodiments (for example, JVET-L0142 and JVET-L0632), the list of affine mergeable candidates can be constructed according to the following steps:

1) Вставка первоначальных аффинных кандидатов1) Inserting initial affine candidates

Термин «первоначальный аффинный кандидат» означает, что кандидат получен из аффинной модели движения соседнего с ним действительного блока, кодированного в аффинном режиме. Из аффинной модели движения соседних блоков получают максимум двух первоначальных аффинных кандидатов и вставляют их в список кандидатов. Для левого предиктора сканирование производится в порядке {A0, A1}; для верхнего предиктора сканирование производится в порядке {B0, B1, B2}.The term "initial affine candidate" means that the candidate is derived from the affine motion model of its adjacent real block encoded in affine mode. From the affine motion model of neighboring blocks, a maximum of two initial affine candidates are obtained and inserted into the candidate list. For the left predictor, scanning is performed in the order {A0, A1}; for the top predictor, scanning is done in the order {B0, B1, B2}.

2) Вставка сконструированных аффинных кандидатов2) Insertion of constructed affine candidates

Если число кандидатов в списке аффинных объединяемых кандидатов меньше параметра MaxNumAffineCand (здесь установлен равным 5), в список кандидатов вставляют сконструированных аффинных кандидатов. Термин «сконструированный аффинный кандидат» означает, что кандидат сконструирован путем комбинирования информации о движении соседей в каждой контрольной точке.If the number of candidates in the affine merge candidate list is less than the MaxNumAffineCand parameter (set to 5 here), the constructed affine candidates are inserted into the candidate list. The term “constructed affine candidate” means that the candidate is constructed by combining the motion information of neighbors at each reference point.

a) Информацию о движении для контрольных точек выводят в первую очередь из специфицированных пространственных соседей и временного соседа, показанных на фиг. 19. Символ CPk (k=1, 2, 3, 4) представляет k-ую контрольную точку. Символы A0, A1, A2, B0, B1, B2 и B3 показывают пространственные позиции для прогнозирования CPk (k=1, 2, 3); T показывает временную позицию для прогнозирования CP4.a) Motion information for control points is derived primarily from the specified spatial neighbors and temporal neighbor shown in FIG. 19. The symbol CPk (k=1, 2, 3, 4) represents the k-th control point. The symbols A0, A1, A2, B0, B1, B2 and B3 show the spatial positions for predicting CPk (k=1, 2, 3); T shows the time position for CP4 prediction.

Точки CP1, CP2, CP3 и CP4 имеют координаты (0, 0), (W, 0), (H, 0) и (W, H), соответственно, где W и H обозначают ширину и высоту текущего блока.Points CP1, CP2, CP3 and CP4 have coordinates (0, 0), (W, 0), (H, 0) and (W, H), respectively, where W and H denote the width and height of the current block.

Информацию о движении для каждой контрольной точки получают в соответствии со следующим порядком приоритетности:Traffic information for each control point is obtained according to the following order of priority:

Для точки CP1, приоритетность проверки имеет вид B2 → B3 → A2. Блок B2 используется, если он доступен. В противном случае, если блок B2 недоступен, используется блок B3. Если оба блока B2 и B3 недоступны, используется блок A2. Если все три кандидата недоступны, информация о движении для точки CP1 получена быть не может.For point CP1, the check priority is B2 → B3 → A2. Block B2 is used if available. Otherwise, if block B2 is not available, block B3 is used. If both blocks B2 and B3 are not available, block A2 is used. If all three candidates are unavailable, traffic information for CP1 cannot be obtained.

Для точки CP2, приоритетность проверки имеет вид B1 → B0.For point CP2, the check priority is B1 → B0.

Для точки CP3, приоритетность проверки имеет вид A1 → A0.For point CP3, the check priority is A1 → A0.

Для точки CP4, использует блок T.For point CP4, uses block T.

b) Во-вторых, для конструирования аффинного объединяемого кандидата используется комбинация контрольных точек.b) Secondly, a combination of control points is used to construct the affine merging candidate.

I. Для конструирования 6-параметрического аффинного кандидата необходимо информация о движении для трех контрольных точек. Эти три контрольные точки можно выбрать из одной из следующих четырех комбинаций ({CP1, CP2, CP4}, {CP1, CP2, CP3}, {CP2, CP3, CP4}, {CP1, CP3, CP4}). Комбинации {CP1, CP2, CP3}, {CP2, CP3, CP4}, {CP1, CP3, CP4} будут преобразованы в 6-параметрическую модель движения, представленную верхней левой, верхней правой и нижней левой контрольными точками.I. To construct a 6-parameter affine candidate, motion information for three control points is required. These three control points can be selected from one of the following four combinations ({CP1, CP2, CP4}, {CP1, CP2, CP3}, {CP2, CP3, CP4}, {CP1, CP3, CP4}). The combinations {CP1, CP2, CP3}, {CP2, CP3, CP4}, {CP1, CP3, CP4} will be converted into a 6-parameter motion model represented by the upper left, upper right and lower left control points.

II. Для построения 4-параметрического аффинного кандидата необходима информация о движении двух контрольных точек. Эти две контрольные точки можно выбрать из одной из следующих шести комбинаций ({CP1, CP4}, {CP2, CP3}, {CP1, CP2}, {CP2, CP4}, {CP1, CP3}, {CP3, CP4}). Комбинации {CP1, CP4}, {CP2, CP3}, {CP2, CP4}, {CP1, CP3}, {CP3, CP4} будут преобразованы в 4-параметрическую модель движения, представленную верхней левой и верхней правой контрольными точками.II. To construct a 4-parameter affine candidate, information about the movement of two control points is required. These two control points can be selected from one of the following six combinations ({CP1, CP4}, {CP2, CP3}, {CP1, CP2}, {CP2, CP4}, {CP1, CP3}, {CP3, CP4}). The combinations {CP1, CP4}, {CP2, CP3}, {CP2, CP4}, {CP1, CP3}, {CP3, CP4} will be converted into a 4-parameter motion model represented by the top left and top right control points.

III. Комбинации сконструированных аффинных кандидатов вставляют в список кандидатов в следующем порядке:III. Combinations of constructed affine candidates are inserted into the candidate list in the following order:

{CP1, CP2, CP3}, {CP1, CP2, CP4}, {CP1, CP3, CP4}, {CP2, CP3, CP4}, {CP1, CP2}, {CP1, CP3}, {CP2, CP3}, {CP1, CP4}, {CP2, CP4}, {CP3, CP4}{CP1, CP2, CP3}, {CP1, CP2, CP4}, {CP1, CP3, CP4}, {CP2, CP3, CP4}, {CP1, CP2}, {CP1, CP3}, {CP2, CP3}, {CP1, CP4}, {CP2, CP4}, {CP3, CP4}

i. Для опорного списка X (X равно 0 или 1) комбинаций, в качестве опорного индекса этого списка X выбирают опорный индекс с наивысшей долей использования в контрольных точках, и векторы движения, указывающие на разностное опорное изображение, будут масштабированы.i. For a reference list X (X is 0 or 1) combinations, the reference index with the highest utilization rate in reference points is selected as the reference index of this list X, and the motion vectors pointing to the difference reference image will be scaled.

После формирования кандидата выполняют полную процедуру усечения, чтобы проверить, был ли такой же кандидат уже включен в список. Если такой же кандидат существует, вновь сформированного кандидата отбрасывают.Once a candidate is generated, a full truncation procedure is performed to check whether the same candidate has already been included in the list. If the same candidate exists, the newly formed candidate is discarded.

3) Заполнение нулевыми векторами движения3) Filling with zero motion vectors

Если число кандидатов в списке аффинных объединяемых кандидатов меньше 5, в список кандидатов вставляют нулевые векторы движения до тех пор, пока список не станет полным.If the number of candidates in the affine merge candidate list is less than 5, zero motion vectors are inserted into the candidate list until the list is complete.

Более конкретно, для списка объединяемых кандидатов суб-блоков, 4-параметрический объединяемый кандидат имеет векторы MV, установленные на (0, 0), а направление прогнозирования установлено в одну сторону от списка 0 (для P-среза) и в обе стороны (для B-среза).More specifically, for a list of sub-block merging candidates, the 4-parameter merging candidate has the MV vectors set to (0, 0) and the prediction direction is set to one side of list 0 (for P-slice) and to both sides (for B-cut).

2.3.4. Примеры объединения с разностями векторов движения (Merge with Motion vector Difference (MMVD))2.3.4. Merge with Motion Vector Difference (MMVD) Examples

В документе JVET-L0054, представлено предельное выражение вектора движения (ultimate motion vector expression) (UMVE, также известное как MMVD). Параметр UMVE используется вместе с режимом пропуска или режимом объединения с предлагаемым способом выражения вектора движения.Document JVET-L0054 introduces the ultimate motion vector expression (UMVE, also known as MMVD). The UMVE parameter is used in conjunction with the skip mode or combine mode with the proposed motion vector expression method.

Параметр UMVE повторно использует объединяемого кандидата, такого же, как те, что входят в обычный список объединяемых кандидатов в стандарте кодирования VVC. Из совокупности объединяемых кандидатов может быть выбран базовый кандидат и далее расширен посредством предлагаемого способа выражения вектора движения.The UMVE parameter reuses a merge candidate that is the same as those included in the regular list of merge candidates in the VVC encoding standard. From the set of candidates to be combined, a base candidate can be selected and further expanded by the proposed motion vector expression method.

Параметр UMVE предлагает новый способ представления разности векторов движения (MVD), согласно которому для представления такой разности MVD используются начальная точка, величина движения и направление движения.The UMVE parameter offers a new way of representing motion vector difference (MVD), whereby the starting point, the magnitude of the motion, and the direction of motion are used to represent the MVD.

Этот предлагаемый способ использует список объединяемых кандидатов, как он есть. Но для расширения UMVE рассматриваются кандидаты, имеющие тип слияния по умолчанию (MRG_TYPE_DEFAULT_N).This proposed method uses the list of candidates to be merged as is. But for the UMVE extension, candidates that have the default merge type (MRG_TYPE_DEFAULT_N) are considered.

Индекс базового кандидата определяет начальную точку. Этот индекс базового кандидата обозначает наилучшего кандидата из совокупности кандидатов, входящих в список, следующим образом.The base candidate index determines the starting point. This base candidate index denotes the best candidate from the set of candidates included in the list as follows.

Таблица 1: Индекс (IDX) базового кандидатаTable 1: Index (IDX) of the base candidate Индекс (IDX) базового кандидатаIndex (IDX) of the base candidate 00 11 22 33 N-ый MVP Nth MVP 1-ый MVP 1st MVP 2-ой MVP 2nd MVP 3-ий MVP 3rd MVP 4ый MVP 4th MVP

Если номер базового кандидата равен 1, сигнализацию об этом индексе IDX не передают.If the base candidate number is 1, this IDX index is not signaled.

Индекс расстояния представляет собой информацию о величине движения. Индекс расстояния обозначает предварительно заданное расстояние от информации о начальной точке. Это предварительно заданное расстояние определено следующим образом:The distance index represents information about the magnitude of the movement. The distance index denotes a preset distance from the starting point information. This preset distance is defined as follows:

Таблица 2. Индекс (IDX) расстоянияTable 2. Index (IDX) of distance Индекс (IDX) расстоянияIndex (IDX) of distance 00 11 22 33 44 55 66 77 Расстояние в пикселях (pel)Distance in pixels (pel) 1/4-pel1/4-pel 1/2-pel1/2-pel 1-pel1-pel 2-pel2-pel 4-pel4-pel 8-pel8-pel 16-pel16-pel 32-pel32-pel

Индекс направления представляет направление разности MVD относительно начальной точки. Индекс направления может представлять четыре направления, как показано ниже.The direction index represents the direction of the MVD difference relative to the starting point. The direction index can represent four directions as shown below.

Таблица 3. Индекс (IDX) направленияTable 3. Index (IDX) of direction Индекс (IDX) направленияIndex (IDX) of direction 0000 0101 1010 11eleven x-осьx-axis ++ -- Не применимоNot applicable Не применимоNot applicable y-осьy-axis Не применимоNot applicable Не применимоNot applicable ++ --

В некоторых вариантах, флаг расширения UMVE передают виде сигнализации сразу после передачи флага пропуска или флага объединения. Если флаг пропуска или объединения является истинным, выполняют синтаксический анализ флага UMVE. Если флаг UMVE равен 1, выполняют синтаксический анализ синтаксиса расширения UMVE. Но если этот флаг не равен 1, выполняют синтаксический анализ Флага аффинности. Если Флаг аффинности равен 1, это означает аффинный (AFFINE) режим. Но если этот флаг не равен 1, выполняют синтаксический анализ индекса пропуска/объединения для режима пропуска/объединения в документе VTM.In some embodiments, the UMVE extension flag is sent as signaling immediately after the skip flag or merge flag is sent. If the skip or join flag is true, the UMVE flag is parsed. If the UMVE flag is 1, the UMVE extension syntax is parsed. But if this flag is not 1, the Affinity Flag is parsed. If the Affinity Flag is 1, it means AFFINE mode. But if this flag is not 1, the skip/merge index is parsed for the skip/merge mode in the VTM document.

Дополнительный буфер строк из-за появления кандидатов UMVE не требуется, поскольку кандидат пропуска/объединяемый кандидат из программного обеспечения непосредственно используется в качестве базового кандидата. Используя входной индекс UMVE, определяют дополнение вектора MV непосредственно перед компенсацией движения. Нет необходимости держать буфер длинной строки для этого.No additional row buffer due to the emergence of UMVE candidates is required since the skip/merge candidate from the software is directly used as the base candidate. Using the input UMVE index, the complement of the MV vector just before motion compensation is determined. There is no need to keep a long line buffer for this.

В текущем состоянии общего текста либо первый, либо второй объединяемый кандидат из списка объединяемых кандидатов может быть выбран в качестве базового кандидата.In the current state of the shared text, either the first or second merge candidate from the list of merge candidates may be selected as the base candidate.

2.3.5. Примеры уточнения вектора движения на стороне декодирующего устройства (Decoder-side Motion vector Refinement (DMVR))2.3.5. Examples of motion vector refinement on the decoder side (Decoder-side Motion vector Refinement (DMVR))

При двунаправленном прогнозировании, для прогнозирования области одного блока, комбинируют два прогнозируемых блока, сформированных с использованием вектора движения (MV) из списка0 и вектора MV из списка1, соответственно, для образования одного прогнозируемого сигнала. Согласно способу уточнения вектора движения на стороне декодирующего устройства (DMVR) дополнительно уточняют два вектора движения, используемые при двунаправленном прогнозировании.In bidirectional prediction, to predict an area of one block, two prediction blocks generated using a motion vector (MV) from list0 and an MV vector from list1 are combined, respectively, to form one prediction signal. According to the decoder-side motion vector refinement (DMVR) method, two motion vectors used in bidirectional prediction are further refined.

В модели JEM векторы движения уточняют посредством процедуры согласования двусторонних шаблонов. Такое согласование двусторонних шаблонов применяют в декодирующем устройстве для осуществления поиска на основе искажений между двусторонним шаблоном и реконструированными отсчетами в опорных изображениях с целью получения уточненного вектора MV без передачи дополнительной информации о движении. Пример изображен на фиг. 22. Двусторонний шаблон генерируют в виде взвешенной (т.е. усредненной) комбинации двух прогнозируемых блоков от первоначальных вектора MV0 из списка0 и вектора MV1 из списка1, соответственно, как показано на фиг. 22. Операция согласования шаблонов содержит вычисление стоимостных оценок между генерируемым шаблоном и областью отсчетов (вокруг первоначального прогнозируемого блока) в опорном изображении. Для каждого из двух опорных изображений вектор MV, который дает минимальную стоимость шаблонов, рассматривают в качестве обновленного вектора MV из соответствующего списка для замены исходного вектора. В модели JEM, осуществляют поиск среди девяти векторов MV кандидатов для каждого списка. Эта совокупность девяти векторов MV кандидатов содержит исходный вектор MV и 8 окружающих векторов MV со сдвигом на один яркостной отсчет от исходного вектора MV в каком-либо - в горизонтальном направлении или вертикальном направлении, или в обоих направлениях. Наконец, два новых вектора MV, т.е. векторы MV0′ и MV1′, как показано на фиг. 22, используются для генерации результатов двунаправленного прогнозирования. В качестве меры стоимости используется сумма абсолютных разностей (sum of absolute differences (SAD)). Пожалуйста, заметьте, что при вычислении стоимости прогнозируемого блока, генерируемого одним из окружающих векторов MV, для получения прогнозируемого блока используется округленный (до целых элементов изображения (пикселей)) вектор MV вместо фактического вектора MV.In the JEM model, motion vectors are refined through a two-way template matching procedure. This two-way template matching is used in the decoder to perform a distortion-based search between the two-way template and the reconstructed samples in the reference images to obtain a refined MV vector without transmitting additional motion information. An example is shown in Fig. 22. The two-way template is generated as a weighted (ie, averaged) combination of two predicted blocks from the original list0 vector MV0 and list1 vector MV1, respectively, as shown in FIG. 22. The pattern matching operation involves calculating costs between the generated pattern and the sample region (around the original predicted block) in the reference image. For each of the two reference images, the MV vector that produces the minimum template cost is considered as an updated MV vector from the corresponding list to replace the original vector. In the JEM model, nine candidate MV vectors are searched for each list. This set of nine candidate MV vectors contains the original MV vector and 8 surrounding MV vectors shifted by one luminance count from the original MV vector in either the horizontal direction or the vertical direction, or both. Finally, two new MV vectors, i.e. vectors MV0′ and MV1′, as shown in FIG. 22 are used to generate bidirectional prediction results. The sum of absolute differences (SAD) is used as a measure of cost. Please note that when calculating the cost of a prediction block generated by one of the surrounding MV vectors, the rounded (to whole pixels) MV vector is used instead of the actual MV vector to obtain the prediction block.

Для дальнейшего упрощения процедуры уточнения DMVR, документ JVET-M0147 предлагает ряд изменений в структуру модели JEM. Более конкретно, принятая процедура уточнения DMVR в документе VTM-4.0 (должен выйти в свет вскоре) имеет следующие основные признаки:To further simplify the DMVR refinement procedure, JVET-M0147 proposes a number of changes to the structure of the JEM model. More specifically, the adopted DMVR refinement procedure in VTM-4.0 (due out soon) has the following main features:

ο Раннее завершение с (0,0) позиции в сумме SAD между списком0 и списком1ο Early termination from (0,0) position in the SAD sum between list0 and list1

ο Размер блока для процедуры уточнения DMVR W*H>=64 && H>=8ο Block size for the DMVR refinement procedure W*H>=64 && H>=8

ο Разбиение единицы CU на несколько суб-блоков размером 16x16 для процедуры уточнения DMVR при размере единицы CU > 16*16ο Splitting the CU unit into several sub-blocks of size 16x16 for the DMVR refinement procedure when the CU unit size is > 16*16

ο Размер опорного блока (W+7)*(H+7) (для яркостной составляющей)ο Size of the reference block (W+7)*(H+7) (for the luminance component)

ο Поиск по 25 точкам на основе суммы SAD по целым пикселям (т.е. диапазон уточняющего поиска (+-) 2, один этап)ο 25-point search based on sum of SAD over whole pixels (i.e. refinement search range (+-) 2, one stage)

ο Процедура уточнения DMVR на основе билинейной интерполяцииο DMVR refinement procedure based on bilinear interpolation

ο Зеркальное отображение разности MVD между списком0 и списком1, чтобы позволить двустороннее согласованиеο Mirror the MVD difference between list0 and list1 to allow two-way negotiation

ο “Уравнение параметрической погрешности поверхности” на основе уточнения на уровне долей пикселяο “Surface parametric error equation” based on refinement at the level of fractions of a pixel

ο Компенсация MC яркостной/цветностной составляющей с заполнением опорного блока (если нужно)ο MC compensation of the brightness/chrominance component with filling of the reference block (if necessary)

ο Уточненные векторы MV используются только для компенсации MC и прогнозирования TMVPο Refined MV vectors are used only for MC compensation and TMVP prediction

2.3.6. Примеры комбинированного внутрикадрового и межкадрового прогнозирования (combined intra and inter prediction (CIIR))2.3.6. Examples of combined intra and inter prediction (CIIR)

В документе JVET-L0100, предлагается прогнозирование с использованием нескольких гипотез, где комбинирование внутрикадрового и межкадрового прогнозирования является одним из способов генерации нескольких гипотез.JVET-L0100 proposes multi-hypothesis prediction, where combining intra- and inter-frame prediction is one way to generate multiple hypotheses.

Когда прогнозирование с использованием нескольких гипотез применяется для усовершенствования режима внутрикадрового прогнозирования, прогнозирование с использованием нескольких гипотез комбинирует одно внутрикадровое прогнозирование и одно индексированное объединяемое прогнозирование. В объединяемой единице CU, передают один флаг в виде сигнализации для режима объединения, чтобы выбрать режим внутрикадрового прогнозирования из списка кандидатов для внутрикадрового прогнозирования, когда этот флаг является истинным. Для яркостной составляющей список кандидатов для внутрикадрового прогнозирования формируют из четырех режимов внутрикадрового прогнозирования, включая DC-режим, планарный режим, горизонтальный режим и вертикальный режим, а размер списка кандидатов для внутрикадрового прогнозирования может быть равен 3 или 4 в зависимости от формы блока. Когда ширина единицы CU больше удвоенной высоты этой единицы CU, горизонтальный режим исключают из списка для внутрикадрового прогнозирования, а когда высота единицы CU больше удвоенной ширины этой единицы CU, вертикальный режим исключают из этого списка режимов для внутрикадрового прогнозирования. Один режим внутрикадрового прогнозирования, выбранный по индексу режима внутрикадрового прогнозирования, и один объединяемый индексированный режим прогнозирования, выбранный по индексу объединения, комбинируют с использованием взвешенного усреднения. Для цветностной составляющей DM-режим всегда применяется без дополнительной сигнализации. Весовые коэффициенты для комбинирования прогнозов описываются следующим образом. Когда выбран DC-режим или планарный режим, либо ширина или высота блока CB меньше 4, применяются одинаковые весовые коэффициенты. Для блоков CB с шириной и высотой не меньше 4, когда выбран горизонтальный/вертикальный режим, один блок CB сначала разбивают вертикально/горизонтально на четыре области равной площади. Каждый набор весовых коэффициентов, обозначенный как (w_intrai, w_interi), где i составляет от 1 до 4 и (w_intra1, w_inter1) = (6, 2), (w_intra2, w_inter2) = (5, 3), (w_intra3, w_inter3) = (3, 5) и (w_intra4, w_inter4) = (2, 6), будет применен к соответствующей области. Коэффициенты (w_intra1, w_inter1) предназначены для области, ближайшей к опорным отсчетам, и коэффициенты (w_intra4, w_inter4) предназначены для области, наиболее удаленной от опорных отсчетов. Тогда комбинированное прогнозирование может быть вычислено путем суммирования двух взвешенных результатов прогнозирования и сдвига на 3 бита вправо. Более того, режим внутрикадрового прогнозирования для гипотез предикторов внутрикадрового прогнозирования может быть сохранен в качестве опоры для следующих соседних единиц CU.When multi-hypothesis prediction is used to improve the intra-prediction mode, multi-hypothesis prediction combines one intra-prediction and one indexed fusion prediction. At the merging CU, one flag is signaled for the merging mode to select an intra-prediction mode from the candidate list for intra-prediction when this flag is true. For the luminance component, the intra-prediction candidate list is formed from four intra-prediction modes, including DC mode, planar mode, horizontal mode and vertical mode, and the size of the intra-prediction candidate list can be 3 or 4 depending on the block shape. When the width of a CU is greater than twice the height of the CU, the horizontal mode is excluded from the intra prediction mode list, and when the height of the CU is greater than twice the width of the CU, the vertical mode is excluded from the intra prediction mode list. One intra-prediction mode selected by the intra-prediction mode index and one merging indexed prediction mode selected by the merging index are combined using weighted averaging. For the color component, the DM mode is always used without additional signaling. The weights for combining forecasts are described as follows. When DC mode or planar mode is selected, or the CB block width or height is less than 4, the same weighting factors are applied. For CB blocks with a width and height of at least 4, when the horizontal/vertical mode is selected, one CB block is first divided vertically/horizontally into four areas of equal area. Each set of weights, denoted by (w_intra i , w_inter i ), where i is from 1 to 4 and (w_intra 1 , w_inter 1 ) = (6, 2), (w_intra 2 , w_inter 2 ) = (5, 3) , (w_intra 3 , w_inter 3 ) = (3, 5) and (w_intra 4 , w_inter 4 ) = (2, 6), will be applied to the corresponding area. The coefficients (w_intra 1 , w_inter 1 ) are for the region closest to the reference samples, and the coefficients (w_intra 4 , w_inter 4 ) are for the region furthest from the reference samples. Then the combined prediction can be calculated by summing the two weighted prediction results and shifting 3 bits to the right. Moreover, the intra-prediction mode for the intra-prediction predictor hypotheses can be stored as a reference for the next neighboring CUs.

2.4. Внутриконтурное переформирование (ILR) в документе JVET-M04272.4. In-Loop Reshaping (ILR) in JVET-M0427

Основная идея внутриконтурного переформирования (ILR) состоит в преобразовании исходного (в первой области) сигнала (прогнозируемого/реконструированного сигнала) во вторую область (переформированную область).The basic idea of in-loop reshaping (ILR) is to transform the original (in the first region) signal (predicted/reconstructed signal) into a second region (reshaped region).

Внутриконтурное устройство для переформирования яркостной составляющей реализовано в виде пары преобразовательных таблиц (look-up table (LUT)), но только об одной из этих двух таблиц LUT необходимо сообщить посредством сигнализации, тогда как другая таблица может быть вычислена на основе сообщенной таблицы LUT. Каждая таблица LUT является одномерной, 10-битовой, таблицей отображения с 1024 входными позициями (1D-LUT). Одна таблица LUT является таблицей LUT для прямого преобразования (прямая таблица LUT), FwdLUT, которая преобразует величины входного цветностного кода в измененные величины : . Другая таблица LUT является таблицей LUT для обратного преобразования (обратная таблица LUT), InvLUT, которая преобразует измененные кодовые величины до : . ( представляет реконструированные величины .).The in-loop luminance reshaping device is implemented as a pair of look-up tables (LUTs), but only one of the two LUTs needs to be signaled, while the other table can be calculated based on the reported LUT. Each LUT is a one-dimensional, 10-bit, mapping table with 1024 input positions (1D-LUT). One LUT is a forward LUT (direct LUT), FwdLUT, which converts quantities input color code into modified values : . The other LUT is the inverse LUT (inverse LUT), InvLUT, which converts the changed code values before : . ( represents the reconstructed quantities .).

2.4.1. Кусочно-линейная модель (Piece-wise linear (PWL))2.4.1. Piece-wise linear (PWL) model

В некоторых вариантах, кусочно-линейная (PWL) модель реализуется следующим образом:In some embodiments, the piecewise linear (PWL) model is implemented as follows:

Пусть x1, x2 являются двумя входными опорными точками, а y1, y2 являются соответствующими выходными опорными точками для одного отрезка. Выходная величина y для какой-либо входной величины x между величинами x1 и x2 может быть интерполирована посредством следующего уравнения:Let x1, x2 be two input anchor points and y1, y2 be the corresponding output anchor points for one line segment. The output value y for any input value x between x1 and x2 can be interpolated using the following equation:

y = ((y2-y1)/(x2-x1)) * (x-x1) + y1y = ((y2-y1)/(x2-x1)) * (x-x1) + y1

В варианте реализации с фиксированной точкой это уравнение может быть переписано как:In a fixed-point implementation, this equation can be rewritten as:

y = ((m * x + 2FP_PREC-1) >> FP_PREC) + cy = ((m * x + 2FP_PREC-1) >> FP_PREC) + c

где m обозначает скаляр, c обозначает сдвиг и FP_PREC представляет собой константу для специфицирования точности.where m denotes a scalar, c denotes a shift, and FP_PREC is a constant for specifying precision.

Отметим, что в программном обеспечении CE-12 модель PWL используется для предварительного вычисления имеющих по 1024 входных позиций каждая таблиц прямого FwdLUT и обратного InvLUT отображения; но модель PWL также позволяет создать реализации для вычисления идентичных отображаемых величин в реальном времени без предварительного вычисления таблиц LUT.Note that in the CE-12 software, the PWL model is used to pre-compute the forward FwdLUT and inverse InvLUT mapping tables, each with 1024 input positions; but the PWL model also allows implementations to calculate identical display values in real time without first computing LUTs.

2.4.2. Тест CE12-22.4.2. Test CE12-2

2.4.2.1. Переформирование яркостной составляющей2.4.2.1. Reshaping the brightness component

Тест 2 для внутриконтурного переформирования яркостной составляющей (т.е. CE12-2 в предложении) создает конвейер меньшей сложности, который также исключает задержку декодирования для поблочного внутрикадрового прогнозирования при реконструкции среза при межкадровом прогнозировании. Внутрикадровое прогнозирование осуществляется в переформированной области для обоих срезов - с внутрикадровым и с межкадровым прогнозированием.Benchmark 2 for in-loop luminance reshaping (i.e., CE12-2 in the proposal) creates a pipeline of lower complexity that also eliminates the decoding latency for block-by-block intra-frame prediction during slice reconstruction in inter-frame prediction. Intra-frame prediction is carried out in the reshaped area for both slices - with intra-frame and inter-frame prediction.

Внутрикадровое прогнозирование всегда осуществляется в переформированной области независимо от типа среза. В такой конфигурации процесс внутрикадрового прогнозирования может начинаться сразу же после завершения реконструкции предыдущей единицы TU. Такая конфигурация может также предложить унифицированную процедуру для внутрикадрового прогнозирования вместо процедуры, зависимой от конкретного среза. На фиг. 23 показана блок-схема процедуры CE12-2 декодирования на основе режима.Intra-frame prediction is always performed in the reshaped region, regardless of the slice type. In such a configuration, the intra-prediction process can begin immediately after the reconstruction of the previous TU is completed. Such a configuration may also offer a unified procedure for intra-frame prediction instead of a slice-specific procedure. In fig. 23 is a flowchart of a mode-based decoding procedure CE12-2.

Система CE12-2 также тестирует 16-элементные кусочно-линейные (PWL) модели для масштабирования остатков яркостной и цветностной составляющих вместо 32-элементных PWL моделей в системе CE12-1.The CE12-2 system also tests 16-element piecewise linear (PWL) models for scaling luma and chrominance residuals instead of the 32-element PWL models in the CE12-1 system.

Реконструкция среза при внутрикадровом прогнозировании с применением устройства внутриконтурного переформирования яркостной составляющей в системе CE12-2 (заштрихованные светло-зеленым блоки обозначают сигнал в переформированной области: остаток яркостной составляющей; яркостную составляющую при внутрикадровом прогнозировании; реконструированную яркостную составляющую при внутрикадровом прогнозировании).Reconstruction of a slice during intra-frame prediction using a device for intra-circuit reformation of the brightness component in the CE12-2 system (blocks shaded in light green indicate the signal in the reformed area: the remainder of the brightness component; the brightness component during intra-frame prediction; the reconstructed brightness component during intra-frame prediction).

2.4.2.2. Зависящее от яркостной составляющей масштабирование остатка цветностной составляющей (Luma-dependent chroma residue scaling (LCRS))2.4.2.2. Luma-dependent chroma residue scaling (LCRS)

Зависящее от яркостной составляющей масштабирование остатка цветностной составляющей является мультипликативным процессом, реализуемым целочисленной операцией с фиксированной запятой. Масштабирование остатка цветностной составляющей компенсирует взаимодействие яркостного сигнала с цветностным сигналом. Масштабирование остатка цветностной составляющей применяется на уровне единиц TU. Более конкретно, применяется следующее:The luminance component-dependent scaling of the chroma residual is a multiplicative process implemented by a fixed-point integer operation. Scaling the remaining chrominance component compensates for the interaction of the luminance signal with the chrominance signal. Chroma residual scaling is applied at the TU level. More specifically, the following applies:

ο Для внутрикадрового прогнозирования, усредняют реконструированную яркостную составляющую.ο For intra-frame prediction, the reconstructed luminance component is averaged.

ο Для межкадрового прогнозирования, усредняют прогнозируемую яркостную составляющую.ο For interframe prediction, the predicted luminance component is averaged.

Усреднение используется для идентификации индекса в модели PWL. Этот индекс идентифицирует масштабный коэффициент cScaleInv. Остаток цветностной составляющей умножают на этот коэффициент.Averaging is used to identify the index in the PWL model. This index identifies the scale factor cScaleInv. The remainder of the color component is multiplied by this coefficient.

Отметим, что масштабный коэффициент для цветностной составляющей вычисляют на основе отображенных в прямом направлении величин яркостной составляющей вместо реконструированных величин яркостной составляющей.Note that the scale factor for the chrominance component is calculated based on the forward-mapped luminance component values instead of the reconstructed luminance component values.

2.4.2.3. Передача сигнализации дополнительной информации о переформировании ILR2.4.2.3. Signaling additional information about ILR reformation

Эти параметры передают (в настоящий момент) в заголовке группы плиток (аналогично фильтрации ALF). Эти сообщения занимают 40 - 100 бит. Группа плиток может быть другим способом представления изображения. Следующая таблица основана на версии 9 документа JVET-L1001. Добавленный синтаксис выделен курсивом.These parameters are passed (currently) in the tile group header (similar to ALF filtering). These messages occupy 40 - 100 bits. A group of tiles could be another way to represent an image. The following table is based on version 9 of the JVET-L1001 document. Added syntax is in italics.

В 7.3.2.1. Синтаксис набора параметров последовательности RBSPIn 7.3.2.1. RBSP Sequence Parameter Set Syntax

В 7.3.3.1. Синтаксис общего заголовка группы плитокIn 7.3.3.1. General Tile Group Header Syntax

Добавление новой модели устройства переформирования группы плиток в синтаксической таблице:Adding a new model of the tile group reformation device in the syntax table:

В общую семантику набора параметров последовательности RBSP добавление следующей семантики:Adding the following semantics to the general semantics of the RBSP sequence parameter set:

Флаг sps_reshaper_enabled_flag, равный 1, специфицирует, что устройство переформирования используется в кодированной видеопоследовательности (coded video sequence (CVS)). Флаг sps_reshaper_enabled_flag, равный 0, специфицирует, что устройство переформирования не используется в последовательности CVS.The sps_reshaper_enabled_flag equal to 1 specifies that the reshaper is used in a coded video sequence (CVS). The sps_reshaper_enabled_flag equal to 0 specifies that the reshaper is not used in the CVS sequence.

В синтаксисе заголовка группы плиток, добавление следующей семантикиIn the tile group header syntax, adding the following semantics

Флаг tile_group_reshaper_model_present_flag, равный 1, специфицирует, что параметр tile_group_reshaper_model() присутствует в заголовке группы плиток. Флаг tile_group_reshaper_model_present_flag, равный 0, специфицирует, что параметр tile_group_reshaper_model() не присутствует в заголовке группы плиток. Когда флаг tile_group_reshaper_model_present_flag не присутствует, его считают равным 0.The tile_group_reshaper_model_present_flag equal to 1 specifies that the tile_group_reshaper_model() parameter is present in the tile group header. The tile_group_reshaper_model_present_flag equal to 0 specifies that the tile_group_reshaper_model() parameter is not present in the tile group header. When the tile_group_reshaper_model_present_flag is not present, it is considered to be 0.

Флаг tile_group_reshaper_enabled_flag, равный 1, специфицирует, что устройство переформирования активизировано для текущей группы плиток. Флаг tile_group_reshaper_enabled_flag, равный 0, специфицирует, что устройство переформирования не активизировано для текущей группы плиток. Когда флаг tile_group_reshaper_enable_flag не присутствует, его считают равным 0.The tile_group_reshaper_enabled_flag equal to 1 specifies that the reshaper is enabled for the current tile group. The tile_group_reshaper_enabled_flag equal to 0 specifies that the reshaper is not enabled for the current tile group. When the tile_group_reshaper_enable_flag is not present, it is considered to be 0.

Флаг tile_group_reshaper_chroma_residual_scale_flag, равный 1, специфицирует, что масштабирование остатка цветностной составляющей активизировано для текущей группы плиток. Флаг tile_group_reshaper_chroma_residual_scale_flag, равный 0, специфицирует, что масштабирование остатка цветностной составляющей не активизировано для текущей группы плиток. Когда флаг tile_group_reshaper_chroma_residual_scale_flag не присутствует, его считают равным 0.The tile_group_reshaper_chroma_residual_scale_flag flag equal to 1 specifies that chroma residual scaling is enabled for the current tile group. The tile_group_reshaper_chroma_residual_scale_flag equal to 0 specifies that chroma residual scaling is not enabled for the current tile group. When the tile_group_reshaper_chroma_residual_scale_flag is not present, it is treated as 0.

Добавление синтаксиса tile_group_reshaper_model( )Adding tile_group_reshaper_model() syntax

Индекс reshape_model_min_bin_idx специфицирует индекс минимального фрагмента (или отрезка) для использования в процессе конструирования устройства для переформирования. Величина этого индекса reshape_model_min_bin_idx должна быть в диапазоне от 0 до параметра MaxBinIdx, включительно. Величина параметра MaxBinIdx должна быть равна 15.The reshape_model_min_bin_idx index specifies the index of the minimum fragment (or segment) to be used during the construction process of the reshaping device. The value of this index, reshape_model_min_bin_idx, must be in the range from 0 to the MaxBinIdx parameter, inclusive. The value of the MaxBinIdx parameter must be equal to 15.

Индекс reshape_model_delta_max_bin_idx специфицирует индекс максимального допустимого фрагмента (или отрезка) MaxBinIdx минус максимальный индекс фрагмента для использования в процессе конструирования устройства для переформирования. Величину индекса reshape_model_max_bin_idx устанавливают равным MaxBinIdx - reshape_model_delta_max_bin_idx.The index reshape_model_delta_max_bin_idx specifies the index of the maximum valid fragment (or segment) MaxBinIdx minus the maximum fragment index to use in the reshaping device design process. The index value reshape_model_max_bin_idx is set equal to MaxBinIdx - reshape_model_delta_max_bin_idx.

Параметр reshaper_model_bin_delta_abs_cw_prec_minus1 плюс 1 специфицирует число битов, используемое для представления синтаксиса reshape_model_bin_delta_abs_CW[ i ].The reshaper_model_bin_delta_abs_cw_prec_minus1 plus 1 parameter specifies the number of bits used to represent the reshape_model_bin_delta_abs_CW[ i ] syntax.

Параметр reshape_model_bin_delta_abs_CW[ i ] специфицирует абсолютную величину кодового слова приращения (дельта) для i-го фрагмента.The reshape_model_bin_delta_abs_CW[ i ] parameter specifies the absolute value of the increment codeword (delta) for the i-th fragment.

Параметр reshaper_model_bin_delta_sign_CW_flag[ i ] специфицирует знак параметра reshape_model_bin_delta_abs_CW[ i ] следующим образом:The reshaper_model_bin_delta_sign_CW_flag[ i ] parameter specifies the sign of the reshape_model_bin_delta_abs_CW[ i ] parameter as follows:

- Если флаг reshape_model_bin_delta_sign_CW_flag[ i ] равен 0, соответствующая переменная RspDeltaCW[ i ] имеет положительную величину.- If the reshape_model_bin_delta_sign_CW_flag[ i ] flag is 0, the corresponding RspDeltaCW[ i ] variable has a positive value.

- В противном случае ( reshape_model_bin_delta_sign_CW_flag[ i ] не равно 0 ), соответствующая переменная RspDeltaCW[ i ] имеет отрицательную величину.- Otherwise ( reshape_model_bin_delta_sign_CW_flag[ i ] is not equal to 0 ), the corresponding variable RspDeltaCW[ i ] has a negative value.

Когда флаг reshape_model_bin_delta_sign_CW_flag[ i ] не присутствуют, его считают равным 0.When the reshape_model_bin_delta_sign_CW_flag[ i ] flag is not present, it is considered equal to 0.

Переменная RspDeltaCW[ i ] = (1 2*reshape_model_bin_delta_sign_CW [ i ]) * reshape_model_bin_delta_abs_CW [ i ];Variable RspDeltaCW[ i ] = (1 2*reshape_model_bin_delta_sign_CW [ i ]) * reshape_model_bin_delta_abs_CW [ i ];

Переменную RspCW[ i ] определяют посредством следующих этапов:The variable RspCW[ i ] is determined through the following steps:

Переменную OrgCW устанавливают равной (1 << BitDepthY ) / ( MaxBinIdx + 1).The OrgCW variable is set to (1 << BitDepth Y ) / ( MaxBinIdx + 1 ).

- Если reshaper_model_min_bin_idx < = i <= reshaper_model_max_bin_idx- If reshaper_model_min_bin_idx <= i <= reshaper_model_max_bin_idx

RspCW[ i ] = OrgCW + RspDeltaCW[ i ].RspCW[ i ] = OrgCW + RspDeltaCW[ i ].

- В противном случае, RspCW[ i ] = 0.- Otherwise, RspCW[ i ] = 0.

Величина RspCW [ i ] должна быть в диапазоне от 32 до 2 * OrgCW - 1, если величина BitDepthY равна 10.The RspCW[i] value must be in the range from 32 to 2 * OrgCW - 1 if the BitDepth Y value is 10.

Переменные InputPivot[ i ] с i в диапазоне от 0 до MaxBinIdx + 1, включительно, формируют следующим образомInputPivot[ i ] variables with i in the range from 0 to MaxBinIdx + 1, inclusive, are formed as follows

InputPivot[ i ] = i * OrgCWInputPivot[ i ] = i * OrgCW

Переменную ReshapePivot[ i ] для i в диапазоне от 0 до MaxBinIdx + 1, включительно, переменную ScaleCoef[ i ] и переменную InvScaleCoeff[ i ] при i в диапазоне от 0 до MaxBinIdx , включительно, определяют следующим образом:The ReshapePivot[ i ] variable for i in the range from 0 to MaxBinIdx + 1, inclusive, the ScaleCoef[ i ] variable and the InvScaleCoeff[ i ] variable for i in the range from 0 to MaxBinIdx, inclusive, are defined as follows:

shiftY = 14shiftY = 14

ReshapePivot[ 0 ] = 0;ReshapePivot[ 0 ] = 0;

for( i = 0; i <= MaxBinIdx ; i++) {for( i = 0; i <= MaxBinIdx ; i++) {

ReshapePivot[ i + 1 ] = ReshapePivot[ i ] + RspCW[ i ]ReshapePivot[ i + 1 ] = ReshapePivot[ i ] + RspCW[ i ]

ScaleCoef[ i ] = ( RspCW[ i ] * (1 << shiftY) + (1 << (Log2(OrgCW) - 1))) >> (Log2(OrgCW))
if ( RspCW[ i ] == 0 )
ScaleCoef[ i ] = ( RspCW[ i ] * (1 << shiftY) + (1 << (Log2(OrgCW) - 1))) >> (Log2(OrgCW))
if ( RspCW[ i ] == 0 )


InvScaleCoeff[ i ] = 0

InvScaleCoeff[ i ] = 0

else
InvScaleCoeff[ i ] = OrgCW * (1 << shiftY) / RspCW[ i ]
else
InvScaleCoeff[ i ] = OrgCW * (1 << shiftY) / RspCW[ i ]

}}

Переменную ChromaScaleCoef[i] при i в диапазоне от 0 до MaxBinIdx, включительно, определяют следующим образом:The variable ChromaScaleCoef[i] with i in the range from 0 to MaxBinIdx, inclusive, is defined as follows:

ChromaResidualScaleLut[64] = {16384, 16384, 16384, 16384, 16384, 16384, 16384, 8192, 8192, 8192, 8192, 5461, 5461, 5461, 5461, 4096, 4096, 4096, 4096, 3277, 3277, 3277, 3277, 2731, 2731, 2731, 2731, 2341, 2341, 2341, 2048, 2048, 2048, 1820, 1820, 1820, 1638, 1638, 1638, 1638, 1489, 1489, 1489, 1489, 1365, 1365, 1365, 1365, 1260, 1260, 1260, 1260, 1170, 1170, 1170, 1170, 1092, 1092, 1092, 1092, 1024, 1024, 1024, 1024};ChromaResidualScaleLut[64] = {16384, 16384, 16384, 16384, 16384, 16384, 16384, 8192, 8192, 8192, 8192, 5461, 5461, 5461, 5461, 4096, 40 96, 4096, 4096, 3277, 3277, 3277, 3277, 2731, 2731, 2731, 2731, 2341, 2341, 2341, 2048, 2048, 2048, 1820, 1820, 1820, 1638, 1638, 1638, 1638, 1489, 1489, 1 489, 1489, 1365, 1365, 1365, 1365, 1260, 1260, 1260, 1260, 1170, 1170, 1170, 1170, 1092, 1092, 1092, 1092, 1024, 1024, 1024, 1024};

shiftC = 11shiftC = 11

- if ( RspCW[ i ] == 0 )- if ( RspCW[ i ] == 0 )

ChromaScaleCoef [ i ] = (1 << shiftC)ChromaScaleCoef [ i ] = (1 << shiftC)

- В противном случае (RspCW[ i ] != 0), ChromaScaleCoef[ i ] = ChromaResidualScaleLut[RspCW[ i ] >> 1]- Otherwise (RspCW[ i ] != 0), ChromaScaleCoef[ i ] = ChromaResidualScaleLut[RspCW[ i ] >> 1]

2.4.2.4. Использование переформирования ILR2.4.2.4. Using ILR Reframing

На стороне кодирующего устройства каждое изображение (или группу плиток) сначала преобразуют в переформированную область. И всю процедуру кодирования осуществляют в переформированной области. Для внутрикадрового прогнозирования соседний блок находится в переформированной области; для межкадрового прогнозирования опорные блоки (генерируемые из исходной области из буфера декодированного изображения) сначала преобразуют в переформированную область. Затем остаток генерируют и кодируют в потоке битов данных.On the encoder side, each image (or group of tiles) is first converted into a reshaped region. And the entire coding procedure is carried out in the reformed area. For intra-frame prediction, the adjacent block is in the reshaped region; For inter-frame prediction, reference blocks (generated from the original region from the decoded image buffer) are first converted into a reshaped region. The remainder is then generated and encoded in the data bit stream.

После завершения кодирования/декодирования полного изображения (или группы плиток) отсчеты в переформированной области преобразуют в исходную область и затем применяют деблокирующий фильтр и другие фильтры.After encoding/decoding of the entire image (or group of tiles) is completed, the samples in the reshaped region are converted to the original region and then the deblocking filter and other filters are applied.

Процедура прямого переформирования в прогнозируемый сигнал не активизирована в следующих случаях:The procedure for direct conversion to a predicted signal is not activated in the following cases:

○ Текущий блок кодирован с применением внутрикадрового прогнозирования○ The current block is encoded using intra-frame prediction

○ Текущий блок кодирован с применением ссылки на текущее изображение в качестве опоры (CPR (current picture referencing)), также называется внутрикадровым копированием блоков, IBC○ The current block is encoded using the current picture referencing (CPR), also called intra-block copying (IBC)

○ Текущий блок кодирован с применением комбинированного режима с внутрикадровым и межкадровым прогнозированием (combined inter-intra mode (CIIP)), а процедура прямого переформирования не активизирована для блоков с внутрикадровым прогнозированием○ The current block is encoded using combined inter-intra mode (CIIP) and direct reframing is not enabled for intra-prediction blocks

JVET-N0805JVET-N0805

Чтобы избежать передачи сигнализации дополнительной информации о переформировании ILR в заголовке группы плиток, в документе JVET-N0805, предложено передавать эту сигнализацию в наборе APS. Это содержит следующие основные идеи:To avoid signaling additional ILR re-arrangement information in the tile group header, JVET-N0805 proposes to carry this signaling in the APS set. It contains the following main ideas:

- В качестве опции передают параметры LMCS в наборе SPS. Здесь LMCS обозначает способ «отображения яркостной составляющей с масштабированием цветностной составляющей» (luma mapping with chroma scaling (LMCS)), как это определено в соответствующих стандартах видеокодирования.- Optionally send the LMCS parameters in the SPS set. Here, LMCS stands for luma mapping with chroma scaling (LMCS) as defined in the relevant video coding standards.

- Определение типов наборов APS для параметров фильтрации ALF и параметров LMCS. Каждый набор APS имеет только один тип.- Define APS set types for ALF filtering parameters and LMCS parameters. Each APS set has only one type.

- Передача параметров LMCS в наборе APS- Transfer of LMCS parameters in the APS set

- Если инструмент LMCS активизирован, он имеет флаг в заголовке группы плиток TGH для индикации, что идентификатор LMCS aps_id присутствует или нет. Если сигнализации об этом нет, используют набор SPS параметров.- If the LMCS tool is activated, it has a flag in the TGH tile group header to indicate whether the LMCS aps_id is present or not. If there is no alarm about this, use a set of SPS parameters.

*Необходимо добавить семантические ограничения, чтобы всегда иметь что-нибудь действительное, относящееся к случаю, когда этот инструмент активизирован.*Semantic constraints need to be added to ensure that there is always something valid that applies to the case when this tool is activated.

2.5.2.5.1. Реализация предлагаемой структуры поверх документа JVET-M1001 (кодирование VVC, рабочий проект 4)2.5.2.5.1. Implementation of the proposed framework on top of the JVET-M1001 document (VVC encoding, working draft 4)

Ниже предлагаемые изменения показаны курсивом.The proposed changes are shown in italics below.

...

Флаг sps_lmcs_enabled_flag, равный 1, специфицирует, что в кодированной видеопоследовательности(CVS) используется отображение яркостной составляющей с масштабированием цветностной составляющей. Флаг sps_lmcs_enabled_flag, равный 0, специфицирует, что отображение яркостной составляющей с масштабированием цветностной составляющей не используется в последовательности CVS.The sps_lmcs_enabled_flag flag equal to 1 specifies that the coded video sequence (CVS) uses luma mapping with chrominance scaling. The sps_lmcs_enabled_flag equal to 0 specifies that luma mapping with chrominance scaling is not used in the CVS sequence.

Флаг sps_lmcs_default_model_present_flag, равный 1, специфицирует, что данные lmcs по умолчанию присутствуют в этом наборе SPS. Флаг sps_lmcs_default_model_flag, равный 0, специфицирует, что данные lmcs по умолчанию не присутствуют в этом наборе SPS. Когда это флаг sps_lmcs_default_model_present_flag не присутствует, его считают равным 0.The sps_lmcs_default_model_present_flag equal to 1 specifies that lmcs data is present by default in this SPS set. The sps_lmcs_default_model_flag equal to 0 specifies that the default lmcs data is not present in this SPS set. When the sps_lmcs_default_model_present_flag is not present, it is considered to be 0.

...

Параметр aps_params_type специфицирует тип параметров набора APS, передаваемых в наборе APS, как это приведено в следующей таблице:The aps_params_type parameter specifies the type of APS set parameters passed in the APS set, as shown in the following table:

Таблица 7 - x -Коды типов набора параметров APS и типы параметров набора APSTable 7 - x -APS Parameter Set Type Codes and APS Parameter Types

Добавление следующих определений к ст. 3:Adding the following definitions to Art. 3:

ALF APS: Набор APS, который имеет параметр aps_params_type, равный ALF_APS.ALF APS: A set of APS that has aps_params_type equal to ALF_APS.

LMCS APS: Набор APS, который имеет параметр aps_params_type, равный LMCS_APS.LMCS APS: A set of APS that has aps_params_type equal to LMCS_APS.

Внесены следующие семантические изменения:The following semantic changes have been made:

...

Параметр tile_group_alf_aps_id специфицирует параметр adaptation_parameter_set_id набора ALF APS, к которому относится группа плиток. Параметр TemporalId единицы ALF APS NAL, имеющий параметр adaptation_parameter_set_id, равный параметру tile_group_alf_aps_id, должен быть не больше параметра TemporalId единицы NAL кодированной группы плиток.The tile_group_alf_aps_id parameter specifies the adaptation_parameter_set_id parameter of the ALF APS set to which the tile group belongs. The TemporalId parameter of an ALF APS NAL unit that has an adaptation_parameter_set_id parameter equal to the tile_group_alf_aps_id parameter must be no greater than the TemporalId parameter of the encoded tile group NAL unit.

Когда несколько наборов ALF APS с одинаковой величиной параметра adaptation_parameter_set_id относятся к двум или более группам плиток в одном и том же изображении, эти несколько наборов ALF APS с одинаковой величиной параметра adaptation_parameter_set_id должны иметь одинаковое содержание.When multiple ALF APS sets with the same adaptation_parameter_set_id value refer to two or more tile groups in the same image, those multiple ALF APS sets with the same adaptation_parameter_set_id value shall have the same content.

...

Флаг tile_group_lmcs_enabled_flag, равный 1, специфицирует, что отображение яркостной составляющей с масштабированием цветностной составляющей активизировано для текущей группы плиток. Флаг tile_group_lmcs_enabled_flag, равный 0, специфицирует, что отображение яркостной составляющей с масштабированием цветностной составляющей не активизировано для текущей группы плиток. Когда флаг tile_group_lmcs_enable_flag не присутствует, его считают равным 0.The tile_group_lmcs_enabled_flag equal to 1 specifies that luma display with chrominance scaling is enabled for the current tile group. The tile_group_lmcs_enabled_flag equal to 0 specifies that luma display with chrominance scaling is not enabled for the current tile group. When the tile_group_lmcs_enable_flag is not present, it is considered to be 0.

Флаг tile_group_lmcs_use_default_model_flag, равный 1, специфицирует, что операция отображения яркостной составляющей с масштабированием цветностной составляющей для группы плиток использует модель lmcs по умолчанию. Флаг tile_group_lmcs_use_default_model_flag, равный 0, специфицирует, что операция отображения яркостной составляющей с масштабированием цветностной составляющей для группы плиток использует модель lmcs в наборе LMCS APS, относящемся к параметру tile_group_lmcs_aps_id. Когда флаг tile_group_reshaper_use_default_model_flag не присутствует, его считают равным 0.The tile_group_lmcs_use_default_model_flag equal to 1 specifies that the chroma-scaled luma display operation for a group of tiles uses the default lmcs model. The tile_group_lmcs_use_default_model_flag equal to 0 specifies that the chrominance scaling luma mapping operation for a group of tiles uses the lmcs model in the LMCS APS set associated with the tile_group_lmcs_aps_id parameter. When the tile_group_reshaper_use_default_model_flag is not present, it is considered to be 0.

Параметр tile_group_lmcs_aps_id специфицирует параметр adaptation_parameter_set_id набора LMCS APS, на который ссылается группа плиток. Параметр TemporalId единицы LMCS APS NAL, имеющей параметр adaptation_parameter_set_id, равный параметру tile_group_lmcs_aps_id, должен быть не больше параметра TemporalId для единицы NAL кодированной группы плиток.The tile_group_lmcs_aps_id parameter specifies the adaptation_parameter_set_id parameter of the LMCS APS set referenced by the tile group. The TemporalId parameter of an LMCS APS NAL unit that has an adaptation_parameter_set_id parameter equal to the tile_group_lmcs_aps_id parameter shall be no greater than the TemporalId parameter for the encoded tile group NAL unit.

Когда несколько наборов LMCS APS с одинаковой величиной параметра adaptation_parameter_set_id относятся к двум или более группам плиток в одном и том же изображении, эти несколько наборов LMCS APS с одинаковой величиной параметра adaptation_parameter_set_id должны иметь одинаковое содержание.When multiple LMCS APS sets with the same adaptation_parameter_set_id value refer to two or more tile groups in the same image, those multiple LMCS APS sets with the same adaptation_parameter_set_id value shall have the same content.

Флаг tile_group_chroma_residual_scale_flag, равный 1, специфицирует, что масштабирование остатка цветностной составляющей активизировано для текущей группы плиток. Флаг tile_group_chroma_residual_scale_flag, равный 0, специфицирует, что масштабирование остатка цветностной составляющей активизировано для текущей группы плиток. Когда флаг tile_group_chroma_residual_scale_flag не присутствует, его считают равным 0.The tile_group_chroma_residual_scale_flag equal to 1 specifies that chroma residual scaling is enabled for the current tile group. The tile_group_chroma_residual_scale_flag equal to 0 specifies that chroma residual scaling is enabled for the current tile group. When the tile_group_chroma_residual_scale_flag is not present, it is treated as 0.

...

...

2.4.2.6. JVET-N01382.4.2.6. JVET-N0138

Настоящий раздел предлагает расширенное использование набора параметров адаптации (APS) для передачи параметров модели устройства для переформирования, равно как параметров фильтрации ALF. На последнем совещании было решено, чтобы параметры фильтрации ALF были переданы в наборе APS вместо заголовка группы плиток с целью повышения эффективности кодирования путем избегания не являющейся необходимой избыточной сигнализации параметров в нескольких группах плиток. По той же самой причине, предложено передавать параметры модели устройства переформирования в модели APS вместо заголовка группы плиток. Для идентификации типа параметров в наборе APS (будь то по меньшей мере параметры фильтрации ALF или модели устройства переформирования), информация о типе набора APS требуется в синтаксисе набора APS, равно как и в идентификаторе APS ID.This section proposes an advanced use of the adaptation parameter set (APS) to pass device model parameters for reshaping, as well as ALF filtering parameters. At the last meeting, it was decided that the ALF filter parameters should be carried in the APS set instead of the tile group header in order to improve coding efficiency by avoiding unnecessary redundant signaling of parameters across multiple tile groups. For the same reason, it is proposed to pass the parameters of the reformer model to the APS model instead of the tile group header. To identify the type of parameters in an APS set (whether at least ALF filter parameters or reformer models), information about the APS set type is required in the APS set syntax as well as in the APS ID.

Синтаксис и семантика набора параметров адаптацииSyntax and semantics of the adaptation parameter set

Ниже предлагаемые изменения показаны курсивом.The proposed changes are shown in italics below.

Параметр adaptation_parameter_set_type идентифицирует тип параметров в наборе APS. Величина параметра adaptation_parameter_set_type должна быть в диапазоне от 0 до 1 включительно. Если параметр adaptation_parameter_set_type равен 0, передают параметры фильтрации ALF в виде сигнализации. В противном случае, передают в виде сигнализации параметры модели устройства для переформирования.The adaptation_parameter_set_type parameter identifies the type of parameters in the APS set. The value of the adaptation_parameter_set_type parameter must be in the range from 0 to 1 inclusive. If adaptation_parameter_set_type is 0, the ALF filter parameters are signaled. Otherwise, the parameters of the device model for reformation are transmitted as a signal.

Обобщенные синтаксис и семантика заголовка группы плитокGeneralized tile group header syntax and semantics

2.5. Единицы данных виртуального конвейера (Virtual Pipelining Data Units (VPDU))2.5. Virtual Pipelining Data Units (VPDUs)

Единицы данных виртуального конвейера (VPDU) определены как не накладывающиеся одна на другую единицы MxM-luma(L)/NxN-chroma(C) данных в изображении. В аппаратных декодирующих устройствах последовательные единицы VPDU обрабатывают в нескольких ступенях конвейера одновременно; разные ступени обрабатывают различные единицы VPDU одновременно. Размер единицы VPDU грубо пропорционален размеру буфера в большинстве ступеней конвейера, так что можно сказать, что очень важно сохранять небольшой размер единиц VPDU. В аппаратных декодирующих устройства для стандарта кодирования HEVC размеры единицы VPDU устанавливают равными максимальному размеру блока преобразования (transform block (TB)). Увеличение максимального размера блока TB от 32x32-L/16x16-C (как в стандарте кодирования HEVC) до 64x64-L/32x32-C (как в сегодняшнем стандарте кодирования VVC) может принести выигрыш при кодировании, результатом чего является ожидаемое 4-кратное увеличение размера единицы VPDU (64x64-L/32x32-C) по сравнению со стандартом кодирования HEVC. Однако, в дополнение к разбиению единицы кодирования (CU) в соответствии с деревом квадратов (quadtree (QT)) в стандарте кодирования VVC приняты также троичное дерево единиц (ternary tree (TT)) и двоичной дерево (binary tree (BT)) для достижения дополнительного выигрыша при кодировании, а разбиение в соответствии с деревьями TT и BT может быть применено к единицам дерева кодирования (CTU) размером 128x128-L/64x64-C рекурсивно, что ведет к 16-кратному увеличению размера единицы VPDU (128x128-L/64x64-C) по сравнению со стандартом кодирования HEVC.Virtual Pipeline Data Units (VPDUs) are defined as non-overlapping MxM-luma(L)/NxN-chroma(C) data units in an image. In hardware decoders, successive VPDUs are processed in multiple pipeline stages simultaneously; different stages process different VPDUs simultaneously. The VPDU size is roughly proportional to the buffer size in most pipeline stages, so it can be said that it is very important to keep the VPDU size small. In hardware decoders for the HEVC encoding standard, the VPDU unit size is set equal to the maximum transform block (TB) size. Increasing the maximum TB block size from 32x32-L/16x16-C (as in the HEVC encoding standard) to 64x64-L/32x32-C (as in today's VVC encoding standard) can yield encoding gains, resulting in an expected 4x increase VPDU unit size (64x64-L/32x32-C) compared to the HEVC encoding standard. However, in addition to partitioning the coding unit (CU) according to a quadtree (QT), the VVC coding standard also adopts a ternary tree (TT) and a binary tree (BT) to achieve additional coding gain, and partitioning according to the TT and BT trees can be applied to the 128x128-L/64x64-C Coding Tree Units (CTUs) recursively, resulting in a 16x increase in VPDU unit size (128x128-L/64x64 -C) compared to the HEVC encoding standard.

В современной конфигурации кодирования VVC, размер единицы VPDU определен как 64x64-L/32x32-C.In modern VVC coding configuration, the VPDU unit size is defined as 64x64-L/32x32-C.

2.6. Набор параметров адаптации2.6. Set of adaptation parameters

В стандарте кодирования VVC, набор параметров адаптации (APS) принят для передачи параметров фильтрации ALF. Заголовок группы плиток содержит параметр aps_id, который условно присутствует, когда фильтрация ALF активизирована. Набор APS содержит параметр aps_id и параметры фильтрации ALF. Для набора APS назначено новое значение типа NUT (тип единицы NAL (NAL unit type), как в стандартах кодирования AVC и HEVC) (из документа JVET-M0132). Для общих тестовых условий в документе VTM-4.0 (должен быть выпущен), предлагается просто использовать aps_id = 0 и передавать набор APS с каждым изображением. На сегодня, идентификатор APS ID будет иметь диапазон значений 0..31 и наборы APS могут совместно использоваться несколькими изображениями (и могут различаться в разных группах в одном изображении). Значения идентификатора ID должны быть, если они присутствуют, закодированы в коде фиксированной длины. Значения идентификатора ID не могут быть повторно использованы с другим контентом в одном и том же изображении.In the VVC coding standard, an adaptation parameter set (APS) is adopted to convey the ALF filtering parameters. The tile group header contains an aps_id parameter, which is conditionally present when ALF filtering is enabled. The APS set contains the aps_id parameter and ALF filtering parameters. The APS set has a new value of type NUT (NAL unit type, as in the AVC and HEVC encoding standards) (from JVET-M0132). For general test conditions, the VTM-4.0 document (to be released) suggests simply using aps_id = 0 and passing a set of APS with each image. As of today, an APS ID will have a range of 0..31 and APS sets can be shared between multiple images (and can vary across different groups within the same image). ID values must be, if present, encoded in a fixed-length code. ID values cannot be reused with other content in the same image.

2.7. Используемые инструменты2.7. Tools used

2.7.1. Рассеивающий фильтр (Diffusion filter (DF))2.7.1. Diffusion filter (DF)

В документе JVET-L0157, предложен рассеивающий фильтр, где сигнал внутрикадрового/межкадрового прогнозирования из единицы CU может быть дополнительно модифицирован рассеивающими фильтрами.In JVET-L0157, a diffusion filter is proposed, where the intra/inter-prediction signal from a CU can be further modified with diffusion filters.

Однородный рассеивающий фильтр. Однородный рассеивающий фильтр (Uniform Diffusion Filter) реализуется посредством свертки прогнозируемого сигнала с фиксированной маской, задаваемой как или как , что определено ниже.Homogeneous diffusion filter. A Uniform Diffusion Filter is implemented by convolving the predicted signal with a fixed mask specified as or how , which is defined below.

В качестве входа для фильтрованного сигнала помимо самого прогнозируемого сигнала используют одну линию реконструированных отсчетов слева и сверху от рассматриваемого блока, где использования этих реконструированных отсчетов можно избежать для блоков с межкадровым прогнозированием.As an input to the filtered signal, in addition to the predicted signal itself, one line of reconstructed samples is used to the left and above of the block in question, where the use of these reconstructed samples can be avoided for blocks with inter-frame prediction.

Пусть обозначает прогнозируемый сигнал для некоего рассматриваемого блока, получаемый посредством внутрикадрового прогнозирования или прогнозирования с компенсацией движения. Для обработки граничных точек для фильтров, прогнозируемый сигнал необходимо расширить до прогнозируемого сигнала . Этот расширенный прогнозируемый сигнал может быть сформирован двумя способами:Let denotes the predicted signal for a given block in question obtained by intra-frame prediction or motion-compensated prediction. To process cutoff points for filters, the predicted signal needs to be expanded to the predicted signal . This extended forecast signal can be generated in two ways:

Либо, в качестве промежуточного этапа, добавляют одну линию реконструированных отсчетов слева и сверху к прогнозируемому сигналу и затем зеркально отражают результирующий сигнал во всех направлениях. Либо только сам прогнозируемый сигнал зеркально отражают во всех направлениях. Последнее расширение используется для блоков с межкадровым прогнозированием. В этом случае, только сам прогнозируемый сигнал содержит входные данные для расширенного прогнозируемого сигнала .Or, as an intermediate step, one line of reconstructed samples is added to the left and top of the predicted signal and then mirrored the resulting signal in all directions. Or only the predicted signal itself is mirrored in all directions. The last extension is used for inter-frame prediction blocks. In this case, only the forecast signal itself contains the input data for the extended forecast signal .

Если должен быть использован фильтр , предлагается заменить прогнозируемый сигнал сигналомIf a filter should be used , it is proposed to replace the predicted signal signal

используя упомянутое выше граничное расширение. Здесь фильтрующая маска имеет видusing the boundary extension mentioned above. Here is the filter mask looks like

Если следует использовать фильтр , предлагается заменить прогнозируемый сигнал сигналомIf you should use a filter , it is proposed to replace the predicted signal signal

Здесь фильтр задан какFilter here given as

Направленный рассеивающий фильтр. Вместо использования адаптивных к сигналу рассеивающих фильтров используются направленные, а именно - горизонтальный фильтр и вертикальный фильтр , которые по-прежнему имеют фиксированную маску. Более точно, однородную рассеивающую фильтрацию, соответствующую маске из предыдущего раздела, просто ограничивают применением только вдоль вертикального или вдоль горизонтального направления. Вертикальный фильтр реализуют с применением фиксированной фильтрующей маскиDirectional scattering filter. Instead of using signal-adaptive scattering filters, directional filters are used, namely a horizontal filter and vertical filter , which still have a fixed mask. More precisely, uniform scattering filtering corresponding to the mask from the previous section are simply limited to application only along the vertical or along the horizontal direction. The vertical filter is implemented using a fixed filter mask

к прогнозируемому сигналу и горизонтальный фильтр реализуют с использованием транспонированной маски to the predicted signal and the horizontal filter is implemented using a transposed mask

2.7.2. Двусторонний фильтр (Bilateral Filter (BF))2.7.2. Bilateral Filter (BF)

Двусторонний фильтр предложен в документе JVET-L0406, и всегда применяется к блокам яркостной составляющей с ненулевыми коэффициентами преобразованиями и параметров квантования среза больше 17. Поэтому нет необходимости сигнализировать о двустороннем фильтре. Двусторонний фильтр, если он применяется, воздействует на декодированные отсчеты сразу после обратной трансформации. В дополнение к этому, параметры фильтра, т.е. весовые коэффициенты в явном виде выводят из кодированной информации.A two-way filter is proposed in JVET-L0406, and is always applied to luma blocks with non-zero transform coefficients and cutoff quantization parameters greater than 17. Therefore, there is no need to signal a two-way filter. The two-way filter, if applied, acts on the decoded samples immediately after the inversion. In addition to this, the filter parameters, i.e. weighting coefficients are explicitly derived from the encoded information.

Процедура фильтрации определена как:The filtering procedure is defined as:

…(1) …(1)

Здесь, обозначает интенсивность текущего отсчета, и обозначает модифицированную интенсивность текущего отсчета, и обозначают интенсивность и весовой параметр для k-го соседнего отсчета, соответственно. Пример одного текущего отсчета и соседних с ним четырех отсчетов (т.е., K=4) показан на фиг. 24.Here, denotes the intensity of the current reading, and denotes the modified intensity of the current reading, And denote the intensity and weight parameter for the kth neighboring sample, respectively. An example of one current sample and its adjacent four samples (i.e., K=4) is shown in FIG. 24.

Более конкретно, весовой коэффициент , ассоциированный с k-ым соседним отсчетом, определен следующим образом:More specifically, the weighting factor , associated with the kth neighboring sample, is defined as follows:

. …(2) . …(2)

Здесь,Here,

и . And .

Здесь, параметр зависит от режима кодирования и размера блока кодирования. Описываемая процедура фильтрации применяется к блокам, кодированным с применением внутрикадрового прогнозирования, и к блокам, кодированным с применением межкадрового прогнозирования, когда единицу TU далее разбивают, чтобы позволить параллельную обработку.Here, the parameter depends on the encoding mode and encoding block size. The described filtering procedure is applied to blocks encoded using intra-prediction and to blocks encoded using inter-prediction when the TU is further split to allow parallel processing.

Для лучшего захвата статистических свойств видеосигнала и улучшения функционирования фильтра весовую функцию, полученную из Уравнения (2), корректируют с использованием параметра , приведенного в таблице 4 в зависимости от режима кодирования и параметров разбиения блоков (минимальный размер).To better capture the statistical properties of the video signal and improve filter performance, the weighting function obtained from Equation (2) is adjusted using the parameter given in Table 4 depending on the encoding mode and block partitioning parameters (minimum size).

Таблица 4. Значения параметра для разных размеров блоков и режим кодированияTable 4. Parameter values for different block sizes and encoding mode Мин (ширина блока, высота блока)Min (block width, block height) Режим внутрикадрового прогнозированияIntra-frame prediction mode Режим межкадрового прогнозированияInter-frame prediction mode 44 8282 6262 88 7272 5252 ПрочееOther 5252 3232

Для дальнейшего улучшения характеристик кодирования, для блоков, кодированных с применением межкадрового прогнозирования, когда единица TU не разделена, разность интенсивностей между текущим отсчетом и одним из соседних с ним отсчетов заменяют репрезентативной разностью интенсивностей между двумя окнами, покрывающими текущий отсчет и указанный соседний отсчет. Поэтому уравнение для процесса фильтрации оказывается пересмотрено и приведено к виду:To further improve coding performance, for blocks encoded using inter-frame prediction when the TU is not divided, the intensity difference between the current sample and one of its adjacent samples is replaced by a representative intensity difference between two windows covering the current sample and said adjacent sample. Therefore, the equation for the filtration process is revised and reduced to the form:

…(4) …(4)

Здесь, и представляют величину m-го отсчета в окнах, центрированных в точках и , соответственно. В этом предложении размер окна устанавливают равным 3×3. Пример двух окон, покрывающих отсчеты и показан на фиг. 25.Here, And represent the magnitude of the mth sample in windows centered at points And , respectively. In this proposal, the window size is set to 3x3. Example of two windows covering samples And shown in Fig. 25.

2.7.3. Фильтр в области преобразования Адамара (Hadamard transform domain filter (HF))2.7.3. Hadamard transform domain filter (HF)

В документе JVET-K0068, предложен внутриконтурный фильтр в области одномерного (1D) преобразования Адамара, применяемый на уровне единиц CU после реконструкции и реализованный без применения умножения. Предлагаемый фильтр применяется ко всем блокам единиц CU, удовлетворяющим заданному условию, а параметры фильтра получают из кодированной информации.JVET-K0068 proposes an in-loop filter in the domain of one-dimensional (1D) Hadamard transform applied at the CU level after reconstruction and implemented without the use of multiplication. The proposed filter is applied to all CUs satisfying a given condition, and the filter parameters are obtained from the encoded information.

Предлагаемая фильтрация всегда применяется к реконструированным блокам яркостной составляющей с ненулевыми коэффициентами преобразования, исключая блоки размером 4x4 и случай, когда параметр квантования среза больше 17. Параметры фильтра выводят в явном виде из кодированной информации. Предлагаемый фильтр, если применяется, обрабатывает декодированные отсчеты сразу после обратного преобразования.The proposed filtering is always applied to the reconstructed luma blocks with non-zero transform coefficients, excluding 4x4 blocks and the case where the slice quantization parameter is greater than 17. The filter parameters are derived explicitly from the encoded information. The proposed filter, if applied, processes the decoded samples immediately after the inverse transformation.

Для каждого пикселя из реконструированного блока обработка содержит следующие этапы:For each pixel from the reconstructed block, processing contains the following steps:

○ Сканирование 4 соседних пикселей вокруг обрабатываемого пикселя, включая текущий пиксель, согласно схеме сканирования○ Scanning 4 neighboring pixels around the processed pixel, including the current pixel, according to the scanning pattern

○ 4-точечное преобразование Адамара прочитанных пикселей○ 4-point Hadamard transform of read pixels

○ Спектральная фильтрация на основе следующей формулы:○ Spectral filtering based on the following formula:

Здесь, (i) обозначает индекс спектральной составляющей в спектре Адамара, R(i) обозначает спектральную составляющую реконструированного пикселя, соответствующую индексу, σ обозначает параметр фильтрации, полученный из параметра квантования (quantization parameter (QP)) кодека с использованием следующего уравнения:Here, (i) denotes the index of the spectral component in the Hadamard spectrum, R(i) denotes the spectral component of the reconstructed pixel corresponding to the index, σ denotes the filtering parameter obtained from the quantization parameter (QP) of the codec using the following equation:

. .

Пример схемы сканирования показан на фиг. 26, где A обозначает текущий пиксель, а {B,C,D} - окружающие пиксели.An example of a scanning circuit is shown in FIG. 26, where A denotes the current pixel and {B,C,D} denotes the surrounding pixels.

Для пикселей, лежащих на границе единицы CU, схему сканирования корректируют, обеспечивая, чтобы все требуемые пиксели находились внутри текущей единицы CU.For pixels lying on the boundary of a CU, the scanning pattern is adjusted to ensure that all required pixels are within the current CU.

3. Недостатки существующих вариантов реализации3. Disadvantages of existing implementation options

В существующих вариантах реализации переформирования ILR могут иметь место следующие недостатки:In existing options for implementing ILR reformation, the following disadvantages may occur:

1) Передача сигнализации о дополнительной информации для переформирования ILR в заголовке группы плиток не подходит, поскольку для этого требуется слишком много битов. Кроме того, прогнозирование между разными изображениями/группами плиток невозможно. Поэтому, нужно передавать дополнительную информацию о переформировании ILR для каждой группы плиток, что может вызвать потери при кодировании при небольших скоростях передачи битов данных, особенно при низком разрешении.1) Signaling additional information to reshape the ILR in the tile group header is not suitable because it requires too many bits. Additionally, prediction between different images/tile groups is not possible. Therefore, additional ILR reshaping information needs to be transmitted for each group of tiles, which may cause encoding losses at low data bit rates, especially at low resolutions.

2) Взаимодействие между переформированием ILR и уточнением DMVR (или другими вновь вводимыми инструментами кодирования) остается неясным. Например, переформирование ILR применяется к сигналу с межкадровым прогнозированием для преобразования исходного сигнала в переформированную область, и декодированные остатки находятся в переформированной области. Тогда как уточнение DMVR также использует прогнозируемый сигнал для уточнения векторов движения для одного блока. Применять ли уточнение DMVR в исходной области или в переформированной области - неясно.2) The interaction between ILR reformulation and DMVR refinement (or other newly introduced coding tools) remains unclear. For example, ILR reformation is applied to an inter-frame prediction signal to transform the original signal into a reformatted region, and the decoded residuals are in the reformatted region. Whereas DMVR refinement also uses the predicted signal to refine motion vectors for one block. Whether the DMVR refinement should be applied in the original domain or in the reshaped domain is unclear.

3) Взаимодействие между переформированием ILR инструментами кодирования контента экрана, например, палитрой, модуляцией B-DPCM, копированием IBC, пропуском трансформации, обходом трансформации и квантования, режимами модуляции I-PCM, не ясно.3) The interaction between ILR reshaping by screen content encoding tools such as palette, B-DPCM modulation, IBC copy, transform skip, transform and quantization bypass, I-PCM modulation modes is not clear.

4) При переформировании ILR используется зависящее от яркостной составляющей масштабирование остатка цветностной составляющей. Поэтому здесь вносится дополнительная задержка (из-за зависимости между яркостной составляющей и цветностной составляющей), что не является благоприятным фактором для проектирования аппаратуры.4) When reformatting the ILR, scaling of the remainder of the chrominance component, depending on the luminance component, is used. Therefore, an additional delay is introduced here (due to the dependence between the luminance component and the chrominance component), which is not a favorable factor for hardware design.

5) Целью введения единиц VPDU является гарантировать завершение обработки одной квадратной области размером 64x64 прежде начала обработки других квадратных областей размером 64x64. Однако согласно конфигурации переформирования ILR нет никаких ограничений на использование переформирования ILR, что может вызвать нарушение единиц VPDU, поскольку цветностная составляющая опирается на прогнозируемый сигнал яркостной составляющей.5) The purpose of introducing VPDUs is to ensure that processing of one 64x64 square area is completed before processing of other 64x64 square areas begins. However, according to the ILR reshaping configuration, there is no restriction on the use of ILR reshaping, which may cause violation of VPDUs since the chrominance component relies on the predicted luminance component signal.

6) Если все коэффициенты для одной единицы CU оказались нулевыми, прогнозируемый блок и реконструированный блок все равно проходят через процедуры прямого и обратного переформирования, что ведет к непроизводительным потерям вычислительной сложности.6) If all the coefficients for one CU are zero, the predicted block and the reconstructed block still go through the forward and backward reformation procedures, which leads to wasted computational complexity.

7) В документе JVET-N0138, предложено передавать сигнализацию с информацией о переформировании ILR в наборе APS. Это техническое решение может породить ряд новых проблем. Например, разработаны два вида наборов APS. Однако идентификатор adaptation_parameter_set_id, передаваемый в виде сигнализации для переформирования ILR, может относиться к набору APS, который не содержит информацию о переформировании ILR. Аналогично, идентификатор adaptation_parameter_set_id, сигнализируемый для адаптивной контурной фильтрации (ALF), может ссылаться на набор APS, который не содержит информацию о фильтрации ALF.7) In document JVET-N0138, it is proposed to signal the ILR re-formation information in the APS set. This technical solution may create a number of new problems. For example, two types of APS kits have been developed. However, the adaptation_parameter_set_id signaled for ILR reshaping may refer to an APS set that does not contain ILR reshaping information. Likewise, the adaptation_parameter_set_id signaled for adaptive loop filtering (ALF) may refer to an APS set that does not contain ALF filtering information.

4. Примеры способов внутриконтурного переформирования для видеокодирования4. Examples of in-circuit reformation methods for video encoding

Варианты предлагаемой настоящим изобретением технологии преодолевают недостатки существующих реализаций, создавая тем самым систему видеокодирования с более высокой эффективностью кодирования. Способы внутриконтурного переформирования, на основе предлагаемой технологии, которые могут усилить существующие и будущие стандарты видеокодирования, освещены в последующих примерах, описываемых для возможных вариантов реализации. Примеры предлагаемой технологии, приведенные ниже, поясняют общие концепции и не должны интерпретироваться как ограничения. В одном примере, если в явной форме не указано противное, могут быть соединены разнообразные признаки, описываемые в нескольких примерах. Следует отметить, что некоторые из предлагаемых технологий могут быть применены к существующей процедуре построения списка кандидатов.Variants of the technology proposed by the present invention overcome the shortcomings of existing implementations, thereby creating a video encoding system with higher encoding efficiency. In-loop reshaping methods based on the proposed technology that can enhance existing and future video coding standards are highlighted in the following examples described for possible implementations. The proposed technology examples below illustrate general concepts and should not be interpreted as limitations. In one example, unless explicitly stated to the contrary, a variety of features described in several examples may be combined. It should be noted that some of the proposed technologies can be applied to the existing candidate list building procedure.

В настоящем документе, способ получения вектора движения на стороне декодирующего устройства (decoder side motion vector derivation (DMVD)) содержит методы, подобные уточнению DMVR и преобразованию FRUC, осуществляющие оценку движения для получения или уточнения информации о движении блока/суб-блока, и потока BIO, осуществляющего уточнение движения по отсчетам. Ниже приведен нумерованный список различных примеров (Примеры 1 - 42).Herein, the decoder side motion vector derivation (DMVD) method contains methods like DMVR refinement and FRUC transformation that perform motion estimation to obtain or refine block/sub-block motion information and flow BIO, which refines movement by samples. Below is a numbered list of various examples (Examples 1 - 42).

1. Процедура уточнения информации о движении в технологиях формирования DMVD, таких как уточнение DMVR, может зависеть от информации в переформированной области.1. The procedure for refining traffic information in DMVD generation technologies, such as DMVR refinement, may depend on the information in the reformatted area.

a. В одном из примеров, прогнозируемые блоки, генерируемые из опорных изображений в исходной области, могут быть сначала преобразованы в переформированную область прежде, чем они будут использованы для уточнения информации о движении.a. In one example, predicted blocks generated from reference images in the original region may be first transformed into the reshaped region before they are used to refine motion information.

i. В качестве альтернативы, более того, стоимостные вычисления (например, разности SAD, разности MR-SAD)/вычисления градиентов осуществляются в переформированной области.i. Alternatively, furthermore, cost calculations (eg, SAD differences, MR-SAD differences)/gradient calculations are performed on the reshaped region.

В качестве альтернативы, после уточнения информации о движения, процедура переформирования не активизирована для прогнозируемых блоков, генерируемых с использованием уточненной информации о движенииAlternatively, after the motion information has been refined, the reshaping procedure is not activated for prediction blocks generated using the motion information refined

b. В качестве альтернативы, процедура уточнения информации о движении в технологиях формирования DMVD, таких как уточнение DMVR, может зависеть от информации в исходной области.b. Alternatively, the motion information refinement procedure in DMVD generation technologies such as DMVR refinement may depend on information in the source domain.

i. Процедуры формирования DMVD могут быть привлечены с прогнозируемыми блоками в исходной области.i. DMVD generation procedures can be invoked with predicted blocks in the source area.

ii. В одном из примеров, после уточнения информации о движении, получают прогнозируемые блоки с уточненной информации о движении или конечный прогнозируем блок (например, взвешенное среднее двух прогнозируемых блоков) может быть далее преобразован в переформированную область для генерации конечного реконструированного блока.ii. In one example, after the motion information has been refined, predicted blocks are obtained with the motion information refined, or the final predicted block (eg, a weighted average of two predicted blocks) can be further transformed into a reshaped region to generate the final reconstructed block.

iii. В качестве альтернативы, более того, после уточнения информации о движении, процедуру переформирования не активизируют для прогнозируемых блоков, генерируемых с уточненной информацией о движении.iii. Alternatively, furthermore, after the motion information has been refined, the reformation procedure is not activated for prediction blocks generated with the motion information refined.

2. Предлагается совместить область для отсчетов в текущей плитке/группе плиток/изображении и отсчетов, полученных из опорных изображений (либо и то, и другое в исходной области или в переформированной области), используемых для определения параметров локальной компенсации освещенности (LIC).2. It is proposed to combine the region for the samples in the current tile/group of tiles/image and the samples obtained from the reference images (or both in the original region or in the reshaped region) used to determine the local light compensation (LIC) parameters.

a. В одном из примеров, переформированная область используется для получения параметров компенсации LIC.a. In one example, the reshaped region is used to obtain LIC compensation parameters.

В качестве альтернативы, кроме того, отсчеты (например, опорные отсчеты опорных изображениях (посредством интерполяции или нет), равно как соседние/несмежные отсчеты относительно опорных отсчетов (посредством интерполяции или нет)) могут быть сначала преобразованы в переформированную область прежде использования для получения параметров компенсации LIC.Alternatively, in addition, samples (e.g., reference samples of reference images (whether through interpolation or not), as well as adjacent/non-adjacent samples to reference samples (whether through interpolation or not)) may first be converted to the reshaped region before being used to derive parameters LIC compensation.

b. В одном из примеров, исходная область используется для получения параметров компенсации LIC.b. In one example, the source region is used to obtain LIC compensation parameters.

В качестве альтернативы, кроме того, пространственно соседние/несмежные отсчеты текущего блока (например, в текущей группе плиток/изображении/плитке) могут быть сначала преобразованы в исходную область прежде использования для получения параметров компенсации LIC.Alternatively, in addition, spatially adjacent/non-adjacent samples of the current block (eg, in the current tile group/image/tile) may be first converted to the original region before being used to obtain LIC compensation parameters.

c. Предполагается, что когда параметры компенсации LIC получают в одной области, ту же самую область прогнозируемых блоков следует использовать при применении параметров компенсации LIC к прогнозируемым блокам.c. It is assumed that when the LIC compensation parameters are obtained in one area, the same area of prediction blocks should be used when applying the LIC compensation parameters to the prediction blocks.

В одном из примеров, когда привлекается пункт a., опорные блоки могут быть преобразованы в переформированную область, и модель компенсации LIC применяется к переформированным опорным блокам.In one example, when point a. is invoked, the support blocks can be transformed into a reshaped region, and the LIC compensation model is applied to the reshaped support blocks.

В одном из примеров, когда привлекается пункт b., опорные блоки сохраняют в исходной области, и модель компенсации LIC применяется к опорным блокам в исходной области.In one example, when item b is invoked, reference blocks are stored in the source region, and the LIC compensation model is applied to the reference blocks in the source region.

d. В одном из примеров, модель компенсации LIC применяется к прогнозируемым блокам в переформированной области (например, прогнозируемый блок сначала преобразуют в переформированную область посредством прямого переформирования).d. In one example, the LIC compensation model is applied to the predicted blocks in the re-formed region (eg, the predicted block is first converted to the re-formed region through direct re-forming).

e. В одном из примеров, модель компенсации LIC сначала применяется к прогнозируемым блокам в исходной области, после чего конечный прогнозируемый блок в зависимости от прогнозируемых блоков, к которым применена компенсация LIC, может быть преобразован в переформированную область (например, посредством прямого переформирования) и использован для получения реконструированного блока.e. In one example, the LIC compensation model is first applied to the prediction blocks in the original region, after which the final prediction block, depending on the prediction blocks to which the LIC compensation is applied, can be converted into a reshaped region (eg, through direct reshaping) and used for obtaining the reconstructed block.

f. Приведенные выше способы могут быть расширены на другие инструменты кодирования, которые опираются и на пространственно соседние/несмежные отсчеты, и на опорные отсчеты в опорных изображениях.f. The above methods can be extended to other encoding tools that rely on both spatially adjacent/non-adjacent samples and reference samples in reference pictures.

3. Для фильтров, применяемых к прогнозируемому сигналу (таких как рассеивающий фильтр (DF)), такой фильтр применяют к прогнозируемому блоку в исходной области.3. For filters applied to the predicted signal (such as a diffuse filter (DF)), such a filter is applied to the predicted block in the source domain.

a. В качестве альтернативы, кроме того, после этого, применяют переформирование к фильтрованному прогнозируемому сигналу для генерации реконструированного блока.a. Alternatively, furthermore, reshaping is applied to the filtered predicted signal to generate a reconstructed block.

b. Пример процедуры кодирования с применением межкадрового прогнозирования показан на фиг. 27.b. An example of a coding procedure using inter-frame prediction is shown in FIG. 27.

c. В качестве альтернативы, фильтры применяют к прогнозируемому сигналу в переформированной области.c. Alternatively, filters are applied to the predicted signal in the reshaped region.

В качестве альтернативы, кроме того, переформирование сначала применяется к прогнозируемому блоку; после чего способы фильтрации могут быть далее применены к переформированному прогнозируемому блоку для генерации реконструированного блока.Alternatively, in addition, the reformation is first applied to the predicted block; after which the filtering methods can be further applied to the re-formed predicted block to generate a reconstructed block.

ii. Пример процедуры кодирования с применением межкадрового прогнозирования показан на фиг. 28.ii. An example of a coding procedure using inter-frame prediction is shown in FIG. 28.

d. Параметры фильтрации могут зависеть от того, активизировано переформирование ILR или нет.d. Filtering options may depend on whether ILR reshaping is enabled or not.

4. Для фильтров, применяемых к реконструированным блокам (например, двусторонний фильтр (BF), фильтр в области преобразования Адамара (HF)), эти фильтры применяют к реконструированным блокам в исходной области вместо переформированной области.4. For filters applied to reconstructed blocks (eg, Bilateral Filter (BF), Hadamard Transform Domain (HF) filter), these filters are applied to the reconstructed blocks in the original domain instead of the reshaped domain.

a. В качестве альтернативы, кроме того, реконструированный блок в переформированной области сначала преобразуют в исходную область, после чего фильтры могут быть применены и использованы для генерации реконструированного блока.a. Alternatively, in addition, the reconstructed block in the reshaped region is first converted to the original region, after which filters can be applied and used to generate the reconstructed block.

b. Пример процедуры кодирования с применением межкадрового прогнозирования показан на фиг. 29.b. An example of a coding procedure using inter-frame prediction is shown in FIG. 29.

c. В качестве альтернативы, фильтры могут быть применены к реконструированному блоку в переформированной области.c. Alternatively, filters can be applied to the reconstructed block in the reshaped region.

В качестве альтернативы, кроме того, прежде применения обратного переформирования, сначала могут быть применены фильтры. После этого, фильтрованный реконструированный блок может быть преобразован в исходную область.Alternatively, filters may also be applied first before applying the inverse reformation. After this, the filtered reconstructed block can be converted to the original region.

ii. Пример процедуры кодирования с применением межкадрового прогнозирования показан на фиг. 30.ii. An example of a coding procedure using inter-frame prediction is shown in FIG. thirty.

d. Параметры фильтрации могут зависеть от того, активизировано ли переформирование ILR или нет.d. Filtering options may depend on whether ILR reshaping is enabled or not.

5. Предлагается применить процедуру фильтрации, которая может быть применена к реконструированным блокам (например, после внутрикадрового/межкадрового или других видов прогнозирования) в переформированной области.5. It is proposed to apply a filtering procedure that can be applied to the reconstructed blocks (for example, after intra-frame/inter-frame or other types of prediction) in the reshaped area.

a. В одном из примеров, процедура деблокирующей фильтрации (DBF) осуществляется в переформированной области. В этом случае, обратное переформирование не применяется прежде фильтрации DBF.a. In one example, a deblocking filtering (DBF) procedure is performed on the reshaped region. In this case, the reverse reformation is not applied before DBF filtering.

В этом случае, параметры фильтра DBF могут быть различными в зависимости от того, применяется ли переформирование или нет.In this case, the DBF filter parameters may be different depending on whether reshaping is applied or not.

ii. В одном из примеров, процедура фильтрации DBF может зависеть от того, применяется ли переформирование или нет.ii. In one example, the DBF filtering procedure may depend on whether reshaping is applied or not.

1. В одном из примеров, этот способ применяется, когда фильтрация DBF привлекается в исходной области.1. In one example, this method is applied when DBF filtering is invoked in the source area.

2. В качестве альтернативы, этот способ применяется, когда фильтр DBF привлекается в переформированной области.2. Alternatively, this method is applied when the DBF filter is applied in the reshaped region.

b. В одном из примеров, процедура нелинейной фильтрацией с адаптивным смещением (sample adaptive offset (SAO)) осуществляется в переформированной области. В этом случае, обратное переформирование не применяется прежде фильтрации SAO.b. In one example, a nonlinear sample adaptive offset (SAO) filtering procedure is performed on the reshaped region. In this case, the reverse reformation is not applied before SAO filtering.

c. В одном из примеров, процедура адаптивной контурной фильтрации (ALF) осуществляется в переформированной области. В этом случае, обратное переформирование не применяется прежде фильтрации ALF.c. In one example, an adaptive loop filtering (ALF) procedure is performed on the reshaped region. In this case, the inverse reformation is not applied before ALF filtering.

d. В качестве альтернативы, кроме того, обратное переформирование может быть применено к блокам после фильтрации DBF.d. Alternatively, in addition, inverse reformation can be applied to blocks after DBF filtering.

e. В качестве альтернативы, кроме того, обратное переформирование может быть применено к блокам после фильтрации SAO.e. Alternatively, in addition, inverse reformation can be applied to blocks after SAO filtering.

f. В качестве альтернативы, кроме того, обратное переформирование может быть применено к блокам после фильтрации ALF.f. Alternatively, in addition, inverse reformation can be applied to the blocks after ALF filtering.

g. Упомянутый выше способ фильтрации может быть заменен другими способами фильтрации.g. The above filtering method can be replaced by other filtering methods.

6. Предлагается передавать в форме сигнализации параметры переформирования ILR в новом наборе параметров (таком как набор ILR APS) вместо заголовков групп плиток.6. It is proposed to signal the ILR reshaping parameters in a new parameter set (such as the ILR APS set) instead of tile group headers.

a. В одном из примеров, заголовок группы плиток может содержать параметр aps_id. В качестве альтернативы, кроме того, параметр aps_id условно присутствует, когда активизировано переформирование ILR.a. In one example, the tile group title may contain an aps_id parameter. Alternatively, in addition, the aps_id parameter is conditionally present when ILR reshaping is enabled.

b. В одном из примеров, набор ILR APS содержит параметр aps_id и параметры переформирования ILR.b. In one example, the ILR APS set contains the aps_id parameter and ILR reshaping parameters.

c. В одном из примеров, новое значение типа NUT (тип единицы NAL, как в стандартах кодирования AVC и HEVC) назначают для набора ILR APS.c. In one example, a new value of type NUT (NAL unit type, as in the AVC and HEVC encoding standards) is assigned to the APS ILR set.

d. В одном из примеров, значения идентификаторов ILR APS ID будут в пределах 0…M (например, M = 2K-1).d. In one example, the ILR APS ID values will be in the range 0...M (for example, M = 2K-1).

e. В одном из примеров, наборы ILR APS могут использоваться совместно между изображениями (и могут быть различными в разных группах в пределах одного изображения).e. In one example, ILR APS sets may be shared between images (and may be different in different groups within the same image).

f. В одном из примеров, величина идентификатора ID может быть, когда она присутствует, кодирована в коде фиксированной длины. В качестве альтернативы, она может быть кодирована способом экспоненциального кодирования-Голомба (exponential-Golomb (EG)), усеченной унарной или иной бинаризации.f. In one example, the ID value may, when present, be encoded in a fixed length code. Alternatively, it may be encoded using exponential-Golomb (EG), truncated unary, or other binarization.

g. В одном из примеров, значения идентификаторов ID не могут быть использованы повторно с другим контентом в пределах того же самого изображения.g. In one example, ID values cannot be reused with other content within the same image.

h. В одном из примеров, набор ILR APS и набор APS для параметров фильтрации ALF могут совместно использовать один и тот же тип NUT.h. In one example, the ILR APS set and the ALF filter parameter APS set may share the same NUT type.

i. В качестве альтернативы, параметры переформирования ILR могут быть переданы в текущем наборе APS для параметров фильтрации ALF. В этом случае, в приведенных выше способах, упоминающих набор ILR APS, он может быть заменен текущим набором APS.i. Alternatively, the ILR reshaping parameters may be passed in the current APS set for the ALF filtering parameters. In this case, in the above methods mentioning the ILR APS set, it can be replaced by the current APS set.

j. В качестве альтернативы, параметры переформирования ILR могут быть переданы в наборе SPS/наборе VPS/наборе PPS/заголовке последовательности/заголовке изображения.j. Alternatively, the ILR reshaping parameters may be conveyed in the SPS set/VPS set/PPS set/sequence header/picture header.

k. В одном из примеров, совокупность параметров переформирования ILR может содержать информацию о модели устройства переформирования, использовании способа переформирования ILR, коэффициентах масштабирования остатках цветностной составляющей.k. In one example, the set of ILR reshaping parameters may contain information about the model of the reshaping device, the use of the ILR reshaping method, scaling factors, and chroma residuals.

l. В качестве альтернативы, кроме того, параметры переформирования ILR могут быть переданы в виде сигнализации на одном уровне (таком как в наборе APS), и/или об использовании переформирования ILR может быть дополнительно сообщено в виде сигнализации на втором уровне (таком как в заголовке группы плиток).l. Alternatively, in addition, ILR reshaping parameters may be signaled at one layer (such as in an APS set), and/or the use of ILR reframing may be further signaled at a second layer (such as in a group header tiles).

m. В качестве альтернативы, кроме того, прогнозирующее кодирование может быть применено к кодированию параметров переформирования ILR с разными индексами наборов APS.m. Alternatively, in addition, predictive coding can be applied to encoding ILR reshaping parameters with different APS set indices.

7. Вместо применения зависимого от яркостной составляющей масштабирования остатка цветностной составляющей (LCRS) с преобразованием в блоки цветностной составляющей предлагается применять процедуры прямого/обратного переформирования в блоки цветностной составляющей для устранения зависимости между яркостной и цветностной составляющей.7. Instead of using luminance-dependent chroma residual scaling (LCRS) with conversion to chrominance blocks, it is proposed to use forward/reverse reformation procedures into chrominance blocks to eliminate the dependence between luminance and chrominance components.

a. В одном из примеров, одна M-сегментная кусочно-линейная модель (PWL) и/или преобразовательная таблица прямого/обратного преобразования может быть использована для одной цветностной составляющей. В качестве альтернативы, две модели PWL и/или преобразовательные таблицы прямого/обратного преобразования могут быть использованы для кодирования двух цветностных составляющих соответственно.a. In one example, one M-segment piecewise linear (PWL) model and/or forward/inverse lookup table may be used for one chrominance component. Alternatively, two PWL models and/or forward/inverse lookup tables can be used to encode the two chrominance components, respectively.

b. В одном из примеров, модель PWL для цветностной составляющей и/или преобразовательная таблица прямого/обратного преобразования может быть получена из модели PWL или преобразовательных таблиц прямого/обратного преобразования для яркостной составляющей.b. In one example, the chroma PWL model and/or forward/inverse lookup table may be derived from the PWL model or forward/inverse lookup tables for the luminance component.

В одном из примеров, нет необходимости в дополнительной передаче в виде сигнализации моделей PWL/преобразовательных таблиц для цветностной составляющей.In one example, there is no need for additional signaling of PWL models/lookup tables for the chrominance component.

c. В одном из примеров, указание модели PWL и/или преобразовательной таблицы прямого/обратного преобразования может быть передано в виде сигнализации в наборе SPS/наборе VPS/наборе APS/наборе PPS/заголовке последовательности/заголовке изображения/заголовке группы плиток/заголовке единицы/ряду единиц CTU/группе единиц CTU/областей.c. In one example, an indication of the PWL model and/or forward/inverse lookup table may be signaled in the SPS set/VPS set/APS set/PPS set/sequence header/image header/tile group header/unit header/row CTUs/group of CTUs/areas.

8. В одном из примеров, способ, как передать сигнализацию параметров переформирования ILR в одном изображении/группе плиток, может зависеть от параметров переформирования ILR ранее кодированных изображений/групп плиток.8. In one example, the method of how to signal ILR reshaping parameters in one picture/tile group may depend on the ILR reframing parameters of previously encoded pictures/tile groups.

a. Например, параметры переформирования ILR одного изображения/группы плиток можно прогнозировать посредством параметров переформирования ILR одного или нескольких ранее кодированных изображений/групп плиток.a. For example, the ILR reformation parameters of one image/tile group may be predicted by the ILR reformation parameters of one or more previously encoded images/tile groups.

9. Предлагается отменить активизацию зависимого от яркостной составляющей масштабирования остатка цветностной составляющей (LCRS) для определенных размеров блоков/временных слоев/типов групп плиток/типов изображений/режимов кодирования/информацию об определенных типов движения.9. It is proposed to disable luminance dependent chroma residual scaling (LCRS) for certain block sizes/time layers/tile group types/image types/encoding modes/certain motion type information.

a. В одном из примеров, даже если процедура прямого/обратного переформирования применяется к блокам яркостной составляющей, процедура масштабирования LCRS может не применяться к соответствующим блокам цветностной составляющей.a. In one example, even if the forward/backward resampling procedure is applied to the luma component blocks, the LCRS scaling procedure may not be applied to the corresponding chrominance component blocks.

b. В качестве альтернативы, даже если процедура прямого/обратного переформирования не применяется к блокам яркостной составляющей, процедура масштабирования LCRS может по-прежнему применяться к соответствующим блокам цветностной составляющей.b. Alternatively, even if the forward/backward resampling procedure is not applied to the luma blocks, the LCRS scaling procedure may still be applied to the corresponding chrominance blocks.

c. В одном из примеров, масштабирование LCRS не используется, когда применяются режимы кросс-компонентной линейной модели (cross-component linear model (CCLM)). Совокупность режимов CCLM содержит LM, LM-A и LM-L.c. In one example, LCRS scaling is not used when cross-component linear model (CCLM) modes are used. The CCLM mode set contains LM, LM-A and LM-L.

d. В одном из примеров, масштабирование LCRS не используется, когда режимы кросс-компонентной линейной модели (CCLM) не применяются. Совокупность режимов CCLM содержит LM, LM-A и LM-L.d. In one example, LCRS scaling is not used when cross-component linear model (CCLM) modes are not applied. The CCLM mode set contains LM, LM-A and LM-L.

e. В одном из примеров, когда кодированный блок яркостной составляющей превышает одну единицу VPDU (например, 64x64).e. In one example, when the luminance component coded block exceeds one VPDU (eg, 64x64).

В одном из примеров, когда размер блока яркостной составляющей меньше M*H отсчетов, например, 16 или 32 или 64 яркостных отсчетов, масштабирование LCRS не допускается.In one example, when the luminance component block size is less than M*H samples, such as 16 or 32 or 64 luminance samples, LCRS scaling is not allowed.

ii. В качестве альтернативы, когда минимальный размер - ширина и/или высота, блока яркостной составляющей меньше или не больше X, масштабирование LCRS не допускается. В одном из примеров, X устанавливают равным 8.ii. Alternatively, when the minimum size is the width and/or height of a luminance component block less than or equal to X, LCRS scaling is not allowed. In one example, X is set to 8.

iii. В качестве альтернативы, когда минимальный размер - ширина и/или высота, блока яркостной составляющей не меньше X, масштабирование LCRS не допускается. В одном из примеров, X устанавливают равным 8.iii. Alternatively, when the minimum size is the width and/or height of a luminance component block not less than X, LCRS scaling is not allowed. In one example, X is set to 8.

iv. В качестве альтернативы, когда ширина блока > th1 или >=th1 и/или высота блока яркостной составляющей > th2 или >=th2, масштабирование LCRS не допускается. В одном из примеров, th1 и/или th2 устанавливают равным 8.iv. Alternatively, when block width > th1 or >=th1 and/or luminance block height > th2 or >=th2, LCRS scaling is not allowed. In one example, th1 and/or th2 are set to 8.

1. В одном из примеров, th1 и/или th2 устанавливают равным 128.1. In one example, th1 and/or th2 are set to 128.

2. В одном из примеров, th1 и/или th2 устанавливают равным 64.2. In one example, th1 and/or th2 are set to 64.

v. В качестве альтернативы, когда ширина блока яркостной составляющей < th1 или <=th1 и/или высота блока яркостной составляющей < th2 или <a=th2, масштабирование LCRS не допускается. В одном из примеров, th1 и/или th2 устанавливают равным 8.v. Alternatively, when luminance block width < th1 or <=th1 and/or luminance block height < th2 or <a=th2, LCRS scaling is not allowed. In one example, th1 and/or th2 are set to 8.

10. Следует ли отменить активизацию переформирования ILR (процедуры прямого переформирования и/или процедуры обратного переформирования) может зависеть от коэффициентов.10. Whether the ILR reframing activation (forward reframing procedure and/or reverse reframing procedure) should be deactivated may depend on the coefficients.

a. В одном из примеров, когда один блок кодирован со всеми нулевыми коэффициентами, процедуру прямого переформирования применительно к прогнозируемому блоку пропускают.a. In one example, when one block is encoded with all zero coefficients, the forward reformation procedure is skipped on the predicted block.

b, В одном из примеров, когда один блок кодирован со всеми нулевыми коэффициентами, процедуру обратного переформирования применительно к реконструированному блоку пропускают.b. In one example, when one block is encoded with all zero coefficients, the inverse reshaping procedure is skipped on the reconstructed block.

c. В одном из примеров, когда один блок кодируют только с одним ненулевым коэффициентом, расположенным в определенных позициях, (например, DC-коэффициент, расположенный в верхней левой позиции одного блока, коэффициент, расположенный в верхней левой кодовой группе в одном блоке) процедуру прямого переформирования применительно к прогнозируемому блоку и/или процедуру обратного переформирования применительно к реконструированному блоку пропускают.c. In one example, when one block is encoded with only one non-zero coefficient located at certain positions (eg, a DC coefficient located in the top left position of one block, a coefficient located in the top left code group in one block), a direct reframing procedure in relation to the predicted block and/or the reverse reformation procedure in relation to the reconstructed block is skipped.

d. В одном из примеров, когда один блок кодирован так, что он имеет только M (например, M=1) ненулевых коэффициентов, процедуру прямого переформирования применительно к прогнозируемому блоку и/или процедуру обратного переформирования применительно к реконструированному блоку пропускают.d. In one example, when one block is encoded such that it has only M (eg, M=1) non-zero coefficients, the forward reformation procedure on the predicted block and/or the backward reformation procedure on the reconstructed block is skipped.

11. Предлагается разбивать область применения переформирования ILR на единицы данных виртуального конвейера (VPDU), если кодированный блок превосходит одну единицу VPDU. Каждая применяемая область (например, с максимальным размером 64x64) рассматривается как индивидуальная единица CU для операции переформирования ILR.11. It is proposed to split the scope of ILR reshaping into virtual pipeline data units (VPDUs) if the encoded block is larger than one VPDU. Each applied area (eg, with a maximum size of 64x64) is treated as an individual CU for the ILR reshaping operation.

a. В одном из примеров, когда ширина блока > th1 или >=th1 и/или высота блока > th2 или >=th2, этот блок может быть разбит на суб-блоки с шириной < th1 или <= th1 и/или высотой < th2 или <= th2, и переформирование ILR может быть осуществлено для каждого суб-блока.a. In one example, when a block width > th1 or >=th1 and/or a block height > th2 or >=th2, that block may be divided into sub-blocks with a width < th1 or <= th1 and/or a height < th2 or <= th2, and ILR reshaping can be done for each sub-block.

В одном из примеров, суб-блоки могут иметь одинаковую ширину и/или высоту.In one example, the sub-blocks may have the same width and/or height.

ii. В одном из примеров, суб-блоки, за исключением тех, что расположены на правой границе и/или на нижней границе, могут иметь одинаковую ширину и/или высоту.ii. In one example, sub-blocks, except those located on the right border and/or the bottom border, may have the same width and/or height.

iii. В одном из примеров, суб-блоки, за исключением тех, что расположены на левой границе и/или на верхней границе, могут иметь одинаковую ширину и/или высоту.iii. In one example, sub-blocks, except those located on the left border and/or on the top border, may have the same width and/or height.

b. В одном из примеров, когда размер блока (т.е. ширина * высота) > th3 или >= th3, его можно разбить на суб-блоки размером < th3 или <= th3, и переформирование ILR может быть выполнено для каждого суб0блока.b. In one example, when the block size (i.e. width * height) is > th3 or >= th3, it can be split into sub-blocks of size < th3 or <= th3, and ILR reshaping can be performed for each sub-block.

В одном из примеров, суб-блоки могут быть одинакового размера.In one example, the sub-blocks may be the same size.

ii. В одном из примеров, суб-блоки за исключением тех, что расположены на правой границе и/или на нижней границе, могут иметь одинаковый размер.ii. In one example, sub-blocks other than those located on the right border and/or the bottom border may be the same size.

iii. В одном из примеров, суб-блоки за исключением тех, что расположены на левой границе и/или на верхней границе, могут иметь одинаковый размер.iii. In one example, sub-blocks other than those located on the left border and/or on the top border may be the same size.

c. В качестве альтернативы, использование переформирования ILR ограничено только размерами определенного блока.c. Alternatively, the use of ILR reshaping is limited only by the size of a particular block.

В одном из примеров, когда кодированный блок превосходит одну единицу VPDU (например, 64x64), переформирование ILR не допускается.In one example, when the coded block is larger than one VPDU (eg, 64x64), ILR reshaping is not allowed.

ii. В одном из примеров, когда блок содержит меньше M*H отсчетов, например, 16 или 32 или 64 яркостных отсчетов, переформирование ILR не допускается.ii. In one example, when a block contains fewer M*H samples, such as 16 or 32 or 64 luminance samples, ILR reshaping is not allowed.

iii. В качестве альтернативы, когда минимальный размер ширины и/или высоты блока меньше или не больше X, переформирование ILR не допускается. В одном из примеров, X устанавливают равным 8.iii. Alternatively, when the minimum block width and/or height dimension is less than or equal to X, ILR reshaping is not allowed. In one example, X is set to 8.

iv В качестве альтернативы, когда минимальный размер ширины и/или высоты блока не меньше X, переформирование ILR не допускается. В одном из примеров, X устанавливают равным 8.iv Alternatively, when the minimum block width and/or height dimension is not less than X, ILR reshaping is not allowed. In one example, X is set to 8.

v. В качестве альтернативы, когда ширина блока > th1 или >=th1 и/или высота блока > th2 или >=th2, переформирование ILR не допускается. В одном из примеров, величину th1 и/или th2 устанавливают равной 8.v. Alternatively, when block width > th1 or >=th1 and/or block height > th2 or >=th2, ILR reshaping is not allowed. In one example, the value of th1 and/or th2 is set to 8.

l. В одном из примеров, величину th1 и/или th2 устанавливают равной 128.l. In one example, the value of th1 and/or th2 is set to 128.

2. В одном из примеров, величину th1 и/или th2 устанавливают равной 64.2. In one example, the value of th1 and/or th2 is set to 64.

vi. В качестве альтернативы, когда ширина блока < th1 или <=th1 и/или высота блока < th2 или <a=th2, переформирование ILR не допускается. В одном из примеров, величину th1 и/или th2 устанавливают равной 8.vi. Alternatively, when block width < th1 or <=th1 and/or block height < th2 or <a=th2, ILR reshaping is not allowed. In one example, the value of th1 and/or th2 is set to 8.

12. Приведенные выше способы (например, следует ли отменить активизацию переформирования ILR, и/или следует ли отменить активизацию масштабирования LCRS, и/или следует ли передать в виде сигнализации модель PWL/преобразовательные таблицы для кодирования цветностной составляющей) могут зависеть от цветового формата, такого как 4:4:4/4:2:0.12. The above methods (eg, whether to deactivate ILR reframing, and/or whether to deactivate LCRS scaling, and/or whether to signal the PWL model/lookup tables for chroma encoding) may depend on the color format, such as 4:4:4/4:2:0.

13. Индикация активизации переформирования ILR (например, флаг tile_group_reshaper_enable_flag) может быть кодирована при условии индикации представленной модели устройства переформирования (например, флага tile_group_reshaper_model_present_flag).13. An ILR reshaper enable indication (eg, tile_group_reshaper_enable_flag) may be encoded subject to an indication of the present reshaper model (eg, tile_group_reshaper_model_present_flag).

a. В качестве альтернативы, флаг tile_group_reshaper_model_present_flag может быть кодирован при условии флага tile_group_reshaper_enable_flag.a. Alternatively, the tile_group_reshaper_model_present_flag may be encoded subject to the tile_group_reshaper_enable_flag.

b. В качестве альтернативы, может быть кодирован только один из двух синтаксических элементов, включая флаг tile_group_reshaper_model_present_flag и флаг tile_group_reshaper_enable_flag. Величину другого элемента устанавливают равной величине элемента, который может быть передан в виде сигнализации.b. Alternatively, only one of two syntax elements, including the tile_group_reshaper_model_present_flag and the tile_group_reshaper_enable_flag, may be encoded. The value of the other element is set equal to the value of the element that can be signaled.

14. Различные способы усечения могут быть применены к прогнозируемому сигналу и к процедуре реконструкции.14. Various truncation techniques can be applied to the predicted signal and to the reconstruction procedure.

a. В одном из примеров, может быть применен способ адаптивного усечения, и максимальная и минимальная величины, подлежащие усечению, могут быть определены переформированной области.a. In one example, an adaptive truncation method may be applied, and the maximum and minimum values to be trimmed may be determined by the reshaped region.

b. В одном из примеров, адаптивное усечение может быть применено к прогнозируемому сигналу в переформированной области.b. In one example, adaptive truncation may be applied to the predicted signal in the reshaped region.

c. В качестве альтернативы, кроме того, к реконструированному блоку может быть применено фиксированное усечение (например, в соответствии с битовой глубиной).c. Alternatively, in addition, a fixed truncation (eg, according to the bit depth) may be applied to the reconstructed block.

15. Параметры фильтров (такие, как используются в фильтрах DF, BF, HF) могут зависеть от того, применяется ли переформирование ILR или нет.15. Filter parameters (such as those used in DF, BF, HF filters) may depend on whether ILR reshaping is applied or not.

16. Предполагается, что для блоков, кодированных в режиме палитры, переформирование ILR не активизировано вовсе или применяется по-разному.16. It is assumed that for blocks encoded in palette mode, ILR reshaping is not enabled at all or is applied differently.

a. В одном из примеров, когда блок кодирован в режиме палитры, процедуры переформирования и обратного переформирования пропускают.a. In one example, when the block is encoded in palette mode, the reshaping and de-reshaping procedures are skipped.

b. В качестве альтернативы, когда блок кодирован в режиме палитры, могут быть применены различные функции переформирования и обратного переформирования.b. Alternatively, when a block is encoded in palette mode, various reshaping and de-reshaping functions can be applied.

17. В качестве альтернативы, когда переформирование ILR применяется, режим палитры может быть кодирован по-разному.17. Alternatively, when ILR reframing is applied, the palette mode may be encoded differently.

a. В одном из примеров, когда применяется переформирование ILR, режим палитры может быть кодирован в исходной области.a. In one example, when ILR reframing is applied, the palette mode may be encoded in the source region.

b. В качестве альтернативы, когда применяется переформирование ILR, режим палитры может быть кодирован в переформированной области.b. Alternatively, when ILR reshaping is applied, the palette mode may be encoded in the reshaped region.

c. В одном из примеров, когда применяется переформирование ILR, сигнализация о предикторах палитры может быть передана в исходной области.c. In one example, when ILR reshaping is applied, the palette predictors may be signaled in the source region.

d. В качестве альтернативы, когда применяется переформирование ILR, сигнализация о предикторах палитры может быть передана в переформированной области.d. Alternatively, when ILR reshaping is applied, the palette predictors may be signaled in the reshaped region.

18. Предлагается, что для блоков, кодированных в режиме копирования IBC, активизацию переформирования ILR отменяют или применяют это переформирование по-разному.18. It is proposed that for blocks encoded in the IBC copy mode, the activation of ILR reframing is canceled or the reframing is applied differently.

a. В одном из примеров, когда блок кодируют в режиме копирования IBC, операции переформирования и обратного переформирования пропускают.a. In one example, when a block is encoded in IBC copy mode, the reshaping and de-reshaping operations are skipped.

b. В качестве альтернативы, когда блок кодируют в режиме копирования IBC, применяют разные операции переформирования и обратного переформирования.b. Alternatively, when a block is encoded in the IBC copy mode, various reshaping and de-reshaping operations are applied.

19. В качестве альтернативы, когда применяется переформирование ILR, кодирование в режиме копирования IBC может быть выполнено по-разному.19. Alternatively, when ILR reshaping is applied, IBC copy mode encoding can be performed in different ways.

a. В одном из примеров, когда применяется переформирование ILR, кодирование в режиме копирования IBC может быть выполнено в исходной области.a. In one example where ILR reshaping is applied, IBC copy mode encoding may be performed on the source region.

b. В качестве альтернативы, когда применяется переформирование ILR, кодирование в режиме копирования IBC может быть выполнено в переформированной области.b. Alternatively, when ILR reshaping is applied, IBC copy mode encoding can be performed on the reshaped region.

20. Предлагается, чтобы для блоков, кодированных в режиме модуляции B-DPCM, переформирование ILR не было активизировано или применялось по-разному.20. It is proposed that for blocks encoded in the B-DPCM modulation mode, ILR reshaping should not be enabled or applied differently.

a. В одном из примеров, когда блок кодирован в режиме модуляции B-DPCM, операции переформирования и обратного переформирования пропускают.a. In one example, when a block is encoded in the B-DPCM modulation mode, the reshaping and de-reshaping operations are skipped.

b. В качестве альтернативы, когда блок кодирован в режиме модуляции B-DPCM, применяют разные операции переформирования и обратного переформирования.b. Alternatively, when a block is encoded in the B-DPCM modulation mode, various reshaping and de-reshaping operations are applied.

21. В качестве альтернативы, когда применяется переформирование ILR, кодирование в режиме с модуляцией B-DPCM может быть выполнено по-разному.21. Alternatively, when ILR reshaping is applied, B-DPCM mode coding can be performed in different ways.

a. В одном из примеров, когда применяется переформирование ILR, кодирование в режиме с модуляцией B-DPCM может быть выполнено в исходной области.a. In one example, when ILR reshaping is applied, B-DPCM encoding may be performed in the source domain.

b. В качестве альтернативы, когда применяется переформирование ILR, кодирование в режиме с модуляцией B-DPCM может быть выполнено в переформированной области.b. Alternatively, when ILR reshaping is applied, B-DPCM encoding can be performed on the reshaped region.

22. Предлагается, чтобы для блоков, кодированных в режиме пропуска трансформации, переформирование ILR не было активизировано или применялось по-разному.22. It is proposed that for blocks encoded in skip transformation mode, ILR reshaping should not be enabled or applied differently.

a. В одном из примеров, когда блок кодирован в режиме пропуска трансформации, операции переформирования и обратного переформирования пропускают.a. In one example, when a block is encoded in skip-transformation mode, the reshaping and de-reshaping operations are skipped.

b. В качестве альтернативы, когда блок кодирован в режиме пропуска трансформации, могут быть применены разные операции переформирования и обратного переформирования.b. Alternatively, when a block is encoded in skip-transformation mode, various reshaping and de-reshaping operations may be applied.

23. В качестве альтернативы, когда применяется переформирование ILR, режим пропуска трансформации может быть кодирован по-разному.23. Alternatively, when ILR reshaping is applied, the skip transformation mode can be encoded differently.

a. В одном из примеров, когда применяется переформирование ILR, пропуск трансформации может быть выполнен в исходной области.a. In one example, when ILR reshaping is applied, a skip transformation may be performed in the original region.

b. В качестве альтернативы, когда применяется переформирование ILR, пропуск трансформации может быть выполнен в переформированной области.b. Alternatively, when ILR reshaping is applied, skipping the transformation can be performed on the reshaped region.

24. Предлагается, чтобы для блоков, кодированных в режиме модуляции I-PCM, переформирование ILR не было активизировано или применялось по-разному.24. It is proposed that for blocks encoded in the I-PCM modulation mode, ILR reshaping should not be enabled or applied differently.

a. В одном из примеров, когда блок кодирован в режиме палитры, операции переформирования и обратного переформирования пропускают.a. In one example, when the block is encoded in palette mode, the reshaping and de-reshaping operations are skipped.

b. В качестве альтернативы, когда блок кодирован в режиме палитры, могут быть применены разные функции переформирования и обратного переформирования.b. Alternatively, when a block is encoded in palette mode, various reshaping and inverse reshaping functions can be applied.

25. В качестве альтернативы, когда применяется переформирование ILR, кодирование в режиме модуляции I-PCM может быть выполнено по-разному.25. Alternatively, when ILR reshaping is applied, I-PCM modulation mode coding can be performed in different ways.

a. В одном из примеров, когда применяется переформирование ILR, кодирование в режиме модуляции I-PCM может быть выполнено в исходной области.a. In one example, when ILR reshaping is applied, I-PCM modulation mode coding can be performed in the source domain.

b. В качестве альтернативы, когда применяется переформирование ILR, кодирование в режиме модуляции I-PCM может быть выполнено в переформированной области.b. Alternatively, when ILR reshaping is applied, I-PCM modulation mode coding can be performed on the reshaped region.

26. Предлагается, чтобы для блоков, кодированных в режиме обхода трансформации и квантования, переформирование ILR не было активизировано или применялось по-разному.26. It is proposed that for blocks encoded in transform and quantization bypass mode, ILR reshaping should not be enabled or applied differently.

a. В одном из примеров, когда блок кодирован в режиме обхода трансформации и квантования, операции переформирования обратного переформирования пропускают.a. In one example, when a block is encoded in the transform and quantization bypass mode, the inverse reshaping operations are skipped.

27. В качестве альтернативы, когда блок кодирован в режиме обхода трансформации и квантования, могут быть применены разные функции переформирования и обратного переформирования.27. Alternatively, when a block is encoded in transform and quantization bypass mode, various reshaping and de-reshaping functions may be applied.

28. В приведенных выше позициях, когда переформирование ILR не активизировано, процедуры прямого переформирования и/или обратного переформирования могут быть пропущены.28. In the above positions, when ILR reframing is not activated, the forward reframing and/or reverse reframing procedures can be skipped.

a. В качестве альтернативы, прогнозируемый сигнал и/или реконструированный сигнал и/или сигнал остатка находятся в исходной области.a. Alternatively, the predicted signal and/or the reconstructed signal and/or the residual signal are in the original region.

b. В качестве альтернативы, прогнозируемый сигнал и/или реконструированный сигнал и/или сигнал остатка находятся в переформированной области.b. Alternatively, the predicted signal and/or the reconstructed signal and/or the residual signal are in the reshaped region.

29. Несколько функций переформирования/обратного переформирования (таких как несколько моделей PWL) могут быть допустимыми для кодирования одного изображения/одной группы плиток/одной единицы VPDU/одной области/одного ряда единиц CTU/нескольких единиц CU.29. Multiple reframing/reframing functions (such as multiple PWL models) may be valid for encoding one picture/one group of tiles/one VPDU/one area/one row of CTUs/multiple CUs.

a. Как именно выбрать из нескольких функций может зависеть от размеров блока/режима кодирования/типа изображения/флага контроля малой задержки/информации о движении/опорных изображений/контента видео и т.д.a. How exactly to choose from several functions may depend on the block size/encoding mode/picture type/low latency control flag/motion information/reference pictures/video content, etc.

b. В одном из примеров, о нескольких наборах дополнительной информации о переформировании ILR (например, о функциях переформирования /обратного переформирования) может быть сообщено в виде сигнализации в наборе SPS/наборе VPS/наборе PPS/заголовке последовательности/заголовке изображения/заголовке группы плиток/областях/единицах VPDU/и т.д.b. In one example, multiple sets of additional ILR reframe information (eg, reframe/reverse reframe functions) may be signaled in the SPS set/VPS set/PPS set/sequence header/image header/tile group header/regions /VPDU units/etc.

В качестве альтернативы, кроме того, может быть использовано кодирование с прогнозированием применительно к дополнительной информации о переформировании ILR.Alternatively, predictive coding may also be used in relation to the additional ILR reshaping information.

c. В одном из примеров, более одного идентификатора aps_idx могут быть переданы в виде сигнализации в наборе PPS/заголовке изображения/заголовке группы плиток/заголовке плитки/областях/единицах VPDU/и т.д.c. In one example, more than one aps_idx may be signaled in a PPS set/picture header/tile group header/tile header/areas/VPDUs/etc.

30. В одном из примеров, информацию о переформировании сообщают в виде сигнализации в новом синтаксическом наборе, отличном от набора VPS, набора SPS, набора PPS или набора APS. Например, информацию о переформировании сообщают в виде сигнализации в наборе, обозначенном как inloop_reshaping_parameter_set() (IRPS, или под другим названием).30. In one example, the reframing information is signaled in a new syntax set other than the VPS set, SPS set, PPS set, or APS set. For example, reshaping information is signaled in a set designated inloop_reshaping_parameter_set() (IRPS, or by some other name).

a. Пример структуры синтаксиса показан ниже. Добавленный синтаксис выделен курсивом.a. An example syntax structure is shown below. Added syntax is in italics.

Параметр inloop_reshaping_parameter_set_id является идентификатором для набора IRPS параметров для ссылок со стороны других синтаксических элементов.The inloop_reshaping_parameter_set_id parameter is an identifier for a set of IRPS parameters to be referenced by other syntax elements.

Примечание - Наборы IRPS могут быть использованы несколькими изображениями и могут различаться в разных группах плиток в одном изображении.Note - IRPS sets can be used by multiple images and may vary between different groups of tiles within the same image.

Флаг irps_extension_flag, равный 0, специфицирует, что синтаксические элементы с флагом irps_extension_data_flag не присутствуют в синтаксической структуре IRPS RBSP. Флаг irps_extension_flag, равный 1, специфицирует, что синтаксические элементы с флагом irps_extension_data_flag присутствуют в синтаксической структуре IRPS RBSP.An irps_extension_flag equal to 0 specifies that syntax elements with the irps_extension_data_flag flag are not present in the IRPS RBSP syntax structure. The irps_extension_flag flag equal to 1 specifies that syntax elements with the irps_extension_data_flag flag are present in the IRPS RBSP syntax structure.

Флаг irps_extension_data_flag может иметь любое значение. Его присутствие и значение не влияет на соответствие декодирующего устройства профилям, специфицированным в этой версии настоящего Описания. Декодирующие устройства, соответствующие этой версии настоящего Описания должны игнорировать все синтаксические элементы с флагом irps_extension_data_flag.The irps_extension_data_flag can have any value. Its presence and meaning do not affect the decoder's compliance with the profiles specified in this version of this Specification. Decoders conforming to this version of this Specification shall ignore all syntax elements with the irps_extension_data_flag.

b. Пример структуры синтаксиса показан ниже. Добавленный синтаксис выделен курсивом.b. An example syntax structure is shown below. Added syntax is in italics.

Общий синтаксис и семантика заголовка группы плитокGeneral syntax and semantics of a tile group header

Параметр tile_group_irps_id специфицирует идентификатор inloop_reshaping_parameter_set_id набора IRPS, к которому относится рассматриваемая группа плиток. Параметр TemporalId единицы IRPS NAL, имеющей идентификатор inloop_reshaping_parameter_set_id, равный идентификатору tile_group_irps_id, должен быть не больше параметра TemporalId единицы NAL кодированной группы плиток.The tile_group_irps_id parameter specifies the inloop_reshaping_parameter_set_id of the IRPS set to which the tile group in question belongs. The TemporalId of an IRPS NAL unit that has an inloop_reshaping_parameter_set_id equal to the tile_group_irps_id must be no greater than the TemporalId of the encoded tile group NAL unit.

31. В одном из примеров, информацию о переформировании IRL сообщают в виде сигнализации вместе с информацией о фильтрации ALF в наборе APS.31. In one example, IRL reshaping information is signaled along with ALF filtering information in the APS set.

a. Пример структуры синтаксиса показан ниже. Добавленный синтаксис выделен курсивом.a. An example syntax structure is shown below. Added syntax is in italics.

Синтаксис и семантика набора параметров адаптацииSyntax and semantics of the adaptation parameter set

В одном из примеров, один идентификатор tile_group_aps_id передают в виде сигнализации в заголовке группы плиток для спецификации идентификатора adaptation_parameter_set_id набора APS, к которому относится рассматриваемая группа плиток. В этом специфицированном наборе APS передают в виде сигнализации информацию о фильтрации ALF и информацию о переформировании ILR для текущей группы плиток.In one example, a single tile_group_aps_id is signaled in the tile group header to specify the adaptation_parameter_set_id of the APS set to which the tile group in question belongs. In this specified set, APSs signal ALF filtering information and ILR reshaping information for the current tile group.

i. Пример структуры синтаксиса показан ниже. Добавленный синтаксис выделен курсивом.i. An example syntax structure is shown below. Added syntax is in italics.

32. В одном из примеров, информацию о переформировании ILR и информацию о фильтрации ALF передают в разных наборах APS.32. In one example, ILR reshaping information and ALF filtering information are transmitted in different APS sets.

a. Первый идентификатор ID (может называться tile_group_aps_id_alf) передают в виде сигнализации в заголовке группы плиток, чтобы специфицировать первый идентификатор adaptation_parameter_set_id первого набора APS, к которому относится рассматриваемая группа плиток. Информацию о фильтрации ALF для текущей группы плиток передают в виде сигнализации в специфицированном первом наборе APS.a. The first ID (may be called tile_group_aps_id_alf) is signaled in the tile group header to specify the first adaptation_parameter_set_id of the first APS set to which the tile group in question belongs. The ALF filtering information for the current tile group is signaled in the specified first set of APS.

b. Второй идентификатор ID (может называться tile_group_aps_id_irps) передают в виде сигнализации в заголовке группы плиток, чтобы специфицировать второй идентификатор adaptation_parameter_set_id второго набора APS, к которому относится рассматриваемая группа плиток. Информацию о переформировании ILR для текущей группы плиток передают в виде сигнализации в специфицированном втором наборе APS.b. A second ID (may be called tile_group_aps_id_irps) is signaled in the tile group header to specify the second adaptation_parameter_set_id of the second APS set to which the tile group in question belongs. The ILR reshaping information for the current tile group is signaled in the specified second set of APS.

c. В одном из примеров, первый набор APS должен содержать информацию о фильтрации ALF в потоке битов данных соответствия;c. In one example, the first APS set must contain ALF filtering information in the match data bitstream;

d. В одном из примеров, второй набор APS должен содержать информацию о переформировании ILR в потоке битов данных соответствия;d. In one example, the second APS set must contain information about the ILR reshaping in the match data bit stream;

e. Пример структуры синтаксиса показан ниже. Добавленный синтаксис выделен курсивом.e. An example syntax structure is shown below. Added syntax is in italics.

33. В одном из примеров, некоторые наборы APS со специфицированным идентификатором adaptation_parameter_set_id должны иметь информацию о фильтрации ALF. В качестве другого примера некоторые наборы APS со специфицированным идентификатором adaptation_parameter_set_id должны иметь информацию о переформировании ILR.33. In one example, some APS sets with the specified adaptation_parameter_set_id must have ALF filtering information. As another example, certain APS sets with the specified adaptation_parameter_set_id must have ILR reshaping information.

a. Например, наборы APS с идентификатором adaptation_parameter_set_id, равным 2N должны иметь информацию о фильтрации ALF. Здесь N является целым числом;a. For example, APS sets with adaptation_parameter_set_id equal to 2N shall have ALF filtering information. Here N is an integer;

b. Например, наборы APS с идентификатором adaptation_parameter_set_id, равным 2N+1, должны иметь информацию о переформировании ILR. Здесь N является целым числом;b. For example, APS sets with adaptation_parameter_set_id equal to 2N+1 shall have ILR reshaping information. Here N is an integer;

c. Пример структуры синтаксиса показан ниже. Добавленный синтаксис выделен курсивом.c. An example syntax structure is shown below. Added syntax is in italics.

Например, параметр 2* tile_group_aps_id_alf специфицирует первый идентификатор adaptation_parameter_set_id первого набора APS, к которому относится рассматриваемая группа плиток. Информацию о фильтрации ALF для текущей группы плиток передают в виде сигнализации в специфицированном первом наборе APS.For example, parameter 2* tile_group_aps_id_alf specifies the first adaptation_parameter_set_id of the first APS set to which the tile group in question belongs. The ALF filtering information for the current tile group is signaled in the specified first set of APS.

ii. Например, параметр 2* tile_group_aps_id_irps+1 специфицирует второй идентификатор adaptation_parameter_set_id второго набора APS, к которому относится рассматриваемая группа плиток. Информацию о переформировании ILR для текущей группы плиток передают в виде сигнализации в специфицированном втором наборе APS.ii. For example, parameter 2* tile_group_aps_id_irps+1 specifies the second adaptation_parameter_set_id of the second APS set to which the tile group in question belongs. The ILR reshaping information for the current tile group is signaled in the specified second set of APS.

34. В одном из примеров, группа плиток не может относиться к набору APS (или набору IRPS), сообщенному в виде сигнализации прежде единицы уровня сетевой абстракции (NAL) специфицированного типа, которую передают в виде сигнализации прежде текущей группы плиток.34. In one example, a tile group may not belong to an APS set (or IRPS set) signaled before a network abstraction layer (NAL) unit of the specified type that is signaled before the current tile group.

a. В одном из примеров, группа плиток не может относиться к набору APS (или набору IRPS), сообщенному в виде сигнализации прежде специфицированного типа группы плиток, который передают в виде сигнализации прежде текущей группы плиток.a. In one example, the tile group may not refer to an APS set (or IRPS set) signaled previously by a previously specified tile group type that is signaled before the current tile group.

b. Например, группа плиток не может относиться к набору APS (или набору IRPS), сообщенному в виде сигнализации прежде набора SPS, который передают в виде сигнализации прежде текущей группы плиток.b. For example, a tile group cannot belong to an APS set (or IRPS set) signaled before an SPS set that is signaled before the current tile group.

c. Например, группа плиток не может относиться к набору APS (или набору IRPS), сообщенному в виде сигнализации прежде набора PPS, который передают в виде сигнализации прежде текущей группы плиток.c. For example, a tile group cannot belong to an APS set (or IRPS set) signaled before a PPS set that is signaled before the current tile group.

d. Например, группа плиток не может относиться к набору APS (или набору IRPS), сообщенному в виде сигнализации прежде ограничителя единицы доступа (Access unit delimiter NAL(AUD)), который передают в виде сигнализации прежде текущей группы плиток.d. For example, a tile group cannot belong to an APS set (or IRPS set) signaled before an Access unit delimiter NAL (AUD), which is signaled before the current tile group.

e. Например, группа плиток не может относиться к набору APS (или набору IRPS), сообщенному в виде сигнализации прежде единицы конца потока битов данных (End of bitstream NAL(EoB)), которую передают в виде сигнализации прежде текущей группы плиток.e. For example, a tile group cannot refer to an APS set (or IRPS set) signaled before the End of bitstream NAL(EoB) unit, which is signaled before the current tile group.

f. Например, группа плиток не может относиться к набору APS (или набору IRPS), сообщенному в виде сигнализации прежде единицы конца последовательности (End of sequence NAL(EoS)), которую передают в виде сигнализации прежде текущей группы плиток.f. For example, a tile group cannot refer to an APS set (or IRPS set) signaled before the End of sequence NAL (EoS) unit, which is signaled before the current tile group.

g. Например, группа плиток не может относиться к набору APS (или набору IRPS), сообщенному в виде сигнализации прежде единицы мгновенного обновления декодирования (instantaneous decoding refresh (IDR) NAL), которую передают в виде сигнализации прежде текущей группы плиток.g. For example, a tile group cannot belong to an APS set (or IRPS set) signaled before an instantaneous decoding refresh (IDR) NAL unit, which is signaled before the current tile group.

h. Например, группа плиток не может относиться к набору APS (или набору IRPS), сообщенному в виде сигнализации прежде единицы чистого произвольного доступа (clean random access (CRA) NAL), которую передают в виде сигнализации прежде текущей группы плиток.h. For example, a tile group cannot belong to an APS set (or IRPS set) signaled before a clean random access (CRA) NAL unit, which is signaled before the current tile group.

i. Например, группа плиток не может относиться к набору APS (или набору IRPS), сообщенному в виде сигнализации прежде единицы с точкой произвольного доступа при внутрикадровом прогнозировании (intra random access point (IRAP)), который передают в виде сигнализации прежде текущей группы плиток.i. For example, a tile group cannot be an APS set (or IRPS set) signaled before the intra random access point (IRAP) one signaled before the current tile group.

j. Например, группа плиток не может относиться к набору APS (или набору IRPS), сообщенному в виде сигнализации прежде группы плиток (или изображения, или среза) I-типа, которую передают в виде сигнализации прежде текущей группы плиток.j. For example, a tile group cannot be an APS set (or IRPS set) signaled before an I-type tile group (or image or slice) signaled before the current tile group.

k. Способы, описываемые в документах IDF-P1903237401H и IDF-P1903234501H, могут также быть применены, когда информацию о переформировании ILR передают в наборе APS или в наборе IRPS.k. The methods described in IDF-P1903237401H and IDF-P1903234501H can also be applied when ILR reshaping information is carried in an APS set or in an IRPS set.

35. Поток битов данных соответствия должен удовлетворять условию, что когда способ внутриконтурного переформирования активизирован для одной единицы видеоданных (такой как последовательность) должны быть определены параметры переформирования ILR по умолчанию, такие как модель по умолчанию.35. The correspondence data bitstream must satisfy the condition that when the in-loop reshaping method is enabled for one unit of video data (such as a sequence), default ILR reshaping parameters such as a default model must be specified.

a. Флаг sps_lmcs_default_model_present_flag должен быть установлен равным 1, когда флаг sps_lmcs_enabled_flag установлен равным 1.a. The sps_lmcs_default_model_present_flag must be set to 1 when the sps_lmcs_enabled_flag is set to 1.

b. Параметры по умолчанию могут быть переданы в виде сигнализации при условии наличия флага активизации переформирования ILR вместо флага присутствия модели по умолчанию (такого как флаг sps_lmcs_default_model_present_flag).b. Default parameters may be signaled provided that the ILR reframe enable flag is present instead of the default model present flag (such as the sps_lmcs_default_model_present_flag flag).

c. Для каждой группы плиток флаг использования модели по умолчанию (такой как tile_group_lmcs_use_default_model_flag) может быть передан в виде сигнализации без ссылки на флаг использования модели по умолчанию из набора SPS.c. For each tile group, a default model use flag (such as tile_group_lmcs_use_default_model_flag) may be signaled without reference to the default model use flag from the SPS set.

d. Поток битов данных соответствия должен удовлетворять условию, что когда нет информации о переформировании ILR среди соответствующих типов в наборе APS для переформирования ILR, и одна единица видеоданных (такая как группа плиток) принудительно использует технологию переформирования ILR, должна быть использована модель по умолчанию.d. The matching data bitstream must satisfy the condition that when there is no ILR reshaping information among the corresponding types in the APS set for ILR reshaping, and one video data unit (such as a group of tiles) is forced to use the ILR reshaping technology, the default model must be used.

e. В качестве альтернативы, поток битов данных соответствия должен удовлетворять условию, что когда нет информации о переформировании ILR среди соответствующих типов в наборе APS для переформирования ILR, и одна единица видеоданных (такая как группа плиток) принудительно использует технологию переформирования ILR (такую как равный 1 флаг tile_group_lmcs_enable_flag), индикация использования модели по умолчанию должна быть истинной, например, флаг tile_group_lmcs_use_default_model_flag должен быть равен 1.e. Alternatively, the matching data bit stream must satisfy the condition that when there is no ILR reshaping information among the corresponding types in the APS set for ILR reshaping, and one unit of video data (such as a group of tiles) is forced to use the ILR reshaping technology (such as the equal 1 flag tile_group_lmcs_enable_flag), the default model use indication must be true, for example, the tile_group_lmcs_use_default_model_flag must be 1.

f. Ограничено, что параметры переформирования ILR по умолчанию (такие, как модель по умолчанию) должен быть переданы в единице видеоданных (такой как набор SPS).f. It is limited that default ILR reshaping parameters (such as a default model) must be transmitted in a video data unit (such as an SPS set).

i. В качестве альтернативы, кроме того, параметры переформирования ILR должны быть переданы, когда флаг набора SPS, указывающий использование переформирования ILR, является истинным.i. Alternatively, in addition, ILR reframing parameters must be sent when the SPS set flag indicating the use of ILR reframing is true.

g. Ограничено, что по меньшей мере один набор ILR APS передают в единице видеоданных (такой как набор SPS).g. It is limited that at least one ILR APS set is transmitted in a video data unit (such as an SPS set).

i. В одном из примеров, по меньшей мере один набор ILR APS содержит параметры переформирования ILR по умолчанию (такие как модель по умолчанию).i. In one example, the at least one ILR APS set contains default ILR reshaping parameters (such as a default model).

36. Параметры переформирования ILR по умолчанию могут быть обозначены одним флагом. Когда этот флаг указывает, что используются параметры переформирования ILR по умолчанию, нет необходимости дополнительно сигнализировать данные переформирования ILR.36. The default ILR reshaping parameters can be indicated by a single flag. When this flag indicates that the default ILR reshaping parameters are used, there is no need to additionally signal the ILR reshaping data.

37. Параметры переформирования ILR по умолчанию могут быть заданы предварительно, когда их не передают в виде сигнализации. Например, параметры переформирования ILR по умолчанию могут соответствовать отображению идентичности.37. Default ILR reshaping parameters may be preset when not signaled. For example, the default ILR reshaping parameters may correspond to the identity mapping.

38. Информация временного уровня может быть передана в виде сигнализации вместе с параметрами переформирования ILR, такими как набор ILR APS.38. Time layer information may be signaled along with ILR reshaping parameters such as the ILR APS set.

a. В одном из примеров, индекс временного слоя может быть передан в виде сигнализации в параметре lmcs_data().a. In one example, the index of the temporary layer may be signaled in the lmcs_data() parameter.

b. В одном из примеров, в параметре lmcs_data() может быть передан в виде сигнализации индекс временного слоя минус 1.b. In one example, the index of the time layer minus 1 can be passed as a signal in the lmcs_data() parameter.

c. В качестве альтернативы, кроме того, при кодировании/декодировании одной группы плиток/одной плитки, ситуация ограничивается ссылками на те наборы ILR APS, которые ассоциированы с меньшим или равным индексом временного слоя.c. Alternatively, in addition, when encoding/decoding a single tile group/single tile, the situation is limited to references to those ILR APS sets associated with a lesser or equal time layer index.

d. В качестве альтернативы, при кодировании/декодировании одной группы плиток/одной плитки, ситуация ограничивается ссылками на те наборы ILR APS, которые ассоциированы с меньшим индексом временного слоя.d. Alternatively, when encoding/decoding a single tile group/single tile, the situation is limited to references to those ILR APS sets associated with a lower temporal layer index.

e. В качестве альтернативы, при кодировании/декодировании одной группы плиток/одной плитки, ситуация ограничивается ссылками на те наборы ILR APS, которые ассоциированы с большим индексом временного слоя.e. Alternatively, when encoding/decoding a single tile group/single tile, the situation is limited to references to those ILR APS sets associated with a large temporal layer index.

f. В качестве альтернативы, при кодировании/декодировании одной группы плиток/одной плитки, ситуация ограничивается ссылками на те наборы ILR APS, которые ассоциированы с большим или равным индексом временного слоя.f. Alternatively, when encoding/decoding a single tile group/single tile, the situation is limited to references to those ILR APS sets associated with a greater or equal time layer index.

g. В качестве альтернативы, при кодировании/декодировании одной группы плиток/одной плитки, ситуация ограничивается ссылками на те наборы ILR APS, которые ассоциированы с равным индексом временного слоя.g. Alternatively, when encoding/decoding a single tile group/single tile, the situation is limited to references to those ILR APS sets associated with the same time layer index.

h. В одном из примеров, применять ли приведенные выше ограничения может зависеть от сегмента информации, который может быть передан в виде сигнализации декодирующему устройству или сформирован самим декодирующим устройством.h. In one example, whether the above restrictions apply may depend on a segment of information that may be signaled to the decoding device or generated by the decoding device itself.

39. Информацию временного слоя можно передавать в виде сигнализации вместе с параметрами фильтрации ALF, как в наборе ALF APS.39. Time layer information can be signaled along with ALF filtering parameters, as in the ALF APS set.

a. В одном из примеров, индекс временного слоя может быть передан в виде сигнализации в параметре alf_data().a. In one example, the index of the temporary layer may be signaled in the alf_data() parameter.

b. В одном из примеров, в параметре alf_data() может быть передан в виде сигнализации индекс временного слоя минус 1.b. In one example, the index of the time layer minus 1 can be passed as a signal in the alf_data() parameter.

c. В качестве альтернативы, кроме того, при кодировании/декодировании одной группы плиток/одной плитки или одной единицы CTU в одной плитке/группе плиток ситуация ограничивается ссылками на те наборы ALF APS, которые ассоциированы с меньшим или равным индексом временного слоя.c. Alternatively, in addition, when encoding/decoding one tile group/single tile or one CTU in one tile/tile group, the situation is limited to references to those ALF APS sets associated with a less than or equal time layer index.

d. В качестве альтернативы, кроме того, при кодировании/декодировании одной группы плиток/одной плитки, ситуация ограничивается ссылками на те наборы ALF APS, которые ассоциированы с меньшим индексом временного слоя.d. Alternatively, in addition, when encoding/decoding a single tile group/single tile, the situation is limited to references to those ALF APS sets associated with a lower time layer index.

e. В качестве альтернативы, кроме того, при кодировании/декодировании одной группы плиток/одной плитки, ситуация ограничивается ссылками на те наборы ALF APS, которые ассоциированы с большим индексом временного слоя.e. Alternatively, in addition, when encoding/decoding a single tile group/single tile, the situation is limited to references to those ALF APS sets associated with a large temporary layer index.

f. В качестве альтернативы, кроме того, при кодировании/декодировании одной группы плиток/одной плитки, ситуация ограничивается ссылками на те наборы ALF APS, которые ассоциированы с большим или равным индексом временного слоя.f. Alternatively, in addition, when encoding/decoding a single tile group/single tile, the situation is limited to references to those ALF APS sets associated with a greater or equal time layer index.

g. В качестве альтернативы, кроме того, при кодировании/декодировании одной группы плиток/одной плитки, ситуация ограничивается ссылками на те наборы ALF APS, которые ассоциированы с равным индексом временного слоя.g. Alternatively, in addition, when encoding/decoding one tile group/one tile, the situation is limited to references to those ALF APS sets that are associated with the same time layer index.

h. В одном из примеров, применять ли приведенные выше ограничения может зависеть от сегмента информации, который может быть передан в виде сигнализации декодирующему устройству или сформирован самим декодирующим устройством.h. In one example, whether the above restrictions apply may depend on a segment of information that may be signaled to the decoding device or generated by the decoding device itself.

40. В одном из примеров, отображение переформирования между исходными отсчетами и переформированными отсчетами не может быть позитивным соотношением, иными словами, не допускается отображение одной большей величины в меньшую величину.40. In one example, the mapping of the reshaping between the original samples and the reshaping samples cannot be a positive relationship, in other words, the mapping of one larger quantity to a smaller quantity is not allowed.

a. Например, отображение переформирования между исходными отсчетами и переформированными отсчетами может быть негативным соотношением, где из двух величин большая величина из исходной области может быть отображена в меньшую величину в переформированной области.a. For example, the reshaping mapping between the original samples and the reshaping samples may be a negative relationship, where, of two quantities, the larger value from the original region may be mapped to a smaller value in the reshaping region.

41. В потоке битов данных соответствия, синтаксический элемент aps_params_type может принимать только ряд заданных значений, таких как 0 и 1.41. In the match data bitstream, the aps_params_type syntax element can only take a number of specified values, such as 0 and 1.

a. В другом примере, этот элемент может принимать только значения 0 и 7.a. In another example, this element can only accept the values 0 and 7.

42. В одном из примеров, информация о переформировании ILR по умолчанию обязательно должна быть передана, если переформирование ILR может быть применено (например, флаг sps_lmcs_enabled_flag является истинным).42. In one example, the default ILR reshaping information must be transmitted if the ILR reframing can be applied (eg, sps_lmcs_enabled_flag is true).

5. Примеры реализации предлагаемой технологии5. Examples of implementation of the proposed technology

В некоторых вариантах, флаг tile_group_reshaper_enable_flag условно присутствует, когда активизирован флаг tile_group_reshaper_model_present_flag. Добавленный синтаксис выделен курсивом.In some embodiments, the tile_group_reshaper_enable_flag is conditionally present when the tile_group_reshaper_model_present_flag is enabled. Added syntax is in italics.

В 7.3.3.1 Общий синтаксис заголовка группы плитокB 7.3.3.1 General Tile Group Header Syntax

В качестве альтернативы, флаг tile_group_reshaper_model_present_flag условно присутствует, когда флаг tile_group_reshaper_enable_flag активизирован.Alternatively, the tile_group_reshaper_model_present_flag is conditionally present when the tile_group_reshaper_enable_flag is enabled.

В качестве альтернативы, только один из двух синтаксических элементов может быть передан в виде сигнализации - tile_group_reshaper_model_present_flag или tile_group_reshaper_enable_flag. Элемент, который не передан, может быть выведен равным тому элементу, который передан. В этом случае, указанный один синтаксический элемент управляет использованием переформирования ILR.Alternatively, only one of the two syntax elements may be signaled - tile_group_reshaper_model_present_flag or tile_group_reshaper_enable_flag. An element that is not passed can be inferred to be equal to the element that is passed. In this case, the specified one syntax element controls the use of ILR reframing.

В качестве альтернативы, поток битов данных соответствия требует, чтобы флаг tile_group_reshaper_model_present_flag был равен флагу tile_group_reshaper_enable_flag.Alternatively, the match data bitstream requires that the tile_group_reshaper_model_present_flag be equal to the tile_group_reshaper_enable_flag.

В качестве альтернативы, флаг tile_group_reshaper_model_present_flag и/или флаг tile_group_reshaper_enable_flag и/или параметр tile_group_reshaper_model ( ), и/или флаг tile_group_reshaper_chroma_residual_scale_flag может быть передан в виде сигнализации в наборе APS вместо заголовка группы плиток.Alternatively, the tile_group_reshaper_model_present_flag and/or the tile_group_reshaper_enable_flag and/or the tile_group_reshaper_model() parameter and/or the tile_group_reshaper_chroma_residual_scale_flag may be signaled in the APS set instead of the tile group header.

Вариант #2 поверх документа JVET-N0805. Добавленный синтаксис выделен курсивом.Option #2 on top of document JVET-N0805. Added syntax is in italics.

...

Флаг sps_lmcs_enabled_flag, равный 1, специфицирует отображение яркостной составляющей с масштабированием цветностной составляющей, используемое в кодированной видеопоследовательности(CVS). Флаг sps_lmcs_enabled_flag, равный 0, специфицирует, что отображение яркостной составляющей с масштабированием цветностной составляющей не используется в последовательности CVS.The sps_lmcs_enabled_flag, equal to 1, specifies the chrominance scaling luma display used in the coded video sequence (CVS). The sps_lmcs_enabled_flag equal to 0 specifies that luma mapping with chrominance scaling is not used in the CVS sequence.

Флаг sps_lmcs_default_model_present_flag, равный 1, специфицирует, что данные режима lmcs по умолчанию присутствуют в наборе SPS. Флаг sps_lmcs_default_model_flag, равный 0, специфицирует, что данные режима lmcs по умолчанию не присутствуют в наборе SPS. Когда этот флаг sps_lmcs_default_model_present_flag отсутствует, его считают равным 0.The sps_lmcs_default_model_present_flag equal to 1 specifies that lmcs mode data is present in the SPS set by default. The sps_lmcs_default_model_flag equal to 0 specifies that the default lmcs mode data is not present in the SPS set. When this sps_lmcs_default_model_present_flag is not present, it is considered to be 0.

...

Параметр aps_params_type специфицирует тип параметров набора APS, передаваемых в этом наборе APS, как это специфицировано в следующей таблице:The aps_params_type parameter specifies the type of APS set parameters carried in this APS set, as specified in the following table:

Таблица 7-x - Коды типов параметров набора APS и типы параметров набора APSTable 7-x - APS Dial Parameter Type Codes and APS Dial Parameter Types aps_params_typeaps_params_type Название aps_params_typeName aps_params_type Типы параметров набора APSAPS Set Parameter Types 00 ALF_APSALF_APS Параметры фильтрации ALFALF filtering options 11 LMCS_APSLMCS_APS Параметры режима LMCSLMCS mode parameters 2..72..7 ЗарезервированоReserved ЗарезервированоReserved

ALF APS: Набор APS, имеющий параметр aps_params_type, равный ALF_APS.ALF APS: A set of APS having aps_params_type equal to ALF_APS.

LMCS APS: Набор APS, имеющий параметр aps_params_type, равный LMCS_APS.LMCS APS: A set of APS having aps_params_type equal to LMCS_APS.

Внесение следующих изменений семантики:Making the following semantic changes:

......

Параметр tile_group_alf_aps_id специфицирует идентификатор adaptation_parameter_set_id набора ALF APS, к которому относится группа плиток. Параметр TemporalId единицы ALF APS NAL, имеющий параметр adaptation_parameter_set_id, равный идентификатору tile_group_alf_aps_id, должен быть не больше параметра TemporalId единицы NAL кодированной группы плиток.The tile_group_alf_aps_id parameter specifies the adaptation_parameter_set_id of the ALF APS set to which the tile group belongs. The TemporalId of an ALF APS NAL unit that has an adaptation_parameter_set_id equal to the tile_group_alf_aps_id must be no greater than the TemporalId of the encoded tile group NAL unit.

Когда несколько наборов ALF APS с одинаковой величиной идентификатора adaptation_parameter_set_id относятся к двум или более группам плиток из одного и того же изображения, эти несколько наборов ALF APS с одним и тем же значением идентификатора adaptation_parameter_set_id должны иметь одинаковый контент.When multiple ALF APS sets with the same adaptation_parameter_set_id value refer to two or more tile groups from the same image, those multiple ALF APS sets with the same adaptation_parameter_set_id value shall have the same content.

......

Флаг tile_group_lmcs_enabled_flag, равный 1, специфицирует, что режим отображения яркостной составляющей с масштабированием цветностной составляющей активизирован для текущей группы плиток. Флаг tile_group_lmcs_enabled_flag, равный 0, специфицирует, что режим отображения яркостной составляющей с масштабированием цветностной составляющей не активизирован для текущей группы плиток. Когда флаг tile_group_lmcs_enable_flag не присутствует, его считают равным 0.The tile_group_lmcs_enabled_flag flag, equal to 1, specifies that the luma display mode with chrominance scaling is enabled for the current tile group. The tile_group_lmcs_enabled_flag flag equal to 0 specifies that the luma component display mode with chrominance scaling is not enabled for the current tile group. When the tile_group_lmcs_enable_flag is not present, it is considered to be 0.

Флаг tile_group_lmcs_use_default_model_flag, равный 1, специфицирует, что операция отображения яркостной составляющей с масштабированием цветностной составляющей для группы плиток использует модель lmcs по умолчанию. Флаг tile_group_lmcs_use_default_model_flag, равный 0, специфицирует, что операция отображения яркостной составляющей с масштабированием цветностной составляющей для группы плиток использует модель lmcs из набора LMCS APS, относящегося к идентификатору tile_group_lmcs_aps_id. Когда флаг tile_group_reshaper_use_default_model_flag не присутствует, его принимают равным 0.The tile_group_lmcs_use_default_model_flag equal to 1 specifies that the chroma-scaled luma display operation for a group of tiles uses the default lmcs model. The tile_group_lmcs_use_default_model_flag equal to 0 specifies that the chrominance scaling luma display operation for a group of tiles uses the lmcs model from the LMCS APS set associated with the tile_group_lmcs_aps_id. When the tile_group_reshaper_use_default_model_flag is not present, it is set to 0.

Параметр tile_group_lmcs_aps_id специфицирует идентификатор adaptation_parameter_set_id из набора LMCS APS, к которому относится группа плиток. Параметр TemporalId из единицы LMCS APS NAL, имеющей идентификатор adaptation_parameter_set_id, равный tile_group_lmcs_aps_id, должен быть не меньше параметра TemporalId единицы NAL для кодированной группы плиток.The tile_group_lmcs_aps_id parameter specifies the adaptation_parameter_set_id from the LMCS APS set to which the tile group belongs. The TemporalId parameter from an LMCS APS NAL unit that has an adaptation_parameter_set_id equal to tile_group_lmcs_aps_id must be at least equal to the TemporalId parameter of the NAL unit for the encoded tile group.

Когда несколько наборов LMCS APS с одинаковым значением идентификатора adaptation_parameter_set_id относятся к двум или более группам плиток в одном и том же изображении, эти несколько наборов LMCS APS с одинаковым значением идентификатора adaptation_parameter_set_id должны иметь одинаковый контент.When multiple LMCS APS sets with the same adaptation_parameter_set_id value refer to two or more tile groups in the same image, those multiple LMCS APS sets with the same adaptation_parameter_set_id value shall have the same content.

Флаг tile_group_chroma_residual_scale_flag, равный 1, специфицирует, что масштабирование остатка цветностной составляющей активизировано для текущей группы плиток. Флаг tile_group_chroma_residual_scale_flag, равный 0, специфицирует, что масштабирование остатка цветностной составляющей не активизировано для текущей группы плиток. Когда флаг tile_group_chroma_residual_scale_flag не присутствует, его считают равным 0.The tile_group_chroma_residual_scale_flag equal to 1 specifies that chroma residual scaling is enabled for the current tile group. The tile_group_chroma_residual_scale_flag equal to 0 specifies that chroma residual scaling is not enabled for the current tile group. When the tile_group_chroma_residual_scale_flag is not present, it is treated as 0.

...

...

Синтаксис данных режима отображения яркостной составляющей с масштабированием цветностной составляющейLuminance display mode data syntax with chrominance scaling

Примеры, описанные выше, могут быть включены в контекст способа, описываемого ниже, например, способы, как показано на фиг. 31A - 39E, которые могут быть реализованы в устройстве для девидеокодирования или в устройстве для видеокодирования.The examples described above may be included in the context of the method described below, for example, the methods as shown in FIG. 31A to 39E, which may be implemented in a de-video encoding apparatus or a video encoding apparatus.

Фиг. 31A показывает логическую схему примера способа обработки видео. Способ 3100 содержит, на этапе 3110, выполнение, для осуществления преобразования между текущим видеоблоком и кодированным представлением видео, процедуры уточнения информации о движении на основе отсчетов в первой области или во второй области. Этот способ 3100 содержит на этапе 3120, осуществление преобразования на основе результата процедуры уточнения информации о движении. В некоторых вариантах реализации, в процессе преобразования получают отсчеты для текущего видеоблока из первого прогнозируемого блока в первой области с использованием неуточненной информации о движении, по меньшей мере второй прогнозируемой блок генерируют во второй области с применением уточненной информации о движении, используемой для определения реконструированного блока, и генерируют реконструированные отсчеты текущего блока видео по меньшей мере на основе второго прогнозируемого блокаFig. 31A shows a logic diagram of an example of a video processing method. Method 3100 comprises, at step 3110, performing, to effect the conversion between the current video block and the encoded video representation, a procedure for refining motion information based on samples in the first region or in the second region. This method 3100 comprises, at step 3120, performing a conversion based on the result of the motion information refinement procedure. In some embodiments, the conversion process obtains samples for the current video block from a first prediction block in a first region using unrefined motion information, at least a second prediction block is generated in a second region using refined motion information used to determine the reconstructed block, and generating reconstructed samples of the current video block at least based on the second predicted block

Фиг. 31B показывает логическую схему примера способа обработки видео. Способ 3120 содержит, на этапе 3122, реконструкцию, на основе по меньшей мере одного прогнозируемого блока во второй области, текущего видеоблока. В некоторых вариантах реализации, в процессе преобразования, текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей. В некоторых вариантах реализации, в процессе преобразования применяют инструмент кодирования, полученный на основе по меньшей мере множества первых отсчетов в видеообласти видео и множества вторых отсчетов в опорном изображении для текущего видеоблока. В некоторых вариантах реализации, область для первых отсчетов и область для вторых отсчетов совмещены.Fig. 31B shows a logic diagram of an example of a video processing method. Method 3120 comprises, at step 3122, reconstructing, based on at least one predicted block in the second region, the current video block. In some implementations, during the conversion process, the current video block is constructed based on the first region and the second region and/or the remainder of the chroma component is scaled in a manner dependent on the luminance component. In some implementations, the conversion process employs an encoding tool derived from at least a plurality of first samples in the video video domain and a plurality of second samples in the reference picture for the current video block. In some implementations, the region for the first samples and the region for the second samples are combined.

Фиг. 32A показывает логическую схему примера способа обработки видео. Способ 3210 содержит, на этапе 3212, определение, для текущего видеоблока текущей видеообласти видео, параметра для режима кодирования текущего видеоблока на основе одного или нескольких параметров режима кодирования предыдущей видеообласти. Способ 3210 дополнительно содержит, на этапе 3214, осуществление кодирования для текущего видеоблока с целью генерации кодированного представления видео на основе этого определения. В некоторых вариантах реализации, указанный параметр режима кодирования входит в набор параметров в кодированном представлении видео. В некоторых вариантах реализации, процедура кодирования содержит трансформацию представления текущего видеоблока в первой области в представление этого текущего видеоблока во второй области. В некоторых вариантах реализации, в процессе кодирования с использованием режима кодирования, текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.Fig. 32A shows a logic diagram of an example of a video processing method. Method 3210 comprises, at step 3212, determining, for the current video block of the current video region, a parameter for the encoding mode of the current video block based on one or more encoding mode parameters of the previous video region. Method 3210 further comprises, at step 3214, performing encoding for the current video block to generate an encoded representation of the video based on this determination. In some implementations, the specified encoding mode parameter is included in a set of parameters in the encoded representation of the video. In some implementations, the encoding procedure comprises transforming a representation of a current video block in a first region to a representation of that current video block in a second region. In some embodiments, during the encoding process using the encoding mode, the current video block is constructed based on the first region and the second region and/or the remainder of the chroma component is scaled in a manner dependent on the luminance component.

Фиг. 32B показывает логическую схему примера способа обработки видео. Этот способ 3220 содержит, на этапе 3222, прием кодированного представления видео, содержащего набор параметров и в том числе информацию о параметрах для режима кодирования. Способ 3220 далее содержит, на этапе 3224, осуществление декодирования кодированного представления с использованием информации о параметрах для генерации текущего видеоблока в текущей видеообласти видео на основе кодированного представления. В некоторых вариантах реализации, информация о параметрах для режима кодирования основана на одном или нескольких параметрах режима кодирования предыдущей видеообласти. В некоторых вариантах реализации, в режиме кодирования, текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.Fig. 32B shows a logic diagram of an example of a video processing method. This method 3220 includes, at step 3222, receiving an encoded representation of the video containing a set of parameters, including parameter information for the encoding mode. Method 3220 further comprises, at step 3224, decoding the encoded representation using the parameter information to generate a current video block in the current video video region based on the encoded representation. In some implementations, the parameter information for the encoding mode is based on one or more encoding mode parameters of the previous video region. In some embodiments, in encoding mode, the current video block is constructed based on the first region and the second region and/or scales the remainder of the chrominance component in a manner dependent on the luminance component.

Фиг. 32C показывает логическую схему примера способа обработки видео. Способ 3230 содержит, на этапе 3232, осуществление преобразования между текущим видеоблоком видео и кодированным представлением видео. В некоторых вариантах реализации, процедура преобразования содержит применение операции фильтрации к прогнозируемому блоку в первой области или во второй области, отличной от первой области.Fig. 32C shows a logic diagram of an example of a video processing method. Method 3230 includes, at step 3232, performing a conversion between the current video block of video and an encoded representation of the video. In some implementations, the transformation procedure comprises applying a filtering operation to a predicted block in a first region or in a second region different from the first region.

Фиг. 32D показывает логическую схему примера способа обработки видео. Способ 3240 содержит, на этапе 3242, осуществление преобразования между текущим видеоблоком видео и кодированным представлением видео. В некоторых вариантах реализации, в процессе преобразования, определяют конечный реконструированный блок для текущего видеоблока. В некоторых вариантах реализации, временный реконструированный блок генерируют с использованием способа прогнозирования и представляют во второй области.Fig. 32D shows a logic diagram of an example of a video processing method. Method 3240 comprises, at step 3242, performing a conversion between the current video block of video and an encoded representation of the video. In some implementations, the conversion process determines the final reconstructed block for the current video block. In some implementations, a temporary reconstructed block is generated using a prediction method and presented in a second region.

Фиг. 33 показывает логическую схему примера способа обработки видео. Способ 3300 содержит, на этапе 3302, осуществление преобразования между текущим видеоблоком текущей видеообласти видео и кодированным представлением видео, где процедура преобразования использует режим кодирования, в котором текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и где набор параметров в кодированном представлении содержит информацию о параметрах для режима кодирования.Fig. 33 shows a logic diagram of an example of a video processing method. Method 3300 comprises, at step 3302, performing a transformation between the current video block of the current video region of the video and an encoded representation of the video, where the transformation procedure uses an encoding mode in which the current video block is constructed based on the first region and the second region and/or scales the remainder of the chrominance component in a manner dependent from the luminance component, and where the parameter set in the encoded representation contains parameter information for the encoding mode.

Фиг. 34A показывает логическую схему примера способа обработки видео. Способ 3410 содержит, на этапе 3412, осуществление преобразования между текущим видеоблоком видео, представляющим собой блок цветностной составляющей, и кодированным представлением видео, где, в процессе преобразования, текущий видеоблок конструируют на основе первой области и второй области, и где процедура преобразования далее содержит применение процедуры прямого переформирования и/или процедуры обратного переформирования к одной или нескольким цветностным составляющим текущего видеоблока.Fig. 34A shows a logic diagram of an example of a video processing method. Method 3410 comprises, at step 3412, performing a transformation between a current video video block representing a chrominance component block and an encoded video representation, where, in the transformation process, the current video block is constructed based on the first region and the second region, and where the transformation procedure further comprises applying direct reformation procedures and/or reverse reformation procedures to one or more color components of the current video block.

Фиг. 34B показывает логическую схему примера способа обработки видео. Способ 3420 содержит, на этапе 3422, осуществление преобразования между текущим видеоблоком цветностной составляющей видео и кодированным представлением видео, где процедура преобразования содержит: определение, активизировано ли зависящее от яркостной составляющей масштабирование остатка цветностной составляющей (LCRS) или не активизировано, на основе некоторого правила и реконструкцию текущего видеоблока цветностной составляющей на основе результата определения.Fig. 34B shows a logic diagram of an example of a video processing method. Method 3420 comprises, at step 3422, performing a conversion between a current chroma video block and an encoded video representation, where the conversion procedure comprises: determining whether luma-dependent chroma residual scaling (LCRS) is enabled or disabled, based on some rule, and reconstruction of the current video block of the chrominance component based on the determination result.

Фиг. 35A показывает логическую схему примера способа обработки видео. Способ 3510 содержит, на этапе 3512, определение, для осуществления преобразования между текущим видеоблоком и кодированным представлением видео, следует ли отменить активизацию некоторого режима кодирования на основе значений одного или нескольких коэффициентов для текущего видеоблока. Этот способ 3510 далее содержит, на этапе 3514, осуществление преобразования на основе указанного определения. В некоторых вариантах реализации, в процессе преобразования с использованием указанного режима кодирования, текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.Fig. 35A shows a logic diagram of an example of a video processing method. Method 3510 comprises, at step 3512, determining, in order to perform a conversion between the current video block and an encoded video representation, whether a certain encoding mode should be deactivated based on the values of one or more coefficients for the current video block. This method 3510 further comprises, at step 3514, performing a conversion based on the specified determination. In some embodiments, during conversion using said encoding mode, the current video block is constructed based on the first region and the second region and/or the remainder of the chroma component is scaled in a manner dependent on the luminance component.

Фиг. 35B показывает логическую схему примера способа обработки видео. Способ 3520 содержит, на этапе 3522, разбиение, для преобразования между текущим видеоблоком видео, превосходящим единицу данных виртуального конвейера (VPDU) для видео, текущего видеоблока на области. Этот способ 3520 далее содержит, на этапе 3524, осуществление преобразования путем применения режима кодирования по отдельности к каждой области. В некоторых вариантах реализации, в процессе преобразования с применением режима кодирования, текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.Fig. 35B shows a logic diagram of an example of a video processing method. Method 3520 comprises, at step 3522, partitioning, to convert between the current video block of video exceeding the virtual pipeline data unit (VPDU) for video, the current video block into areas. This method 3520 further comprises, at step 3524, performing the conversion by applying an encoding mode to each region separately. In some embodiments, during the conversion process using the encoding mode, the current video block is constructed based on the first region and the second region and/or the remainder of the chroma component is scaled in a manner dependent on the luminance component.

Фиг. 35C показывает логическую схему примера способа обработки видео. Способ 3530 содержит, на этапе 3532, определение, для осуществления преобразования между текущим видеоблоком и кодированным представлением видео, следует ли отменить активизацию использования режима кодирования на основе размера или цветового формата текущего видеоблока. Этот способ 3530 далее содержит, на этапе 3534, осуществление преобразования на основе указанного определения. В некоторых вариантах реализации, в процессе преобразования с использованием указанного режима кодирования, текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.Fig. 35C shows a logic diagram of an example of a video processing method. Method 3530 comprises, at step 3532, determining, in order to perform a conversion between the current video block and an encoded video representation, whether to deactivate the use of an encoding mode based on the size or color format of the current video block. This method 3530 further comprises, at step 3534, performing a conversion based on the specified determination. In some embodiments, during conversion using said encoding mode, the current video block is constructed based on the first region and the second region and/or the remainder of the chroma component is scaled in a manner dependent on the luminance component.

Фиг. 35D показывает логическую схему примера способа обработки видео. Способ 3540 содержит, на этапе 3542, осуществление преобразования между текущим видеоблоком видео и кодированным представлением видео, где это преобразование использует режим кодирования, в котором текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и где по меньшей мере один синтаксический элемент в указанном кодированном представлении создает индикацию использования указанного режима кодирования и индикацию модели устройства переформирования.Fig. 35D shows a logic diagram of an example of a video processing method. Method 3540 comprises, at step 3542, performing a transformation between the current video video block and an encoded video representation, where the transformation uses an encoding mode in which the current video block is constructed based on the first region and the second region and/or scales the remaining chrominance component in a luma dependent manner. component, and wherein the at least one syntactic element in said encoded representation creates an indication of the use of said encoding mode and an indication of a reshaping device model.

Фиг. 35E показывает логическую схему примера способа обработки видео. Способ 3550 содержит, на этапе 3552, определение, что режим кодирования не активизирован для осуществления преобразования между текущим видеоблоком и кодированным представлением видео. Этот способ 3550 далее содержит, на этапе 3554, условный пропуск прямого переформирования и/или обратного переформирования на основе результата указанного определения. В некоторых вариантах реализации, в указанном режиме кодирования, текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.Fig. 35E shows a logic diagram of an example of a video processing method. Method 3550 comprises, at step 3552, determining that an encoding mode is not activated to perform the conversion between the current video block and the encoded video representation. This method 3550 further comprises, at step 3554, conditionally skipping forward reformation and/or reverse reformation based on the result of said determination. In some embodiments, in said encoding mode, the current video block is constructed based on the first region and the second region and/or scales the remainder of the chrominance component in a manner dependent on the luminance component.

Фиг. 35F показывает логическую схему примера способа обработки видео. Способ 3560 содержит, на этапе 3562, осуществление преобразования между текущим видеоблоком видеообласти видео и кодированным представлением видео, где процедура преобразования использует режим кодирования, в котором текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и где несколько операций прямого переформирования и/или несколько операций обратного переформирования применяют в режиме переформирования для видеообласти.Fig. 35F shows a logic diagram of an example of a video processing method. Method 3560 comprises, at step 3562, performing a transformation between the current video block of a video region and an encoded representation of the video, where the transformation procedure uses an encoding mode in which the current video block is constructed based on the first region and the second region and/or scales the remaining chrominance component in a manner dependent on luminance component, and wherein a plurality of forward reformatting operations and/or a plurality of reverse reformatting operations are applied in a reformatting mode for the video domain.

Фиг. 36A показывает логическую схему примера способа обработки видео. Способ 3610 содержит, на этапе 3612, выполнение определения, что некий режим кодирования активизирован для осуществления преобразования между текущим видеоблоком и кодированным представлением видео. Этот способ 3610 далее содержит, на этапе 3614, осуществление преобразования с использованием режима палитры, где по меньшей мере палитра репрезентативных величин отсчетов используется для текущего видеоблока. В некоторых вариантах реализации, в режиме кодирования, текущий видеоблок конструируют на основе отсчетов в первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.Fig. 36A shows a logic diagram of an example of a video processing method. Method 3610 comprises, at step 3612, determining that a certain encoding mode is activated to effect the conversion between the current video block and the encoded video representation. This method 3610 further comprises, at 3614, performing a transformation using a palette mode, where at least a palette of representative sample values is used for the current video block. In some embodiments, in encoding mode, the current video block is constructed based on the samples in the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component.

Фиг. 36B показывает логическую схему примера способа обработки видео. Способ 3620 содержит, на этапе 3622, выполнение определения, для осуществления преобразования между текущим видеоблоком и кодированным представлением видео, что текущий видеоблок кодируют в режиме палитры, в котором по меньшей мере палитра репрезентативных величин отсчетов используется для кодирования текущего видеоблока. Этот способ 3620 далее содержит, на этапе 2624, осуществление, по результатам указанного определения, преобразования путем отмены активизации режима кодирования. В некоторых вариантах реализации, когда к видеоблоку применяется режим кодирования, этот видеоблок конструируют на основе остатка цветностной составляющей, масштабированного способом, зависящим от яркостной составляющейFig. 36B shows a logic diagram of an example of a video processing method. Method 3620 comprises, at step 3622, determining, to effect a conversion between the current video block and an encoded representation of the video, that the current video block is encoded in a palette mode, in which at least a palette of representative sample values is used to encode the current video block. This method 3620 further comprises, at step 2624, carrying out, based on the results of the specified determination, a transformation by deactivating the encoding mode. In some implementations, when an encoding mode is applied to a video block, the video block is constructed based on the chrominance residual scaled in a manner dependent on the luminance component

Фиг. 36C показывает логическую схему примера способа обработки видео. Способ 3630 содержит, на этапе 3632, осуществление преобразования между первым видеоблоком видео и кодированное представление видео, где процедура преобразования использует первый режим кодирования и режим кодирования палитры, в котором по меньшей мере палитра репрезентативных величин пикселей используется для кодирования текущего видеоблока. Этот способ 3630 далее содержит, на этапе 3634, осуществление преобразования между вторым видеоблоком видео, кодируемым без использования режима кодирования палитры, и кодированным представлением видео, где процедура преобразования второго видеоблока использует первый режим кодирования. Когда к видеоблоку применяется первый режим кодирования, этот видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей. В некоторых вариантах реализации, первый режим кодирования применяют различными способами к первому видеоблоку и ко второму видеоблоку.Fig. 36C shows a logic diagram of an example of a video processing method. Method 3630 includes, at step 3632, performing a transformation between a first video block of video and an encoded representation of the video, where the transformation procedure uses a first encoding mode and a palette encoding mode in which at least a palette of representative pixel values is used to encode the current video block. This method 3630 further comprises, at step 3634, performing a conversion between a second video block of video encoded without using a palette encoding mode, and an encoded video representation, where the second video block conversion procedure uses the first encoding mode. When a first encoding mode is applied to a video block, the video block is constructed based on the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component. In some implementations, the first encoding mode is applied in different ways to the first video block and the second video block.

Фиг. 37A показывает логическую схему примера способа обработки видео. Способ 3710 содержит, на этапе 3712, выполнение определения, что режим кодирования активизирован для осуществления преобразования между текущим видеоблоком и кодированным представлением видео. Этот способ 3710 далее содержит, на этапе 3714, осуществление преобразования с использованием режима внутрикадрового копирования блоков, генерирующего прогнозируемый блок с использованием по меньшей мере вектора блока, указывающего на изображение, содержащее текущий видеоблок. В указанном режиме кодирования, текущий видеоблок конструируют на основе отсчетов в первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.Fig. 37A shows a logic diagram of an example of a video processing method. Method 3710 comprises, at step 3712, determining that an encoding mode is activated to perform a conversion between the current video block and the encoded video representation. This method 3710 further comprises, at step 3714, performing a transform using an intra-frame block copy mode generating a predicted block using at least a block vector pointing to an image containing the current video block. In said encoding mode, the current video block is constructed based on the samples in the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component.

Фиг. 37B показывает логическую схему примера способа обработки видео. Способ 3720 содержит, на этапе 3722, выполнение определения, для осуществления преобразования между текущим видеоблоком и кодированным представлением видео, что текущий видеоблок кодируют в режиме внутрикадрового копирования блоков (IBC), в котором генерируют прогнозируемый блок с использованием по меньшей мере вектора блока, указывающего на видеокадр, содержащий текущий видеоблок, для кодирования этого текущего видеоблока. Этот способ 3720 далее содержит, на этапе 3724, осуществление, по результатам указанного определения, преобразования посредством отмены активизации режима кодирования. Когда этот режим кодирования применяют к видеоблоку, этот видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.Fig. 37B shows a logic diagram of an example of a video processing method. Method 3720 comprises, at step 3722, determining, to effect a conversion between the current video block and an encoded video representation, that the current video block is encoded in an intra-block copy (IBC) mode, in which a predicted block is generated using at least a block vector pointing to a video frame containing the current video block to encode that current video block. This method 3720 further comprises, at step 3724, carrying out, based on the results of the specified determination, a transformation by deactivating the encoding mode. When this encoding mode is applied to a video block, the video block is constructed based on the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component.

Фиг. 37C показывает логическую схему примера способа обработки видео. Способ 3730 содержит, на этапе 3732, осуществление преобразования между первым видеоблоком видео и кодированным представлением видео, где процедура преобразования использует режим внутрикадрового копирования блоков, который генерирует прогнозируемый блок с использованием по меньшей мере вектора блока, указывающего на видеокадр, содержащий текущий видеоблок, и первого режима кодирования. Этот способ 3730 далее содержит, на этапе 3734, осуществление преобразования между вторым видеоблоком видео, кодируемым без использования режима внутрикадрового копирования блоков, и кодированным представлением видео, где процедура преобразования второго видеоблока использует первый режим кодирования. Когда к видеоблоку применяется первый режим кодирования, этот видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и первый режим кодирования применяется разными способами к первому видеоблоку и ко второму видеоблоку.Fig. 37C shows a logic diagram of an example of a video processing method. Method 3730 includes, at step 3732, performing a transformation between a first video block of video and an encoded representation of the video, where the transformation procedure uses an intra-frame block copy mode that generates a predicted block using at least a block vector pointing to the video frame containing the current video block and the first coding mode. This method 3730 further comprises, at step 3734, performing a conversion between a second video block of video encoded without using an intra-frame block copy mode, and an encoded video representation where the second video block conversion procedure uses the first encoding mode. When a first encoding mode is applied to a video block, the video block is constructed based on the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component, and the first encoding mode is applied in different ways to the first video block and the second video block.

Фиг. 38A показывает логическую схему примера способа обработки видео. Способ 3810 содержит, на этапе 3812, выполнение определения, что режим кодирования активизирован для осуществления преобразования между текущим видеоблоком и кодированным представлением видео. Этот способ 3810 далее содержит, на этапе 3814, осуществление преобразования с использованием режима дельта-импульсно-кодовой модуляции на блочной основе (BDPCM). В этом режиме кодирования, текущий видеоблок конструируют на основе отсчетов в первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющейFig. 38A shows a logic diagram of an example of a video processing method. Method 3810 comprises, at step 3812, determining that an encoding mode is activated to perform a conversion between the current video block and the encoded video representation. This method 3810 further comprises, at 3814, performing conversion using a block-based delta pulse code modulation (BDPCM) mode. In this encoding mode, the current video block is constructed based on the samples in the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component

Фиг. 38B показывает логическую схему примера способа обработки видео. Способ 3820 содержит, на этапе 3822, выполнение определения, для осуществления преобразования между текущим видеоблоком и кодированным представлением видео, что текущий видеоблок кодируют с использованием режима дельта-импульсно-кодовой модуляции на блочной основе (BDPCM). Этот способ 3820 далее содержит, на этапе 3824, осуществление, по результатам указанного определения, преобразования посредством отмены активизации. Когда к видеоблоку применяется режим кодирования, этот видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.Fig. 38B shows a logic diagram of an example of a video processing method. Method 3820 comprises, at step 3822, determining, to perform a conversion between the current video block and an encoded video representation, that the current video block is encoded using a block-based delta pulse code modulation (BDPCM) mode. This method 3820 further comprises, at step 3824, carrying out, based on the results of the specified determination, a transformation by deactivation. When a coding mode is applied to a video block, the video block is constructed based on the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component.

Фиг. 38C показывает логическую схему примера способа обработки видео. Способ 3830 includes, на этапе 3832, осуществление преобразования между первым видеоблоком видео и кодированным представлением видео, где процедура преобразования первого видеоблока использует первый режим кодирования и режим дельта-импульсно-кодовой модуляции на блочной основе (BDPCM). Этот способ 3830 далее содержит, на этапе 3834, осуществление преобразования между вторым видеоблоком видео и кодированным представлением видео, где второй видеоблок кодируют без использования режима модуляции BDPCM, и процедура преобразования второго видеоблока использует первый режим кодирования. Когда к видеоблоку применяется первый режим кодирования, этот видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и первый режим кодирования применяют различными способами к первому видеоблоку и ко второму видеоблоку.Fig. 38C shows a logic diagram of an example of a video processing method. Method 3830 includes, at step 3832, performing a conversion between a first video block of video and an encoded representation of the video, where the first video block conversion procedure uses a first encoding mode and a block-based delta pulse code modulation (BDPCM) mode. This method 3830 further comprises, at step 3834, performing a conversion between the second video block of video and an encoded representation of the video, where the second video block is encoded without using a BDPCM modulation mode, and the second video block conversion procedure uses the first encoding mode. When a first encoding mode is applied to a video block, the video block is constructed based on the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component, and the first encoding mode is applied in different ways to the first video block and the second video block.

Фиг. 38D показывает логическую схему примера способа обработки видео. Способ 3840 содержит, на этапе 3842, выполнение определения, что режим кодирования активизирован для осуществления преобразования между текущим видеоблоком и кодированным представлением видео. Этот способ далее содержит, на этапе 3844, осуществление преобразования с использованием режима пропуска трансформации, в котором трансформацию остатка прогнозирования пропускают при кодировании текущего видеоблока. В этом режиме кодирования, текущий видеоблок конструируют на основе отсчетов в первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.Fig. 38D shows a logic diagram of an example of a video processing method. Method 3840 comprises, at step 3842, determining that an encoding mode is activated to perform a conversion between the current video block and the encoded video representation. This method further comprises, at step 3844, performing the transformation using a skip transformation mode, in which the transformation of the prediction residual is skipped when encoding the current video block. In this encoding mode, the current video block is constructed based on the samples in the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component.

Фиг. 38E показывает логическую схему примера способа обработки видео. Способ 3850 содержит, на этапе 3852, выполнение определения, для осуществления преобразования между текущим видеоблоком и кодированным представлением видео, что текущий видеоблок кодируют в режиме пропуска трансформации, в котором трансформацию остатка прогнозирования пропускают при кодировании текущего видеоблока. Этот способ 3850 далее содержит, на этапе 3854, осуществление, по результатам указанного определения, преобразования посредством отмены активизации режим кодирования. Когда к видеоблоку применяется режим кодирования, этот видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.Fig. 38E shows a logic diagram of an example of a video processing method. Method 3850 comprises, at step 3852, determining, to perform a transformation between the current video block and an encoded video representation, that the current video block is encoded in a skip transformation mode, in which the transformation of the prediction residual is skipped when encoding the current video block. This method 3850 further comprises, at step 3854, carrying out, based on the results of this determination, a conversion by deactivating the encoding mode. When a coding mode is applied to a video block, the video block is constructed based on the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component.

Фиг. 38F показывает логическую схему примера способа обработки видео. Способ 3860 содержит, на этапе 3862, осуществление преобразования между первым видеоблоком видео и кодированным представлением видео, где процедура преобразования первого видеоблока использует первый режим кодирования и режим пропуска трансформации, в котором трансформацию остатка прогнозирования пропускают при кодировании текущего видеоблока. Этот способ 3860 далее содержит, на этапе 3864, осуществление преобразования между вторым видеоблоком видео и кодированным представлением видео, где второй видеоблок кодируют без использования режима пропуска трансформации, а процедура преобразования второго видеоблока использует первый режим кодирования. Когда к видеоблоку применяется первый режим кодирования, этот видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и первый режим кодирования применяют различными способами к первому видеоблоку и ко второму видеоблокуFig. 38F shows a logic diagram of an example of a video processing method. Method 3860 comprises, at step 3862, performing a transformation between a first video block of video and an encoded representation of the video, wherein the transformation procedure of the first video block uses a first encoding mode and a skip transformation mode in which the transformation of the prediction residual is skipped when encoding the current video block. This method 3860 further comprises, at step 3864, performing a transformation between the second video block of video and an encoded representation of the video, where the second video block is encoded without using a skip transformation mode, and the second video block transformation procedure uses the first encoding mode. When a first encoding mode is applied to a video block, the video block is constructed based on the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component, and the first encoding mode is applied in different ways to the first video block and the second video block

Фиг. 38G показывает логическую схему примера способа обработки видео. Способ 3870 содержит, на этапе 3872, выполнение определения, что режим кодирования активизирован для осуществления преобразования между текущим видеоблоком и кодированным представлением видео. Этот способ 3870 далее содержит, на этапе 3874, осуществление преобразования с использованием режима внутрикадрового прогнозирования с импульсно-кодовой модуляцией, в котором текущий видеоблок без применения трансформации и квантования в трансформированной области. В этом режиме кодирования, текущий видеоблок конструируют на основе отсчетов в первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.Fig. 38G shows a logic diagram of an example of a video processing method. Method 3870 includes, at step 3872, determining that an encoding mode is activated to perform a conversion between the current video block and the encoded video representation. This method 3870 further comprises, at step 3874, performing the transformation using an intra-frame prediction mode with pulse code modulation, in which the current video block without applying transformation and quantization in the transformed region. In this encoding mode, the current video block is constructed based on the samples in the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component.

Фиг. 38H показывает логическую схему примера способа обработки видео. Способ 3880 содержит, на этапе 3882, выполнение определения, для осуществления преобразования между текущим видеоблоком и кодированным представлением видео, что текущий видеоблок кодируют в режиме внутрикадрового прогнозирования с импульсно-кодовой модуляцией, в котором этот текущий видеоблок кодируют без применения трансформации и квантования в трансформированной области. Этот способ 3880 далее содержит, на этапе 3884, осуществление, по результатам указанного определения, преобразования посредством отмены активизации режима кодирования. Когда к видеоблоку применяется режим кодирования, этот видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.Fig. 38H shows a logic diagram of an example of a video processing method. Method 3880 comprises, at step 3882, determining, to effect a transformation between the current video block and an encoded video representation, that the current video block is encoded in an intra-frame PCM prediction mode, in which the current video block is encoded without applying transformation and quantization to the transformed domain. . This method 3880 further comprises, at step 3884, carrying out, based on the results of the specified determination, a transformation by deactivating the encoding mode. When a coding mode is applied to a video block, the video block is constructed based on the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component.

Фиг. 38I показывает логическую схему примера способа обработки видео. Способ 3890 содержит, на этапе 3892, осуществление преобразования между первым видеоблоком видео и кодированным представлением видео, где процедура преобразования первого видеоблока использует первый режим кодирования и режим внутрикадрового прогнозирования с импульсно-кодовой модуляцией, в котором текущий видеоблок кодируют без применения трансформации и квантования в трансформированной области. Этот способ 3890 далее содержит, на этапе 3894, осуществление преобразования между вторым видеоблоком видео и кодированным представлением видео, где второй видеоблок кодируют без использования режима внутрикадрового прогнозирования с импульсно-кодовой модуляцией, и процедура преобразования второго видеоблока использует первый режим кодирования. Когда к видеоблоку применяется первый режим кодирования, этот видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и первый режим кодирования применяют различными способами к первому видеоблоку и ко второму видеоблоку.Fig. 38I shows a logic diagram of an example of a video processing method. Method 3890 comprises, at step 3892, performing a transformation between a first video block of video and an encoded representation of the video, wherein the transformation procedure of the first video block uses a first encoding mode and a PCM intra-frame prediction mode in which the current video block is encoded without applying transformation and quantization to the transformed areas. This method 3890 further comprises, at step 3894, performing a transformation between the second video block of video and an encoded representation of the video, where the second video block is encoded without using an intra-frame PCM prediction mode, and the second video block transformation procedure uses the first encoding mode. When a first encoding mode is applied to a video block, the video block is constructed based on the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component, and the first encoding mode is applied in different ways to the first video block and the second video block.

Фиг. 38J показывает логическую схему примера способа обработки видео. Способ 3910 содержит, на этапе 3912, выполнение определения, что режим кодирования активизирован для осуществления преобразования между текущим видеоблоком и кодированным представлением видео. Этот способ 3910 далее содержит, на этапе 3914, осуществление преобразования с использованием модифицированного режима обхода трансформации и квантования, в котором текущий видеоблок кодируют без потерь, а также без трансформации и квантования. В этом режиме кодирования, текущий видеоблок конструируют на основе отсчетов в первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.Fig. 38J shows a logic diagram of an example of a video processing method. Method 3910 includes, at step 3912, determining that an encoding mode is activated to perform a conversion between the current video block and the encoded video representation. This method 3910 further comprises, at step 3914, performing the transformation using a modified transform and quantization bypass mode, in which the current video block is encoded without loss and without transformation and quantization. In this encoding mode, the current video block is constructed based on the samples in the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component.

Фиг. 38K показывает логическую схему примера способа обработки видео. Способ 3920 содержит, на этапе 3922, выполнение определения, для осуществления преобразования между текущим видеоблоком и кодированным представлением видео, что текущий видеоблок кодируют в режиме обхода трансформации и квантования, в котором текущий видеоблок кодируют без потерь, а также без трансформации и квантования. Этот способ 3920 далее содержит, на этапе 3924, осуществление, по результатам определения, преобразования посредством отмены активизации режима кодирования. Когда к видеоблоку применяется режим кодирования, этот видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.Fig. 38K shows the logic diagram of an example video processing method. Method 3920 comprises, at step 3922, determining, to effect a transformation between the current video block and an encoded video representation, that the current video block is encoded in a bypass transformation and quantization mode, in which the current video block is encoded losslessly and without transformation and quantization. This method 3920 further comprises, at step 3924, carrying out, based on the determination, a conversion by deactivating the encoding mode. When a coding mode is applied to a video block, the video block is constructed based on the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component.

Фиг. 38L показывает логическую схему примера способа обработки видео. Способ 3930 содержит, на этапе 3932, осуществление преобразования между первым видеоблоком видео и кодированным представлением видео, где процедура преобразования первого видеоблока использует первый режим кодирования и режим обхода трансформации и квантования, котором текущий блок видео кодируют без потерь, а также без трансформации и квантования. Этот способ 3930 далее содержит, на этапе 3934, осуществление преобразования между вторым видеоблоком видео и кодированным представлением видео, где второй видеоблок кодируют без использования режима обхода трансформации и квантования и процедура преобразования второго видеоблока использует первый режим кодирования. Когда к видеоблоку применяется первый режим кодирования, этот видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и первый режим кодирования применяют различными способами к первому видеоблоку и ко второму видеоблоку.Fig. 38L shows a logic diagram of an example of a video processing method. Method 3930 comprises, at step 3932, performing a transformation between a first video block of video and an encoded representation of the video, wherein the transformation procedure of the first video block uses a first encoding mode and a transformation and quantization bypass mode in which the current video block is encoded losslessly and without transformation or quantization. This method 3930 further comprises, at step 3934, performing a transformation between the second video block of video and an encoded representation of the video, where the second video block is encoded without using a transform and quantization bypass mode, and the second video block's transformation procedure uses the first encoding mode. When a first encoding mode is applied to a video block, the video block is constructed based on the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component, and the first encoding mode is applied in different ways to the first video block and the second video block.

Фиг. 39A показывает логическую схему примера способа обработки видео. Способ 3940 содержит, на этапе 3942, осуществление преобразования между текущим видеоблоком видео и кодированным представлением видео, где процедура преобразования использует режим кодирования, в котором текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и где информацию, используемую для режима кодирования, передают в виде сигнализации в наборе параметров, который отличается от набора параметров последовательности (SPS), набора видеопараметров (VPS), набора параметров изображения (PPS) или набора параметров адаптации (APS), используемого для передачи параметров адаптивной контурной фильтрации (ALF).Fig. 39A shows a logic diagram of an example of a video processing method. Method 3940 comprises, at step 3942, performing a transformation between the current video video block and an encoded video representation, where the transformation procedure uses an encoding mode in which the current video block is constructed based on the first region and the second region and/or scales the remaining chroma component in a luminance dependent manner. component, and where the information used for the encoding mode is signaled in a parameter set that is different from the sequence parameter set (SPS), video parameter set (VPS), picture parameter set (PPS) or adaptation parameter set (APS) used to transmit adaptive loop filtering (ALF) parameters.

Фиг. 39B показывает логическую схему примера способа обработки видео. Способ 3950 содержит, на этапе 3952, осуществление преобразования между текущим видеоблоком видео и кодированным представлением видео, где процедура преобразования использует режим кодирования, в котором текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и где информацию, используемую для режима кодирования, передают в виде сигнализации в виде набора параметров адаптации (APS) вместе с информацией об адаптивной контурной фильтрации (ALF), где информация, используемая для режима кодирования, и информация о фильтрации ALF включены в одну единицу уровня NAL.Fig. 39B shows a logic diagram of an example of a video processing method. Method 3950 comprises, at step 3952, performing a transformation between the current video video block and an encoded video representation, where the transformation procedure uses an encoding mode in which the current video block is constructed based on the first region and the second region and/or scales the remainder of the chrominance component in a luminance dependent manner. component, and where the information used for the encoding mode is signaled as an adaptation parameter set (APS) together with adaptive loop filtering (ALF) information, where the information used for the encoding mode and the ALF filtering information are included in one NAL level unit.

Фиг. 39C показывает логическую схему примера способа обработки видео. Способ 3960 содержит, на этапе 3962, осуществление преобразования между текущим видеоблоком видеообласти видео и кодированным представлением видео, где процедура преобразования использует режим кодирования, в котором текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и где информацию, используемую для режима кодирования, сообщают в виде сигнализации в наборе параметров адаптации (APS) первого типа, отличающегося от второго типа набора APS, используемого для передачи информации об адаптивной контурной фильтрации (ALF) в виде сигнализации.Fig. 39C shows a logic diagram of an example of a video processing method. Method 3960 includes, at step 3962, performing a transformation between the current video block of a video region and an encoded representation of the video, where the transformation procedure uses an encoding mode in which the current video block is constructed based on the first region and the second region and/or scales the remainder of the chrominance component in a manner dependent on luminance component, and where the information used for the encoding mode is signaled in a first type of adaptation parameter set (APS) different from the second type of APS used for signaling the adaptive loop filtering (ALF) information in the signaling form.

Фиг. 39D показывает логическую схему примера способа обработки видео. Способ 3970 содержит, на этапе 3972, осуществление преобразования между текущим видеоблоком видеообласти видео и кодированным представлением видео, где процедура преобразования использует режим кодирования, в котором текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и где не допускается обращение видеообласти к набору параметров адаптации или к набору параметров, сообщаемому в виде сигнализации прежде структуры данных специфицированного типа, используемой для обработки видео, и где сигнализацию о структуре данных специфицированного типа передают прежде видеообласти.Fig. 39D shows a logic diagram of an example of a video processing method. Method 3970 comprises, at step 3972, performing a transformation between the current video block of a video region and an encoded representation of the video, where the transformation procedure uses an encoding mode in which the current video block is constructed based on the first region and the second region and/or scales the remainder of the chrominance component in a manner dependent on luminance component, and where the video domain is not allowed to access an adaptation parameter set or a parameter set signaled prior to a data structure of a specified type used for video processing, and where the data structure of a specified type is signaled prior to the video domain.

Фиг. 39E показывает логическую схему примера способа обработки видео. Способ 3980 содержит, на этапе 3982, осуществление преобразования между текущим блоком видео и кодированным представлением видео, где процедура преобразования использует режим кодирования, в котором текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и где синтаксический элемент для набора параметров, содержащего параметры, используемые для обработки видео, имеет заданную величину в потоке битов данных соответствия.Fig. 39E shows a logic diagram of an example of a video processing method. Method 3980 comprises, at step 3982, performing a transformation between the current video block and an encoded video representation, where the transformation procedure uses an encoding mode in which the current video block is constructed based on the first region and the second region and/or scales the remaining chroma component in a luminance dependent manner. component, and where a syntax element for a parameter set containing parameters used for video processing has a specified value in the matching data bit stream.

На фиг. 40A представлена блок-схема аппаратуры 4000 для обработки видео. Эта аппаратура 4000 может быть использована для реализации одного или нескольких описываемых здесь способов. Эта аппаратура 4000 может представлять собой смартфон, планшетный компьютер, обычный компьютер, приемник Интернет вещей (Internet of Things (IoT)) и т.д. Аппаратура 4000 может содержать один или несколько процессоров 4002, одно или несколько запоминающих устройств 4004 и оборудование 4006 для обработки видео. Процессор (ы) может быть конфигурирован для осуществления одного или нескольких способов (включая, не ограничиваясь, способы, показанные на фиг. 31A - 39E), описываемых в настоящем документе. Запоминающее устройство (а) 4004 может быть использовано для сохранения данных и кода, применяемых для реализации описываемых здесь способов и технологии. Оборудование 4006 для обработки видео может быть использовано для осуществления, в аппаратной схеме, некоторых способов и технологий, описываемых в настоящем документе.In fig. 40A is a block diagram of video processing hardware 4000. This apparatus 4000 may be used to implement one or more of the methods described herein. The hardware 4000 may be a smartphone, a tablet computer, a desktop computer, an Internet of Things (IoT) receiver, etc. The hardware 4000 may include one or more processors 4002, one or more storage devices 4004, and video processing hardware 4006. The processor(s) may be configured to implement one or more of the methods (including, but not limited to, the methods shown in FIGS. 31A - 39E) described herein. Storage device(s) 4004 may be used to store data and code used to implement the methods and technology described herein. Video processing hardware 4006 may be used to implement, in hardware, some of the methods and technologies described herein.

На фиг. 40B представлен другой пример блок-схемы системы обработки видео, в которой может быть реализована предлагаемая технология. На фиг. 40B представлена блок-схема, показывающая пример системы 4100 обработки видео, где могут быть реализованы разнообразные способы, описываемые здесь. Различные варианты реализации могут содержать некоторые или все компоненты системы 4100. Система 4100 может иметь вход 4102 для приема контента видео. Этот контент видео может быть принят в исходном или в несжатом формате, например, 8 или 10-битовые многокомпонентные величины пикселей, либо может быть в сжатом или кодированном формате. Вход 4102 может представлять сетевой интерфейс, интерфейс шины периферийных устройств или интерфейс запоминающего устройства. К примерам сетевых интерфейсов относятся проводные интерфейсы, такие как Этернет, пассивная оптическая сеть (passive optical network (PON)) и т.д., и беспроводные интерфейсы, такие Wi-Fi или сотовые интерфейсы.In fig. 40B shows another example block diagram of a video processing system in which the proposed technology may be implemented. In fig. 40B is a block diagram showing an example of a video processing system 4100 where various methods described herein may be implemented. Various implementations may include some or all of the components of the system 4100. The system 4100 may have an input 4102 for receiving video content. This video content may be received in a native or uncompressed format, such as 8 or 10-bit multi-pixel values, or may be in a compressed or encoded format. Input 4102 may represent a network interface, a peripheral bus interface, or a storage device interface. Examples of network interfaces include wired interfaces such as Ethernet, passive optical network (PON), etc., and wireless interfaces such as Wi-Fi or cellular interfaces.

Система 4100 может содержать кодирующий компонент 4104, которые может осуществлять разнообразные способы кодирования, описываемые в настоящем документе. Кодирующий компонент 4104 может уменьшить среднюю частоту передачи битов видеоданных, поступающего от входа 4102 к выходу кодирующего компонента 4104 для получения кодированного представления видео. Поэтому такие способы кодирования иногда называют способами сжатия (компрессии) видео или способами трансвидеокодирования. Выходной сигнал кодирующего компонента 4104 может быть либо сохранен, либо передан по присоединенной линии связи, как это представлено компонентом 4106. Представление видео, принятого на вход 4102, или сохраненного в запоминающем устройстве, в форме потока битов данных (или в кодированной форме) может быть использовано компонентом 4106. Это сохраненное или переданное в потоке битов данных (или кодированное) представление видео, принятого на вход 4102, может быть использовано компонентом 4108 для генерации величин пикселей или представляемого на дисплее видео, которое передают интерфейсу 4110 дисплея. Процесс генерации наблюдаемого пользователем видео из представления в форме потока битов данных иногда называется расширением (или декомпрессией) видео. Кроме того, хотя определенные операции обработки видео называются операциями или инструментами «кодирования», должно быть понятно, что инструменты или операции кодирования используются в кодирующем устройстве, а соответствующие инструменты или операции декодирования, обращающие результаты кодирования будут производиться в декодирующем устройстве.System 4100 may include an encoding component 4104 that can implement a variety of encoding techniques described herein. The encoding component 4104 may reduce the average bit rate of video data supplied from the input 4102 to the output of the encoding component 4104 to obtain an encoded representation of the video. Therefore, such encoding methods are sometimes called video compression methods or transvideo encoding methods. The output of encoding component 4104 may be either stored or transmitted over an attached communication link, as represented by component 4106. The representation of video received as input 4102, or stored in a storage device, in the form of a data bit stream (or encoded form) may be used by component 4106. This stored or bitstreamed (or encoded) representation of the video received at input 4102 may be used by component 4108 to generate pixel values or display video that is sent to display interface 4110. The process of generating user-viewable video from a data bitstream representation is sometimes called video expansion (or decompression). In addition, although certain video processing operations are referred to as "encoding" operations or tools, it should be understood that the encoding tools or operations are used in the encoding device, and the corresponding decoding tools or operations that reverse the encoding results will be performed in the decoding device.

К примерам интерфейса шины периферийных устройств или интерфейса дисплея относятся универсальная последовательная шина (universal serial bus (USB)) или мультимедийный интерфейс высокой четкости (high definition multimedia interface (HDMI)) или Displayport, и т.д. К примерам интерфейса запоминающих устройств относятся интерфейс усовершенствованного последовательного соединения (SATA (serial advanced technology attachment)), интерфейс периферийных устройств (PCI), интерфейс IDE и другие подобные интерфейсы. Способы, описываемые в настоящем документе, могут быть реализованы в разнообразных электронных устройствах, таких как мобильные телефоны, портативные компьютеры, смартфоны или другие устройства, способные осуществлять цифровую обработку данных и/или представлять видео на дисплее.Examples of peripheral bus interface or display interface include universal serial bus (USB) or high definition multimedia interface (HDMI) or Displayport, etc. Examples of storage interfaces include the serial advanced technology attachment (SATA) interface, the peripheral device interface (PCI), the IDE interface, and other similar interfaces. The methods described herein may be implemented in a variety of electronic devices, such as mobile phones, laptop computers, smartphones, or other devices capable of digital processing and/or displaying video.

В некоторых вариантах, способы видеокодирования могут быть осуществлены с использованием устройств, реализованных на аппаратной платформе, как это описано со ссылками на фиг. 40A или 40B.In some embodiments, video encoding methods may be implemented using devices implemented on a hardware platform, as described with reference to FIGS. 40A or 40B.

Разнообразные способы и варианты могут быть описаны с использованием следующего постатейного формата.A variety of methods and embodiments may be described using the following clause-by-clause format.

Первая группа статей описывает определенные признаки и аспекты рассматриваемых здесь способов, перечисленных в предыдущем разделе, включая, например, Примеры 1 и 2.The first group of articles describes certain features and aspects of the methods discussed here, listed in the previous section, including, for example, Examples 1 and 2.

1. Способ обработки видео, содержащий: осуществление, для выполнения преобразования между текущим видеоблоком и кодированным представлением видео, процедуры уточнения информации о движении на основе отсчетов в первой области или во второй области; и осуществление преобразования на основе результата процедуры уточнения информации о движении, где, в процессе преобразования, получают отсчеты для текущего видеоблока из первого прогнозируемого блока в первой области с использованием неуточненной информации о движении, по меньшей мере второй прогнозируемый блок генерируют во второй области с использованием уточненной информации о движении, примененной для определения реконструированного блока, и генерируют реконструированные отсчеты текущего видеоблока на основе по меньшей мере второго прогнозируемого блока.1. A video processing method, comprising: implementing, to perform a transformation between a current video block and an encoded video representation, a procedure for refining motion information based on samples in a first region or a second region; and performing a transformation based on the result of the motion information refinement procedure, where, in the transformation process, samples for the current video block are obtained from a first prediction block in a first region using the unspecified motion information, at least a second prediction block is generated in a second region using the refined motion information used to determine a reconstructed block, and generating reconstructed samples of the current video block based on at least the second predicted block.

2. Способ по статье 1, отличающийся тем, что по меньшей мере второй прогнозируемый блок генерируют из отсчетов в опорных изображениях в первой области с использованием уточненной информации о движении, и далее применяют процедуру переформирования для преобразования первой области во вторую область по меньшей мере ко второму прогнозируемому блоку.2. The method according to article 1, characterized in that at least a second predicted block is generated from samples in reference images in the first region using updated motion information, and then a reshaping procedure is applied to transform the first region into a second region to at least the second predicted block.

3. Способ по статье 2, отличающийся тем, что после процедуры переформирования, второй прогнозируемый блок преобразуют в представление во второй области прежде использования для генерации реконструированных отсчетов текущего видеоблока.3. The method according to article 2, characterized in that after the reformation procedure, the second predicted block is converted into a representation in the second region before being used to generate reconstructed samples of the current video block.

4. Способ по статье 1, отличающийся тем, что осуществление процедуры уточнения информации о движении основано на способе получения вектора движения на стороне декодирующего устройства (DMVD).4. The method according to Article 1, characterized in that the implementation of the procedure for clarifying motion information is based on a method for obtaining the motion vector on the side of the decoding device (DMVD).

5. Способ по статье 4, отличающийся тем, что способ получения DMVD содержит уточнение вектора движения на стороне декодирующего устройства (DMVR) или повышающее преобразование частоты кадров (FRUC) или использование двунаправленного оптического потока (BIO).5. The method according to Article 4, characterized in that the method for obtaining DMVD comprises decoder-side motion vector refinement (DMVR) or frame rate upconversion (FRUC) or the use of bidirectional optical flow (BIO).

6. Способ по статье 4, отличающийся тем, что вычисление стоимости или вычисление градиента в ходе процедуры DMVD осуществляется на основе отсчетов в первой области.6. The method according to Article 4, characterized in that the cost calculation or gradient calculation during the DMVD procedure is carried out on the basis of samples in the first area.

7. Способ по статье 6, отличающийся тем, что процедура вычисления стоимости содержит определение суммы абсолютных разностей (SAD) или суммы абсолютных разностей с исключением среднего (MR-SAD).7. The method according to Article 6, characterized in that the procedure for calculating the cost contains the determination of the sum of absolute differences (SAD) or the sum of absolute differences with the exception of the mean (MR-SAD).

8. Способ по статье 1, отличающийся тем, что процедуру уточнения информации о движении осуществляют на основе отсчетов, преобразованных из отсчетов по меньшей мере из первого прогнозируемого блока в первой области во вторую область, и отличающийся тем, что, после получения уточненной информации о движении, отменяют активизацию режима кодирования, в котором текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, по меньшей мере для второго прогнозируемого блока.8. The method according to Article 1, characterized in that the procedure for updating traffic information is carried out on the basis of samples converted from samples from at least the first predicted block in the first area to the second area, and characterized in that, after receiving updated information about traffic , deactivating the encoding mode in which the current video block is constructed based on the first region and the second region and/or scales the remainder of the chrominance component in a manner dependent on the luminance component for at least the second predicted block.

9. Способ по статье 4, отличающийся тем, что процедуру уточнения информации о движении осуществляют на основе по меньшей мере первого прогнозируемого блока в первой области, и отличающийся тем, что процедуру уточнения информации о движении привлекают с первым прогнозируемым блоком первой области.9. The method according to Article 4, characterized in that the procedure for clarifying traffic information is carried out on the basis of at least the first predicted block in the first area, and characterized in that the procedure for clarifying traffic information is involved with the first predicted block of the first area.

10. Способ по статье 1, отличающийся тем, что конечный прогнозируемый блок генерируют как взвешенное среднее двух вторых прогнозируемых блоков, а реконструированные отсчеты текущего видеоблока генерируют на основе этого конечного прогнозируемого блока.10. The method according to article 1, characterized in that the final prediction block is generated as a weighted average of the two second prediction blocks, and reconstructed samples of the current video block are generated based on this final prediction block.

11. Способ по статье 1, отличающийся тем, что процедуру уточнения информации о движении осуществляют на основе прогнозируемого блока в первой области, и отличающийся тем, что, после осуществления процедуры уточнения информации о движении, отменяют активизацию режима кодирования, в котором текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, по меньшей мере для вторых прогнозируемых блоков.11. The method according to Article 1, characterized in that the procedure for clarifying motion information is carried out on the basis of a predicted block in the first area, and characterized in that, after carrying out the procedure for clarifying motion information, activation of the encoding mode in which the current video block is constructed on based on the first region and the second region and/or scaling the remainder of the chrominance component in a manner dependent on the luminance component for at least the second predicted blocks.

12. Способ обработки видео, содержащий: осуществление преобразования между текущим видеоблоком видео и кодированным представлением видео, где, в процессе преобразования, текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, где инструмент кодирования применяют в процессе преобразования с использованием параметров, полученных по меньшей мере на основе множества первых отсчетов в видеообласти видео и множества вторых отсчетов в опорном изображении для текущего видеоблока, и где область для первых отсчетов и область для вторых отсчетов совмещены одна с другой.12. A video processing method, comprising: performing a transformation between a current video video block and an encoded video representation, where, in the transformation process, the current video block is constructed based on a first region and a second region and/or scaling the remainder of the chrominance component in a manner dependent on the luminance component, where the encoding tool is applied to the conversion process using parameters derived from at least a plurality of first samples in a video video region and a plurality of second samples in a reference picture for the current video block, and wherein the region for the first samples and the region for the second samples are aligned with one another.

13. Способ по статье 12, отличающийся тем, что указанный инструмент кодирования содержит модель локальной компенсации освещенности (LIC), которая использует линейную модель изменений освещенности в текущем видеоблоке в процессе преобразования, и применяют модель компенсации LIC на основе этих параметров.13. The method of Clause 12, wherein said encoding tool comprises a local illuminance compensation (LIC) model that uses a linear model of illuminance changes in the current video block during the conversion process, and applies a LIC compensation model based on these parameters.

14. Способ по статье 12, отличающийся тем, что видеообласть содержит текущую плитку, группу плиток или изображение.14. The method according to article 12, characterized in that the video area contains the current tile, group of tiles or image.

15. Способ по статье 13, отличающийся тем, что модель компенсации LIC применяется к прогнозируемому блоку во второй области, и отличающийся тем, что указанные множество первых отсчетов и множество вторых отсчетов находятся во второй области.15. The method of Clause 13, characterized in that the LIC compensation model is applied to the predicted block in the second region, and characterized in that the plurality of first samples and the plurality of second samples are in the second region.

16. Способ по статье 13, отличающийся тем, что опорный блок преобразуют во вторую область и модель компенсации LIC применяют к прогнозируемому блоку во второй области.16. The method of Clause 13, wherein the reference block is converted to a second region and the LIC compensation model is applied to the predicted block in the second region.

17. Способ по статье 15, отличающийся тем, что указанные множество первых отсчетов и множество вторых отсчетов преобразуют во вторую область прежде использования для получения параметров.17. The method according to Article 15, characterized in that said plurality of first samples and plurality of second samples are converted into a second domain before being used to obtain parameters.

18. Способ по статье 17, отличающийся тем, что указанное множество вторых отсчетов содержит опорные отсчеты в опорных изображениях и соседние и/или несмежные отсчеты с этими опорными отсчетами.18. The method according to Article 17, characterized in that the specified set of second samples contains reference samples in the reference images and adjacent and/or non-adjacent samples with these reference samples.

19. Способ по статье 13, отличающийся тем, что модель компенсации LIC применяется к прогнозируемому блоку в первой области, и отличающийся тем, что указанные множество первых отсчетов и множество вторых отсчетов находятся в первой области.19. The method of Clause 13, characterized in that the LIC compensation model is applied to the predicted block in the first region, and characterized in that the plurality of first samples and the plurality of second samples are in the first region.

20. Способ по статье 13, отличающийся тем, что опорный блок поддерживают в первой области, и применяют модель компенсации LIC к прогнозируемому блоку в первой области.20. The method of Clause 13, characterized in that the reference block is supported in the first region and the LIC compensation model is applied to the predicted block in the first region.

21. Способ по статье 19, отличающийся тем, что множество первых отсчетов преобразуют в первую область прежде их использования для получения параметров.21. The method according to Article 19, characterized in that the plurality of first samples are converted into the first region before they are used to obtain parameters.

22. Способ по статье 21, отличающийся тем, что множество первых отсчетов содержит пространственно соседние и/или несмежные отсчеты относительно текущего видеоблока.22. The method according to Article 21, characterized in that the set of first samples contains spatially adjacent and/or non-adjacent samples relative to the current video block.

23. Способ по статье 12, отличающийся тем, что область, используемая для получения параметров, используется также для применения параметров к прогнозируемому блоку.23. The method according to Article 12, characterized in that the area used to obtain the parameters is also used to apply the parameters to the predicted block.

24. Способ по статье 13, отличающийся тем, что модель компенсации LIC применяют к прогнозируемому блоку во второй области.24. The method according to Article 13, characterized in that the LIC compensation model is applied to the forecast block in the second region.

25. Способ по статье 20 или 21, отличающийся тем, что после применения модели компенсации LIC к прогнозируемому блоку в первой области, конечный прогнозируемый блок, зависящий от указанного прогнозируемого блока, преобразуют во вторую область.25. The method of Clause 20 or Clause 21, wherein after applying the LIC compensation model to a prediction block in the first region, the final prediction block dependent on said prediction block is converted to the second region.

26. Способ по какой-либо из статей 1 - 25, отличающийся тем, что первая область представляет собой исходную область, а вторая область представляет собой переформированную область, использующую способ отображения яркостной составляющей с масштабированием цветностной составляющей (LMCS), который отображает отсчеты яркостной составляющей в конкретные значения.26. The method as set forth in any one of Clauses 1 to 25, wherein the first region is the original region and the second region is a reshaped region using a luminance component scaling (LMCS) display method that displays luminance samples into specific values.

27. Способ по статье 26, отличающийся тем, что способ LMCS использует кусочно-линейную модель для отображения отсчетов яркостной составляющей в конкретные значения.27. The method according to article 26, characterized in that the LMCS method uses a piecewise linear model to map the luminance component samples into specific values.

28. Способ по какой-либо из статей 1 - 27, отличающийся тем, что осуществление преобразования содержит генерацию кодированного представления из текущего блока.28. The method according to any of articles 1 - 27, characterized in that the implementation of the transformation includes generating an encoded representation from the current block.

29. Способ по какой-либо из статей 1 - 27, отличающийся тем, что процедура преобразования содержит генерацию текущего блока из кодированного представления.29. The method according to any of articles 1 - 27, characterized in that the conversion procedure includes generating the current block from the encoded representation.

30. Устройство в видеосистеме, содержащее процессор и энергонезависимое запоминающее устройство с записанными в нем командами, отличающееся тем, что при выполнении этих команд процессор осуществляет способ согласно какой-либо одной из статей 1 - 29.30. A device in a video system containing a processor and a non-volatile storage device with commands written therein, characterized in that when executing these commands the processor implements a method in accordance with any one of Articles 1 to 29.

31. Компьютерный программный продукт, сохраняемый на энергонезависимом читаемом компьютером носителе информации, этот компьютерный программный продукт содержит программный код для осуществления способа согласно какой-либо одной из статей 1 - 29.31. A computer program product stored on a non-volatile computer-readable storage medium, this computer program product contains program code for implementing a method according to any one of Articles 1 to 29.

Вторая группа статей описывает определенные признаки и аспекты предлагаемых способов, перечисленных в предыдущем разделе, включая, например, Примеры 3 - 5, 8 и 15.The second group of articles describes certain features and aspects of the proposed methods listed in the previous section, including, for example, Examples 3 - 5, 8 and 15.

1. Способ обработки видео, содержащий: определение, для текущего видеоблока текущей видеообласти видео, параметра для режима кодирования этого текущего видеоблока на основе одного или нескольких параметров для режима кодирования предыдущей видеообласти; и осуществление кодирования для текущего видеоблока с целью генерации кодированного представления видео на основе результата определения, где указанный параметр для режима кодирования входит в набор параметров кодированного представления видео, и где осуществление процедуры кодирования содержит трансформацию представления текущего видеоблока в первой области в представление этого текущего видеоблока во второй области, и где в процессе осуществления кодирования с использованием указанного режима кодирования, текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.1. A method for processing video, comprising: determining, for the current video block of the current video video region, a parameter for the encoding mode of this current video block based on one or more parameters for the encoding mode of the previous video region; and performing encoding on the current video block to generate an encoded video representation based on the determination result, wherein said parameter for an encoding mode is included in a set of encoded video representation parameters, and wherein performing the encoding procedure comprises transforming a representation of the current video block in the first region into a representation of the current video block in a second region, and where, in the process of performing encoding using said encoding mode, the current video block is constructed based on the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component.

2. Способ обработки видео, содержащий: прием кодированного представления видео, содержащего набор параметров, куда входит информация о параметрах для режима кодирования; и осуществление декодирования принятого кодированного представления с использованием указанной информации о параметрах для генерации текущего видеоблока текущей видеообласти видео из кодированного представления, и где информация о параметрах для режима кодирования на основе одного или нескольких параметров для режима кодирования предыдущей видеообласти, где в указанном режиме кодирования, текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.2. A method for processing video, comprising: receiving an encoded representation of the video containing a set of parameters, which includes information about the parameters for the encoding mode; and performing decoding of the received encoded representation using said parameter information to generate a current video block of the current video region of the video from the encoded representation, and where parameter information for an encoding mode based on one or more parameters for an encoding mode of the previous video region, where in said encoding mode, the current the video block is constructed based on the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component.

3. Способ по статье 1 или 2, отличающийся тем, что указанный набор параметров отличается от заголовка группы плиток.3. The method according to article 1 or 2, characterized in that the specified set of parameters differs from the header of the tile group.

4. Способ по статье 1 или 2, отличающийся тем, что указанный набор параметров представляет собой набор параметров адаптации (APS).4. The method according to article 1 or 2, characterized in that the specified set of parameters is an adaptation parameter set (APS).

5. Способ по статье 1 или 2, отличающийся тем, что текущая видеообласть содержит одну плитку видеоизображения видео или видео изображение видео;5. The method according to article 1 or 2, characterized in that the current video area contains one tile of a video image of a video or a video of a video image;

6. Способ по статье 1 или 2, отличающийся тем, что предыдущая видеообласть содержит одну или несколько плиток изображения.6. The method according to article 1 or 2, characterized in that the previous video area contains one or more image tiles.

7. Способ по статье 1 или 2, отличающийся тем, что предыдущая видеообласть содержит одно или несколько видеоизображений видео.7. The method according to article 1 or 2, characterized in that the previous video area contains one or more video images of the video.

8. Способ обработки видео, содержащий: осуществление преобразования между текущим видеоблоком видео и кодированным представлением видео, и отличающийся тем, что процедура преобразования содержит применение операции фильтрации к прогнозируемому блоку в первой области или во второй области, отличной от первой области.8. A video processing method, comprising: performing a transformation between a current video block of video and an encoded representation of the video, and characterized in that the transformation procedure comprises applying a filtering operation to a predicted block in a first region or in a second region different from the first region.

9. Способ по статье 8, отличающийся тем, что выполняют операцию фильтрации применительно к прогнозируемому блоку в первой области с целью генерации фильтрованного прогнозируемого сигнала, применяют режим кодирования к этому фильтрованному прогнозируемому сигналу для генерации переформированного прогнозируемого сигнала, находящегося во второй области, и конструируют текущий видеоблок с использованием переформированного прогнозируемого сигнала.9. The method of Clause 8, characterized in that a filtering operation is performed on a predicted block in the first region to generate a filtered predicted signal, an encoding mode is applied to this filtered predicted signal to generate a reformatted predicted signal located in the second region, and a current video block using a reformatted predicted signal.

10. Способ по статье 8, отличающийся тем, что режим кодирования применяется к прогнозируемому блоку прежде применения операции фильтрации с целью генерации переформированного прогнозируемого сигнала, находящегося во второй области, и указанную операцию фильтрации осуществляют с использованием переформированного прогнозируемого сигнала для генерации фильтрованного прогнозируемого сигнала, и конструируют текущий видеоблок с использованием переформированного прогнозируемого сигнала.10. The method of Clause 8, wherein the encoding mode is applied to the predicted block before applying a filtering operation to generate a reshaped predicted signal located in the second region, and said filtering operation is performed using the reshaped predicted signal to generate a filtered predicted signal, and the current video block is constructed using the reformatted predicted signal.

11. Способ по статье 9 или 10, отличающийся тем, что, в режиме кодирования, текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.11. The method according to Article 9 or 10, characterized in that, in encoding mode, the current video block is constructed based on the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component.

12. Способ по какой-либо из статей 8 - 11, отличающийся тем, что операция фильтрации содержит использование рассеивающего фильтра.12. The method according to any of articles 8 - 11, characterized in that the filtering operation includes the use of a scattering filter.

13. Способ по какой-либо из статей 8 - 11, отличающийся тем, что параметры, ассоциированные с операцией фильтрации, зависит от того, применяется ли эта операция фильтрации к блоку в первой области или во второй области.13. The method according to any one of clauses 8 to 11, characterized in that the parameters associated with the filtering operation depend on whether the filtering operation is applied to a block in the first region or in the second region.

14. Способ по статье 8, отличающийся тем, что процедура преобразования далее содержит: применение, прежде выполнения операции фильтрации, прогнозирования с компенсацией движения к текущему видеоблоку для получения прогнозируемого сигнала; применение, после выполнения операции фильтрации, режима кодирования к фильтрованному прогнозируемому сигналу для генерации переформированного прогнозируемого сигнала, фильтрованный прогнозируемый сигнал сформирован посредством применения операции фильтрации к прогнозируемому сигналу; и конструирование текущего видеоблока с использованием переформированного прогнозируемого сигнала.14. The method according to Article 8, characterized in that the conversion procedure further comprises: applying, before performing the filtering operation, motion-compensated prediction to the current video block to obtain a predicted signal; applying, after performing the filtering operation, an encoding mode to the filtered prediction signal to generate a reformatted prediction signal, the filtered prediction signal being generated by applying the filtering operation to the prediction signal; and constructing a current video block using the reshaped predicted signal.

15. Способ по статье 8, отличающийся тем, что процедура преобразования далее содержит: применение, прежде выполнения операции фильтрации, прогнозирования с компенсацией движения для текущего видеоблока с целью получения прогнозируемого сигнала; применение режима кодирования к прогнозируемому сигналу с целью генерации переформированного прогнозируемого сигнала; и конструирование, после применения операции фильтрации, текущего видеоблока с использованием фильтрованного переформированного прогнозируемого сигнала, и отличающийся тем, что the фильтрованный переформированный прогнозируемый сигнал генерируют путем применения операции фильтрации к переформированному прогнозируемому сигналу.15. The method according to Article 8, characterized in that the conversion procedure further comprises: applying, before performing the filtering operation, motion-compensated prediction for the current video block in order to obtain a predicted signal; applying an encoding mode to the predicted signal to generate a reshaped predicted signal; and constructing, after applying the filtering operation, a current video block using the filtered deformed predicted signal, and characterized in that the filtered deformed predicted signal is generated by applying a filtering operation to the deformed predicted signal.

16. Способ обработки видео, содержащий: осуществление преобразования между текущим видеоблоком видео и кодированным представлением видео, где, в процессе преобразования, определяют конечный реконструированный блок для текущего видеоблока, и где временный реконструированный блок, сформирован с использованием способа прогнозирования и представлен во второй области.16. A video processing method, comprising: performing a transformation between a current video video block and an encoded video representation, where, in the transformation process, a final reconstructed block for the current video block is determined, and where a temporary reconstructed block is generated using a prediction method and presented in a second region.

17. Способ по статье 16, отличающийся тем, что процедура преобразования далее содержит: применение прогнозирования с компенсацией движения к текущему видеоблоку с целью получения прогнозируемого сигнала; применение прямого переформирования к прогнозируемому сигналу с целью генерации переформированного прогнозируемого сигнала, используемого для формирования временного реконструированного блока; и применение обратного переформирования к временному реконструированному блоку с целью получения обратно реконструированного блока, и отличающийся тем, что применяют фильтрацию к обратно реконструированному блоку для генерации конечного реконструированного блока.17. The method according to Article 16, characterized in that the transformation procedure further comprises: applying motion-compensated prediction to the current video block in order to obtain a predicted signal; applying direct reshaping to the predicted signal to generate a reshaped predicted signal used to generate a temporary reconstructed block; and applying an inverse reformation to the temporary reconstructed block to obtain a reverse reconstructed block, and characterized in that filtering is applied to the reverse reconstructed block to generate a final reconstructed block.

18. Способ по статье 16, отличающийся тем, что процедура преобразования далее содержит: применение прогнозирования к компенсации движения к текущему видеоблоку для получения прогнозируемого сигнала; применение прямого переформирования к прогнозируемому сигналу с целью генерации переформированного прогнозируемого сигнала, используемого для генерации временного реконструированного блока; применение обратного переформирования к фильтрованному реконструированному блоку с целью получения конечного реконструированного блока, и отличающийся тем, что фильтрованный реконструированный блок генерируют посредством применения фильтрации к временному реконструированному блоку.18. The method according to Article 16, characterized in that the transformation procedure further comprises: applying prediction to motion compensation to the current video block to obtain a predicted signal; applying direct reshaping to the predicted signal to generate a reshaped predicted signal used to generate a temporary reconstructed block; applying an inverse reformation to the filtered reconstructed block to obtain a final reconstructed block, and characterized in that the filtered reconstructed block is generated by applying filtering to the temporary reconstructed block.

19. Способ по какой-либо из статей 16 - 18, отличающийся тем, что процедура преобразования далее содержит применение процедуры отображения яркостной составляющей с масштабированием остатка цветностной составляющей (LMCS), которая отображает отсчеты яркостной составляющей на конкретные значения.19. The method according to any of articles 16 - 18, characterized in that the conversion procedure further comprises the use of a luminance component mapping procedure with residual chrominance component scaling (LMCS), which maps the luminance component samples to specific values.

20. Способ по статье 16, отличающийся тем, что к временному реконструированному блоку в первой области применяют фильтр, сначала временный реконструированный блок во второй области преобразуют в первую область с использованием процедуры обратного переформирования прежде применения фильтра, и конечный реконструированный блок зависит от фильтрованного временного реконструированного блока.20. The method of Clause 16, characterized in that a filter is applied to the temporary reconstructed block in the first region, first the temporary reconstructed block in the second region is converted to the first region using an inverse reformation procedure before applying the filter, and the final reconstructed block depends on the filtered temporary reconstructed block.

21. Способ по статье 16, отличающийся тем, что фильтр применяют непосредственно к временному реконструированному блоку во второй области, и после этого применяют операцию обратного переформирования для генерации конечного реконструированного блока.21. The method of Clause 16, wherein the filter is applied directly to the temporary reconstructed block in the second region, and thereafter, a reverse reformation operation is applied to generate the final reconstructed block.

22. Способ по статье 16, отличающийся тем, что фильтр содержит двусторонний фильтр (BF) или фильтр в области преобразования Адамара (HF).22. The method according to article 16, characterized in that the filter contains a bidirectional filter (BF) or a Hadamard transform filter (HF).

23. Способ по статье 16, отличающийся тем, что фильтр использует операцию деблокирующей фильтрации (DBF), операцию нелинейной фильтрации с адаптивным смещением (SAO) или операцию адаптивной контурной фильтрации (ALF).23. The method of Clause 16, wherein the filter uses a deblocking filtering (DBF) operation, a nonlinear adaptive offset filtering (SAO) operation, or an adaptive loop filtering (ALF) operation.

24. Способ по какой-либо одной из статей 1 - 23, отличающийся тем, что параметры фильтра, используемого для операции фильтрации, зависят от того, активизирован ли или нет режим кодирования для текущего видеоблока, где, в режиме кодирования, текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.24. The method according to any one of articles 1 to 23, characterized in that the parameters of the filter used for the filtering operation depend on whether or not the encoding mode is activated for the current video block, where, in the encoding mode, the current video block is designed to based on the first region and the second region and/or scale the remainder of the chrominance component in a manner dependent on the luminance component.

25. Способ по какой-либо из статей 1 - 25, отличающийся тем, что первая область является исходной областью и вторая область является переформированной областью с использованием способа отображения яркостной составляющей с масштабированием цветностной составляющей (LMCS), который отображает отсчеты яркостной составляющей на конкретные величины.25. The method as set forth in any one of Clauses 1 to 25, wherein the first region is the original region and the second region is the reshaped region using a luminance component scaling (LMCS) mapping method that maps luminance component samples to specific values .

26. Способ по статье 25, отличающийся тем, что способ LMCS использует кусочно-линейную модель для отображения отсчетов яркостной составляющей на конкретные величины.26. The method according to article 25, characterized in that the LMCS method uses a piecewise linear model to map the luminance component samples to specific values.

27. Способ по какой-либо из статей 8 - 26, отличающийся тем, что осуществление преобразования содержит генерацию кодированного представления из текущего блока.27. The method according to any of articles 8 - 26, characterized in that the implementation of the transformation includes generating an encoded representation from the current block.

28. Способ по какой-либо из статей 8 - 26, отличающийся тем, что осуществление преобразования содержит генерацию текущего блока из кодированного представления.28. The method according to any of articles 8 - 26, characterized in that the implementation of the transformation includes generating the current block from the encoded representation.

29. Устройство в видеосистеме, содержащее процессор и энергонезависимое запоминающее устройство с записанными в нем командами, где при выполнении этих команд процессор реализует способ согласно какой-либо одной из статей 1 - 28.29. A device in a video system containing a processor and a non-volatile storage device with commands written therein, where, when executing these commands, the processor implements a method in accordance with any one of Articles 1 to 28.

30. Компьютерный программный продукт, сохраняемый на энергонезависимом читаемом компьютером носителе информации, этот компьютерный программный продукт содержит программный код для осуществления способа согласно какой-либо одной из статей 1 - 28.30. A computer program product stored on a non-volatile computer-readable storage medium, this computer program product contains program code for implementing a method according to any one of Articles 1 to 28.

Третья группа статей описывает определенные признаки и аспекты предлагаемых способов, перечисленных в предыдущем разделе, включая, например, Пример 6.The third group of articles describes certain features and aspects of the proposed methods listed in the previous section, including, for example, Example 6.

1. Способ обработки видео, содержащий: осуществление преобразования между текущим видеоблоком видеообласти видео и кодированным представлением видео, где процедура преобразования использует режим кодирования, в котором текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и где набор параметров в кодированном представлении содержит информацию о параметрах для режима кодирования.1. A video processing method, comprising: performing a transformation between a current video block of a video region and an encoded representation of the video, where the transformation procedure uses an encoding mode in which the current video block is constructed based on a first region and a second region and/or scales the remainder of the chrominance component in a manner dependent on luminance component, and where the parameter set in the encoded representation contains parameter information for the encoding mode.

2. Способ по статье 1, отличающийся тем, что указанный набор параметров отличается от заголовка группы плиток.2. The method according to article 1, characterized in that the specified set of parameters differs from the header of the tile group.

3. Способ по статье 2, отличающийся тем, что указанный набор параметров представляет собой набор параметров адаптации (APS).3. The method according to Article 2, characterized in that the specified set of parameters is an adaptation parameter set (APS).

4. Способ по статье 3, отличающийся тем, что набор APS для информации о режиме кодирования называется набором параметров для отображения яркостной составляющей с масштабированием цветностной составляющей (LMCS) APS.4. The method according to Clause 3, characterized in that the APS set for encoding mode information is called a luminance component scaling (LMCS) APS parameter set.

5. Способ по статье 3, отличающийся тем, что идентификатор для набора APS, который должен быть использован для текущего видеоблока, входит в кодированное представление видео.5. The method of Clause 3, wherein the identifier for the APS set to be used for the current video block is included in the encoded video representation.

6. Способ по статье 5, отличающийся тем, что присутствует ли указанный идентификатор в кодированном представлении видео, зависит от того, активизирован ли режим кодирования для видеообласти.6. The method of Article 5, characterized in that whether the specified identifier is present in the encoded video representation depends on whether the encoding mode for the video domain is activated.

7. Способ по статье 3, отличающийся тем, что указанный набор параметров содержит идентификатор набора APS.7. The method according to Article 3, characterized in that the specified set of parameters contains the APS set identifier.

8. Способ по статье 1, отличающийся тем, что для набора параметров назначают значение типа единицы NAL.8. The method according to article 1, characterized in that a NAL unit type value is assigned to the set of parameters.

9. Способ по статье 1, отличающийся тем, что значение идентификатора набора параметров находится в диапазоне между 0 и M, где M равно 2K-1.9. The method according to Article 1, characterized in that the value of the parameter set identifier is in the range between 0 and M, where M is equal to 2 K -1.

10. Способ по статье 1, отличающийся тем, что указанный набор параметров совместно используется изображениями из видео.10. The method according to article 1, characterized in that the specified set of parameters is shared by images from the video.

11. Способ по статье 1, отличающийся тем, что идентификатор набора параметров имеет величину, кодированную в коде фиксированной длины.11. The method according to Article 1, characterized in that the parameter set identifier has a value encoded in a fixed-length code.

12. Способ по статье 1, отличающийся тем, что идентификатор набор параметров кодирован посредством экспоненциального кодирования-Голомба (exponential-Golomb (EG)), усеченного унарного кода или кода бинаризации.12. The method of Clause 1, wherein the parameter set identifier is encoded using exponential-Golomb (EG), truncated unary, or binarization code.

13. Способ по статье 1, отличающийся тем, что, для двух подобластей в одном и том же изображении указанный набор параметров содержит идентификаторы, имеющие две разные величины.13. The method according to Article 1, characterized in that, for two sub-regions in the same image, the specified set of parameters contains identifiers having two different values.

14. Способ по статье 3, отличающийся тем, что указанный набор параметров и набор APS для информации об адаптивной контурной фильтрации (ALF) совместно используют один и тот же тип (NUT) единицы уровня сетевой абстракции (NAL).14. The method of Clause 3, wherein said parameter set and the APS set for adaptive loop filtering (ALF) information share the same network abstraction layer (NAL) unit type (NUT).

15. Способ по статье 1, отличающийся тем, что информацию о параметрах передают с текущим набором APS для информации об адаптивном контурном фильтре (ALF).15. The method according to clause 1, characterized in that the parameter information is transmitted with the current set of APS for adaptive loop filter (ALF) information.

16. Способ по статье 1, отличающийся тем, что информацию о параметрах передают в наборе параметров последовательности (SPS), в наборе параметров видео (VPS), в наборе параметров изображения (PPS), в последовательности, в заголовке или в заголовке изображении.16. The method according to article 1, characterized in that the parameter information is transmitted in a sequence parameter set (SPS), in a video parameter set (VPS), in a picture parameter set (PPS), in a sequence, in a header or in a header picture.

17. Способ по статье 1, отличающийся тем, что информация о параметрах содержит по меньшей мере одно из - информацию о модели устройства переформирования, информацию об использовании режима кодирования, или масштабные коэффициенты для остатка цветностной составляющей.17. The method according to Article 1, characterized in that the information about the parameters contains at least one of information about the model of the reshaping device, information about the use of the encoding mode, or scale factors for the remainder of the color component.

18. Способ по статье 1, отличающийся тем, что информацию о параметрах передают в виде сигнализации на одном уровне.18. The method according to Article 1, characterized in that information about the parameters is transmitted in the form of signaling at one level.

19. Способ по статье 1, отличающийся тем, что информацию о параметрах содержит информацию об использовании режима кодирования, о котором сообщают в виде сигнализации на втором уровне.19. The method according to article 1, characterized in that the parameter information contains information about the use of the encoding mode, which is reported in the form of signaling at the second level.

20. Способ по статье 18 and 19, отличающийся тем, что информацию о параметрах передают в виде сигнализации в наборе APS и информацию об использовании режима кодирования передают виде сигнализации на уровне видеообласти.20. The method according to Article 18 and 19, characterized in that the parameter information is transmitted as signaling in the APS set and information about the use of the encoding mode is transmitted as signaling at the video domain level.

21. Способ по статье 1, отличающийся тем, что выполняют синтаксический анализ информации о параметрах на одном уровне.21. The method according to article 1, characterized in that they perform parsing of information about parameters at one level.

22. Способ по статье 1, отличающийся тем, что информация о параметрах содержит информацию об использовании режима кодирования, подвергнутую синтаксическому анализу на втором уровне.22. The method according to Article 1, characterized in that the information about the parameters contains information about the use of the encoding mode, subjected to parsing at the second level.

23. Способ по статье 21 или 22, отличающийся тем, что информацию о параметрах подвергают синтаксическому анализу в наборе APS и информацию об использовании режима кодирования подвергают синтаксическому анализу на уровне видеообласти.23. The method according to Article 21 or 22, characterized in that the parameter information is parsed in the APS set and the encoding mode usage information is parsed at the video domain level.

24. Способ по статье 1, отличающийся тем, что для кодирования информации о параметрах с разными индексами набора APS применяют кодирование с прогнозированием.24. The method according to Article 1, characterized in that predictive coding is used to encode information about parameters with different APS set indices.

25. Способ по какой-либо из статей 1 - 24, отличающийся тем, что первая область представляет собой исходную область и вторая область представляет собой переформированную область с использованием способа отображения яркостной составляющей с масштабированием цветностной составляющей (LMCS), который отображает отсчеты яркостной составляющей на конкретные значения.25. The method as set forth in any one of Clauses 1 to 24, wherein the first region is the original region and the second region is the reshaped region using a luminance component scaling (LMCS) display method that displays luminance component samples on specific meanings.

26. Способ по статье 25, отличающийся тем, что способ LMCS использует кусочно-линейную модель для отображения отсчетов.26. The method according to Article 25, characterized in that the LMCS method uses a piecewise linear model to display the samples.

27. Способ по какой-либо из статей 1 - 26, отличающийся тем, что видеообласть является изображением или группой плиток.27. The method according to any of articles 1 to 26, characterized in that the video area is an image or a group of tiles.

28. Способ по какой-либо из статей 1 - 26, отличающийся тем, что уровень видеообласти представляет собой заголовок изображения или заголовок группы плиток.28. The method according to any of articles 1 to 26, characterized in that the video area level is an image header or a tile group header.

29. Способ по какой-либо из статей 1 - 28, отличающийся тем, что первая область является исходной областью и вторая область является переформированной областью с использованием способа отображения яркостной составляющей с масштабированием цветностной составляющей (LMCS), который отображает отсчеты яркостной составляющей на конкретные значения в соответствии с моделями переформирования.29. The method as set forth in any one of Clauses 1 to 28, wherein the first region is the original region and the second region is the reshaped region using a luminance component scaling (LMCS) mapping method that maps luminance component samples to specific values in accordance with reformation models.

30. Способ по статье 29, отличающийся тем, что способ LMCS использует кусочно-линейную модель для отображения отсчетов яркостной составляющей на конкретные значения.30. The method according to article 29, characterized in that the LMCS method uses a piecewise linear model to map the luminance component samples to specific values.

31. Способ по какой-либо из статей 1 - 30, отличающийся тем, что процедура преобразования содержит генерацию кодированного представления из текущего блока.31. The method according to any of articles 1 - 30, characterized in that the conversion procedure contains the generation of an encoded representation from the current block.

32. Способ по какой-либо из статей 1 - 30, отличающийся тем, что процедура преобразования содержит генерацию текущего блока из кодированного представления.32. The method according to any of articles 1 to 30, characterized in that the conversion procedure includes generating the current block from the encoded representation.

33. Устройство в видеосистеме, содержащее процессор и энергонезависимое запоминающее устройство с записанными в нем командами, где при выполнении этих команд процессор реализует способ согласно какой-либо одной из статей 1 - 32.33. A device in a video system containing a processor and a non-volatile storage device with commands written therein, where, when executing these commands, the processor implements a method in accordance with any one of Articles 1 to 32.

34. Компьютерный программный продукт, сохраняемый на энергонезависимом читаемом компьютером носителе информации, этот компьютерный программный продукт содержит программный код для осуществления способа согласно какой-либо одной из статей 1 - 32.34. A computer program product stored on a non-volatile computer-readable storage medium, this computer program product contains program code for implementing a method according to any one of Articles 1 to 32.

Четвертая группа статей описывает определенные признаки и аспекты предлагаемых способов, перечисленных в предыдущем разделе, включая, например, Примеры 7 и 19.The fourth group of articles describes certain features and aspects of the proposed methods listed in the previous section, including, for example, Examples 7 and 19.

1. Способ обработки видео, содержащий: преобразование между текущим видеоблоком видео, который является блоком цветностной составляющей, и кодированным представлением видео, где, в процессе преобразования, текущий видеоблок конструируют на основе первой области и второй области, и где процедура преобразования далее содержит применение процедуры прямого переформирования и/или процедуры обратного переформирования к одной или нескольким цветностным составляющим текущего видеоблока.1. A video processing method, comprising: converting between a current video video block, which is a chrominance component block, and an encoded video representation, wherein, in the conversion process, the current video block is constructed based on a first region and a second region, and wherein the transformation procedure further comprises applying the procedure direct reformation and/or reverse reformation procedure to one or more color components of the current video block.

2. Способ по статье 1, отличающийся тем, что этот способ далее предлагает воздерживаться от применения зависящего от яркостной составляющей масштабирования остатка цветностной составляющей (LCRS) к одной или нескольким цветностным составляющим текущего видеоблока.2. The method of Clause 1, wherein the method further proposes to refrain from applying luminance-dependent chroma residual scaling (LCRS) to one or more chroma components of the current video block.

3. Способ по статье 1, отличающийся тем, что для цветностной составляющей используется по меньшей мере одно из следующего - кусочно-линейная модель (PWL), преобразовательная таблица для прямого преобразования или преобразовательная таблица для обратного преобразования.3. The method according to article 1, characterized in that for the chrominance component at least one of the following is used - a piecewise linear model (PWL), a lookup table for a forward transformation, or a lookup table for an inverse transformation.

4. Способ по статье 3, отличающийся тем, что указанные модель PWL, преобразовательную таблицу для прямого преобразования и преобразовательную таблицу для обратного преобразования для цветностной составляющей выводят, соответственно, из модели PWL, преобразовательной таблицы для прямого преобразования и преобразовательной таблицы для обратного преобразования для соответствующей яркостной составляющей.4. The method according to article 3, characterized in that the specified PWL model, conversion table for direct conversion and conversion table for inverse conversion for the chrominance component are derived, respectively, from the PWL model, conversion table for direct conversion and conversion table for inverse conversion for the corresponding brightness component.

5. Способ по статье 3, отличающийся тем, что модель PWL сообщают в виде сигнализации в наборе параметров последовательности (SPS), наборе параметров видео (VPS), наборе параметров адаптации (APS), наборе параметров изображения (PPS), заголовке последовательности, заголовке изображения, заголовке группы плиток, заголовке плитки, в ряду единиц дерева кодирования (CTU), группе единиц CTU или в областях.5. The method of Clause 3, wherein the PWL model is signaled in a Sequence Parameter Set (SPS), Video Parameter Set (VPS), Adaptation Parameter Set (APS), Picture Parameter Set (PPS), Sequence Header, Header image, tile group header, tile header, in a row of coding tree units (CTUs), a group of CTUs, or in areas.

6. Способ по статье 3, отличающийся тем, что преобразовательную таблицу для прямого преобразования и преобразовательную таблицу для обратного преобразования сообщают в виде сигнализации в наборе параметров последовательности (SPS), наборе параметров видео (VPS), наборе параметров адаптации (APS), наборе параметров изображения (PPS), заголовке последовательности, заголовке изображения, заголовке группы плиток, заголовке плитки, ряду единиц дерева кодирования (CTU), группе единиц CTU или в областях.6. The method of Clause 3, wherein the forward transform lookup table and the reverse lookup table are signaled in a Sequence Parameter Set (SPS), Video Parameter Set (VPS), Adaptation Parameter Set (APS), Parameter Set picture (PPS), sequence header, picture header, tile group header, tile header, row of coding tree units (CTUs), group of CTUs or in regions.

7. Способ обработки видео, содержащий: осуществление преобразование между текущим видеоблоком цветностной составляющей видео и кодированным представлением видео, где осуществление преобразования содержит: определение, активизировано ли зависящее от яркостной составляющей масштабирование остатка цветностной составляющей (LCRS) или нет, на основе некоторого правила и реконструкцию текущего видеоблока цветностной составляющей на основе результата этого определения.7. A video processing method, comprising: performing a transformation between a current chroma video block and an encoded video representation, wherein performing the transformation comprises: determining whether luminance-dependent chroma residual scaling (LCRS) is enabled or not, based on a rule, and reconstructing the current chrominance video block based on the result of this determination.

8. Способ по статье 7, отличающийся тем, что указанное правило специфицирует, что режим LCRS не активизирован для определенных размеров блоков, временных уровней, типов групп плиток, типов изображений, режимов кодирования, некоторых типов информации о движении.8. The method of Clause 7, wherein said rule specifies that LCRS mode is not enabled for certain block sizes, time levels, tile group types, image types, encoding modes, certain types of motion information.

9. Способ по статье 7, отличающийся тем, что указанное правило специфицирует, что режим LCRS не активизирован для блоков цветностной составляющей и процедура прямого и/или обратного переформирования применяется к соответствующим блокам яркостной составляющей.9. The method according to Article 7, characterized in that the said rule specifies that the LCRS mode is not activated for blocks of the chroma component and the forward and/or reverse reformation procedure is applied to the corresponding blocks of the luminance component.

10. Способ по статье 7, отличающийся тем, что указанное правило специфицирует, что режим LCRS применяется к блокам цветностной составляющей и процедура прямого и/или обратного переформирования не применяется к соответствующим блокам яркостной составляющей.10. The method according to Article 7, characterized in that the said rule specifies that the LCRS mode is applied to blocks of the chrominance component and the forward and/or reverse reformation procedure is not applied to the corresponding blocks of the luminance component.

11. Способ по статье 7, отличающийся тем, что указанное правило специфицирует, что режим LCRS не активизирован для текущего видеоблока цветностной составляющей, кодируемого с использованием модели кросс-компонентного линейного прогнозирования (cross component linear model (CCLM)).11. The method of Clause 7, wherein said rule specifies that LCRS mode is not enabled for the current chrominance video block encoded using a cross component linear model (CCLM).

12. Способ по статье 7, отличающийся тем, что указанное правило специфицирует, что режим LCRS не активизирован для текущего видеоблока цветностной составляющей, не кодируемого с использованием модели кросс-компонентного линейного прогнозирования (CCLM).12. The method of Clause 7, wherein said rule specifies that the LCRS mode is not enabled for the current chrominance video block not encoded using a cross-component linear prediction model (CCLM).

13. Способ по статье 7, отличающийся тем, что указанное правило специфицирует, что отмена активизации режима LCRS основана на том, что размер видеоблока превосходит единицу данных виртуального конвейера (VPDU).13. The method of Clause 7, wherein said rule specifies that deactivation of the LCRS mode is based on the video block size being larger than a virtual pipeline data unit (VPDU).

14. Способ по статье 13, отличающийся тем, что режим LCRS не допускается в случае, когда число видеоотсчетов в видеоблоке меньше M*H.14. The method according to Article 13, characterized in that the LCRS mode is not allowed when the number of video samples in a video block is less than M*H.

15. Способ по статье 13, отличающийся тем, что режим LCRS не допускается в случае, когда минимальный размер - ширина и/или высота, видеоблока меньше или равен определенной величине.15. The method according to Article 13, characterized in that the LCRS mode is not allowed in the case where the minimum size - width and/or height - of the video block is less than or equal to a certain value.

16. Способ по статье 13, отличающийся тем, что режим LCRS не допускается в случае, когда минимальный размер - ширина и/или высота, видеоблока не меньше определенной величины.16. The method according to Article 13, characterized in that the LCRS mode is not allowed in the case where the minimum size - width and/or height - of the video block is not less than a certain size.

17. Способ по статье 15 или 16, отличающийся тем, что указанная определенная величина равна 8.17. The method according to Article 15 or 16, characterized in that the specified specific value is equal to 8.

18. Способ по статье 13, отличающийся тем, что режим LCRS не допускается в случае, когда ширина видеоблока равна или больше первой величины, и/или когда высота видеоблока равна или больше второй величины.18. The method according to Article 13, characterized in that the LCRS mode is not allowed in the case when the width of the video block is equal to or greater than the first value, and/or when the height of the video block is equal to or greater than the second value.

19. Способ по статье 13, отличающийся тем, что режим LCRS не допускается в случае, когда ширина видеоблока равна или меньше первой величины, и/или когда высота видеоблока равна или меньше второй величины.19. The method according to Article 13, characterized in that the LCRS mode is not allowed in the case when the width of the video block is equal to or less than the first value, and/or when the height of the video block is equal to or less than the second value.

20. Способ по статье 18 или 19, отличающийся тем, что по меньшей мере одна из величин - первая величина и/или вторая величина, равна 8, 64 или 128.20. The method according to Article 18 or 19, characterized in that at least one of the values - the first value and/or the second value - is equal to 8, 64 or 128.

21. Способ по какой-либо из статей 13 - 20, отличающийся тем, что указанный видеоблок представляет собой блок яркостной составляющей или блок цветностной составляющей.21. The method according to any of articles 13 - 20, characterized in that the specified video block is a block of a luminance component or a block of a chrominance component.

22. Способ по какой-либо из статей 1 - 21, отличающийся тем, что первая область является исходной областью, а вторая область является переформированной областью с использованием способа отображения яркостной составляющей с масштабированием цветностной составляющей (LMCS), который отображает отсчеты яркостной составляющей в конкретные величины в соответствии с моделями переформирования.22. The method as set forth in any one of Clauses 1 to 21, wherein the first region is the original region and the second region is the reshaped region using a luminance component scaling (LMCS) mapping method that maps luminance samples to specific values in accordance with reformation models.

23. Способ по статье 22, отличающийся тем, что способ LMCS использует кусочно-линейную модель для отображения отсчетов яркостной составляющей в конкретные величины.23. The method according to Article 22, characterized in that the LMCS method uses a piecewise linear model to map the luminance component samples into specific values.

24. Способ по какой-либо из статей 1 - 23, отличающийся тем, что остаток цветностной составляющей масштабируют зависящим от яркостной составляющей способом путем выполнения операции зависящего от яркостной составляющей масштабирования остатка цветностной составляющей, которая предусматривает масштабирование остатков цветностной составляющей прежде их использования для формирования реконструкции видеоблока цветностной составляющей, а параметры масштабирования получают из отсчетов яркостной составляющей.24. The method according to any of articles 1 to 23, characterized in that the remainder of the chrominance component is scaled in a luminance-dependent manner by performing a luminance-dependent scaling operation of the remainder of the chrominance component, which involves scaling the remainder of the chrominance component before they are used to form the reconstruction video block of the chrominance component, and the scaling parameters are obtained from the luminance component samples.

25. Способ по какой-либо из статей 1 - 24, отличающийся тем, что осуществление преобразования содержит генерацию кодированного представления из текущего блока.25. The method according to any of articles 1 - 24, characterized in that the implementation of the transformation involves generating an encoded representation from the current block.

26. Способ по какой-либо из статей 1 - 24, отличающийся тем, что осуществление преобразования содержит генерацию текущего блока из кодированного представления е.26. The method according to any of articles 1 - 24, characterized in that the implementation of the transformation includes generating the current block from the encoded representation e.

27. Устройство в видеосистеме, содержащее процессор и энергонезависимое запоминающее устройство с записанными в нем командами, где при выполнении этих команд процессор реализует способ согласно какой-либо одной из статей 1 - 26.27. A device in a video system containing a processor and a non-volatile storage device with commands written therein, where, when executing these commands, the processor implements a method in accordance with any one of Articles 1 to 26.

28. Компьютерный программный продукт, сохраняемый на энергонезависимом читаемом компьютером носителе информации, этот компьютерный программный продукт содержит программный код для осуществления способа согласно какой-либо одной из статей 1 - 26.28. A computer program product stored on a non-volatile computer-readable storage medium, this computer program product contains program code for implementing a method according to any one of Articles 1 to 26.

Пятая группа статей описывает определенные признаки и аспекты предлагаемых способов, перечисленных в предыдущем разделе, включая, например, Примеры 10 - 14, 28, 29 и 40.The fifth group of articles describes certain features and aspects of the proposed methods listed in the previous section, including, for example, Examples 10 - 14, 28, 29 and 40.

1. Способ обработки видео, содержащий: определение, для осуществления преобразования между текущим видеоблоком и кодированным представлением видео, следует ли отменить активизацию использования режима кодирования на основе одного или нескольких значений коэффициентов текущего видеоблока; и осуществление преобразования на основе результата этого определения, где, в процессе преобразования с использованием режима кодирования, текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.1. A video processing method, comprising: determining, in order to perform a conversion between a current video block and an encoded video representation, whether to deactivate the use of an encoding mode based on one or more coefficient values of the current video block; and performing conversion based on the result of this determination, wherein, in the conversion process using the encoding mode, the current video block is constructed based on the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component.

2. Способ по статье 1, отличающийся тем, что процедура переформирования содержит: избирательное применение процедуры прямого переформирования к отсчетам в первой области, которые затем преобразуют в отсчеты во второй области; и избирательное применение процедуры обратного переформирования к отсчетам во второй области, которые затем преобразуют в представление в первой области.2. The method according to Article 1, characterized in that the reformation procedure contains: selective application of the direct reformation procedure to readings in the first area, which are then converted into readings in the second area; and selectively applying the inverse reshaping procedure to the samples in the second region, which are then converted to a representation in the first region.

3. Способ по статье 1 или 2, отличающийся тем, что процедура переформирования далее содержит: избирательное применение процедуры зависящего от яркостной составляющей масштабирования остатка цветностной составляющей.3. The method according to article 1 or 2, characterized in that the reformation procedure further contains: selective application of the procedure for scaling the remainder of the chrominance component depending on the brightness component.

4. Способ по какой-либо из статей 1 - 3, отличающийся тем, что указанное определение осуществляется на основе того, кодирован ли текущий видеоблок со всеми нулевыми коэффициенты.4. The method according to any of articles 1 - 3, characterized in that the specified determination is made based on whether the current video block is encoded with all zero coefficients.

5. Способ по статье 2, отличающийся тем, что процедуру прямого переформирования пропускают на основе того, кодирован ли текущий видеоблок со всеми нулевыми коэффициенты.5. The method according to Article 2, characterized in that the direct reformation procedure is skipped based on whether the current video block is encoded with all zero coefficients.

6. Способ по статье 2, отличающийся тем, что текущий видеоблок кодируют со всеми нулевыми коэффициентами, и отличающийся тем, что процедуру обратного переформирования пропускают.6. The method according to Article 2, characterized in that the current video block is encoded with all zero coefficients, and characterized in that the reverse reformation procedure is skipped.

7. Способ по статье 2, отличающийся тем, что текущий видеоблок кодируют со всеми нулевыми коэффициентами, и отличающийся тем, что процедуру зависящего от яркостной составляющей масштабирования остатка цветностной составляющей пропускают.7. The method according to Article 2, characterized in that the current video block is encoded with all zero coefficients, and characterized in that the procedure for scaling the remainder of the chrominance component depending on the luminance component is skipped.

8. Способ по статье 2, отличающийся тем, что указанное определение основано на том, кодирован ли текущий видеоблок только с одним ненулевым коэффициентом, расположенным в определенном положении.8. The method according to Article 2, characterized in that said determination is based on whether the current video block is encoded with only one non-zero coefficient located at a certain position.

9. Способ по статье 2, отличающийся тем, что текущий видеоблок кодируют только с одним ненулевым коэффициентом, расположенным в определенном положении, и пропускают по меньшей мере одну из следующих процедур - процедуру прямого переформирования, процедуру обратного переформирования и/или процедуру зависящего от яркостной составляющей масштабирование остатка цветностной составляющей.9. The method according to Article 2, characterized in that the current video block is encoded with only one non-zero coefficient located in a certain position, and at least one of the following procedures is skipped - a direct reformation procedure, an inverse reformation procedure and/or a luminance component-dependent procedure scaling the remainder of the chrominance component.

10. Способ по статье 2, отличающийся тем, что указанное определение основано на том, кодирован ли текущий видеоблок с M ненулевыми коэффициентами.10. The method according to Article 2, characterized in that said determination is based on whether the current video block is encoded with M non-zero coefficients.

11. Способ по статье 2, отличающийся тем, что текущий видеоблок кодируют с M ненулевыми коэффициентами, и пропускают по меньшей мере одну из следующих процедур - процедуру прямого переформирования, процедуру обратного переформирования и/или процедуру зависящего от яркостной составляющей масштабирование остатка цветностной составляющей.11. The method according to Article 2, characterized in that the current video block is encoded with M non-zero coefficients, and at least one of the following procedures is skipped - a direct reformation procedure, a reverse reformation procedure and/or a procedure for scaling the remainder of the chrominance component depending on the luminance component.

12. Способ по статье 11, отличающийся тем, что M равно 1.12. Method according to Article 11, characterized in that M is equal to 1.

13. Способ обработки видео, содержащий: разбиение, для преобразования между текущим видеоблоком видео, превосходящим единицу данных виртуального конвейера (VPDU) видео, этого текущего видеоблока на области; и осуществление преобразования путем применения режима кодирования по отдельности к каждой области, отличающийся тем, что, в процессе преобразования путем применения режим кодирования, текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.13. A video processing method, comprising: partitioning, for converting between a current video block of a video larger than a video virtual pipeline data unit (VPDU), that current video block into areas; and performing conversion by applying the encoding mode separately to each area, characterized in that, in the conversion process by applying the encoding mode, the current video block is constructed based on the first area and the second area and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component.

14. Способ по статье 13, отличающийся тем, что каждая область соответствует индивидуальной единице кодирования (CU) для режима кодирования.14. The method according to Article 13, characterized in that each area corresponds to an individual coding unit (CU) for the coding mode.

15. Способ по статье 13, отличающийся тем, что ширина текущего видеоблока равна или больше первой величины, текущий видеоблок разбивают на суб-блоки, так что ширина одного или нескольких из этих суб-блоков равна или меньше первой величины, и режим кодирования активизирован для каждого суб-блока.15. The method of Article 13, characterized in that the width of the current video block is equal to or greater than the first value, the current video block is divided into sub-blocks such that the width of one or more of these sub-blocks is equal to or less than the first value, and the encoding mode is activated for each sub-block.

16. Способ по статье 13, отличающийся тем, что высота текущего видеоблока равна или больше второй величины, текущий видеоблок разбивают на суб-блоки, имеющие одну или несколько высот, которые равны или меньше указанной второй величины, и режим кодирования активизируют для каждого суб-блока.16. The method according to Article 13, characterized in that the height of the current video block is equal to or greater than the second value, the current video block is divided into sub-blocks having one or more heights that are equal to or less than the specified second value, and the encoding mode is activated for each sub-block. block.

17. Способ по статье 13, отличающийся тем, что размер текущего видеоблока равен или больше третьей величины, текущий видеоблок разбивают на суб-блоки, имеющие один или несколько размеров равных или меньше указанной третьей величины, и режим кодирования активизируют для каждого суб-блока.17. The method according to Article 13, characterized in that the size of the current video block is equal to or greater than the third value, the current video block is divided into sub-blocks having one or more sizes equal to or less than the specified third value, and the encoding mode is activated for each sub-block.

18. Способ по какой-либо одной из статей 15 - 17, отличающийся тем, что указанные суб-блоки имеют одинаковую ширину или одинаковую высоту.18. The method according to any one of Articles 15 - 17, characterized in that the specified sub-blocks have the same width or the same height.

19. Способ обработки видео, содержащий: определение, для осуществления преобразования между текущим видеоблоком и кодированным представлением видео, следует ли отменить активизацию использования режима кодирования на основе размера или цветового формата текущего видеоблока; и осуществление преобразования на основе результата указанного определения, где, в процессе преобразования с использованием режима кодирования, текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.19. A video processing method, comprising: determining, to perform a conversion between a current video block and an encoded video representation, whether to deactivate the use of an encoding mode based on the size or color format of the current video block; and performing conversion based on the result of said determination, wherein, in the conversion process using the encoding mode, the current video block is constructed based on the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component.

20. Способ по статье 19, отличающийся тем, что на этапе указанного определения решают, что следует отменить активизацию режима кодирования для текущего видеоблока, превосходящего единицу данных виртуального конвейера (VPDU).20. The method according to article 19, characterized in that in the said determination step it is decided that the encoding mode for the current video block exceeding the virtual pipeline data unit (VPDU) should be deactivated.

21. Способ по статье 19, отличающийся тем, что на этапе указанного определения решают, что следует отменить активизацию режима кодирования для текущего видеоблока, имеющего размер, содержащий отсчеты, число которых меньше M*H.21. The method according to Article 19, characterized in that at the said determination stage it is decided that the encoding mode should be deactivated for the current video block having a size containing samples the number of which is less than M*H.

22. Способ по статье 19, отличающийся тем, что на этапе указанного определения решают, что следует отменить активизацию режима кодирования для текущего видеоблока в случае, когда минимальный размер ширины и/или высоты текущего видеоблока равен или меньше величины X, являющейся целым числом.22. The method according to Article 19, characterized in that at the stage of the specified determination it is decided that the activation of the encoding mode for the current video block should be canceled in the case where the minimum size of the width and/or height of the current video block is equal to or less than the value X, which is an integer.

23. Способ по статье 19, отличающийся тем, что на этапе указанного определения решают, что следует отменить активизацию режима кодирования для текущего видеоблока в случае, когда минимальный размер ширины и/или высоты текущего видеоблока не меньше величины X, являющейся целым числом.23. The method according to Article 19, characterized in that at the stage of the specified determination it is decided that the activation of the encoding mode for the current video block should be canceled in the case where the minimum size of the width and/or height of the current video block is not less than the value X, which is an integer.

24. Способ по статье 22 или 23, отличающийся тем, что X равно 8.24. Method according to Article 22 or 23, characterized in that X is equal to 8.

25. Способ по статье 19, отличающийся тем, что на этапе указанного определения решают, что следует отменить активизацию режима кодирования для текущего видеоблока в случае, когда текущий видеоблок имеет высоту и/или ширину, где эта ширина равна или больше первой величины и эта высота равна или больше второй величины.25. The method according to Article 19, characterized in that at the stage of the specified determination it is decided that the activation of the encoding mode for the current video block should be canceled in the case where the current video block has a height and/or width, where this width is equal to or greater than the first value and this height equal to or greater than the second value.

26. Способ по статье 19, отличающийся тем, что на этапе указанного определения решают, что следует отменить активизацию режима кодирования для текущего видеоблока в случае, когда текущий видеоблок имеет высоту и/или ширину, где эта ширина равна или меньше первой величины и эта высота равна или меньше второй величины.26. The method according to Article 19, characterized in that at the stage of the specified determination it is decided that the activation of the encoding mode for the current video block should be canceled in the case where the current video block has a height and/or width, where this width is equal to or less than the first value and this height equal to or less than the second value.

27. Способ по статье 25 или 26, отличающийся тем, что по меньшей мере одна из величин - первая величина и/или вторая величина равна 827. The method according to Article 25 or 26, characterized in that at least one of the values - the first value and/or the second value is equal to 8

28. Способ по какой-либо из статей 19 - 27, отличающийся тем, что процедура отмены активизации режима кодирования содержит отмену активизации по меньшей мере одного из: 1) прямого переформирования для преобразования отсчетов в первой области во вторую область; 2) обратного переформирования для преобразования отсчетов во второй области в первую область; 3) зависящего от яркостной составляющей масштабирования цветностной составляющей.28. The method according to any of articles 19 - 27, characterized in that the procedure for canceling the activation of the encoding mode includes canceling the activation of at least one of: 1) direct reformation to convert samples in the first area to the second area; 2) reverse reformation to transform samples in the second region into the first region; 3) scaling of the chrominance component depending on the brightness component.

29. Способ обработки видео, содержащий: осуществление преобразования между текущим видеоблоком видео и кодированным представлением видео, где процедура преобразования использует режим кодирования, в котором текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и где по меньшей мере один синтаксический элемент в кодированном представлении создает индикацию использования режима кодирования и индикацию модели устройства переформирования.29. A video processing method, comprising: performing a transformation between a current video video block and an encoded video representation, where the transformation procedure uses an encoding mode in which the current video block is constructed based on a first region and a second region and/or scales the remainder of the chrominance component in a manner dependent on the luminance component, and wherein the at least one syntactic element in the encoded representation creates an indication of the use of an encoding mode and an indication of the model of the reshaping device.

30. Способ по статье 29, отличающийся тем, что индикацию использования режима кодирования кодируют на основе индикации модели устройства переформирования.30. The method according to Article 29, characterized in that the indication of the use of the encoding mode is encoded based on the indication of the model of the reshaping device.

31. Способ по статье 29, отличающийся тем, что индикацию модели устройства переформирования кодируют на основе индикации режима кодирования.31. The method according to Article 29, characterized in that the indication of the model of the reshaping device is encoded based on the indication of the encoding mode.

32. Способ по статье 29, отличающийся тем, что только один из синтаксических элементов кодируют.32. The method according to Article 29, characterized in that only one of the syntactic elements is encoded.

33. Способ по какой-либо из статей 1 - 32, отличающийся тем, что различные способы усечения применяются к прогнозируемому сигналу и к реконструируемому сигналу.33. The method according to any of articles 1 to 32, characterized in that different truncation methods are applied to the predicted signal and to the reconstructed signal.

34. Способ по статье 33, отличающийся тем, что к прогнозируемому сигналу применяют процедуру адаптивного усечения, позволяющую использовать различные параметры усечения в пределах видео.34. The method according to Article 33, characterized in that an adaptive truncation procedure is applied to the predicted signal, allowing the use of different truncation parameters within the video.

35. Способ по статье 34, отличающийся тем, что во второй области определяют максимальную величину и минимальную величину для адаптивного усечения.35. The method according to Article 34, characterized in that in the second area the maximum value and minimum value for adaptive truncation are determined.

36. Способ по статье 33, отличающийся тем, что к реконструированному сигналу применяют фиксированное усечение.36. The method according to Article 33, characterized in that a fixed truncation is applied to the reconstructed signal.

37. Способ обработки видео, содержащий: определение, что режим кодирования не активизирован для осуществления преобразования между текущим видеоблоком и кодированным представлением видео; и условный пропуск прямого переформирования и/или обратного переформирования на основе результата указанного определения, отличающийся тем, что, в режиме кодирования, текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.37. A method for processing video, comprising: determining that an encoding mode is not activated to perform a conversion between a current video block and an encoded representation of the video; and conditional skipping of direct reformation and/or reverse reformation based on the result of the specified determination, characterized in that, in the encoding mode, the current video block is constructed based on the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component.

38. Способ по статье 37, отличающийся тем, что по меньшей мере один из сигналов - прогнозируемый сигнал, реконструированный сигнал и/или сигнал остатка, находится в первой области.38. The method according to article 37, characterized in that at least one of the signals - a predicted signal, a reconstructed signal and/or a residual signal - is located in the first region.

39. Способ по статье 37, отличающийся тем, что по меньшей мере один из сигналов - прогнозируемый сигнал, реконструированный сигнал и/или сигнал остатка, находится во второй области.39. The method according to article 37, characterized in that at least one of the signals - a predicted signal, a reconstructed signal and/or a residual signal - is located in the second region.

40. Способ обработки видео, содержащий: осуществление преобразования между текущим видеоблоком видеообласти видео и кодированным представлением видео, где процедура преобразования использует режим кодирования, в котором текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и где несколько операций прямого переформирования и/или несколько операций обратного переформирования применяют в режиме переформирования для видеообласти.40. A video processing method, comprising: performing a transformation between a current video block of a video region and an encoded representation of the video, where the transformation procedure uses an encoding mode in which the current video block is constructed based on a first region and a second region and/or scales the remainder of the chrominance component in a manner dependent on luminance component, and wherein a plurality of forward reformatting operations and/or a plurality of reverse reformatting operations are applied in a reformatting mode for the video domain.

41. Способ по статье 40, отличающийся тем, что указанная видеообласть содержит изображение, группу плиток, единицу данных виртуального конвейера (VPDU), ряд единиц дерева кодирования (CTU), или несколько единиц кодирования.41. The method of Clause 40, wherein said video area comprises an image, a group of tiles, a virtual pipeline data unit (VPDU), a series of coding tree units (CTU), or multiple coding units.

42. Способ по статье 40 или 41, отличающийся тем, что то, как выбрать несколько операций прямого переформирования и/или несколько операций обратного переформирования, зависит по меньшей мере от одного из следующих факторов i) размер блока или размер видеоблока, ii) режим кодирования текущего видеоблока или видеообласти, iii) тип изображения текущего видеоблока или видеообласти, iv) флаг проверки малой задержки текущего видеоблока или видеообласти, v) информация о движении текущего видеоблока или видеообласти, vi) опорные изображения для текущего видеоблока или видеообласти, или vii) видеоконтент текущего видеоблока или видеообласти.42. The method according to Article 40 or 41, characterized in that how to select multiple forward reframing operations and/or multiple reverse reframing operations depends on at least one of the following factors i) block size or video block size, ii) encoding mode of the current video block or video area, iii) the image type of the current video block or video area, iv) the low latency check flag of the current video block or video area, v) the motion information of the current video block or video area, vi) reference images for the current video block or video area, or vii) the video content of the current video block or video area.

43. Способ по какой-либо из статей 1 - 42, отличающийся тем, что, в процессе преобразования, отсчет в первой области отображают на отсчет во второй области, имеющий величину меньше величины отсчета в первой области.43. The method according to any of articles 1 - 42, characterized in that, during the conversion process, the reading in the first area is mapped to a reading in the second area, which has a value less than the reading in the first area.

44. Способ по какой-либо из статей 1 - 43, отличающийся тем, что первая область является исходной областью, а вторая область является переформированной областью, использующей способ отображения яркостной составляющей с масштабированием цветностной составляющей (LMCS) для отображения отсчетов цветностной составляющей на конкретные величины.44. The method as set forth in any of Clauses 1 to 43, wherein the first region is the original region and the second region is a reshaped region using a luma mapping method with chrominance scaling (LMCS) to map the chrominance samples to specific values .

45. Способ по статье 44, отличающийся тем, что способ LMCS использует кусочно-линейную модель для отображения отсчетов цветностной составляющей на конкретные величины.45. The method according to Article 44, characterized in that the LMCS method uses a piecewise linear model to map the chrominance component samples to specific values.

46. Способ по какой-либо из статей 1 - 45, отличающийся тем, что осуществление преобразования содержит генерацию кодированного представления из текущего блока.46. The method according to any of articles 1 to 45, characterized in that the implementation of the transformation involves generating an encoded representation from the current block.

47. Способ по какой-либо из статей 1 - 45, отличающийся тем, что осуществление преобразования содержит генерацию текущего блока из кодированного представления.47. The method according to any of articles 1 to 45, characterized in that the implementation of the transformation includes generating the current block from the encoded representation.

48. Устройство в видеосистеме, содержащее процессор и энергонезависимое запоминающее устройство с записанными в нем командами, где при выполнении этих команд процессор реализует способ согласно какой-либо одной из статей 1 - 47.48. A device in a video system containing a processor and a non-volatile storage device with commands written therein, where, when executing these commands, the processor implements a method in accordance with any one of Articles 1 to 47.

49. Компьютерный программный продукт, сохраняемый на энергонезависимом читаемом компьютером носителе информации, этот компьютерный программный продукт содержит программный код для осуществления способа согласно какой-либо одной из статей 1 - 47.49. A computer program product stored on a non-volatile computer-readable storage medium, this computer program product contains program code for implementing a method according to any one of Articles 1 to 47.

Шестая группа статей описывает определенные признаки и аспекты предлагаемых способов, перечисленных в предыдущем разделе, включая, например, Примеры 16 и 17.The sixth group of articles describes certain features and aspects of the proposed methods listed in the previous section, including, for example, Examples 16 and 17.

1. Способ обработки видео, содержащий: выполнение определения, что режим кодирования активизирован для осуществления преобразования между текущим видеоблоком и кодированным представлением видео; и осуществление преобразования с использованием режима палитры, где по меньшей мере палитра репрезентативных величин отсчетов используется для текущего видеоблока, и где, в режиме кодирования, текущий видеоблок конструируют на основе отсчетов в первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.1. A video processing method, comprising: determining that an encoding mode is activated to perform a conversion between a current video block and an encoded video representation; and performing the conversion using a palette mode, wherein at least a palette of representative sample values is used for the current video block, and where, in the encoding mode, the current video block is constructed based on the samples in the first region and the second region and/or scales the remainder of the chrominance component in a manner dependent on the brightness component.

2. Способ по статье 1, отличающийся тем, что палитра репрезентативных величин отсчетов содержит по меньшей мере одно из 1) предикторы палитры или 2) выбивающиеся отсчеты.2. The method according to article 1, characterized in that the palette of representative sample values contains at least one of 1) palette predictors or 2) outlier samples.

3. Способ по статье 1, отличающийся тем, что репрезентативные величины отсчетов представляют величины в первой области.3. The method according to article 1, characterized in that the representative sample values represent values in the first region.

4. Способ по статье 1, отличающийся тем, что репрезентативные величины отсчетов представляют величины во второй области.4. The method according to article 1, characterized in that the representative sample values represent values in the second region.

5. Способ по статье 1 или 2, отличающийся тем, что предикторы палитры, используемые в режиме палитры и включенные в кодированное представление, находятся в первой области или во второй области.5. The method of claim 1 or 2, wherein the palette predictors used in the palette mode and included in the encoded representation are in the first region or in the second region.

6. Способ по статье 1 или 2, отличающийся тем, что выбивающиеся отсчеты, используемые в режиме палитры и включенные в кодированное представление, находятся в первой области или во второй области.6. The method according to clause 1 or 2, characterized in that the outlier samples used in the palette mode and included in the encoded representation are in the first region or in the second region.

7. Способ по статье 1 или 2, отличающийся тем, что когда предикторы палитры и/или выбивающиеся отсчеты, используемые в режиме палитры и включенные в кодированное представление, находятся во второй области, сначала генерируют первый реконструированный блок во второй области и затем используют его для кодирования последующих блоков.7. The method of claim 1 or 2, characterized in that when the palette predictors and/or outlier samples used in the palette mode and included in the encoded representation are in the second region, first generating a first reconstructed block in the second region and then using it to encoding subsequent blocks.

8. Способ по статье 7, отличающийся тем, что когда предикторы палитры и/или выбивающиеся отсчеты, используемые в модифицированном режиме палитры и включенные в кодированное представление, находятся во второй области, генерируют конечный реконструированный блок в первой области с использованием первого реконструированного блока и процедуры обратного переформирования.8. The method of Clause 7, characterized in that when the palette predictors and/or outlier samples used in the modified palette mode and included in the encoded representation are in the second region, generating a final reconstructed block in the first region using the first reconstructed block and procedure reverse reformation.

9. Способ по статье 8, отличающийся тем, что процедуру обратного переформирования привлекают непосредственно перед деблокирующей фильтрацией.9. The method according to Article 8, characterized in that the reverse reformation procedure is used immediately before deblocking filtration.

10. Способ по какой-либо из статей 1 - 9, отличающийся тем, что преобразование осуществляется на основе цветовой составляющей текущего видеоблока.10. The method according to any of articles 1 - 9, characterized in that the conversion is carried out based on the color component of the current video block.

11. Способ по статье 10, отличающийся тем, что цветная составляющая является яркостной составляющей.11. The method according to Article 10, characterized in that the color component is the brightness component.

12. Способ обработки видео, содержащий: выполнение определения, для осуществления преобразования между текущим видеоблоком и кодированным представлением видео, что текущий видеоблок кодирован в режиме палитры, в котором по меньшей мере палитра репрезентативных величин отсчетов используется для кодирования текущего видеоблока; и осуществление, согласно результатам указанного определения, преобразования путем отмены активизации режима кодирования, где, когда режим кодирования применяется к видеоблоку, этот видеоблок конструируют на основе остатка цветностной составляющей, масштабированного способом, зависящим от яркостной составляющей.12. A video processing method, comprising: determining, to perform a conversion between a current video block and an encoded video representation, that the current video block is encoded in a palette mode, in which at least a palette of representative sample values is used to encode the current video block; and performing, according to the results of said determination, the conversion by deactivating the encoding mode, where when the encoding mode is applied to a video block, the video block is constructed based on the remainder of the chrominance component scaled in a manner dependent on the luminance component.

13. Способ по статье 12, отличающийся тем, что когда текущий видеоблок кодируют в режиме палитры, режим кодирования не активизирован.13. The method according to Article 12, characterized in that when the current video block is encoded in palette mode, the encoding mode is not activated.

14. Способ обработки видео, содержащий: осуществление преобразования между первым видеоблоком видео и кодированным представлением видео, где процедура преобразования использует первый режим кодирования и режим кодирования палитры, в котором по меньшей мере палитра репрезентативных величин пикселей используется для кодирования текущего видеоблока; и осуществление преобразования между вторым видеоблоком указанного видео, кодированным без использования режима кодирования палитры и кодированным представлением видео, и где процедура преобразования второго видеоблока использует первый режим кодирования, где первый режим кодирования применен к видеоблоку, этот видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и где первый режим кодирования применяют разными способами для первого видеоблока и второго видеоблока.14. A video processing method, comprising: performing a transformation between a first video block of video and an encoded representation of the video, wherein the transformation procedure uses a first encoding mode and a palette encoding mode, in which at least a palette of representative pixel values is used to encode the current video block; and performing a conversion between a second video block of said video encoded without using a palette encoding mode and an encoded video representation, and where the second video block conversion procedure uses a first encoding mode, where the first encoding mode is applied to the video block, the video block is constructed based on the first region and the second region and /or scaling the remainder of the chrominance component in a manner dependent on the luminance component, and wherein the first encoding mode is applied in different ways for the first video block and the second video block.

15. Способ по статье 14, отличающийся тем, что, первый режим кодирования, применяемый к первому видеоблоку, отличается от первого режима кодирования, применяемого ко второму видеоблоку, из-за отмены активизации использования прямого переформирования и обратного переформирования, что используется для преобразования отсчетов между первой областью и второй областью.15. The method according to Article 14, characterized in that the first encoding mode applied to the first video block is different from the first encoding mode applied to the second video block due to the cancellation of the activation of the use of forward reframing and reverse reframing, which is used to convert samples between the first area and the second area.

16. Способ по статье 14, отличающийся тем, что первый режим кодирования, применяемый к первому видеоблоку, отличается от первого режима кодирования, применяемого ко второму видеоблоку, из-за использования другой функции переформирования и/или другой функции обратного переформирования, применяемой для преобразования отсчетов между первой областью и второй областью.16. The method of Article 14, characterized in that the first encoding mode applied to the first video block is different from the first encoding mode applied to the second video block due to the use of a different reframing function and/or a different inverse reframing function used to transform the samples between the first region and the second region.

17. Способ по какой-либо из статей 1 - 11 и 14 - 16, отличающийся тем, что первая область является исходной областью, и вторая область является переформированной областью с использованием способа отображения яркостной составляющей с масштабированием цветностной составляющей (LMCS), осуществляющего отображение отсчетов яркостной составляющей на конкретные величины.17. The method according to any of articles 1 - 11 and 14 - 16, characterized in that the first area is the original area, and the second area is the reshaped area using a luminance component display method with chroma component scaling (LMCS), which displays samples brightness component to specific values.

18. Способ по статье 17, отличающийся тем, что режим LMCS использует кусочно-линейную модель для отображения отсчетов яркостной составляющей на конкретные величины.18. The method according to Article 17, characterized in that the LMCS mode uses a piecewise linear model to map the luminance component samples to specific values.

19. Способ по какой-либо из статей 1 - 18, отличающийся тем, что процедура преобразования содержит генерацию кодированного представления из текущего блока.19. The method according to any of articles 1 - 18, characterized in that the conversion procedure contains the generation of an encoded representation from the current block.

20. Способ по какой-либо из статей 1 - 18, отличающийся тем, что процедура преобразования содержит генерацию текущего блока из кодированного представления.20. The method according to any of articles 1 - 18, characterized in that the conversion procedure includes generating the current block from the encoded representation.

21. Устройство в видеосистеме, содержащее процессор и энергонезависимое запоминающее устройство с записанными в нем командами, где при выполнении этих команд процессор реализует способ согласно какой-либо одной из статей 1 - 21.21. A device in a video system containing a processor and a non-volatile storage device with commands written therein, where, when executing these commands, the processor implements a method in accordance with any one of Articles 1 to 21.

22. Компьютерный программный продукт, сохраняемый на энергонезависимом читаемом компьютером носителе информации, этот компьютерный программный продукт содержит программный код для осуществления способа согласно какой-либо одной из статей 1 - 21.22. A computer program product stored on a non-volatile computer-readable storage medium, this computer program product contains program code for implementing a method according to any one of Articles 1 to 21.

Седьмая группа статей описывает определенные признаки и аспекты предлагаемых способов, перечисленных в предыдущем разделе, включая, например, Примеры 18 и 19.The seventh group of articles describes certain features and aspects of the proposed methods listed in the previous section, including, for example, Examples 18 and 19.

1. Способ обработки видео, содержащий: выполнение определения, что режим кодирования активизирован для осуществления преобразования между текущим видеоблоком и кодированным представлением видео; и осуществление преобразования с использованием режима внутрикадрового копирования блоков, который генерирует прогнозируемый блок с использованием по меньшей мере вектора блока, указывающего на изображение, содержащее кодированный видеоблок, и где, в режиме кодирования, текущий видеоблок конструируют на основе отсчетов в первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.1. A video processing method, comprising: determining that an encoding mode is activated to perform a conversion between a current video block and an encoded video representation; and performing the conversion using an intra-frame block copy mode that generates a predicted block using at least a block vector pointing to an image containing the encoded video block, and wherein, in the encoding mode, the current video block is constructed based on the samples in the first region and the second region and /or scale the remainder of the chrominance component in a manner dependent on the luminance component.

2. Способ по статье 1, отличающийся тем, что прогнозируемый блок генерируют в первой области.2. The method according to article 1, characterized in that the predicted block is generated in the first area.

3. Способ по статье 1, отличающийся тем, что блок остатка представлен в виде кодированного представления в первой области.3. The method according to article 1, characterized in that the remainder block is presented as an encoded representation in the first area.

4. Способ по статье 1, отличающийся тем, что прогнозируемый блок генерируют во второй области.4. The method according to article 1, characterized in that the predicted block is generated in the second area.

5. Способ по статье 1, отличающийся тем, что блок остатка представлен в виде кодированного представления во второй области.5. The method according to article 1, characterized in that the remainder block is presented as an encoded representation in the second area.

6. Способ по статье 4 или 5, отличающийся тем, что первый строительный блок для текущего видеоблока получают на основе суммы блока остатка и прогнозируемого блока во второй области, и этот первый строительный блок используют для преобразований между последующим видеоблоком и кодированным представлением видео.6. The method of claim 4 or 5, wherein the first building block for the current video block is obtained based on the sum of the remainder block and the predicted block in the second region, and this first building block is used for conversions between the subsequent video block and the encoded video representation.

7. Способ по статье 4 или 5, отличающийся тем, что конечный строительный блок для текущего видеоблока получают на основе обратного переформирования, применяемого к первому строительному блоку для преобразования этого первого строительного блока из второй области в первую область.7. The method of claim 4 or 5, wherein the final building block for the current video block is obtained based on an inverse reformation applied to the first building block to transform the first building block from the second region to the first region.

8. Способ по какой-либо одной из статей 1 - 7, отличающийся тем, что преобразование осуществляется на основе цветовой составляющей текущего видеоблока.8. The method according to any one of articles 1 - 7, characterized in that the conversion is carried out based on the color component of the current video block.

9. Способ по статье 8, отличающийся тем, что указанная цветовая составляющая является яркостной составляющей.9. The method according to Article 8, characterized in that the specified color component is the brightness component.

10. Способ обработки видео, содержащий: выполнение определения, для осуществления преобразования между текущим видеоблоком и кодированным представлением видео, что текущий видеоблок кодируют в режиме внутрикадрового копирования блоков (IBC), который генерирует прогнозируемый блок с использованием по меньшей мере вектора блока, указывающего видеокадр, содержащий текущий видеоблок, для кодирования текущего видеоблока; и осуществление, по результатам указанного определения, преобразования путем отмены активизации режима кодирования, где, когда режим кодирования применяют к видеоблоку, этот видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.10. A video processing method, comprising: determining, to perform a transformation between a current video block and an encoded video representation, that the current video block is encoded in an intra-block copy (IBC) mode that generates a predicted block using at least a block vector indicating a video frame, containing the current video block, for encoding the current video block; and, based on the results of said determination, performing a transformation by deactivating the encoding mode, where when the encoding mode is applied to a video block, the video block is constructed based on the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component.

11. Способ по статье 10, отличающийся тем, что когда текущий видеоблок кодируют в режиме копирования IBC, активизацию режима кодирования отменяют.11. The method according to Article 10, characterized in that when the current video block is encoded in the IBC copy mode, activation of the encoding mode is canceled.

12. Способ обработки видео, содержащий: осуществление преобразования между первым видеоблоком видео и кодированным представлением видео, где процедура преобразования использует режим внутрикадрового копирования блоков, который генерирует прогнозируемый блок с использованием по меньшей мере вектора блока, указывающего на видеокадр, содержащий текущий видеоблок, и первый режим кодирования; и осуществление преобразования между вторым видеоблоком этого же видео, кодированным без использования режима внутрикадрового копирования блоков, и кодированным представлением видео, где процедура преобразования второго видеоблока использует первый режим кодирования, где, когда первый режим кодирования применяется к видеоблоку, этот видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и где первый режим кодирования применяют разными способами к первому видеоблоку и ко второму видеоблоку.12. A video processing method, comprising: performing a transformation between a first video block of video and an encoded representation of the video, where the transformation procedure uses an intra-frame block copy mode that generates a predicted block using at least a block vector pointing to a video frame containing the current video block and the first coding mode; and performing a transformation between a second video block of the same video encoded without using an intra-frame block copy mode and an encoded representation of the video, wherein the second video block's transformation procedure uses a first encoding mode, where when the first encoding mode is applied to a video block, the video block is constructed based on the first region and a second region and/or scaling the remainder of the chrominance component in a manner dependent on the luminance component, and wherein the first encoding mode is applied in different ways to the first video block and the second video block.

13. Способ по статье 12, отличающийся тем, что, первый режим кодирования, применяемый к первому видеоблоку, отличается от первого режима кодирования, применяемого ко второму видеоблоку, поскольку отменена активизация использования прямого переформирования и обратного переформирования, применяемых для преобразования отсчетов между первой областью и второй областью.13. The method according to Article 12, characterized in that the first encoding mode applied to the first video block is different from the first encoding mode applied to the second video block, since the activation of the use of forward reframing and inverse reframing used to convert samples between the first region and second area.

14. Способ по статье 12, отличающийся тем, что первый режим кодирования, применяемый к первому видеоблоку, отличается от первого режима кодирования, применяемого ко второму видеоблоку, благодаря использованию различных функций прямого переформирования и/или различных функций обратного переформирования, применяемых для преобразования отсчетов между первой областью и второй областью.14. The method of Article 12, characterized in that the first encoding mode applied to the first video block is different from the first encoding mode applied to the second video block by using different forward reframing functions and/or different inverse reframing functions used to convert samples between the first area and the second area.

15. Способ по какой-либо из статей 1 - 14, отличающийся тем, что первая область является исходной областью, и вторая область является переформированной областью с использованием способа отображения яркостной составляющей с масштабированием цветностной составляющей (LMCS), осуществляющего отображение отсчетов яркостной составляющей на конкретные величины.15. The method according to any of Articles 1 - 14, characterized in that the first area is the original area, and the second area is a reshaped area using a luminance component mapping method with chrominance component scaling (LMCS), which maps luminance component samples to specific quantities.

16. Способ по статье 15, отличающийся тем, что режим LMCS использует кусочно-линейную модель для отображения отсчетов.16. The method according to Article 15, characterized in that the LMCS mode uses a piecewise linear model to display samples.

17. Способ по какой-либо из статей 1 - 16, отличающийся тем, что процедура преобразования содержит генерацию кодированного представления из текущего блока.17. The method according to any of articles 1 - 16, characterized in that the conversion procedure contains the generation of an encoded representation from the current block.

18. Способ по какой-либо из статей 1 - 16, отличающийся тем, что процедура преобразования содержит генерацию текущего блока из кодированного представления.18. The method according to any of articles 1 - 16, characterized in that the conversion procedure includes generating the current block from the encoded representation.

19. Устройство в видеосистеме, содержащее процессор и энергонезависимое запоминающее устройство с записанными в нем командами, где при выполнении этих команд процессор реализует способ согласно какой-либо одной из статей 1 - 18.19. A device in a video system containing a processor and a non-volatile storage device with commands written therein, where, when executing these commands, the processor implements a method in accordance with any one of Articles 1 to 18.

20. Компьютерный программный продукт, сохраняемый на энергонезависимом читаемом компьютером носителе информации, этот компьютерный программный продукт содержит программный код для осуществления способа согласно какой-либо одной из статей 1 - 18.20. A computer program product stored on a non-volatile computer-readable storage medium, this computer program product contains program code for implementing a method according to any one of Articles 1 to 18.

Восьмая группа статей описывает определенные признаки и аспекты предлагаемых способов, перечисленных в предыдущем разделе, включая, например, Примеры 20 - 27.The eighth group of articles describes certain features and aspects of the proposed methods listed in the previous section, including, for example, Examples 20 - 27.

1. Способ обработки видео, содержащий: выполнение определения, что режим кодирования активизирован для осуществления преобразования между текущим видеоблоком и кодированным представлением видео; и осуществления преобразования с использованием режима дельта-импульсно-кодовой модуляции на блочной основе (BDPCM), где, в указанном режиме кодирования, текущий видеоблок конструируют на основе отсчетов в первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.1. A video processing method, comprising: determining that an encoding mode is activated to perform a conversion between a current video block and an encoded video representation; and performing the conversion using a block-based delta pulse code modulation (BDPCM) mode, wherein, in said encoding mode, the current video block is constructed based on samples in the first region and the second region and/or scales the remaining chrominance component in a luminance-dependent manner component.

2. Способ по статье 1, отличающийся тем, что прогнозируемый блок для текущего видеоблока генерируют в первой области.2. The method according to article 1, characterized in that the predicted block for the current video block is generated in the first area.

3. Способ по статье 1, отличающийся тем, что блок остатка для текущего видеоблока представлен в кодированном представлении в первой области.3. The method according to article 1, characterized in that the remainder block for the current video block is presented in an encoded representation in the first area.

4. Способ по статье 1, отличающийся тем, что прогнозируемый блок для текущего видеоблока генерируют во второй области.4. The method according to article 1, characterized in that the predicted block for the current video block is generated in the second area.

5. Способ по статье 1, отличающийся тем, что блок остатка для текущего видеоблока представлен в кодированном представлении во второй области.5. The method according to article 1, characterized in that the remainder block for the current video block is presented in an encoded representation in the second area.

6. Способ по статье 4 или 5, отличающийся тем, что первый строительный блок для текущего видеоблока получают на основе суммы блока остатка и прогнозируемого блока во второй области и используют этот первый строительный блок для преобразований между последующим видеоблоком и кодированным представлением видео.6. The method of claim 4 or 5, characterized in that the first building block for the current video block is obtained based on the sum of the remainder block and the predicted block in the second region, and uses this first building block for conversions between the subsequent video block and the encoded video representation.

7. Способ по статье 4 или 5, отличающийся тем, что конечный строительный блок для текущего видеоблока получают на основе обратного переформирования, применяемого к первому строительному блоку, с целью преобразования первого строительного блока из второй области в первую область.7. The method of Clause 4 or 5, wherein the final building block for the current video block is obtained based on an inverse reformation applied to the first building block to transform the first building block from the second region to the first region.

8. Способ обработки видео, содержащий: выполнение определения, для осуществления преобразования между текущим видеоблоком и кодированным представлением видео, что текущий видеоблок кодируют с использованием режима дельта-импульсно-кодовой модуляции на блочной основе (BDPCM); и осуществления, по результатам указанного определения, преобразования путем отмены активизации режима кодирования, где, когда указанный режим кодирования применяется к видеоблоку, этот видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.8. A video processing method, comprising: determining, to perform a conversion between a current video block and an encoded video representation, that the current video block is encoded using a block-based delta pulse code modulation (BDPCM) mode; and, based on the results of said determination, performing a transformation by deactivating the encoding mode, where when said encoding mode is applied to a video block, the video block is constructed based on the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component.

9. Способ по статье 8, отличающийся тем, что когда текущий видеоблок кодируют в режиме модуляции BDPCM, режим кодирования не активизируют.9. The method according to Article 8, characterized in that when the current video block is encoded in the BDPCM modulation mode, the encoding mode is not activated.

10. Способ обработки видео, содержащий: осуществление преобразования между первым видеоблоком видео и кодированным представлением видео, где процедура преобразования первого видеоблока использует первый режим кодирования и режим дельта-импульсно-кодовой модуляции на блочной основе (BDPCM); и осуществление преобразования между вторым видеоблоком указанного видео и кодированным представлением видео, где второй видеоблок кодируют без использования режима модуляции BDPCM, и процедура преобразования второго видеоблока использует первый режим кодирования, где, когда первый режим кодирования применяется к видеоблоку, этот видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и где первый режим кодирования применяют различными способами к первому видеоблоку и ко второму видеоблоку.10. A video processing method, comprising: performing a conversion between a first video block of video and an encoded representation of the video, wherein the conversion procedure of the first video block uses a first coding mode and a block-based delta pulse code modulation (BDPCM) mode; and performing a conversion between a second video block of said video and an encoded representation of the video, where the second video block is encoded without using a BDPCM modulation mode, and the second video block conversion procedure uses a first encoding mode, where when the first encoding mode is applied to the video block, the video block is constructed based on the first region and a second region and/or scaling the remainder of the chrominance component in a manner dependent on the luminance component, and wherein the first encoding mode is applied in different ways to the first video block and the second video block.

11. Способ по статье 10, отличающийся тем, что, первый режим кодировании, применяемый к первому видеоблоку, отличается от первого режима кодирования, применяемого ко второму видеоблоку, из-за отмены активизации использования прямого переформирования и обратного переформирования, применяемых для преобразования отсчетов между первой областью и второй областью.11. The method according to Article 10, characterized in that the first encoding mode applied to the first video block differs from the first encoding mode applied to the second video block due to the cancellation of the activation of the use of forward reframing and reverse reframing used to convert samples between the first region and the second region.

12. Способ по статье 10, отличающийся тем, что первый режим кодирования, применяемый к первому видеоблоку, отличается от первого режима кодирования, применяемого ко второму видеоблоку, из-за использования другого прямого переформирования и/или другого обратного переформирования, относительно применяемых для преобразования отсчетов между первой областью и второй областью.12. The method according to Article 10, characterized in that the first encoding mode applied to the first video block differs from the first encoding mode applied to the second video block due to the use of a different forward reformation and/or a different inverse reformation relative to those used for the sample conversion between the first region and the second region.

13. Способ обработки видео, содержащий: выполнение определения, что режим кодирования активизирован для осуществления преобразования между текущим видеоблоком и кодированным представлением видео; и осуществление преобразования с использованием режима пропуска трансформации, в котором трансформацию остатка прогнозирования пропускают при кодировании текущего видеоблока, где, в режиме кодирования, текущий видеоблок конструируют на основе отсчетов в первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.13. A method for processing video, comprising: determining that an encoding mode is activated to perform a conversion between a current video block and an encoded representation of the video; and performing the transformation using a skip transformation mode, in which the transformation of the prediction residual is skipped when encoding the current video block, where, in the encoding mode, the current video block is constructed based on the samples in the first region and the second region and/or the chroma residual is scaled in a manner dependent on the luminance component.

14. Способ по статье 13, отличающийся тем, что прогнозируемый блок для текущего видеоблока, генерируют в первой области.14. The method according to article 13, characterized in that the predicted block for the current video block is generated in the first region.

15. Способ по статье 13, отличающийся тем, что блок остатка относительно текущего видеоблока представлен в кодированном представлении в первой области.15. The method according to Article 13, characterized in that the remainder block relative to the current video block is presented in an encoded representation in the first area.

16. Способ по статье 13, отличающийся тем, что прогнозируемый блок для текущего видеоблока генерируют во второй области.16. The method according to article 13, characterized in that the predicted block for the current video block is generated in the second region.

17. Способ по статье 13, отличающийся тем, что блок остатка представлен в кодированном представлении во второй области.17. The method according to Article 13, characterized in that the remainder block is presented in an encoded representation in a second area.

18. Способ по статье 16 или 17, отличающийся тем, что первый строительный блок для текущего видеоблока получен на основе суммы блока остатка и прогнозируемого блока во второй области, и этот первый строительный блок используется для преобразований между последующим видеоблок и кодированном представлением видео.18. The method of Clause 16 or 17, wherein the first building block for the current video block is derived from the sum of the remainder block and the predicted block in the second region, and this first building block is used for conversions between the subsequent video block and the encoded video representation.

19. Способ по статье 16 или 17, отличающийся тем, что конечный строительный блок для текущего видеоблока получают на основе обратного переформирования, применяемого к первому строительному блоку с целью преобразования этого первого строительного блока из второй области в первую область.19. The method of Clause 16 or 17, wherein the final building block for the current video block is obtained based on an inverse reformation applied to the first building block to transform the first building block from the second region to the first region.

20. Способ обработки видео, содержащий: выполнение определения, для осуществления преобразования между текущим видеоблоком и кодированным представлением видео, что текущий видеоблок кодируют в режиме пропуска трансформации, в котором трансформацию остатка прогнозирования пропускают при кодировании текущего видеоблока; и осуществление, по результатам указанного определения, преобразования путем отмены активизации режима кодирования, где, когда режим кодирования применяют к видеоблоку, этот видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.20. A video processing method, comprising: determining, to perform a transformation between a current video block and an encoded video representation, that the current video block is encoded in a skip transformation mode, in which the transformation of the prediction residual is skipped when encoding the current video block; and, based on the results of said determination, performing a transformation by deactivating the encoding mode, where when the encoding mode is applied to a video block, the video block is constructed based on the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component.

21. Способ по статье 20, отличающийся тем, что когда текущий видеоблок кодируют в режиме пропуска трансформации, режим кодирования не активизирован.21. The method according to Article 20, characterized in that when the current video block is encoded in the skip transformation mode, the encoding mode is not activated.

22. Способ обработки видео, содержащий: осуществление преобразования между первым видеоблоком видео и кодированным представлением видео, где процедура преобразования первого видеоблока использует первый режим кодирования и режим пропуска трансформации, в котором трансформацию остатка прогнозирования пропускают при кодировании текущего видеоблока; и осуществление преобразования между вторым видеоблоком и кодированным представлением видео, где второй видеоблок кодируют без использования режима пропуска трансформации, и процедура преобразования второго видеоблока использует первый режим кодирования, где, когда первый режим кодирования применяют к видеоблоку, этот видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и где первый режим кодирования применяют различными способами к первому видеоблоку и ко второму видеоблоку.22. A video processing method, comprising: performing a transformation between a first video block of video and an encoded representation of the video, wherein the transformation procedure of the first video block uses a first encoding mode and a skip transformation mode, in which the transformation of the prediction residual is skipped when encoding the current video block; and performing a transformation between the second video block and the encoded video representation, where the second video block is encoded without using a skip transformation mode, and the transformation procedure of the second video block uses the first encoding mode, where when the first encoding mode is applied to the video block, the video block is constructed based on the first region and the second areas and/or scale the remainder of the chrominance component in a manner dependent on the luminance component, and wherein the first encoding mode is applied in different ways to the first video block and the second video block.

23. Способ по статье 22, отличающийся тем, что, первый режим кодирования, применяемый к первому видеоблоку, отличается от первого режима кодирования, применяемого ко второму видеоблоку из-за отмены активизации использования прямого переформирования и обратного переформирования, применяемых для преобразования отсчетов между первой областью и второй областью.23. The method according to Article 22, characterized in that the first encoding mode applied to the first video block is different from the first encoding mode applied to the second video block due to the cancellation of the activation of the use of forward reframing and reverse reframing used to convert samples between the first region and the second area.

24. Способ по статье 22, отличающийся тем, что первый режим кодирования, применяемый к первому видеоблоку, отличается от первого режима кодирования, применяемого ко второму видеоблоку, из-за использования другого способа прямого переформирования и/или другого способа обратного переформирования, относительно применяемых для преобразования отсчетов между первой областью и второй областью.24. The method according to Article 22, characterized in that the first encoding mode applied to the first video block differs from the first encoding mode applied to the second video block due to the use of a different forward reformation method and/or a different reverse reformulation method relative to those used for converting samples between the first region and the second region.

25. Способ обработки видео, содержащий: выполнение определения, что режим кодирования активизирован для осуществления преобразования между текущим видеоблоком и кодированным представлением видео; и осуществление преобразования с использованием режима внутрикадрового прогнозирования с импульсно-кодовой модуляцией, в котором текущий видеоблок кодируют без применения трансформации и квантования в трансформированной области, где, в режиме кодирования, текущий видеоблок конструируют на основе отсчетов в первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.25. A method for processing video, comprising: determining that an encoding mode is activated to perform a conversion between a current video block and an encoded representation of the video; and performing the transformation using an intra-frame prediction mode with pulse code modulation, in which the current video block is encoded without applying transformation and quantization in the transformed region, where, in the encoding mode, the current video block is constructed based on samples in the first region and the second region and/or scaled the remainder of the chrominance component in a manner dependent on the luminance component.

26. Способ по статье 25, отличающийся тем, что прогнозируемый блок для текущего видеоблока генерируют в первой области.26. The method according to article 25, characterized in that the predicted block for the current video block is generated in the first region.

27. Способ по статье 25, отличающийся тем, что блок остатка для текущего видеоблока представлен в кодированном представлении в первой области.27. The method of Article 25, characterized in that the remainder block for the current video block is represented in an encoded representation in the first region.

28. Способ по статье 25, отличающийся тем, что прогнозируемый блок для текущего видеоблока генерируют во второй области.28. The method according to article 25, characterized in that the predicted block for the current video block is generated in the second region.

29. Способ по статье 25, отличающийся тем, что блок остатка для текущего видеоблока представлен в кодированном представлении во второй области.29. The method of Article 25, characterized in that the remainder block for the current video block is presented in an encoded representation in the second region.

30. Способ по статье 28 или 29, отличающийся тем, что первый строительный блок для текущего видеоблока получают на основе суммы блока остатка и прогнозируемого блока во второй области, и этот первый строительный блок используется для преобразования между последующим видеоблоком и кодированным представлением видео.30. The method of Clause 28 or 29, wherein the first building block for the current video block is obtained based on the sum of the remainder block and the predicted block in the second region, and this first building block is used for conversion between the subsequent video block and the encoded video representation.

31. Способ по статье 28 или 29, отличающийся тем, что конечный строительный блок для текущего видеоблока получают на основе обратного переформирования, применяемого к первому строительному блоку с целью преобразования первого строительного блока из второй области в первую область.31. The method of Clause 28 or Clause 29, wherein the final building block for the current video block is obtained based on an inverse reformation applied to the first building block to transform the first building block from the second region to the first region.

32. Способ обработки видео, содержащий: выполнение определения, для осуществления преобразования между текущим видеоблоком и кодированным представлением видео, что текущий видеоблок, кодируют в режиме внутрикадрового прогнозирования с импульсно-кодовой модуляцией, в котором текущий видеоблок кодируют без применения трансформации и квантования в трансформированной области; и осуществление, по результатам указанного определения, преобразования путем отмены активизации режима кодирования, где, когда режим кодирования применяют к видеоблоку, этот видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.32. A method of video processing, comprising: making a determination to perform a transformation between a current video block and an encoded representation of video that the current video block is encoded in an intra-frame pulse code modulation prediction mode, in which the current video block is encoded without applying transformation and quantization in the transformed region ; and, based on the results of said determination, performing a transformation by deactivating the encoding mode, where when the encoding mode is applied to a video block, the video block is constructed based on the first region and the second region and/or the remainder of the chroma component is scaled in a manner dependent on the luminance component.

33. Способ по статье 32, отличающийся тем, что когда текущий видеоблок кодируют в режиме внутрикадрового прогнозирования с импульсно-кодовой модуляцией, режим кодирования не активизирован.33. The method according to Article 32, characterized in that when the current video block is encoded in the PCM intra-prediction mode, the encoding mode is not activated.

34. Способ обработки видео, содержащий: осуществление преобразования между первым видеоблоком видео и кодированным представлением видео, где процедура преобразования первого видеоблока использует первый режим кодирования и режим внутрикадрового прогнозирования с импульсно-кодовой модуляцией, котором текущий видеоблок кодируют без применения трансформации и квантования в трансформированной области; и осуществление преобразования между вторым видеоблоком видео и кодированным представлением видео, где второй видеоблок кодируют без использования режима внутрикадрового прогнозирования с импульсно-кодовой модуляцией, и процедура преобразования второго видеоблока использует первый режим кодирования, где, когда этот первый режим кодирования применяют к видеоблоку, этот видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и где первый режим кодирования применяют различными способами к первому видеоблоку и ко второму видеоблоку.34. A method of video processing, comprising: performing a transformation between a first video block of video and an encoded representation of the video, where the transformation procedure of the first video block uses a first encoding mode and an intra-frame prediction mode with pulse code modulation, in which the current video block is encoded without applying transformation and quantization in the transformed region ; and performing a transformation between the second video block of video and an encoded representation of the video, where the second video block is encoded without using an intra-frame prediction mode with pulse code modulation, and the transformation procedure of the second video block uses a first encoding mode, where, when the first encoding mode is applied to the video block, the video block constructed based on the first region and the second region and/or scale the remainder of the chrominance component in a manner dependent on the luminance component, and wherein the first encoding mode is applied in different ways to the first video block and to the second video block.

35. Способ по статье 34, отличающийся тем, что, первый режим кодирования, применяемый к первому видеоблоку, отличается от первого режима кодирования, применяемому ко второму видеоблоку, из-за отмены активизации использования прямого переформирования и обратного переформирования, применяемых для преобразования отсчетов между первой областью и второй областью.35. The method of Article 34, characterized in that the first encoding mode applied to the first video block is different from the first encoding mode applied to the second video block due to the cancellation of the activation of the use of forward reframing and reverse reframing used to convert samples between the first region and the second region.

36. Способ по статье 34, отличающийся тем, что первый режим кодирования, применяемый к первому видеоблоку, отличается от первого режима кодирования, применяемого ко второму видеоблоку, из-за использования другого режима прямого переформирования и/или другого режима обратного переформирования, применяемого для преобразования отсчетов между первой областью и второй областью.36. The method of Article 34, characterized in that the first encoding mode applied to the first video block is different from the first encoding mode applied to the second video block due to the use of a different forward reframing mode and/or a different inverse reframing mode applied to the transformation samples between the first region and the second region.

37. Способ обработки видео, содержащий: выполнение определения, что режим кодирования активизирован для осуществления преобразования между текущим видеоблоком и кодированным представлением видео; и осуществление преобразования с использованием модифицированного режима обхода трансформации и квантования, в котором текущий видеоблок кодируют без потерь и без трансформации и квантования, где, в режиме кодирования, текущий видеоблок конструируют на основе отсчетов в первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.37. A method for processing video, comprising: determining that an encoding mode is activated to perform a conversion between a current video block and an encoded representation of the video; and performing the conversion using a modified transformation and quantization bypass mode, in which the current video block is encoded losslessly and without transformation and quantization, where, in the encoding mode, the current video block is constructed based on samples in the first region and the second region and/or the remainder of the chrominance component is scaled in a way that depends on the brightness component.

38. Способ по статье 37, отличающийся тем, что прогнозируемый блок для текущего видеоблока генерируют в первой области.38. The method according to article 37, characterized in that the predicted block for the current video block is generated in the first region.

39. Способ по статье 37, отличающийся тем, что блок остатка для текущего видеоблока представляют в кодированном представлении в первой области.39. The method of Article 37, characterized in that the remainder block for the current video block is represented in an encoded representation in the first region.

40. Способ по статье 37, отличающийся тем, что прогнозируемый блок для текущего видеоблока генерируют во второй области.40. The method according to article 37, characterized in that the predicted block for the current video block is generated in the second region.

41. Способ по статье 37, отличающийся тем, что блок остатка для текущего видеоблока представляют в кодированном представлении во второй области.41. The method of Article 37, characterized in that the remainder block for the current video block is represented in an encoded representation in a second region.

42. Способ по статье 40 или 41, отличающийся тем, что первый строительный блок для текущего видеоблока получают на основе суммы блока остатка и прогнозируемого блока во второй области, и используют этот первый строительный блок для преобразования между последующим видеоблоком и кодированным представлением видео.42. The method of Clause 40 or 41, wherein the first building block for the current video block is obtained based on the sum of the remainder block and the predicted block in the second region, and using this first building block to convert between the subsequent video block and the encoded video representation.

43. Способ по статье 40 или 41, отличающийся тем, что конечный строительный блок для текущего видеоблока получают на основе обратного переформирования, применяемому к первому строительному блоку для преобразования этого первого строительного блока из второй области в первую область.43. The method of Clause 40 or Clause 41, wherein the final building block for the current video block is obtained based on an inverse reformation applied to the first building block to transform the first building block from the second region to the first region.

44. Способ обработки видео, содержащий: выполнение определения, для осуществления преобразования между текущим видеоблоком и кодированным представлением видео, что текущий видеоблоком кодируют в режиме обхода трансформации и квантования, в котором текущий видеоблок кодируют без потерь и без применения трансформации и квантования; и осуществление, по результатам указанного определения, преобразования посредством отмены активизации режима кодирования, где, когда режим кодирования применяют к видеоблоку, этот видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей.44. A video processing method, comprising: determining, to perform a transformation between a current video block and an encoded video representation, that the current video block is encoded in a transformation and quantization bypass mode, in which the current video block is encoded losslessly and without applying transformation and quantization; and, based on the results of said determination, performing a transformation by deactivating the encoding mode, where when the encoding mode is applied to a video block, the video block is constructed based on the first region and the second region and/or the remainder of the chrominance component is scaled in a manner dependent on the luminance component.

45. Способ по статье 44, отличающийся тем, что когда текущий видеоблок кодируют в режиме внутрикадрового прогнозирования с импульсно-кодовой модуляцией, этот режим кодирования не активизирован.45. The method according to Article 44, characterized in that when the current video block is encoded in the intra-frame prediction mode with pulse code modulation, this encoding mode is not activated.

46. Способ обработки видео, содержащий: осуществление преобразования между первым видеоблоком видео и кодированным представлением видео, где процедура преобразования первого видеоблока использует первый режим кодирования и режим обхода трансформации и квантования, в котором текущий видеоблок кодируют без потерь и без трансформации и квантования; и осуществление преобразования между вторым видеоблоком указанного видео и кодированным представлением видео, где второй видеоблок кодируют без использования режима обхода трансформации и квантования, и процедура преобразования второго видеоблока использует первый режим кодирования, где, когда первый режим кодирования применяют к видеоблоку, этот видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и где первый режим кодирования применяют различными способами к первому видеоблоку и ко второму видеоблоку.46. A video processing method, comprising: performing a transformation between a first video block of video and an encoded representation of the video, wherein the transformation procedure of the first video block uses a first encoding mode and a transformation and quantization bypass mode, in which the current video block is encoded losslessly and without transformation and quantization; and performing a transformation between a second video block of said video and an encoded representation of the video, wherein the second video block is encoded without using a transform and quantization bypass mode, and the second video block transformation procedure uses a first encoding mode, where when the first encoding mode is applied to the video block, the video block is constructed based on a first region and a second region and/or scaling the remainder of the chrominance component in a manner dependent on the luminance component, and wherein the first encoding mode is applied in different ways to the first video block and the second video block.

47. Способ по статье 46, отличающийся тем, что, первый режим кодирования, применяемый к первому видеоблоку, отличается от первого режима кодирования, применяемого ко второму видеоблоку, из-за отмены активизации использования прямого переформирования и обратного переформирования, применяемых для преобразования отсчетов между первой областью и второй областью.47. The method according to Article 46, characterized in that the first encoding mode applied to the first video block is different from the first encoding mode applied to the second video block due to the cancellation of the activation of the use of forward reframing and reverse reframing used to convert samples between the first region and the second region.

48. Способ по статье 46, отличающийся тем, что первый режим кодирования, применяемый к первому видеоблоку, отличается от первого режима кодирования, применяемого ко второму видеоблоку, из-за использования другого прямого переформирования и/или другого обратного переформирования, применяемого для преобразования отсчетов между первой областью и второй областью.48. The method of Article 46, characterized in that the first encoding mode applied to the first video block is different from the first encoding mode applied to the second video block due to the use of a different forward reshaping and/or a different inverse reframing used to convert the samples between the first area and the second area.

49. Способ по какой-либо одной из статей 1 - 48, отличающийся тем, что преобразование осуществляется на основе цветовой составляющей текущего видеоблока.49. The method according to any one of articles 1 - 48, characterized in that the conversion is carried out based on the color component of the current video block.

50. Способ по статье 49, отличающийся тем, что указанная цветовая составляющая является цветностной составляющей.50. The method according to Article 49, characterized in that the specified color component is a chromatic component.

51. Способ по какой-либо из статей 1 - 50, отличающийся тем, что первая область является исходной областью и вторая область является переформированной областью, использующей способ отображения яркостной составляющей с масштабированием цветностной составляющей (LMCS), который отображает отсчеты яркостной составляющей на конкретные величины.51. The method according to any of clauses 1 to 50, characterized in that the first region is the original region and the second region is a reshaped region using a luminance component scaling (LMCS) display method that maps luminance component samples to specific values .

52. Способ по статье 51, отличающийся тем, что режим LMCS использует кусочно-линейную модель для отображения отсчетов яркостной составляющей на конкретные величины.52. The method according to Article 51, characterized in that the LMCS mode uses a piecewise linear model to map the luminance component samples to specific values.

53. Способ по какой-либо из статей 1 - 52, отличающийся тем, что процедура преобразования содержит генерацию кодированного представления из текущего блока.53. The method according to any of articles 1 - 52, characterized in that the conversion procedure contains the generation of an encoded representation from the current block.

54. Способ по какой-либо из статей 1 - 52, отличающийся тем, что процедура преобразования содержит генерацию текущего блока из кодированного представления.54. The method according to any of articles 1 - 52, characterized in that the conversion procedure includes generating the current block from the encoded representation.

55. Устройство в видеосистеме, содержащее процессор и энергонезависимое запоминающее устройство с записанными в нем командами, где при выполнении этих команд процессор реализует способ согласно какой-либо одной из статей 1 - 54.55. A device in a video system containing a processor and a non-volatile storage device with commands written therein, where, when executing these commands, the processor implements a method in accordance with any one of Articles 1 to 54.

56. Компьютерный программный продукт, сохраняемый на энергонезависимом читаемом компьютером носителе информации, этот компьютерный программный продукт содержит программный код для осуществления способа согласно какой-либо одной из статей 1 - 54.56. A computer program product stored on a non-volatile computer-readable storage medium, this computer program product contains program code for implementing a method according to any one of Articles 1 to 54.

Девятая группа статей описывает определенные признаки и аспекты предлагаемых способов, перечисленных в предыдущем разделе, включая, например, Примеры 30 - 34 и 41.The ninth group of articles describes certain features and aspects of the proposed methods listed in the previous section, including, for example, Examples 30 - 34 and 41.

1. Способ обработки видео, содержащий: осуществление преобразования между текущим видеоблоком видео и кодированным представлением видео, где процедура преобразования использует режим кодирования, в котором текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и где информацию, используемую для режима кодирования, сообщают в виде сигнализации в наборе параметров, отличном от набора параметров последовательности (SPS), набора параметров видео (VPS), набора параметров изображения (PPS) или набора параметров адаптации (APS), используемого для передачи параметров адаптивной контурной фильтрации (ALF).1. A video processing method, comprising: performing a transformation between a current video video block and an encoded video representation, where the transformation procedure uses an encoding mode in which the current video block is constructed based on a first region and a second region and/or scales the remainder of the chrominance component in a manner dependent on the luminance component, and where the information used for the encoding mode is signaled in a parameter set other than the sequence parameter set (SPS), video parameter set (VPS), picture parameter set (PPS) or adaptation parameter set (APS) used to transmit adaptive loop filtering (ALF) parameters.

2. Способ по статье 1, отличающийся тем, что указанный набор параметров совместно используется несколькими изображениями.2. The method according to article 1, characterized in that the specified set of parameters is shared by several images.

3. Способ по статье 1, отличающийся тем, что указанный набор параметров содержит один или несколько синтаксических элементов, включая по меньшей мере один из идентификаторов этого набора параметров или флаг, указывающий присутствие данных расширения этого набора параметров.3. The method according to article 1, characterized in that the specified set of parameters contains one or more syntactic elements, including at least one of the identifiers of this parameter set or a flag indicating the presence of extension data of this parameter set.

4. Способ по статье 1, отличающийся тем, что указанный набор параметров является специфичным для группы плиток в изображении.4. The method according to article 1, characterized in that the specified set of parameters is specific to a group of tiles in the image.

5. Способ обработки видео, содержащий: осуществление преобразования между текущим видеоблоком видео и кодированным представлением видео, где операция преобразования использует режим кодирования, в котором текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и где информацию, используемую для режима кодирования, сообщают в виде сигнализации в наборе параметров адаптации (APS) вместе с информацией об адаптивной контурной фильтрации (ALF), где информация, используемая для режима кодирования, и информация о фильтрации ALF включены в одну единицу уровня NAL.5. A video processing method, comprising: performing a transformation between a current video video block and an encoded video representation, where the transformation operation uses an encoding mode in which the current video block is constructed based on a first region and a second region and/or scales the remainder of the chrominance component in a luminance-dependent manner component, and where the information used for the encoding mode is signaled in an adaptation parameter set (APS) together with the adaptive loop filtering (ALF) information, where the information used for the encoding mode and the ALF filtering information are included in one unit NAL level.

6. Способ по статье 5, отличающийся тем, что идентификатор набора APS сообщают в виде сигнализации в заголовке группы плиток.6. The method of Clause 5, wherein the APS set identifier is signaled in the tile group header.

7. Способ обработки видео, содержащий: осуществление преобразования между текущим видеоблоком видеообласти видео и кодированным представлением видео, где процедура преобразования использует режим кодирования, в котором текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и где информацию, используемую для режима кодирования, передают в виде сигнализации в наборе параметров адаптации (APS) первого типа, отличном от набора APS второго типа, применяемом для передачи информации об адаптивной контурной фильтрации (ALF) в виде сигнализации.7. A video processing method, comprising: performing a transformation between a current video block of a video region and an encoded representation of the video, where the transformation procedure uses an encoding mode in which the current video block is constructed based on the first region and the second region and/or scales the remainder of the chrominance component in a manner dependent on luminance component, and where the information used for the encoding mode is transmitted as signaling in a first type of adaptation parameter set (APS) different from the second type APS used for transmitting the adaptive loop filtering (ALF) information in the form of signaling.

8. Способ по статье 7, отличающийся тем, что идентификатор набора APS второго типа сообщают в виде сигнализации на уровне видеообласти.8. The method of Clause 7, wherein the second type APS set identifier is communicated as signaling at the video domain level.

9. Способ по статье 7, отличающийся тем, что идентификатор набора APS первого типа сообщают в виде сигнализации на уровне видеообласти.9. The method according to Clause 7, characterized in that the APS set identifier of the first type is communicated in the form of signaling at the video domain level.

10. Способ по статье 7, отличающийся тем, что набор APS первого типа, входящий в кодированное представление, содержит набор APS второго типа, в который входит информация о фильтрации ALF в потоке битов данных соответствия.10. The method of Clause 7, wherein the first type APS set included in the encoded representation contains a second type APS set that includes ALF filtering information in the match data bitstream.

11. Способ по статье 7, отличающийся тем, что набор APS второго типа, входящий в кодированное представление, содержит набор APS первого типа, в который входит информация, используемая для режима кодирования, в потоке битов данных соответствия.11. The method of Clause 7, wherein the second type APS set included in the encoded representation contains the first type APS set, which includes information used for the encoding mode in the correspondence data bit stream.

12. Способ по статье 7, отличающийся тем, что набор APS первого типа и набор APS второго типа ассоциированы с разными идентификаторами.12. The method according to Article 7, characterized in that the set of APS of the first type and the set of APS of the second type are associated with different identifiers.

13. Способ по статье 12, отличающийся тем, что набор APS второго типа имеет идентификатор, равный 2N, где N является целым числом.13. The method according to Article 12, characterized in that the APS set of the second type has an identifier equal to 2N, where N is an integer.

14. Способ по статье 13, отличающийся тем, что набор APS первого типа имеет идентификатор, равный 2N+1, где N является целым числом.14. The method according to Article 13, characterized in that the APS set of the first type has an identifier equal to 2N+1, where N is an integer.

15. Способ обработки видео, содержащий: осуществление преобразования между текущим видеоблоком видеообласти видео и кодированным представлением видео, где процедура преобразования использует режим кодирования, в котором текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и где для указанной видеообласти недопустимо обращаться к набору параметров адаптации или набору параметров, передаваемому в виде сигнализации прежде структуры данных специфицированного типа, используемой для обработки видео, и где эту структуру данных специфицированного типа передают в виде сигнализации прежде видеообласти.15. A video processing method, comprising: performing a transformation between a current video block of a video region and an encoded representation of the video, where the transformation procedure uses an encoding mode in which the current video block is constructed based on a first region and a second region and/or scales the remainder of the chrominance component in a manner dependent on luminance component, and where it is not permissible for said video region to access an adaptation parameter set or a set of parameters signaled before a data structure of a specified type used for video processing, and where this data structure of a specified type is signaled before the video region.

16. Способ по статье 15, отличающийся тем, что указанная структура данных содержит по меньшей мере одно из следующего - единицу уровню сетевой абстракции (NAL), группу плиток, набор параметров последовательности (SPS), набор параметров изображения (PPS), ограничитель единицы доступа уровня NAL (AUD), единицу конца потока битов данных NAL (EoB), единицу конца последовательности NAL (NAL), единицу мгновенного обновления декодирования (IDR) NAL, единицу чистого произвольного доступа (CRA) NAL, единицу с точкой произвольного доступа при внутрикадровом прогнозировании (IRAP), группу плиток I-типа, изображение или срез.16. The method of Clause 15, wherein said data structure comprises at least one of a network abstraction layer (NAL) unit, a tile group, a sequence parameter set (SPS), a picture parameter set (PPS), an access unit delimiter NAL Level (AUD), NAL End of Data Bitstream (EoB) Unit, NAL End of Sequence Unit (NAL), Instant Decoding Update (IDR) NAL Unit, Pure Random Access (CRA) NAL Unit, Intra Prediction Random Access Point Unit (IRAP), I-type tile group, image or slice.

17. Способ обработки видео, содержащий: осуществление преобразования между текущим видеоблоком и кодированным представлением видео, где процедура преобразования использует режим кодирования, в котором текущий видеоблок конструируют на основе первой области и второй области и/или масштабируют остаток цветностной составляющей способом, зависящим от яркостной составляющей, и где синтаксический элемент набора параметров, содержащего параметры, используемые для обработки видео, имеет заданные значения в потоке битов данных соответствия.17. A video processing method, comprising: performing a transformation between a current video block and an encoded video representation, where the transformation procedure uses an encoding mode in which the current video block is constructed based on a first region and a second region and/or scales the remainder of the chrominance component in a manner dependent on the luminance component , and where a syntax element of a parameter set containing parameters used for video processing has specified values in the matching data bit stream.

18. Способ по статье 17, отличающийся тем, что указанные заданные величины равны 0 и 1.18. The method according to Article 17, characterized in that the specified specified values are equal to 0 and 1.

19. Способ по статье 17, отличающийся тем, что указанные заданные величины равны 0 и 7.19. The method according to Article 17, characterized in that the specified specified values are 0 and 7.

20. Способ по какой-либо из статей 1 - 19, отличающийся тем, что указанная видеообласть содержит по меньшей мере одно - группу плиток, изображение, срез и/или плитку.20. The method according to any of articles 1 - 19, characterized in that the specified video area contains at least one - a group of tiles, an image, a slice and/or a tile.

21. Способ по какой-либо из статей 1 - 20, отличающийся тем, что первая область является исходной областью и вторая область является переформированной областью, использующей способ отображения яркостной составляющей с масштабированием цветностной составляющей (LMCS), который отображает отсчеты яркостной составляющей на конкретные величины.21. The method according to any of articles 1 to 20, characterized in that the first region is the original region and the second region is a reshaped region using a luminance component scaling (LMCS) display method that maps luminance component samples to specific values .

22. Способ по статье 21, отличающийся тем, что способ LMCS использует кусочно-линейную модель для отображения отсчетов яркостной составляющей на конкретные величины.22. The method according to Article 21, characterized in that the LMCS method uses a piecewise linear model to map the luminance component samples to specific values.

23. Способ по какой-либо из статей 1 - 22, отличающийся тем, что процедура преобразования содержит генерацию кодированного представления из текущего блока.23. The method according to any of articles 1 - 22, characterized in that the conversion procedure contains the generation of an encoded representation from the current block.

24. Способ по какой-либо из статей 1 - 22, отличающийся тем, что процедура преобразования содержит генерацию текущего блока из кодированного представления.24. The method according to any of articles 1 - 22, characterized in that the conversion procedure includes generating the current block from the encoded representation.

25. Устройство в видеосистеме, содержащее процессор и энергонезависимое запоминающее устройство с записанными в нем командами, где при выполнении этих команд процессор реализует способ согласно какой-либо одной из статей 1 - 24.25. A device in a video system containing a processor and a non-volatile storage device with commands written therein, where, when executing these commands, the processor implements a method in accordance with any one of Articles 1 to 24.

26. Компьютерный программный продукт, сохраняемый на энергонезависимом читаемом компьютером носителе информации, этот компьютерный программный продукт содержит программный код для осуществления способа согласно какой-либо одной из статей 1 - 24.26. A computer program product stored on a non-volatile computer-readable storage medium, this computer program product contains program code for implementing a method according to any one of Articles 1 to 24.

Из изложенного выше должно быть понятно, что конкретные варианты предлагаемой настоящим технологии были описаны здесь в целях иллюстрации, но при этом могут быть сделаны разнообразные модификации, не отклоняясь от объема изобретения. Соответственно, представленная настоящим технология ничем не ограничивается кроме прилагаемой Формулы изобретения.It will be understood from the foregoing that specific embodiments of the technology provided herein have been described herein for purposes of illustration, but various modifications may be made without departing from the scope of the invention. Accordingly, the technology presented herein is not limited in any way except by the attached Claims.

Варианты реализации предмета настоящего изобретения и функциональные операции, описываемые в этом документе, могут быть осуществлены в разнообразные системах, цифровых электронных схемах или компьютерном загружаемом программном обеспечении, встроенном программном обеспечении или аппаратуре, включая структуры, рассмотренные в настоящем описании, и их структурные эквиваленты, либо в комбинации одного или нескольких перечисленных компонентов. Варианты реализации предмета настоящего изобретения, рассмотренные в настоящем описании, могут быть осуществлены в виде одного или нескольких компьютерных программных продуктов, т.е. одного или нескольких модулей компьютерных программных команд, закодированных на материальном и энергонезависимом читаемом компьютером носителе информации, для выполнения устройством обработки данных или для управления работой этого устройства. Такой читаемый компьютером носитель информации может представлять собой машиночитаемое устройство для хранения информации, машиночитаемую плату для хранения информации, запоминающее устройство, композицию объектов, реализующих машиночитаемый распространяющийся сигнал или комбинацию одного или нескольких из этих компонентов. Термин «модуль обработки данных» или «устройство обработки данных» охватывает все - аппаратуру, устройства и машины для обработки данных, включая в качестве примеров, программируемый процессор, компьютер, либо несколько процессоров или компьютеров. Аппаратура может содержать, в дополнение к оборудованию, код, составляющий среду для выполнения рассматриваемой компьютерной программы, например, код, составляющий встроенное программное обеспечение процессора, стек протоколов, систему управления базой данных, операционную систему или комбинацию одного или нескольких перечисленных компонентов.Embodiments of the subject matter of the present invention and the functional operations described herein may be implemented in a variety of systems, digital electronic circuits or computer downloadable software, firmware or hardware, including the structures discussed herein and their structural equivalents, or in a combination of one or more of the listed components. The embodiments of the subject matter of the present invention discussed in this description may be implemented in the form of one or more computer program products, i.e. one or more modules of computer program instructions encoded on a tangible and non-volatile computer-readable storage medium for execution by a data processing device or for controlling the operation of that device. Such a computer-readable storage medium may be a computer-readable storage device, a computer-readable storage board, a storage device, a composition of objects implementing a computer-readable propagated signal, or a combination of one or more of these components. The term "data processing module" or "data processing device" covers all data processing equipment, devices and machines, including, by way of example, a programmable processor, a computer, or multiple processors or computers. The hardware may contain, in addition to hardware, code constituting the execution environment for the subject computer program, such as code constituting processor firmware, a protocol stack, a database management system, an operating system, or a combination of one or more of these components.

Компьютерная программа (также известная под названиями «программа», «программное обеспечение», «программное приложение», «макрос» или «код») может быть записана на каком-либо языке программирования, включая компилируемые или интерпретируемые языки, и может быть развернута в любой форме, включая автономную программу, программный модуль, компонент, подпрограмму или другой подобный объект, подходящий для использования в компьютерной среде. Компьютерная программа не обязательно соответствует одному файлу в компьютерной системе. Программа может быть сохранена в части файла, который сохраняет другие программы или данные, (например, один или несколько макросов, сохраненным в документе на языке разметки) в одном файле, выделенном для рассматриваемой программы, или в нескольких скоординированных файлах (например, в файлах, сохраняющих один или несколько модулей, подпрограмм или частей кода). Компьютерная программа может быть развернута для выполнения на одном компьютере или на нескольких компьютерах, расположенных в одном месте или распределенных по нескольким пунктам и соединенных сетью связи.A computer program (also known as a program, software, application, macro, or code) may be written in any programming language, including compiled or interpreted languages, and may be deployed in in any form, including a stand-alone program, program module, component, subroutine, or other similar object suitable for use in a computer environment. A computer program does not necessarily correspond to a single file on a computer system. A program may be stored in a portion of a file that stores other programs or data, (for example, one or more macros stored in a markup language document) in a single file dedicated to the program in question, or in multiple coordinated files (for example, files storing one or more modules, subroutines or pieces of code). A computer program may be deployed to run on a single computer or on multiple computers located in one location or distributed over multiple locations and connected by a communications network.

Процедуры и логические схемы, рассматриваемые в настоящем описании, могут быть реализованы одним или несколькими программируемыми процессорами, выполняющими одну или несколько программ для осуществления функции посредством оперирования над входными данными и генерации выходных данных. Эти процедуры и логические схемы могут также быть осуществлены посредством и устройства могут быть реализованы в виде логических схем специального назначения, например, программируемой пользователем вентильной матрицы (FPGA (field programmable gate array)) или специализированных интегральных схем (ASIC (application specific integrated circuit)).The procedures and logic discussed herein may be implemented by one or more programmable processors executing one or more programs to implement a function by operating on input data and generating output data. These procedures and logic circuits may also be implemented by and devices may be implemented as special-purpose logic circuits, such as field programmable gate arrays (FPGAs) or application specific integrated circuits (ASICs). .

Процессоры, подходящие для выполнения компьютерной программы, могут представлять собой, например, микропроцессоры, как общего, так и специального назначения, и один или несколько процессоров цифрового компьютера какого-либо типа. В общем случае, процессор будет принимать команды и данные из постоянного запоминающего устройства или запоминающего устройства с произвольной выборкой, либо из запоминающих устройств обоих типов. Существенными элементами компьютера являются процессор для выполнения команд и одно или несколько запоминающих устройств для сохранения команд и данных. В общем случае, компьютер будет также содержать или быть оперативно соединен для приема и/или передача данных с запоминающими устройствами большой емкости для хранения данных, например, магнитными дисками, магнитооптическими дисками или оптическими дисками. Однако компьютеру нет необходимости иметь такие устройства. К читаемым компьютером носителям информации для сохранения команд и данных относятся все формы энергонезависимой памяти, носителей информации и запоминающих устройств, включая в качестве примеров, полупроводниковые запоминающие устройства, например, стираемое программируемое постоянное запоминающее устройство (СППЗУ (EPROM)), электрически стираемое и программируемое постоянное запоминающее устройство (ЭСППЗУ (EEPROM)) и устройства флэш-памяти. Процессор и запоминающее устройство могут быть дополнены или включены в логическую схему специального назначения.Processors suitable for executing a computer program may include, for example, microprocessors, both general purpose and special purpose, and one or more digital computer processors of some type. In general, the processor will accept instructions and data from read-only memory or random access memory, or both types of storage devices. The essential elements of a computer are a processor for executing instructions and one or more storage devices for storing instructions and data. In general, the computer will also comprise or be operatively coupled to receive and/or transmit data with mass storage devices for storing data, such as magnetic disks, magneto-optical disks, or optical disks. However, the computer does not need to have such devices. Computer-readable storage media for storing instructions and data includes all forms of non-volatile memory, storage media, and storage devices, including, by way of example, semiconductor storage devices such as EPROM, electrically erasable read-only memory, and programmable read-only memory. storage device (EEPROM) and flash memory devices. The processor and storage device can be complemented or included in special-purpose logic circuitry.

Настоящее описание вместе с прилагаемыми чертежами следует рассматривать только в качестве примеров. Как используется здесь, применение союза «или» должно также охватывать «и/или», если только контекст ясно не указывает иное.This description, together with the accompanying drawings, should be considered as examples only. As used here, the application of the conjunction "or" must also include "and/or" unless the context clearly indicates otherwise.

Хотя настоящий патентный документ содержит много специфических деталей, их не следует толковать в качестве каких-либо ограничений объема какого-либо нововведения или того, что может быть заявлено в качестве изобретения, а просто как описания признаков, которые могут быть специфичными для конкретных вариантов конкретных нововведений. Некоторые признаки, описываемые в настоящем патентном документе в контексте раздельных вариантов, могут быть также реализованы в виде комбинации в одном варианте. Напротив, различные признаки, описываемые в контексте одного варианта, могут быть также реализованы в нескольких вариантах по отдельности или в какой-либо подходящей субкомбинации. Более конкретно, хотя признаки могут быть описаны выше как действующие в определенных комбинациях и даже первоначально заявлены как таковые, один или несколько признаков из заявляемой комбинации могут быть в некоторых случаях исключены из этой заявляемой комбинации, так что эта заявляемая комбинация может быть превращена в субкомбинацию или вариации такой субкомбинации.Although this patent document contains many specific details, they should not be construed as any limitation on the scope of any innovation or what may be claimed as an invention, but merely as descriptions of features that may be specific to particular embodiments of particular innovations . Certain features described in this patent document in the context of separate embodiments may also be implemented in combination in a single embodiment. Conversely, various features described in the context of one embodiment may also be implemented in multiple embodiments individually or in some suitable subcombination. More specifically, although features may be described above as operating in certain combinations and even initially claimed as such, one or more features from a claimed combination may in some cases be excluded from that claimed combination such that the claimed combination may be converted into a subcombination or variations of such a subcombination.

Аналогично, тогда как операции изображены на чертежах в конкретном порядке, это не следует понимать как требование, что такие операции должны выполняться в показанном конкретном порядке или в последовательном порядке или что все показанные иллюстрации должны быть выполнены для достижения желаемых результатов. Более того, разделение различенных системных компонентов, описываемых в настоящем патентном документе, не следует понимать как требование такого разделения во всех вариантах.Likewise, while operations are depicted in the drawings in a particular order, this should not be construed as a requirement that such operations must be performed in the specific order shown or in a sequential order or that all illustrations shown must be performed to achieve the desired results. Moreover, the separation of the various system components described in this patent document should not be understood as requiring such separation in all embodiments.

Здесь описаны только несколько вариантов и примеров, однако и другие варианты реализации, усовершенствования и вариации могут быть созданы на основе того, что описано и иллюстрировано в настоящем документе.Only a few embodiments and examples are described herein, however, other embodiments, improvements and variations may be created based on what is described and illustrated herein.

Claims (45)

1. Способ обработки данных видео, содержащий этапы, на которых:1. A method for processing video data, comprising the steps of: определяют, для преобразования между текущим видеоблоком видео и потоком битов данных видео, первый прогнозируемый блок в первой области по меньшей мере из одного опорного изображения с использованием неуточненной информации о движении, причем текущий видеоблок представляет собой блок яркостной составляющей;determining, for conversion between the current video video block and the video data bit stream, a first predicted block in a first region of at least one reference image using the unspecified motion information, wherein the current video block is a luminance component block; применяют, по меньшей мере на основе первого прогнозируемого блока, процедуру уточнения информации о движении к неуточненной информации о движении для получения информации о смещении движения; applying, at least based on the first predicted block, a motion information refinement procedure to the unspecified motion information to obtain motion offset information; генерируют второй прогнозируемый блок из отсчетов на указанном по меньшей мере одном опорном изображении с использованием информации о смещении движения;generating a second predicted block from the samples on the at least one reference image using the motion offset information; преобразуют, на основе процедуры прямого отображения, второй прогнозируемый блок из первой области во вторую область, причем отсчеты второго прогнозируемого блока отображаются на конкретные значения; иconverting, based on a direct mapping procedure, a second prediction block from the first region to a second region, wherein samples of the second prediction block are mapped to specific values; And генерируют реконструированные отсчеты текущего видеоблока на основе второго прогнозируемого блока во второй области,generating reconstructed samples of the current video block based on the second predicted block in the second region, при этом для отображения отсчетов второго прогнозируемого блока на конкретные значения в ходе процедуры прямого отображения используется кусочно-линейная модель,in this case, to map the samples of the second predicted block to specific values during the direct mapping procedure, a piecewise linear model is used, причем коэффициенты масштабирования кусочно-линейной модели определяются на основе первых переменных, которые определяются на основе синтаксических элементов, входящих в набор параметров адаптации, и вторых переменных, определяемых на основе битовой глубины.wherein the scaling factors of the piecewise linear model are determined based on first variables that are determined based on syntactic elements included in the set of adaptation parameters and second variables that are determined based on bit depth. 2. Способ по п. 1, в котором в ходе процедуры уточнения информации о движении информация о смещении движения генерируется на основе процедуры билинейной интерполяции и вычисления стоимости, при этом информация о смещении движения дополнительно используется для прогнозирования временного вектора движения для последующих блоков. 2. The method of claim 1, wherein during the motion information refinement procedure, motion offset information is generated based on the bilinear interpolation and cost calculation procedure, wherein the motion offset information is further used to predict a temporal motion vector for subsequent blocks. 3. Способ по п. 2, в котором вычисление стоимости содержит сумму абсолютных разностей (SAD) или сумму абсолютных разностей с исключением среднего (MR-SAD).3. The method of claim 2, wherein the cost calculation comprises sum of absolute differences (SAD) or sum of absolute differences plus mean (MR-SAD). 4. Способ по п. 1, в котором в ходе процедуры уточнения информации о движении информация о смещении движения генерируется на основе вычислений градиента в разных направлениях на основе отсчетов в первой области.4. The method of claim 1, wherein during the motion information refinement procedure, motion displacement information is generated based on gradient calculations in different directions based on samples in the first region. 5. Способ по п. 1, в котором реконструированные отсчеты текущего видеоблока преобразуются в первую область на основе процедуры обратного отображения.5. The method of claim 1, wherein the reconstructed samples of the current video block are converted into the first region based on a demapping procedure. 6. Способ по п. 5, в котором к преобразованным реконструированным отсчетам в первой области применяется процедура фильтрации.6. The method according to claim 5, in which a filtering procedure is applied to the transformed reconstructed samples in the first region. 7. Способ по п. 1, в котором отсчеты остатка блока цветностной составляющей, соответствующего текущему видеоблоку, определяются путем применения процедуры масштабирования на основе реконструированных отсчетов во второй области, относящихся к яркостной составляющей изображения, к которому принадлежит текущий видеоблок.7. The method according to claim 1, in which the samples of the remainder of the chroma component block corresponding to the current video block are determined by applying a scaling procedure based on the reconstructed samples in the second region related to the luminance component of the image to which the current video block belongs. 8. Способ по п. 1, в котором процедура уточнения информации о движении содержит по меньшей мере одно из процедуры уточнения вектора движения на стороне декодирующего устройства, повышающего преобразования частоты кадров или процедуры двунаправленного оптического потока.8. The method of claim 1, wherein the motion information refinement procedure comprises at least one of a decoder-side motion vector refinement procedure, a frame rate upconversion procedure, or a bidirectional optical flow procedure. 9. Способ по п. 1, в котором на этапе применения процедуры уточнения информации о движении к неуточненной информации о движении для получения информации о смещении движения:9. The method according to claim 1, in which, at the stage of applying the procedure for clarifying motion information to unspecified motion information to obtain information about the displacement of motion: проверяют множество векторов движения, определенных на основе неуточненной информации о движении, и выбирают один вектор с наименьшей стоимостью для определения информации о смещении движения.checking a plurality of motion vectors determined based on the unspecified motion information, and selecting one vector with the lowest cost to determine the motion offset information. 10. Способ по п. 1, в котором на этапе преобразования кодируют текущий видеоблок в поток битов данных.10. The method according to claim 1, in which, at the conversion stage, the current video block is encoded into a stream of data bits. 11. Способ по п. 1, в котором на этапе преобразования декодируют текущий видеоблок из потока битов данных.11. The method according to claim 1, in which, at the conversion stage, the current video block is decoded from the data bit stream. 12. Устройство обработки данных видео, содержащее процессор и энергонезависимое запоминающее устройство с записанными в нем командами, причем команды при исполнении процессором вызывают выполнение процессором:12. A video data processing device comprising a processor and a non-volatile storage device with commands written therein, wherein the commands, when executed by the processor, cause the processor to execute: определения, для преобразования между текущим видеоблоком видео и потоком битов данных видео, первого прогнозируемого блока в первой области по меньшей мере из одного опорного изображения с использованием неуточненной информации о движении, причем текущий видеоблок представляет собой блок яркостной составляющей;determining, for conversion between the current video video block and the video data bit stream, a first predicted block in a first region from at least one reference image using the unspecified motion information, wherein the current video block is a luminance component block; применения, по меньшей мере на основе первого прогнозируемого блока, процедуры уточнения информации о движении к неуточненной информации о движении для получения информации о смещении движения; applying, at least based on the first predicted block, a motion information refinement procedure to the unspecified motion information to obtain motion offset information; генерирования второго прогнозируемого блока из отсчетов на указанном по меньшей мере одном опорном изображении с использованием информации о смещении движения;generating a second predicted block from the samples on the at least one reference image using the motion offset information; преобразования, на основе процедуры прямого отображения, второго прогнозируемого блока из первой области во вторую область, причем отсчеты второго прогнозируемого блока отображаются на конкретные значения; иtransforming, based on a direct mapping procedure, a second prediction block from a first region to a second region, the samples of the second prediction block being mapped to specific values; And генерирования реконструированных отсчетов текущего видеоблока на основе второго прогнозируемого блока во второй области,generating reconstructed samples of the current video block based on the second predicted block in the second region, при этом для отображения отсчетов второго прогнозируемого блока в конкретные значения в ходе процедуры прямого отображения используется кусочно-линейная модель,in this case, to map the samples of the second predicted block to specific values during the direct mapping procedure, a piecewise linear model is used, причем коэффициенты масштабирования кусочно-линейной модели определяются на основе первых переменных, которые определяются на основе синтаксических элементов, входящих в набор параметров адаптации, и вторых переменных, определяемых на основе битовой глубины.wherein the scaling factors of the piecewise linear model are determined based on first variables that are determined based on syntactic elements included in the set of adaptation parameters and second variables that are determined based on bit depth. 13. Энергонезависимый читаемый компьютером носитель информации, хранящий команды, которые вызывают выполнение процессором:13. A non-volatile computer-readable storage medium that stores instructions that cause the processor to execute: определения, для преобразования между текущим видеоблоком видео и потоком битов данных видео, первого прогнозируемого блока в первой области по меньшей мере из одного опорного изображения с использованием неуточненной информации о движении, причем текущий видеоблок представляет собой блок яркостной составляющей;determining, for conversion between the current video video block and the video data bit stream, a first predicted block in a first region from at least one reference image using the unspecified motion information, wherein the current video block is a luminance component block; применения, по меньшей мере на основе первого прогнозируемого блока, процедуры уточнения информации о движении к неуточненной информации о движении для получения информации о смещении движения; applying, at least based on the first predicted block, a motion information refinement procedure to the unspecified motion information to obtain motion offset information; генерирования второго прогнозируемого блока из отсчетов на указанном по меньшей мере одном опорном изображении с использованием информации о смещении движения;generating a second predicted block from the samples on the at least one reference image using the motion offset information; преобразования, на основе процедуры прямого отображения, второго прогнозируемого блока из первой области во вторую область, причем отсчеты второго прогнозируемого блока отображаются на конкретные значения; иtransforming, based on a direct mapping procedure, a second prediction block from a first region to a second region, the samples of the second prediction block being mapped to specific values; And генерирования реконструированных отсчетов текущего видеоблока на основе второго прогнозируемого блока во второй области,generating reconstructed samples of the current video block based on the second predicted block in the second region, при этом для отображения отсчетов второго прогнозируемого блока в конкретные значения в ходе процедуры прямого отображения используется кусочно-линейная модель,in this case, to map the samples of the second predicted block to specific values during the direct mapping procedure, a piecewise linear model is used, причем коэффициенты масштабирования кусочно-линейной модели определяются на основе первых переменных, которые определяются на основе синтаксических элементов, входящих в набор параметров адаптации, и вторых переменных, определяемых на основе битовой глубины.wherein the scaling factors of the piecewise linear model are determined based on first variables that are determined based on syntactic elements included in the set of adaptation parameters and second variables that are determined based on bit depth. 14. Способ сохранения потока битов данных видео, содержащий этапы, на которых:14. A method for storing a video data bit stream, comprising the steps of: определяют, для текущего видеоблока видео, первый прогнозируемый блок в первой области по меньшей мере из одного опорного изображения с использованием неуточненной информации о движении, причем текущий видеоблок представляет собой блок яркостной составляющей;determining, for the current video video block, a first predicted block in a first region of at least one reference image using the unspecified motion information, wherein the current video block is a luminance component block; применяют, по меньшей мере на основе первого прогнозируемого блока, процедуру уточнения информации о движении к неуточненной информации о движении для получения информации о смещении движения; applying, at least based on the first predicted block, a motion information refinement procedure to the unspecified motion information to obtain motion offset information; генерируют второй прогнозируемый блок из отсчетов на указанном по меньшей мере одном опорном изображении с использованием информации о смещении движения;generating a second predicted block from the samples on the at least one reference image using the motion offset information; преобразуют, на основе процедуры прямого отображения, второй прогнозируемый блок из первой области во вторую область, причем отсчеты второго прогнозируемого блока отображаются на конкретные значения; иconverting, based on a direct mapping procedure, a second prediction block from the first region to a second region, wherein samples of the second prediction block are mapped to specific values; And генерируют поток битов данных на основе второго прогнозируемого блока во второй области; иgenerating a stream of data bits based on the second predicted block in the second region; And сохраняют поток битов данных в энергонезависимом читаемом компьютером носителе информации;storing the stream of data bits in a non-volatile computer-readable storage medium; причем реконструированные отсчеты текущего видеоблока генерируются на основе второго прогнозируемого блока во второй области,wherein reconstructed samples of the current video block are generated based on the second predicted block in the second region, при этом для отображения отсчетов второго прогнозируемого блока в конкретные значения в ходе процедуры прямого отображения используется кусочно-линейная модель,in this case, to map the samples of the second predicted block to specific values during the direct mapping procedure, a piecewise linear model is used, причем коэффициенты масштабирования кусочно-линейной модели определяются на основе первых переменных, которые определяются на основе синтаксических элементов, входящих в набор параметров адаптации, и вторых переменных, определяемых на основе битовой глубины.wherein the scaling factors of the piecewise linear model are determined based on first variables that are determined based on syntactic elements included in the set of adaptation parameters and second variables that are determined based on bit depth.
RU2021123616A 2019-02-01 2020-02-01 Interaction between in-loop transformation and tools for interframe coding RU2806282C2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CNPCT/CN2019/074437 2019-02-01

Publications (2)

Publication Number Publication Date
RU2021123616A RU2021123616A (en) 2023-02-09
RU2806282C2 true RU2806282C2 (en) 2023-10-30

Family

ID=

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7412003B2 (en) * 2003-09-17 2008-08-12 Texas Instruments Incorporated Transcoders and methods
CN104320671A (en) * 2014-11-13 2015-01-28 山东财经大学 Online video transcoding method based on H.264 standard
US9083983B2 (en) * 2011-10-04 2015-07-14 Qualcomm Incorporated Motion vector predictor candidate clipping removal for video coding
RU2632158C2 (en) * 2011-11-08 2017-10-02 Электроникс Энд Телекоммьюникейшнз Рисерч Инститьют Method and device for sharing list of candidates
CN107360433A (en) * 2017-07-20 2017-11-17 北京奇艺世纪科技有限公司 A kind of interframe prediction encoding method and device
CN105075259B (en) * 2013-03-29 2018-10-12 高通股份有限公司 Memory for video coding prediction is reduced
US20180338154A1 (en) * 2017-05-19 2018-11-22 Mediatek Inc. Method and apparatus of video coding

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7412003B2 (en) * 2003-09-17 2008-08-12 Texas Instruments Incorporated Transcoders and methods
US9083983B2 (en) * 2011-10-04 2015-07-14 Qualcomm Incorporated Motion vector predictor candidate clipping removal for video coding
RU2632158C2 (en) * 2011-11-08 2017-10-02 Электроникс Энд Телекоммьюникейшнз Рисерч Инститьют Method and device for sharing list of candidates
CN105075259B (en) * 2013-03-29 2018-10-12 高通股份有限公司 Memory for video coding prediction is reduced
CN104320671A (en) * 2014-11-13 2015-01-28 山东财经大学 Online video transcoding method based on H.264 standard
US20180338154A1 (en) * 2017-05-19 2018-11-22 Mediatek Inc. Method and apparatus of video coding
CN107360433A (en) * 2017-07-20 2017-11-17 北京奇艺世纪科技有限公司 A kind of interframe prediction encoding method and device

Similar Documents

Publication Publication Date Title
CN113574889B (en) Signaling and syntax of loop shaping information
AU2020213583B2 (en) Signaling of in-loop reshaping information using parameter sets
KR102617221B1 (en) Signaling of in-loop reshaping information using parameter sets
RU2806282C2 (en) Interaction between in-loop transformation and tools for interframe coding
RU2808682C2 (en) Transmission of signaling with information about intra-circuit reformation using a set of parameters
CA3128424C (en) Interactions between in-loop reshaping and inter coding tools
RU2812648C2 (en) Method and device for processing video data and media for information storage
WO2020182219A1 (en) Signaling and syntax for in-loop reshaping information