RU2802175C2 - Advanced weight processing using combined mode with intra-frame and inter-frame prediction - Google Patents

Advanced weight processing using combined mode with intra-frame and inter-frame prediction Download PDF

Info

Publication number
RU2802175C2
RU2802175C2 RU2021126292A RU2021126292A RU2802175C2 RU 2802175 C2 RU2802175 C2 RU 2802175C2 RU 2021126292 A RU2021126292 A RU 2021126292A RU 2021126292 A RU2021126292 A RU 2021126292A RU 2802175 C2 RU2802175 C2 RU 2802175C2
Authority
RU
Russia
Prior art keywords
prediction
block
intra
mode
current
Prior art date
Application number
RU2021126292A
Other languages
Russian (ru)
Other versions
RU2021126292A (en
Inventor
Хунбинь Лю
Ли ЧЖАН
Кай Чжан
Цзичжэн СЮЙ
Юэ Ван
На ЦХАНГ
Original Assignee
Бейджин Байтдэнс Нетворк Текнолоджи Ко., Лтд.
Байтдэнс Инк.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Бейджин Байтдэнс Нетворк Текнолоджи Ко., Лтд., Байтдэнс Инк. filed Critical Бейджин Байтдэнс Нетворк Текнолоджи Ко., Лтд.
Publication of RU2021126292A publication Critical patent/RU2021126292A/en
Application granted granted Critical
Publication of RU2802175C2 publication Critical patent/RU2802175C2/en

Links

Images

Abstract

FIELD: computer science.
SUBSTANCE: video processing method comprises the steps of determining, in the course of converting between a current video block that is encoded in a combined intra-frame and inter-frame prediction (CIIP) coding mode, video and a data bit stream representation of the current video block, a pair of weight coefficients comprising the first weight coefficient for the first prediction result of the current video block and the second weight coefficient for the second prediction result of the current video block, based on one or more adjacent video blocks relative to the current video block, the first prediction result being generated in the intra-frame prediction mode, and the second prediction result is generated in the inter-frame prediction mode; and determining a prediction result of the current block based on the weighted sum of the first prediction result and the second prediction result.
EFFECT: improvement in the quality of a digital image or video after decompression or decoding.
15 cl, 31 dwg

Description

Область техники, к которой относится изобретениеThe field of technology to which the invention belongs

Настоящий документ относится к технологиям кодирования и декодирования видео и изображений. This document relates to video and image encoding and decoding technologies.

Уровень техники State of the art

Цифровое видео занимает наибольшую долю полосы частот в сети Интернет и в других цифровых сетях связи. Поскольку число присоединенных пользовательских устройств, способных принимать и представлять видео на дисплее, увеличивается, ожидается, что потребности в полосе для использования цифровым видео будут продолжать расти. Digital video occupies the largest share of the bandwidth on the Internet and other digital communication networks. As the number of connected user devices capable of receiving and presenting video on a display increases, the bandwidth requirements for digital video use are expected to continue to grow.

Раскрытие сущности изобретения Disclosure of the essence of the invention

Предлагаемая технология может быть использована в вариантах декодирующих устройств или кодирующих устройств для видео или изображений, в которых применяется комбинированный режим кодирования с внутрикадровым и межкадровым прогнозированием.The proposed technology can be used in versions of decoders or encoders for video or images, which use a combined coding mode with intra-frame and inter-frame prediction.

Согласно одному примерному аспекту предложен способ обработки видео. Способ содержит этапы, на которых определяют режим кодирования первого видеоблока; ограничивают один или более флагов рабочим состоянием на основе результата определения режима кодирования первого видеоблока, причем рабочее состояние может быть ложным или истинным; и выполняют дальнейшую обработку второго видеоблока в соответствии с рабочим состоянием указанного одного или более флагов, причем первый видеоблок является соседним видеоблоком или опорным видеоблоком относительно второго видеоблока.According to one exemplary aspect, a video processing method is provided. The method comprises the steps of determining the coding mode of the first video block; restricting one or more flags to an operational state based on the result of determining the coding mode of the first video block, wherein the operational state may be false or true; and performing further processing of the second video block in accordance with the operating state of the specified one or more flags, and the first video block is a neighboring video block or a reference video block relative to the second video block.

Согласно другому примерному аспекту способ обработки видео содержит этапы, на которых определяют использование попарного прогнозирования или комбинированного двунаправленного прогнозирования относительно первого видеоблока; определяют рабочее состояние комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (combined inter-intra prediction (CIIP)) на основе определения, что используется попарное прогнозирование или комбинированное двунаправленное прогнозирование, причем рабочее состояние активизировано или не активизировано; и выполняют дальнейшую обработки первого видеоблока в соответствии с рабочим состоянием режима прогнозирования CIIP.According to another exemplary aspect, a video processing method comprises determining whether to use pairwise prediction or combined bidirectional prediction with respect to a first video block; determining an operating state of a combined inter-intra prediction (CIIP) coding mode based on the determination that pairwise prediction or combined bidirectional prediction is used, and the operating state is enabled or disabled; and performing further processing of the first video block in accordance with the operation state of the CIIP prediction mode.

Согласно другому примерному аспекту предложен другой способ обработки видео. Способ содержит этап, на котором выполняют преобразование между видеоблоком видео и кодированным представлением видеоблока с использованием комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием, причем кодированное представление соответствует взвешенному среднему результатов внутрикадрового прогнозирования и межкадрового прогнозирования для указанного видеоблока с применением пары весовых коэффициентов из набора пар весовых коэффициентов, имеющего менее трех пар. According to another exemplary aspect, another video processing method is provided. The method comprises converting between a video video block and an encoded representation of the video block using a combined intra-prediction and inter-prediction coding mode, wherein the encoded representation corresponds to a weighted average of the intra-prediction and inter-prediction results for the specified video block using a weight pair from a set of weight pairs. coefficients having less than three pairs.

Согласно другому примерному аспекту предложен другой способ обработки видео. Способ содержит этап, на котором выполняют преобразование между видеоблоком видео и кодированным представлением видеоблока с использованием комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием, при этом кодированное представление соответствует взвешенному среднему результатов внутрикадрового прогнозирования и межкадрового прогнозирования для указанного видеоблока с применением пары весовых коэффициентов из набора пар весовых коэффициентов, определяемых в соответствии с информацией о кодировании одного или более соседних блоков. According to another exemplary aspect, another video processing method is provided. The method comprises the step of converting between a video video block and an encoded representation of the video block using a combined intra-prediction and inter-prediction coding mode, wherein the encoded representation corresponds to a weighted average of the intra-prediction and inter-prediction results for the specified video block using a pair of weight coefficients from the set of pairs weight coefficients determined according to the encoding information of one or more neighboring blocks.

Согласно другому примерному аспекту предложен другой способ обработки видео. Способ содержит этап, на котором определяют, в процессе преобразования между первым блоком данных видео и представлением первого блока в виде потока битов данных, один или более режимов кодирования для одного или более вторых блоков; определяют, на основе указанного одного или более режимов кодирования для указанного одного или более вторых блоков, ограничение режима кодирования для первого блока; и выполняют, по меньшей мере путем применения ограничения для режима кодирования для первого блока, указанное преобразование; причем указанный один или более вторых блоков содержат по меньшей мере одно из смежного блока, несмежного блока и/или опорного блока для указанного первого блока.According to another exemplary aspect, another video processing method is provided. The method comprises determining, in a process of converting between a first block of video data and a data bitstream representation of the first block, one or more coding modes for one or more second blocks; determining, based on said one or more coding modes for said one or more second blocks, a coding mode constraint for the first block; and perform, at least by applying the restrictions for the coding mode for the first block, the specified transformation; wherein said one or more second blocks comprise at least one of an adjacent block, a non-adjacent block, and/or a reference block for said first block.

Согласно другому примерному аспекту предложен другой способ обработки видео. Способ содержит этап, на котором выполняют преобразование между текущим блоком в данных видео и представлением текущего блока в виде потока битов данных с использованием по меньшей мере одного из комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP), рассеивающей фильтрации, двусторонней фильтрации, фильтрации в преобразованной области или какого-либо другого типа пост-реконструкционной фильтрации, отличного от рассеивающей фильтрации, двусторонней фильтрации и фильтрации в преобразованной области, причем реконструированные соседние отсчеты текущего блока, используемые по меньшей мере в одном из комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP), режима рассеивающей фильтрации, режима двусторонней фильтрации, режима фильтрации в преобразованной области или режима пост-реконструкционной фильтрации какого-либо другого типа, заменены аппроксимированными отсчетами, генерируемыми из соответствующих отсчетов реконструированных соседних отсчетов в одном или более опорных изображениях.According to another exemplary aspect, another video processing method is provided. The method comprises converting between a current block in video data and a data bitstream representation of the current block using at least one of a combined intra-frame and inter-prediction (CIIP) coding mode, diffusing filtering, bidirectional filtering, filtering in of the transformed region, or some other type of post-reconstruction filtering other than scattering filtering, two-way filtering, and filtering in the transformed region, wherein the reconstructed adjacent samples of the current block used in at least one of the combined intra- and inter-prediction (CIIP) coding mode ), a diffuse filtering mode, a two-way filtering mode, a transformed domain filtering mode, or some other type of post-rendered filtering mode, are replaced by approximate samples generated from the corresponding samples of the reconstructed adjacent samples in one or more reference images.

Согласно другому примерному аспекту предложен другой способ обработки видео. Способ содержит этапы, на которых сохраняют флаг комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP) и/или флаг режима внутрикадрового прогнозирования режима CIIP с информацией о движении в таблице прогнозирования вектора движения на основе предыстории (history-based motion vector prediction (HMVP)); и выполняют, по меньшей мере на основе таблицы прогнозирования HMVP, преобразование между текущим блоком данных видео и представлением текущего блока в виде потока битов данных.According to another exemplary aspect, another video processing method is provided. The method comprises storing a combined intra- and inter-prediction (CIIP) coding mode flag and/or a CIIP mode intra-frame prediction mode flag with motion information in a history-based motion vector prediction (HMVP) table. ); and performing, at least based on the HMVP prediction table, a transformation between the current video data block and a data bitstream representation of the current block.

Согласно другому примерному аспекту предложен другой способ обработки видео. Способ содержит этапы, на которых определяют, в процессе преобразования между текущим блоком данных видео и представлением текущего блока в виде потока битов данных, режим прогнозирования для текущего блока; определяют применимость комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP), указывающую, что комбинированный режим прогнозирования CIIP активизирован для текущего блока, в ответ на определение, что текущий блок кодирован с применением режима усовершенствованного прогнозирования вектора движения (advanced motion vector prediction (AMVP)) или в режиме объединения; и выполняют преобразование на основе применимости режима прогнозирования CIIP.According to another exemplary aspect, another video processing method is provided. The method comprises determining, in a process of converting between the current video data block and a data bitstream representation of the current block, a prediction mode for the current block; determine the applicability of the combined intra-frame and inter-frame prediction (CIIP) coding mode, indicating that the combined CIIP prediction mode is activated for the current block, in response to determining that the current block is encoded using the advanced motion vector prediction (AMVP) mode ) or in join mode; and performing a transformation based on the applicability of the CIIP prediction mode.

Согласно другому примерному аспекту предложен другой способ обработки видео. Способ содержит этапы, на которых определяют, в процессе преобразования между текущим блоком данных видео и представлением текущего блока в виде потока битов данных, тип выбранного объединяемого кандидата для текущего блока, и определяют применимость комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP) для текущего блока в соответствии с типом выбранного объединяемого кандидата, причем текущий блок кодирован в режиме объединения.According to another exemplary aspect, another video processing method is provided. The method comprises determining, in the process of converting between the current block of video data and the data bitstream representation of the current block, the type of the selected merging candidate for the current block, and determining whether a combined intra-frame and inter-frame predictive (CIIP) coding mode is applicable to the current block according to the type of the selected candidate to be merged, the current block being coded in the merging mode.

Согласно другому примерному аспекту предложен другой способ обработки видео. Способ содержит этапы, на которых кодируют, в процессе преобразования между текущим видеоблоком данных видео и представлением текущего видеоблока в виде потока битов данных, флаг комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP) для текущего видеоблока посредством кодирования на основе контекстной модели без ссылки на флаг режима прогнозирования для одного или более видеоблоков, соседних с этим текущим блоком, и выполняют преобразование по меньшей мере путем применения флага комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP) для текущего видеоблока.According to another exemplary aspect, another video processing method is provided. The method comprises encoding, in the process of converting between a current video block of video data and a data bitstream representation of the current video block, a combined intra-frame and inter-frame prediction (CIIP) coding mode flag for the current video block by encoding based on a context model without reference to a prediction mode flag for one or more video blocks adjacent to the current block, and performing transformation by at least applying a combined intra- and inter-prediction (CIIP) coding mode flag to the current video block.

Согласно другому примерному аспекту предложен другой способ обработки видео. Способ содержит этапы, на которых кодируют, в процессе преобразования между текущим видеоблоком данных видео и представлением текущего видеоблока в виде потока битов данных, флаг комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP) для текущего видеоблока посредством обходного кодирования, и выполняют преобразование по меньшей мере путем применения комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP). According to another exemplary aspect, another video processing method is provided. The method comprises encoding, in the process of converting between the current video block of video data and a representation of the current video block as a data bit stream, a combined intra-frame and inter-frame prediction (CIIP) coding mode flag for the current video block by bypass coding, and converting at least least by applying a combined intra- and inter-prediction (CIIP) coding mode.

Согласно другому примерному аспекту предложен другой способ обработки видео. Способ содержит этапы, на которых определяют режим внутрикадрового прогнозирования для первого видеоблока видео в соответствии с некоторым правилом, причем правило содержит: пропуск, в ходе процедуры определения режима внутрикадрового прогнозирования для первого видеоблока, проверки флага комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP) для одного или более видеоблоков, соседних с первым видеоблоком, и выполняют, на основе по меньшей мере найденного режима внутрикадрового прогнозирования, преобразование между первым видеоблоком и представлением первого видеоблока в виде потока битов данных.According to another exemplary aspect, another video processing method is provided. The method comprises the steps of determining the intra-frame prediction mode for the first video video block in accordance with some rule, the rule comprising: skipping, during the procedure for determining the intra-frame prediction mode for the first video block, checking the flag of the combined intra- and inter-frame prediction (CIIP) coding mode for one or more video blocks adjacent to the first video block, and performing, based on at least the found intra-prediction mode, a transformation between the first video block and a data bitstream representation of the first video block.

Согласно другому примерному аспекту предложен другой способ обработки видео. Способ содержит этапы, на которых определяют, в процессе преобразования между текущим видеоблоком, кодированным в комбинированном режиме кодирования с внутрикадровым и межкадровым прогнозированием (CIIP), видео и представлением этого текущего видеоблока в виде потока битов данных, пару весовых коэффициентов, содержащую первый весовой коэффициент для первого результата прогнозирования текущего видеоблока и второй весовой коэффициент для второго результата прогнозирования текущего видеоблока, на основе одного или более видеоблоков, соседних с текущим видеоблоком, причем первый результат прогнозирования генерируется в режиме внутрикадрового прогнозирования, а второй результат прогнозирования генерируется в режиме межкадрового прогнозирования; и определяют результат прогнозирования текущего блока на основе взвешенной суммы первого результата прогнозирования и второго результата прогнозирования.According to another exemplary aspect, another video processing method is provided. The method comprises determining, in the process of converting between a current video block encoded in a combined intra-frame and inter-frame prediction (CIIP) coding mode, video and a representation of this current video block as a data bit stream, a pair of weight coefficients containing a first weight coefficient for a first prediction result of the current video block and a second weighting factor for a second prediction result of the current video block, based on one or more video blocks adjacent to the current video block, the first prediction result being generated in an intra prediction mode and the second prediction result being generated in an inter prediction mode; and determining a prediction result of the current block based on the weighted sum of the first prediction result and the second prediction result.

Согласно другому примерному аспекту, описанный выше способ может быть реализован кодирующим устройством для видео, которое содержит процессор. According to another exemplary aspect, the method described above may be implemented by a video encoder that includes a processor.

Согласно еще одному примерному аспекту эти способы могут быть реализованы в виде исполняемых процессором команд, хранящихся на читаемом компьютером носителе программы. In yet another exemplary aspect, these methods may be implemented as processor-executable instructions stored on a computer-readable program medium.

Эти и другие аспекты будут далее описаны в настоящем документе. These and other aspects will be further described in this document.

Краткое описание чертежейBrief description of the drawings

Фиг. 1 показывает пример процедуры построения списка объединяемых кандидатов.Fig. 1 shows an example of a procedure for constructing a list of merged candidates.

Фиг. 2 показывает пример позиций пространственных кандидатов.Fig. 2 shows an example of spatial candidate positions.

Фиг. 3 показывает пример пар кандидатов, подвергаемых контролю избыточности, из совокупности пространственных объединяемых кандидатов.Fig. 3 shows an example of pairs of candidates subjected to redundancy control from a pool of spatial merged candidates.

Фиг. 4 показывает пример позиций для второй единицы PU с разбиением N×2N и 2N×N.Fig. 4 shows an example of positions for a second PU with N×2N and 2N×N partitions.

Фиг. 5 показывает пример масштабирования векторов движения для временных объединяемых кандидатов.Fig. 5 shows an example of motion vector scaling for temporal pooled candidates.

Фиг. 6 показывает пример позиций кандидатов для временных объединяемых кандидатов, C0 и C1.Fig. 6 shows an example of candidate positions for temporary merged candidates, C0 and C1.

Фиг. 7 показывает пример комбинированного двунаправлено интерполированного (прогнозируемого) объединяемого кандидата.Fig. 7 shows an example of a combined bidirectionally interpolated (predictive) merging candidate.

Фиг. 8 показывает пример процедуры построения кандидатов с прогнозированием вектора движения.Fig. 8 shows an example of a candidate construction procedure with motion vector prediction.

Фиг. 9 показывает пример масштабирования векторов движения для пространственных объединяемых кандидатов.Fig. 9 shows an example of motion vector scaling for spatial merging candidates.

Фиг. 10 показывает пример прогнозирования движения с использованием алгоритма прогнозирования альтернативного временного вектора движения (alternative temporal motion vector prediction (ATMVP)) для единиц кодирования (coding unit (CU)).Fig. 10 shows an example of motion prediction using an alternative temporal motion vector prediction (ATMVP) algorithm for coding units (CU).

Фиг. 11 показывает пример соседних отсчетов для определения параметров компенсации освещенности (IC).Fig. 11 shows an example of adjacent samples for determining illumination compensation (IC) parameters.

Фиг. 12 показывает пример процедуры поиска выражения окончательного вектора движения (ultimate motion vector expression (UMVE)).Fig. 12 shows an example of an ultimate motion vector expression (UMVE) search procedure.

Фиг. 13 показывает пример точки поиска выражения UMVE.Fig. 13 shows an example of a UMVE expression lookup point.

Фиг. 14 показывает пример логической схемы процедуры декодирования с применением предлагаемого способа прогнозирования вектора движения на основе предыстории (HMVP).Fig. 14 shows an example flow diagram of a decoding procedure using the proposed Historical Motion Vector Prediction (HMVP) method.

Фиг. 15 показывает пример обновления таблицы в предлагаемом способе прогнозирование HMVP.Fig. 15 shows an example of updating a table in the proposed HMVP prediction method.

Фиг. 16 показывает пример симметричного режима.Fig. 16 shows an example of a symmetrical mode.

Фиг. 17 показывает пример соседних отсчетов для текущего блока и соответствующих им отсчетов в опорном изображении.Fig. 17 shows an example of neighboring samples for the current block and their corresponding samples in the reference picture.

Фиг. 18 представляет блок-схему примера устройства для обработки видео. Fig. 18 is a block diagram of an example of a video processing apparatus.

Фиг. 19 показывает блок-схему примера реализации кодирующего устройства для видео.Fig. 19 shows a block diagram of an example implementation of a video encoder.

Фиг. 20 представляет логическую схему примера способа обработки видео.Fig. 20 is a logic diagram of an example of a video processing method.

Фиг. 21 представляет логическую схему примера способа обработки видео.Fig. 21 is a logic diagram of an example of a video processing method.

Фиг. 22 показывает пример соседних блоков сверху и слева, используемых при оценке весовых коэффициентов для режима прогнозирования CIIP. Fig. 22 shows an example of top and left adjacent blocks used in estimating the weights for the CIIP prediction mode.

Фиг. 23 представляет логическую схему примера способа обработки видео.Fig. 23 is a logic diagram of an example of a video processing method.

Фиг. 24 представляет логическую схему примера способа обработки видео.Fig. 24 is a logic diagram of an example of a video processing method.

Фиг. 25 представляет логическую схему примера способа обработки видео.Fig. 25 is a logic diagram of an example of a video processing method.

Фиг. 26 представляет логическую схему примера способа обработки видео.Fig. 26 is a logic diagram of an example of a video processing method.

Фиг. 27 представляет логическую схему примера способа обработки видео.Fig. 27 is a logic diagram of an example of a video processing method.

Фиг. 28 представляет логическую схему примера способа обработки видео.Fig. 28 is a logic diagram of an example of a video processing method.

Фиг. 29 представляет логическую схему примера способа обработки видео.Fig. 29 is a logic diagram of an example of a video processing method.

Фиг. 30 представляет логическую схему примера способа обработки видео.Fig. 30 is a logic diagram of an example of a video processing method.

Фиг. 31 представляет логическую схему примера способа обработки видео.Fig. 31 is a logic diagram of an example of a video processing method.

Осуществление изобретенияImplementation of the invention

Настоящий документ предлагает различные способы, которые могут быть использованы декодирующим устройством для потоков битов данных изображения или видео с целью улучшения качества цифрового изображения или видео после декомпрессии или декодирования. Для краткости термин «видео» используется здесь таким образом, что он охватывает как последовательность изображений (традиционно называемую видео), так и индивидуальные изображения. Кроме того, кодирующее устройство для видео также осуществляет эти способы в ходе процедуры кодирования с целью реконструкции декодированных кадров, используемых для дальнейшего кодирования. The present document proposes various methods that can be used by a decoder for image or video data bitstreams to improve the quality of a digital image or video after decompression or decoding. For brevity, the term "video" is used here in such a way that it covers both a sequence of images (traditionally referred to as video) and individual images. In addition, the video encoder also implements these methods during the encoding procedure in order to reconstruct the decoded frames used for further encoding.

Заголовки разделов используются в настоящем документе для облегчения понимания и не ограничивают варианты и способы только соответствующими разделами. В такой ситуации варианты из одного раздела можно комбинировать с вариантами из других разделов. Section headings are used herein for ease of understanding and are not intended to limit the options and methods to their respective sections. In such a situation, options from one section can be combined with options from other sections.

1. Общие положения1. General Provisions

Настоящий документ относится к технологиям кодирования видео. В частности, он относится к комбинированному режиму кодирования с внутрикадровым и межкадровым прогнозированием (CIIP), применяемому при кодировании или декодированию видео. Это может быть применено к существующим стандартам кодирования видео, таким как стандарт HEVC или стандарт универсального видео кодирования (Versatile Video Coding (VVC)), который еще должен быть завершен и выпущен. Это может быть также применимо к стандартам будущего для обработки видео или к видео кодекам.This document relates to video coding technologies. In particular, it refers to a combined intra-frame and inter-frame prediction (CIIP) coding mode applied in video encoding or decoding. This can be applied to existing video coding standards such as the HEVC standard or the Versatile Video Coding (VVC) standard, which has yet to be finalized and released. This may also apply to future video processing standards or video codecs.

2. Уровень техники2. State of the art

Стандарты кодирования видео развивались главным образом через разработку хорошо известных стандартов ITU-T и ISO/IEC. Союз ITU-T выпустил стандарты H.261 и H.263, организация ISO/IEC выпустила стандарты MPEG-1 и MPEG-4 Visual, а также эти две организации совместно выпустили стандарты H.262/MPEG-2 Video и H.264/MPEG-4 Advanced Video Coding (AVC) (усовершенствованное видео кодирование) и H.265/HEVC [1]. Со времени стандарта H.262, стандарты кодирования видео основаны на гибридной структуре кодирования видео, использующей временное прогнозирование плюс трансформационное кодирование. Для исследований в области технологий кодирования видео будущего, которые будут разработаны после технологии кодирования HEVC, группа экспертов по кодированию видео (VCEG) и группа экспертов по кинематографии (MPEG) в 2015 г. совместно основали Объединенную группу исследований в области видео (Joint Video Exploration Team (JVET)). С тех пор группа JVET разработала множество способов и ввела их в эталонное программное обеспечение, называемое Совместной исследовательской моделью (Joint Exploration Model (JEM)). В апреле 2018 г. группа VCEG (Q6/16) и отдел ISO/IEC JTC1 SC29/WG11 (MPEG) создали объединенную группу экспертов в области видео (Joint Video Expert Team (JVET)) для работ над стандартом VVC, имея целью добиться снижения требуемой скорости передачи битов данных на 50% по сравнению с кодированием HEVC.Video coding standards have evolved primarily through the development of the well-known ITU-T and ISO/IEC standards. ITU-T released H.261 and H.263 standards, ISO/IEC released MPEG-1 and MPEG-4 Visual standards, and the two organizations jointly released H.262/MPEG-2 Video and H.264/ MPEG-4 Advanced Video Coding (AVC) and H.265/HEVC [1]. Since the H.262 standard, video coding standards have been based on a hybrid video coding framework using temporal prediction plus transformation coding. For research on future video coding technologies to be developed after HEVC coding technology, the Video Coding Expert Group (VCEG) and the Motion Picture Experts Group (MPEG) jointly founded the Joint Video Exploration Team in 2015. (JVET)). Since then, the JVET group has developed many methods and incorporated them into reference software called the Joint Exploration Model (JEM). In April 2018, the VCEG (Q6/16) and ISO/IEC JTC1 SC29/WG11 (MPEG) established a Joint Video Expert Team (JVET) to work on the VVC standard with the goal of reducing required bit rate by 50% compared to HEVC coding.

На фиг. 19 представлена блок-схема примера реализации кодирующего устройства для видео. На фиг. 19 показано, что реализация кодирующего устройства имеет встроенную цепь обратной связи, в которое кодирующее устройство для видео также осуществляет функции декодирования видео (реконструкцию сжатого представления данных видео для использования при кодировании следующих данных видео). In FIG. 19 is a block diagram of an example implementation of a video encoder. In FIG. 19 shows that the encoder implementation has a built-in feedback loop into which the video encoder also performs video decoding functions (reconstruction of a compressed representation of the video data for use in encoding the next video data).

2.1 Межкадровое прогнозирование в стандарте HEVC/H.2652.1 Interframe prediction in HEVC/H.265

Каждая единица межкадрового прогнозирования PU (prediction unit (единица прогнозирования)) имеет параметры движения для одного или двух списков опорных изображений. Совокупность параметров движения содержит вектор движения и индекс опорного изображения. Об использовании одного или двух списков опорных изображений может быть также передано в виде сигнализации с применением параметра inter_pred_idc. Векторы движения могут быть в явной форме закодированы в виде приращений относительно предикторов.Each PU (prediction unit) has motion parameters for one or two reference picture lists. The set of motion parameters contains a motion vector and a reference image index. The use of one or two reference picture lists may also be signaled using the inter_pred_idc parameter. The motion vectors may be explicitly encoded as increments relative to the predictors.

Когда единица CU кодирована в режиме пропуска, с этой единицей CU ассоциирована одна единица PU, и при этом нет ни значительных коэффициентов остатка, ни кодированного приращения вектора движения или индекса опорного изображения. Режим объединения специфицирован таким образом, что параметры движения для текущей единицы PU получают из соседних единиц PU, включая пространственные и временные кандидаты. Режим объединения может быть применен к любой единице PU межкадрового прогнозирования, не только в режиме пропуска. Альтернативой для режима объединения является передача параметров движения в явном виде, где векторы движения (более точно, разницы векторов движения относительно предиктора вектора движения), соответствующий индекс опорного изображения для каждого списка опорных изображений и показатель использования списка опорных изображений передают в виде сигнализации в явной форме для каждой единицы PU. Этот тип режима называется в настоящем документе усовершенствованным прогнозированием вектора движения (AMVP). When a CU is encoded in skip mode, a single PU is associated with that CU and there are no significant residual coefficients, no coded motion vector increment or reference picture index. The merge mode is specified such that the motion parameters for the current PU are derived from neighboring PUs, including spatial and temporal candidates. The combining mode can be applied to any inter prediction PU, not only in the skip mode. An alternative for the merging mode is to explicitly transmit the motion parameters, where the motion vectors (more specifically, the motion vector differences relative to the motion vector predictor), the corresponding reference picture index for each reference picture list, and the reference picture list utilization rate are signaled explicitly. for each PU. This type of mode is referred to herein as advanced motion vector prediction (AMVP).

Когда сигнализация указывает, что следует использовать один из двух списков опорных изображений, единицу PU создают из одного блока отсчетов. Это называется «однонаправленным прогнозированием» (‘uni-prediction’). Однонаправленное прогнозирование доступно для срезов обоих видов – P-среза (P-slice) или среза со ссылкой на предыдущий срез (предсказанного среза) и B-среза (B-slice) или среза со ссылками на предыдущий и последующий срезы (или двунаправлено интерполированного среза). When the signaling indicates that one of the two reference picture lists should be used, a PU is created from one block of samples. This is called 'uni-prediction'. Unidirectional prediction is available for both types of slices - P-slice or slice with reference to the previous slice (predicted slice) and B-slice (B-slice) or slice with references to the previous and subsequent slices (or bidirectionally interpolated slice ).

Когда сигнализация указывает, что следует использовать оба списка опорных изображений, единицу PU создают из двух блоков отсчетов. Это называется «двунаправленной интерполяцией (прогнозированием)» (‘bi-prediction’). Двунаправленная интерполяция доступна только для B-срезов.When the signaling indicates that both reference picture lists should be used, a PU is created from two blocks of samples. This is called "bi-directional interpolation (prediction)" ('bi-prediction'). Bidirectional interpolation is only available for B-slices.

Следующий текст содержит подробности режимов межкадрового прогнозирования, специфицированных в стандарте кодирования HEVC. Это описание начнется с режима объединения.The following text contains details of the inter-prediction modes specified in the HEVC coding standard. This description will start with the merge mode.

2.1.1 Режим объединения2.1.1 Combine mode

2.1.1.1 Определение кандидатов для режима объединения2.1.1.1 Determination of Candidates for Merge Mode

Когда единицу PU прогнозируют с использованием режима объединения, индекс, указывающий на входную позицию в список объединяемых кандидатов, выделяют путем синтаксического анализа из потока битов данных и используют для извлечения информации о движении. Процедура построения указанного списка специфицирована в стандарте HEVC и может быть суммирована в соответствии со следующей последовательностью этапов:When a PU is predicted using the merge mode, an index indicating an entry position in the merge candidate list is parsed from the data bitstream and used to extract motion information. The procedure for constructing this list is specified in the HEVC standard and can be summarized according to the following sequence of steps:

Этап 1: Получение первоначальных кандидатовStage 1: Obtaining Initial Candidates

Этап 1.1: Получение пространственных кандидатовStep 1.1: Obtaining Spatial Candidates

Этап 1.2: Контроль избыточности для пространственных кандидатовStep 1.2: Redundancy Control for Spatial Candidates

Этап 1.3: Получение временных кандидатовStage 1.3: Obtaining temporary candidates

Этап 2: Вставка дополнительных кандидатовStage 2: Inserting Additional Candidates

Этап 2.1: Создание двунаправлено интерполированных кандидатовStep 2.1: Creating Bidirectionally Interpolated Candidates

Этап 2.2: Вставка кандидатов с нулевым движениемStep 2.2: Inserting Candidates with Zero Movement

Эти этапы схематично показаны на фиг. 1. Для получения пространственных объединяемых кандидатов, выбирают максимум четыре объединяемых кандидата из совокупности кандидатов, расположенных в пяти различных положениях. Для получения временных объединяемых кандидатов выбирают максимум одного объединяемого кандидата из двух кандидатов. Поскольку в декодирующем устройстве предполагается постоянное число кандидатов для каждой единицы PU, если число кандидатов, полученных на этапе 1, не достигает максимального числа объединяемых кандидатов (MaxNumMergeCand), передаваемого в форме сигнализации в заголовке среза, генерируют дополнительных кандидатов. Поскольку число кандидатов является постоянным, индекс наилучшего объединяемого кандидата кодируют с использованием усеченной унарной бинаризации (truncated unary binarization (TU)). Если размер единицы CU равен 8, все единицы PU из текущей единицы CU совместно используют один список объединяемых кандидатов, который идентичен списку объединяемых кандидатов для единицы прогнозирования размером 2N×2N.These steps are shown schematically in Fig. 1. To obtain spatial merging candidates, select a maximum of four merged candidates from a pool of candidates located in five different positions. To obtain temporary merged candidates, a maximum of one merged candidate from two candidates is selected. Since the decoder assumes a constant number of candidates for each PU, if the number of candidates obtained in step 1 does not reach the maximum number of merged candidates (MaxNumMergeCand) signaled in the slice header, additional candidates are generated. Because the number of candidates is constant, the index of the best merged candidate is encoded using a truncated unary binarization (TU)). If the CU size is 8, all PUs from the current CU share one merged candidate list, which is identical to the merged candidate list for a 2N×2N prediction unit.

В последующем, операции, ассоциированные с перечисленными этапами, рассмотрены подробнее.In the following, the operations associated with the listed steps are discussed in more detail.

2.1.1.2 Получение пространственных кандидатов2.1.1.2 Obtaining spatial candidates

При получении пространственных объединяемых кандидатов выбирают максимум четырех объединяемых кандидатов из совокупности кандидатов, расположенных в позициях, показанных на фиг. 2. Кандидатов выбирают в следующем порядке A1, B1, B0, A0 и B2. Позицию B2 учитывают только тогда, когда какая-либо из единиц PU, которые должны быть в позициях A1, B1, B0, A0, недоступна (например, потому, что эта единица принадлежит другому срезу или плитке) или кодирована с применением внутрикадрового прогнозирования. После добавления кандидата в позиции A1 добавление остальных кандидатов должно происходить с контролем избыточности, что обеспечивает исключение кандидатов с одинаковой информацией о движении из списка, так что эффективность кодирования улучшается. Для уменьшения вычислительной сложности не все возможные пары кандидатов рассматривают в процессе упомянутого контроля избыточности. Напротив, учитывают только пары, связанные стрелкой на фиг. 3, и какого-либо кандидата добавляют в список только в том случае, если соответствующий кандидат, использованный для контроля избыточности, не имеет такую же самую информацию о движении. Другим источником дублированной информации о движении является “вторая единица PU”, ассоциированная с разбиениями, отличными от 2Nx2N. В качестве примера, Фиг. 4 показывает вторую единицу PU для случаев N×2N и 2N×N, соответственно. Когда текущую единицу PU разбивают как N×2N, кандидат в позиции A1 не учитывается при построении списка. На деле, добавление этого кандидата может привести к тому, что две единицы прогнозирования будут иметь одинаковую информацию о движении, что является избыточным с точки зрения требования иметь только одну единицу PU в единице кодирования. Аналогично, позицию B1 не учитывают, когда текущую единицу PU разбивают как 2N×N.Upon receipt of the spatial merged candidates, a maximum of four merged candidates is selected from the pool of candidates located at the positions shown in FIG. 2. Candidates are selected in the following order A 1, B 1, B 0, A 0 and B 2 . Position B 2 is taken into account only when any of the PUs that should be in positions A 1 , B 1 , B 0 , A 0 is not available (for example, because this unit belongs to another slice or tile) or is coded with using intraframe prediction. After adding a candidate at position A 1 , the addition of the remaining candidates should be done with redundancy control, which ensures that candidates with the same motion information are excluded from the list, so that coding efficiency is improved. To reduce computational complexity, not all possible pairs of candidates are considered in the above redundancy control process. On the contrary, only the pairs connected by the arrow in FIG. 3 and a candidate is only added to the list if the corresponding candidate used for redundancy control does not have the same traffic information. Another source of duplicated motion information is the “second PU” associated with partitions other than 2Nx2N. As an example, FIG. 4 shows the second PU for the N×2N and 2N×N cases, respectively. When the current PU is partitioned as N×2N, the candidate in position A 1 is not taken into account when building the list. In fact, adding this candidate may result in two prediction units having the same motion information, which is redundant in terms of the requirement to have only one PU per coding unit. Likewise, position B 1 is ignored when the current PU is split as 2N×N.

2.1.1.3 Получение временных кандидатов2.1.1.3 Obtaining temporary candidates

На этом этапе, в список добавляют только одного кандидата. В частности, при получении этого временного объединяемого кандидата, формируют масштабированный вектор движения на основе расположенной в этом же месте единицы PU, принадлежащей изображению, имеющему наименьшую разницу порядковых номеров картинки (Picture Order Count (POC)) относительно текущего изображения в рассматриваемом списке опорных изображений. О списке опорных изображений, который должен быть использован для получения расположенной в том же месте единицы PU, сигнализируют в явной форме в заголовке. Штриховая. линия на фиг. 5 иллюстрирует получение масштабированного вектора движения для временного объединяемого кандидата, который масштабируют из вектора движения для расположенной в том же месте единицы PU с использованием расстояний по порядковым номерам (POC-расстояний), tb и td, где расстояние tb определяют как разницу номеров POC между опорным изображением для текущего изображения и самим текущим изображением и расстояние td определяют как разницу номеров POC между опорным изображением для расположенного в том же месте изображения и самим расположенным в том же месте изображением. Индекс опорного изображения для временного объединяемого кандидата устанавливают равным нулю. Практическая реализация процедуры масштабирования описана в стандарте HEVC. Для B-среза получают два вектора движения, один для списка 0 опорных изображений и другой для списка 1 опорных изображений, и комбинируют эти векторы для получения двунаправлено интерполированного объединяемого кандидата. At this stage, only one candidate is added to the list. In particular, upon receipt of this temporal merged candidate, a scaled motion vector is generated based on the same location of the PU belonging to the image having the smallest Picture Order Count (POC) difference relative to the current image in the considered reference picture list. The reference picture list to be used to obtain the colocated PU is signaled explicitly in the header. Dashed. line in Fig. 5 illustrates the derivation of a scaled motion vector for a temporal merging candidate that is scaled from the motion vector for a co-located PU using sequence number distances (POC distances), tb and td, where the distance tb is defined as the difference in POC numbers between the reference the image for the current image and the current image itself, and the distance td is defined as the difference of the POC numbers between the reference image for the sibling image and the sibling image itself. The reference picture index for the temporary merging candidate is set to zero. The practical implementation of the scaling procedure is described in the HEVC standard. For the B-slice, two motion vectors are obtained, one for reference picture list 0 and the other for reference picture list 1, and combine these vectors to obtain a bidirectionally interpolated merging candidate.

В расположенной в том же месте единице PU (Y), принадлежащей опорному кадру, позицию для временного кандидата выбирают между кандидатами C0 и C1, как показано на фиг. 6. Если единица PU в позиции C0 недоступна, кодирована с применением внутрикадрового прогнозирования или находится вне текущей единицы CTU, используют позицию C1. В противном случае, для получения временного объединяемого кандидата используют позицию C0.In the same-located PU (Y) belonging to the reference frame, a position for a temporary candidate is selected between candidates C 0 and C 1 as shown in FIG. 6. If the PU at position C 0 is not available, encoded using intra-prediction, or is outside the current CTU, position C 1 is used. Otherwise, position C 0 is used to obtain a temporary merging candidate.

2.1.1.4 Вставка дополнительных кандидатов2.1.1.4 Inserting additional candidates

Помимо пространственно-временных объединяемых кандидатов имеются еще два дополнительных типа объединяемых кандидатов: комбинированный двунаправлено интерполированный объединяемый кандидат и нулевой объединяемый кандидат. Комбинированных двунаправлено интерполированных объединяемых кандидатов генерируют с использованием пространственных и временных объединяемых кандидатов. Комбинированный двунаправлено интерполированный объединяемый кандидат используется только для B-среза. Таких комбинированных двунаправлено интерполированных кандидатов генерируют путем комбинирования параметров движения из первого списка опорных изображений для первоначального кандидата с параметрами движения из второго списка опорных изображений для другого кандидата. Если эти две группы параметров формируют разные гипотезы движения, они создадут нового двунаправлено интерполированного кандидата. В качестве примера, на фиг. 7 показан случай, где двух кандидатов из исходного списка (слева), имеющих параметры mvL0 и refIdxL0 или mvL1 и refIdxL1, используют для создания комбинированного двунаправлено интерполированного объединяемого кандидата, добавляемого в конечный список (справа). Имеются многочисленные правила относительно построения таких комбинаций, учитываемые при генерации таких дополнительных объединяемых кандидатов.Besides spatiotemporal merged candidates, there are two additional types of merged candidates: combined bidirectionally interpolated merged candidate and null merged candidate. Combined bidirectionally interpolated merged candidates are generated using spatial and temporal merged candidates. The combined bidirectionally interpolated merging candidate is only used for the B-slice. Such combined bidirectionally interpolated candidates are generated by combining the motion parameters from the first reference picture list for the original candidate with the motion parameters from the second reference picture list for the other candidate. If these two groups of parameters form different motion hypotheses, they will create a new bidirectionally interpolated candidate. As an example, in FIG. 7 shows a case where two candidates from the original list (left) having parameters mvL0 and refIdxL0 or mvL1 and refIdxL1 are used to create a combined bidirectionally interpolated merged candidate to be added to the final list (right). There are numerous rules regarding the construction of such combinations that are taken into account when generating such additional merged candidates.

Кандидатов с нулевым движением вставляют для заполнения оставшихся входных позиций в списке объединяемых кандидатов и тем самым достижения максимальной емкости MaxNumMergeCand списка. Эти кандидаты имеют нулевое пространственное смещение, а индекс опорного изображения начинается с нуля и увеличивается каждый раз, когда в список добавляют нового кандидата с нулевым движением. Число опорных кадров, используемых этими кандидатами, равно одному и двум для однонаправленного прогнозирования и двунаправленного прогнозирования, соответственно. В некоторых вариантах, для этих кандидатов контроль избыточности не осуществляется.Candidates with zero movement are inserted to fill the remaining input positions in the list of merged candidates and thereby achieve the maximum capacity of the MaxNumMergeCand list. These candidates have a spatial offset of zero, and the reference picture index starts at zero and is incremented each time a new zero-motion candidate is added to the list. The number of reference frames used by these candidates is one and two for unidirectional prediction and bidirectional prediction, respectively. In some embodiments, redundancy control is not performed for these candidates.

2.1.1.5 Области оценки движения для параллельной обработки 2.1.1.5 Motion evaluation areas for parallel processing

Для ускорения процедуры кодирования оценка движения может быть выполнена параллельно, так что векторы движения для всех единиц прогнозирования в пределах какой-либо конкретной рассматриваемой области получают одновременно. Процедура получения объединяемых кандидатов из пространственного окружения может создавать взаимные помехи с параллельной обработкой, поскольку одна единица прогнозирования не может вывести параметры движения из соседней единицы PU до тех пор, пока ассоциированная с той единицей оценка движения не будет завершена. Для сглаживания компромиссов между эффективностью кодирования и задержкой обработки данных стандарт кодирования HEVC определяет область оценки движения (motion estimation region (MER)), о размерах которой сообщают в форме сигнализации в наборе параметров изображения с использованием синтаксического элемента “log2_parallel_merge_level_minus2”. Когда область MER определена, объединяемые кандидаты, попадающие в ту же самую область, маркируются как недоступные и поэтому не учитываемые при построении списка.To speed up the coding procedure, the motion estimation can be performed in parallel so that the motion vectors for all prediction units within any particular area under consideration are obtained simultaneously. The procedure for deriving merged candidates from the spatial environment can interfere with parallel processing because one prediction unit cannot derive motion parameters from a neighboring PU until the motion estimation associated with that unit is completed. To smooth trade-offs between coding efficiency and processing delay, the HEVC coding standard defines a motion estimation region (MER) whose dimensions are signaled in a picture parameter set using the “log2_parallel_merge_level_minus2” syntax element. When a MER region is defined, merged candidates that fall within the same region are marked as unavailable and therefore not taken into account when building the list.

2.1.2 Усовершенствованное прогнозирование вектора движения (AMVP)2.1.2 Advanced Motion Vector Prediction (AMVP)

Прогнозирование AMVP использует пространственно-временную корреляцию вектора движения с соседними единицами PU, что используется для передачи параметров движения в явной форме. Для каждого списка опорных изображений, при построении списка векторов-кандидатов движения сначала проверяют доступность временных соседних единиц PU в позициях слева сверху, исключают избыточных кандидатов и добавляют нулевой вектор, чтобы сделать список кандидатов постоянной длины. Тогда кодирующее устройство может выбрать наилучшего предиктора из списка кандидатов и передать соответствующий индекс, указывающий выбранного кандидата. Аналогично передаче индекса объединения посредством сигнализации, индекс наилучшего вектора движения кодируют с использованием усеченной унарной бинаризации. Максимальное значение, подлежащее кодированию, в этом случае равно 2 (см. фиг. 8). В последующих разделах приведены подробности процедуры получения кандидата при прогнозировании вектора движения.AMVP prediction uses the spatio-temporal correlation of the motion vector with neighboring PUs, which is used to explicitly convey the motion parameters. For each reference picture list, when constructing the motion vector candidate list, first check the availability of temporary neighboring PUs at top left positions, eliminate redundant candidates, and add a null vector to make a constant length candidate list. The encoder may then select the best predictor from the list of candidates and transmit an appropriate index indicating the selected candidate. Similar to signaling the union index transmission, the best motion vector index is encoded using truncated unary binarization. The maximum value to be encoded in this case is 2 (see FIG. 8). The following sections provide details of the procedure for obtaining a candidate in motion vector prediction.

2.1.2.1 Получение кандидатов при прогнозировании AMVP2.1.2.1 Obtaining candidates in AMVP prediction

Фиг. 8 суммирует процедуру получения кандидата при прогнозировании вектора движения.Fig. 8 summarizes the procedure for obtaining a candidate in motion vector prediction.

При прогнозировании векторов движения рассматривают два типа векторов-кандидатов движения: пространственный вектор-кандидат движения и временной вектор-кандидат движения. Для формирования пространственного вектора-кандидата движения в конечном итоге получают два вектора-кандидата движения на основе векторов движения для каждой из единиц PU, расположенных в пяти разных позициях, как было ранее показано на фиг. 2.In motion vector prediction, two types of motion vector candidates are considered: a spatial motion vector candidate and a temporal motion vector candidate. To generate a spatial motion vector candidate, two motion vector candidates are ultimately generated based on motion vectors for each of the PUs located at five different positions, as previously shown in FIG. 2.

Для формирования временного вектора-кандидата движения выбирают одного вектора-кандидата движения из двух кандидатов, получаемых на основе двух разных расположенных в одном месте позиций. После создания первого списка пространственно-временных кандидатов из этого списка исключают дублированные векторы-кандидаты движения. Если число потенциальных кандидатов больше двух, векторы-кандидаты движения, для которых индекс опорного изображения в ассоциированном списке опорных изображений больше 1, исключают из этого списка. Если это число пространственно-временных векторов движения кандидатов меньше двух, в список добавляют дополнительный нулевой вектор-кандидат движения.To form a temporal motion vector candidate, one motion vector candidate is selected from two candidates obtained based on two different positions located at the same place. After the creation of the first list of spatiotemporal candidates, the duplicated candidate motion vectors are excluded from this list. If the number of potential candidates is greater than two, motion vector candidates for which the reference picture index in the associated reference picture list is greater than 1 are excluded from the list. If this number of candidate space-time motion vectors is less than two, an additional null candidate motion vector is added to the list.

2.1.2.2 Пространственные векторы-кандидаты движения2.1.2.2 Candidate spatial motion vectors

Для формирования пространственного вектора-кандидата движения, учитывают максимум двух потенциальных кандидатов из совокупности пяти потенциальных кандидатов, получаемых из единиц PU, расположенных в позициях, как это показано на фиг. 2, эти позиции являются такими же, как при объединении движения. Порядок формирования для левой стороны от текущей единицы PU задан как кандидат A0, кандидат A1, и масштабированный кандидат A0, масштабированный кандидат A1. Порядок формирования для верхней стороны от текущей единицы PU задан как кандидат B0, кандидат B1, кандидат B2, масштабированный кандидат B0, масштабированный кандидат B1, масштабированный кандидат B2. Для каждой стороны, поэтому, имеются четыре случая, которые могут быть использованы в качестве вектора-кандидата движения, где в двух случаях не требуется использовать пространственное масштабирование, и в двух случаях пространственное масштабирование применяется. Эти четыре разных случая суммированы следующим образом.To generate a spatial motion vector candidate, a maximum of two potential candidates from a set of five potential candidates derived from PUs located at positions as shown in FIG. 2, these positions are the same as when combining the movement. The generation order for the left side of the current PU is defined as candidate A 0 , candidate A 1 , and scaled candidate A 0 , scaled candidate A 1 . The generation order for the upper side from the current PU is defined as candidate B 0 , candidate B 1 , candidate B 2 , scaled candidate B 0 , scaled candidate B 1 , scaled candidate B 2 . For each side, therefore, there are four cases that can be used as a motion vector candidate, where in two cases spatial scaling is not required and in two cases spatial scaling is applied. These four different cases are summarized as follows.

Нет пространственного масштабированияNo spatial scaling

(1) Один и тот же список опорных изображений и одинаковый индекс опорного изображения (одинаковый порядок POC)(1) Same reference picture list and same reference picture index (same POC order)

(2) Разные списки опорных изображений, но одно и то же опорное изображение (одинаковый порядок POC) (2) Different reference picture lists but same reference picture (same POC order)

Пространственное масштабированиеSpatial scaling

(3) Один и тот же список опорных изображений, но разные опорные изображения (разный порядок POC)(3) Same reference picture list but different reference pictures (different POC order)

(4) Разные списки опорных изображений и разные опорные изображения (разный порядок POC)(4) Different reference picture lists and different reference pictures (different POC order)

Случаи без пространственного масштабирования проверяют первыми, после чего проверяют случаи, позволяющие пространственное масштабирование. Пространственное масштабирование рассматривается, когда порядок POC различается между опорным изображением для соседней единицы PU и опорным изображением для текущей единицы PU независимо от списка опорных изображений. Если все единицы PU кандидатов слева недоступны или кодированы с применением внутрикадрового прогнозирования, допускается масштабирование вектора движения для единицы сверху, чтобы способствовать параллельному определению векторов-кандидатов MV слева и сверху. В противном случае для вектора движения единицы сверху пространственное масштабирование не допускается.Cases without spatial scaling are tested first, followed by cases that allow spatial scaling. Spatial scaling is considered when the POC order differs between a reference picture for a neighboring PU and a reference picture for the current PU regardless of the reference picture list. If all of the left candidate PUs are not available or encoded using intra-prediction, motion vector scaling for the top unit is allowed to help determine left and top MV candidate vectors in parallel. Otherwise, no spatial scaling is allowed for the unit motion vector from above.

Для случая пространственного масштабирования, вектор движения для соседней единицы PU масштабируют способом, аналогичным временному масштабированию, как показано в примере, приведенном на фиг. 9. Основное различие состоит в том, что в качестве входных данных используют список опорных изображений и индекс текущей единицы PU; фактическая процедура масштабирования является такой же, как в случае временного масштабирования.For the case of spatial scaling, the motion vector for a neighboring PU is scaled in a manner similar to temporal scaling as shown in the example shown in FIG. 9. The main difference is that the reference picture list and the index of the current PU are used as input; the actual scaling procedure is the same as in the case of temporal scaling.

2.1.2.3 Временные векторы-кандидаты движения2.1.2.3 Temporal motion vector candidates

Помимо получения индекса опорного изображения, все процедуры для формирования временных объединяемых кандидатов являются такими же, как и для формирования пространственных векторов-кандидатов движения (как показано в примере на фиг. 6). Индекс опорного изображения сообщают посредством сигнализации декодирующему устройству.Other than obtaining the reference picture index, all procedures for generating temporal merging candidates are the same as for generating spatial motion vector candidates (as shown in the example in FIG. 6). The reference picture index is signaled to the decoder.

2.2 Новые способы межкадрового прогнозирования2.2 New ways of inter-frame prediction

2.2.1 Прогнозирование векторов движения на основе суб-единиц CU2.2.1 Motion vector prediction based on CU sub-units

В модели JEM с использованием деревьев квадратов плюс двоичные деревья (quadtrees plus binary trees (QTBT)), каждая единица CU может иметь самое большее один набор параметров движения на каждое направление прогнозирования. Рассматриваются два способа прогнозирования векторов движения на уровне суб-единиц CU в кодирующем устройстве путем разделения большой единицы CU на суб-единицы CU и формирования информации движения для всех суб-единиц CU из большой единицы CU. Способ прогнозирования альтернативного временного вектора движения (ATMVP) позволяет каждой единице CU осуществлять выборку нескольких наборов информации движения из нескольких блоков меньше текущей единицы CU в расположенном в том же месте опорном изображении. При использовании способа прогнозирования пространственно-временного вектора движения (spatial-temporal motion vector prediction (STMVP)) векторы движения суб-единиц CU формируют с применением предиктора временного вектора движения и пространственного соседнего вектора движения.In a JEM model using quadtrees plus binary trees (QTBT), each CU can have at most one set of motion parameters per prediction direction. Two methods are considered for predicting motion vectors at the sub-CU level in an encoder by dividing a large CU into sub-CUs and generating motion information for all sub-CUs from a large CU. The Alternate Temporal Motion Vector Prediction (ATMVP) method allows each CU to sample multiple sets of motion information from multiple blocks smaller than the current CU in the same location reference picture. Using the spatial-temporal motion vector prediction (STMVP) method, motion vectors of CUs are generated using a temporal motion vector predictor and a spatial neighbor motion vector.

С целью сохранения более точного поля движения для прогнозирования движения суб-единицы CU сжатие движения для опорных кадров может быть в текущий момент не активизировано.In order to maintain a more accurate motion field for CU motion prediction, motion compression for reference frames may not be currently enabled.

2.2.1.1 Прогнозирование альтернативного временного вектора движения2.2.1.1 Alternative temporal motion vector prediction

Согласно способу прогнозирования альтернативного временного вектора движения (ATMVP), способ прогнозирования временного вектора движения (TMVP) модифицируют путем выборки нескольких наборов информации о движении (включая векторы движения и опорные индексы) из блоков меньше текущей единицы CU. Как показано на фиг. 10, суб-единицы CU представляют собой квадратные блоки размером N×N (по умолчанию N устанавливают равным 4).According to the alternative temporal motion vector prediction (ATMVP) method, the temporal motion vector prediction (TMVP) method is modified by fetching multiple sets of motion information (including motion vectors and reference indices) from blocks less than the current CU. As shown in FIG. 10, CU sub-units are N×N square blocks (N is set to 4 by default).

Способ прогнозирования ATMVP осуществляет прогнозирование векторов движения суб-единиц CU в пределах единицы CU в два этапа. На первом этапе идентифицируют соответствующий блок в опорном изображении с так называемым временным вектором. Опорное изображение также называется изображением источника движения. На втором этапе разбивают текущую единицу CU на суб-единицы CU и получают векторы движения, равно как опорные индексы каждой суб-единицы CU, из блока, соответствующего каждой суб-единице CU, как показано на фиг. 10.The ATMVP prediction method performs motion vector prediction of CU sub-units within a CU in two steps. In the first step, the corresponding block in the reference picture is identified with a so-called time vector. The reference image is also called the motion source image. In the second step, the current CU is partitioned into sub-CUs, and the motion vectors as well as the reference indices of each sub-CU are obtained from the block corresponding to each sub-CU, as shown in FIG. 10.

На первом этапе, опорное изображение 1050 и соответствующий блок определяют посредством информации о движении пространственно соседних блоков для текущей единицы CU. Чтобы избежать повторяющихся процедур сканирования соседних блоков, используют первого объединяемого кандидата из списка объединяемых кандидатов для текущей единицы. CU. Первый доступный вектор движения, равно как и ассоциированный с ним опорный индекс устанавливают в качестве временного вектора и индекса для изображения источника движения. Таким способом, в режиме прогнозирования ATMVP, соответствующий блок может быть более точно идентифицирован, по сравнению со способом прогнозирования TMVP, где соответствующий блок (иногда называемый расположенным в том же месте блоком) всегда находится в нижней правой или в центральной позиции относительно текущей единицы CU.In the first step, the reference image 1050 and the corresponding block are determined by motion information of spatially neighboring blocks for the current CU. To avoid repeated scans of adjacent blocks, the first merged candidate from the list of merged candidates for the current unit is used. CU. The first available motion vector, as well as its associated reference index, is set as the temporal vector and index for the motion source image. In this way, in the ATMVP prediction mode, the corresponding block can be more accurately identified, as compared to the TMVP prediction method, where the corresponding block (sometimes called a colocated block) is always in the lower right or center position relative to the current CU.

На втором этапе, соответствующий блок суб-единицы CU идентифицируют посредством временного вектора в изображении источника движения путем добавления временного вектора к координате текущей единице CU. Для каждой суб-единицы CU, информацию о движении ее соответствующего блока (наименьшую сетку движения, покрывающую центральный отсчет) используют для получения информации о движении для рассматриваемой суб-единицы CU. После идентификации информации о движении соответствующего блока размером N×N ее преобразуют в векторы движения и опорные индексы текущей суб-единицы CU, таким же образом как в способе прогнозирования TMVP в стандарте кодирования HEVC, где применяются масштабирование движения и другие процедуры. Например, декодирующее устройство проверяет, удовлетворяется ли условие малой задержки, (например, порядковые номера POC для всех опорных изображений для текущего изображения меньше порядкового номера POC для текущего изображения) и возможно использует вектор MVx движения (вектор движения, соответствующий списку опорных изображений X) для прогнозирования вектора MVy движения (при X равном 0 или 1 и Y равном 1−X) для каждой суб-единицы CU.In the second step, the corresponding CU sub-unit block is identified by a temporal vector in the motion source image by adding the temporal vector to the coordinate of the current CU. For each CU sub-unit, the motion information of its respective block (the smallest motion grid covering the center sample) is used to obtain motion information for the CU sub-unit in question. After identifying the motion information of the corresponding N×N block, it is converted into motion vectors and reference indices of the current CU sub-unit, in the same manner as in the TMVP prediction method in the HEVC coding standard, where motion scaling and other procedures are applied. For example, the decoder checks whether the low delay condition is satisfied, (for example, the POC sequence numbers for all reference pictures for the current picture are less than the POC sequence number for the current picture), and possibly uses a motion vector MVx (a motion vector corresponding to the reference picture list X) to motion vector prediction MVy (with X equal to 0 or 1 and Y equal to 1−X) for each CU sub-unit.

2.2.2 Попарно усредненные кандидаты2.2.2 Pairwise averaged candidates

Попарно усредненных кандидатов генерируют путем усреднения заданных пар кандидатов в текущем списке объединяемых кандидатов, и эти заданные пары определяют как {(0, 1), (0, 2), (1, 2), (0, 3), (1, 3), (2, 3)}, где цифры обозначают индексы объединения к списку объединяемых кандидатов. Усредненные векторы движения вычисляют по отдельности для каждого опорного списка. Если оба вектора движения доступны в одном списке, эти два вектора движения усредняют, даже если они указывают на разные опорные изображения; если доступен один вектор движения, этот один вектор используют непосредственно; если ни один вектор движения не доступен, этот список оставляют недействительным. Попарно усредненные кандидаты заменяют комбинированных кандидатов в стандарте кодирования HEVC.Pairwise averaged candidates are generated by averaging the given pairs of candidates in the current pooled candidate list, and these given pairs are defined as {(0, 1), (0, 2), (1, 2), (0, 3), (1, 3 ), (2, 3)}, where the numbers denote the merging indices to the list of merged candidates. The average motion vectors are calculated separately for each reference list. If both motion vectors are available in the same list, the two motion vectors are averaged even if they point to different reference pictures; if one motion vector is available, that one motion vector is used directly; if no motion vector is available, this list is left invalid. The pairwise averaged candidates replace the combined candidates in the HEVC coding standard.

Анализ сложности попарно усредненных кандидатов суммирован в таблице 1. Для худшего случая дополнительных вычислений для усреднения (последний столбец в таблице 1), для каждой пары необходимы 4 операции суммирования и 4 операции сдвига (векторы MVx и MVy в списках L0 а L1), а также для каждой пары необходимы 4 операции сравнения опорных индексов (индекс refIdx0 действителен и индекс refIdx1 действителен в списках L0 и L1). Здесь имеются 6 пар, что приводит к 24 операциям суммирования, 24 операциям сдвига и 24 операциям сравнения опорных индексов всего. Комбинированные кандидаты в стандарте кодирования HEVC используют по 2 операции сравнения опорных индексов для каждой пары (индекс refIdx0 действителен в списке L0 и индекс refIdx1 действителен в списке L1), и при этом имеются 12 пар, что приводит к 24 операциям сравнения опорных индексов всего The complexity analysis of pairwise averaged candidates is summarized in Table 1. For the worst case additional calculations for averaging (last column in Table 1), 4 summation operations and 4 shift operations are needed for each pair (vectors MVx and MVy in the lists L0 and L1), as well as 4 reference index comparisons are needed for each pair (index refIdx0 is valid and index refIdx1 is valid in lists L0 and L1). There are 6 pairs here, resulting in 24 sums, 24 shifts, and 24 reference index comparisons in total. The combined candidates in the HEVC coding standard use 2 reference index comparisons for each pair (refIdx0 is valid in the L0 list and refIdx1 is valid in the L1 list), and there are 12 pairs, resulting in 24 reference index comparisons in total.

Таблица 1. Анализ операций для попарно усредненных кандидатов Table 1. Analysis of operations for pairwise averaged candidates

Размер списка объединенияJoin list size Макс. число потенциальных кандидатовMax. number of potential candidates Макс. число сравненийMax. number of comparisons Макс. число масштабирований векторов MVMax. number of vector scalings MV Макс. число временных кандидатовMax. number of temporary candidates Дополнительный локальный буферAdditional local buffer Макс. число обращений к памятиMax. number of memory accesses ПрочееOther 6, 8, 106, 8, 10 66 00 00 00 00 00 Заменяет комбинированных. кандидатов стандарта HEVC, необходимы дополнительные вычисления для усредненияReplaces combined. candidates for the HEVC standard, additional calculations are needed for averaging

2.2.3 Локальная компенсация освещенности2.2.3 Local light compensation

Локальная компенсация освещенности (Local Illumination Compensation (LIC)) основана на линейной модели изменений освещенности, использующей масштабный коэффициент a и сдвиг b. Причем эту компенсацию активизируют или отменяют активизацию адаптивно для единицы кодирования (CU), кодированной с применением межкадрового прогнозирования.Local Illumination Compensation (LIC) is based on a linear model of illumination changes using a scale factor a and a shift b. Moreover, this compensation is activated or deactivated adaptively for a coding unit (CU) encoded using inter-prediction.

Когда компенсация LIC применяется для единицы CU, применяют метод наименьших квадратов для получения параметров a и b с использованием соседних отсчетов относительно текущей единицы CU и соответствующих им опорных отсчетов. Более конкретно, как иллюстрирует фиг. 11, используются субдискретизированные (субдискретизация в соотношении 2:1) соседние отсчеты относительно единицы CU и соответствующие отсчеты (идентифицированные информацией о движении текущей единицы CU или суб-единицы CU) из опорного изображения. Параметры компенсации IC получают и применяют для каждого направления прогнозирования по отдельности.When LIC is applied to a CU, a least squares method is applied to obtain parameters a and b using neighboring samples relative to the current CU and their corresponding reference samples. More specifically, as illustrated in FIG. 11, down-sampled (2:1 down-sampling) adjacent samples relative to the CU and corresponding samples (identified by motion information of the current CU or sub-CU) from the reference picture are used. The IC compensation parameters are obtained and applied for each prediction direction separately.

Когда единицу CU кодируют с применением режима объединения, копируют флаг компенсации LIC из соседних блоков способом, аналогичным копированию информации о движении в режиме объединения; в противном случае флаг компенсации LIC передают в виде сигнализации для единицы CU, чтобы указать, применяется компенсация LIC или нет.When a CU is encoded using the combining mode, the compensation flag LIC is copied from neighboring blocks in a manner similar to copying the motion information in the combining mode; otherwise, a LIC compensation flag is signaled to the CU to indicate whether LIC compensation is applied or not.

Когда для некоторого изображения активизирована компенсация LIC, необходимо осуществить дополнительную проверку избыточности (RD) на уровне единиц CU, чтобы определить, применяется ли компенсация LIC для какой-либо единицы CU. Если для какой-то единицы CU активизирована компенсация LIC, используют сумму абсолютных разностей с исключением среднего (mean-removed sum of absolute difference (MR-SAD)) и трансформированную по преобразованию Адамара сумму абсолютных разностей с исключением среднего (mean-removed sum of absolute Hadamard-transformed difference (MR-SATD)) вместо суммы SAD и суммы SATD, для поиска целочисленного движения элементов изображения и поиска дробного движения элементов изображения, соответственно.When LIC is enabled for an image, an additional redundancy check (RD) must be performed at the CU level to determine if LIC is applied to any CU. If LIC compensation is activated for some CU, use the mean-removed sum of absolute difference (MR-SAD) and the Hadamard-transformed sum of absolute differences with mean elimination (mean-removed sum of absolute Hadamard-transformed difference (MR-SATD)) instead of the sum of SAD and the sum of SATD, to search for integer motion of pixels and search for fractional motion of pixels, respectively.

Для уменьшения сложности кодирования, в модели JEM применяется следующая схема кодирования.To reduce the complexity of coding, the following coding scheme is used in the JEM model.

Компенсацию LIC не активизируют для всего изображения, когда. нет заметных изменений освещенности между текущим изображением и соответствующими ему опорными изображениями. Для идентификации этой ситуации, в кодирующем устройстве вычисляют гистограммы для текущего изображения и для каждого опорного изображения, соответствующего этому текущему изображения. Если разница гистограмм между текущим изображением и каждым из опорных изображений для этого текущего изображения меньше конкретного порогового значения, компенсацию LIC для текущего изображения не активизируют; в противном случае активизируют эту компенсацию LIC для текущего изображения.LIC compensation is not activated for the entire image when. there are no noticeable changes in illumination between the current image and its corresponding reference images. To identify this situation, the encoder calculates histograms for the current picture and for each reference picture corresponding to that current picture. If the histogram difference between the current picture and each of the reference pictures for that current picture is less than a specific threshold value, LIC compensation for the current picture is not activated; otherwise, activate this LIC compensation for the current picture.

2.2.4 Комбинированный режим кодирования с внутрикадровым и межкадровым прогнозированием2.2.4 Combined intra- and inter-prediction coding mode

В некоторых вариантах предлагается прогнозирование с использованием нескольких гипотез, при этом комбинированный режим кодирования с внутрикадровым и межкадровым прогнозированием является одним из способов для генерации нескольких гипотез.In some embodiments, multi-hypothesis prediction is provided, with a combined intra- and inter-prediction coding mode being one way to generate multiple hypotheses.

Когда прогнозирование с использованием нескольких гипотез применяется для усовершенствования режима внутрикадрового прогнозирования, такое прогнозирование с использованием нескольких гипотез комбинирует одно внутрикадровое прогнозирование и одно объединенное индексированное прогнозирование. В объединяемой единице CU, один флаг передают в виде сигнализации для режима объединения, чтобы выбрать режим внутрикадрового прогнозирования из списка режимов-кандидатов внутрикадрового прогнозирования, когда флаг является истинным. Для яркостной составляющей список режимов-кандидатов выбирают из 4 режимов внутрикадрового прогнозирования, включая DC-режим, планарный режим, горизонтальный режим и вертикальный режим, а размер этого списка режимов-кандидатов внутрикадрового прогнозирования может быть равен 3 или 6 в зависимости от формы блока. Когда ширина единицы CU больше удвоенной высоты этой единицы CU, горизонтальный режим должен быть исключен из списка режимов внутрикадрового прогнозирования, а когда высота единицы CU больше удвоенной ширины этой единицы CU, вертикальный режим исключают из списка режимов внутрикадрового прогнозирования. Один режим внутрикадрового прогнозирования, выбранный по индексу режима внутрикадрового прогнозирования, и одно объединенное индексированное прогнозирование, выбранное по индексу объединения, комбинируют с использованием взвешенного усреднения. Для цветностной составляющей всегда применяется DM-режим без дополнительной сигнализации. Весовые коэффициенты для комбинирования результатов прогнозирования определяют следующим образом. Когда выбран DC-режим или планарный режим, либо ширина или высота блока кодирования (CB) меньше 4, применяют равные весовые коэффициенты. Для тех блоков CB, для которых ширина и высота блока CB не меньше 4, когда выбран горизонтальный/вертикальный режим, один блок CB сначала вертикально/горизонтально разбивают на четыре области одинаковой площади. Каждая группа весовых коэффициентов, обозначенная как (w_intrai, w_interi), где i принимает значения от 1 до 4 и (w_intra1, w_inter1) = (6, 2), (w_intra2, w_inter2) = (5, 3), (w_intra3, w_inter3) = (3, 5), и (w_intra4, w_inter4) = (2, 6), будет применена к соответствующей области. Здесь группа (w_intra1, w_inter1) предназначена для области, ближайшей к опорным отсчетам, и группа (w_intra4, w_inter4) предназначена для области, наиболее удаленной от опорных отсчетов. Затем комбинированное прогнозирование может быть вычислено путем суммирования двух взвешенных прогнозирований и сдвига вправо на 3 бит. Более того, результат режима внутрикадрового прогнозирования для предикторов, относящийся к гипотезе о внутрикадровом прогнозировании, может быть сохранен в качестве опоры для следующих соседних единиц CU.When multi-hypothesis prediction is applied to improve the intra prediction mode, such multi-hypothesis prediction combines one intra prediction and one combined index prediction. In the CU to be combined, one flag is signaled for the combining mode to select an intra prediction mode from a list of candidate intra prediction modes when the flag is true. For the luminance component, the candidate mode list is selected from 4 intra-frame prediction modes, including DC mode, planar mode, horizontal mode, and vertical mode, and the size of this intra-frame prediction mode candidate list can be 3 or 6 depending on the block shape. When the width of the CU is greater than twice the height of that CU, the horizontal mode must be excluded from the list of intra prediction modes, and when the height of the CU is greater than twice the width of that CU, the vertical mode is excluded from the list of intra prediction modes. One intra prediction mode selected by the intra prediction mode index and one combined index prediction selected by the pooling index are combined using weighted averaging. Chroma is always in DM mode with no additional signaling. The weighting coefficients for combining the prediction results are determined as follows. When DC mode or planar mode is selected, or the coding block width or height (CB) is less than 4, equal weighting factors are applied. For those CB blocks for which the width and height of the CB block are not less than 4 when the horizontal/vertical mode is selected, one CB block is first vertically/horizontally divided into four regions of the same area. Each group of weights, denoted as (w_intrai, w_interi), where i takes values from 1 to 4 and (w_intra1, w_inter1) = (6, 2), (w_intra2, w_inter2) = (5, 3), (w_intra3, w_inter3 ) = (3, 5), and (w_intra4, w_inter4) = (2, 6) will be applied to the corresponding region. Here, group (w_intra1, w_inter1) is for the area closest to the reference samples, and group (w_intra4, w_inter4) is for the area farthest from the reference samples. The combined prediction can then be computed by summing the two weighted predictions and right shifting by 3 bits. Moreover, the result of the intra prediction mode for predictors related to the intra prediction hypothesis can be stored as a reference for the next neighboring CUs.

Обобщенное двунаправленное прогнозирование (интерполяция) Generalized bidirectional prediction (interpolation)

При обычном двунаправленном прогнозировании предикторы для списков L0 и L1 усредняют для генерации конечного предиктора с использованием одинаковых весовых коэффициентов, равных 0.5. Формула генерации предиктора приведена как Уравнение (3) (Equ. (3))In conventional bidirectional prediction, the predictors for lists L0 and L1 are averaged to generate a final predictor using the same weights of 0.5. The predictor generation formula is given as Equation (3) (Equ. (3))

PTraditionalBiPred = (PL0 + PL1 + RoundingOffset) >> shiftNum, … (1)P TraditionalBiPred = (P L0 + P L1 + RoundingOffset) >> shiftNum, … (1)

В Уравнении (3) (Equ. (3)), параметр PTraditionalBiPred представляет собой конечный предиктор для обычного двунаправленного прогнозирования, PL0 и PL1 обозначают предикторы из списков L0 и L1, соответственно, и параметры RoundingOffset и shiftNum используются для нормировки конечного предиктора.In Equation (3) (Equ. (3)), the parameter PTraditionalBiPred represents the final predictor for conventional bidirectional prediction, PL0 and PL1 denote predictors from the lists L0 and L1, respectively, and the parameters RoundingOffset and shiftNum are used to normalize the final predictor.

Обобщенное двунаправленное прогнозирование (Generalized Bi-prediction (GBI)) предлагается для того, чтобы позволить применять разные весовые коэффициенты к предикторам из списков L0 и L1. Генерацию предикторов описывает Уравнение (4) (Equ. (4)).Generalized Bi-prediction (GBI) is proposed to allow different weights to be applied to predictors from L0 and L1 lists. The generation of predictors is described by Equation (4) (Equ. (4)).

PGBi = ( (1-w1)* PL0 + w1 * PL1 + RoundingOffsetGBi) >> shiftNumGBi, … (2)P GBi = ( (1-w 1 )* P L0 + w 1 * P L1 + RoundingOffset GBi ) >> shiftNum GBi , … (2)

В Уравнении (4) (Equ. (4)), параметр PGBi обозначает конечный предиктор прогнозирования GBi. Коэффициенты (1-w1) и w1 являются выбранными весовыми коэффициентами прогнозирования GBI, применяемыми к предикторам из списков L0 и L1, соответственно. Параметры RoundingOffsetGBi и shiftNumGBi используются для нормировки конечных предикторов в прогнозировании GBi.In Equation (4) (Equ. (4)), the parameter PGBi denotes the final prediction predictor GBi. The coefficients (1-w1) and w1 are the selected GBI prediction weights applied to the predictors from lists L0 and L1, respectively. The RoundingOffsetGBi and shiftNumGBi parameters are used to normalize the final predictors in the GBi prediction.

Таблица поддерживаемых весовых коэффициентов w1 имеет вид {-1/4, 3/8, 1/2, 5/8, 5/4}. Здесь поддерживается одна группа одинаковых весовых коэффициентов и четыре группы неравных весовых коэффициентов. Для случая одинаковых весовых коэффициентов процедура генерации конечного предиктора является точно такой же, как в режиме обычного двунаправленного прогнозирования. Для случаев истинного двунаправленного прогнозирования в условиях произвольного доступа (random access (RA)) число групп весовых коэффициентов-кандидатов уменьшено до трех.The table of supported weights w1 is {-1/4, 3/8, 1/2, 5/8, 5/4}. Here, one group of equal weights and four groups of unequal weights are supported. For the case of equal weights, the procedure for generating the final predictor is exactly the same as in the normal bidirectional prediction mode. For cases of true bidirectional prediction under random access (RA) conditions, the number of candidate weight groups is reduced to three.

Для режима усовершенствованного прогнозирования вектора движения (AMVP) о выборе весовых коэффициентов прогнозирования GBI сообщают в форме сигнализации в явном виде на уровне единицы CU, если эту единицу CU кодируют с применением двунаправленной интерполяции. Для режима объединения, выбор весовых коэффициентов «наследуется» от объединяемого кандидата. Для этой цели режим прогнозирования GBI поддерживает режим уточнения вектора движения на стороне декодирующего устройства (DMVR) для генерации взвешенного среднего относительно шаблона, равно как конечного предиктора для BMS-1.0.For the advanced motion vector prediction (AMVP) mode, the choice of GBI prediction weights is signaled explicitly at the CU level if the CU is encoded using bi-directional interpolation. For merge mode, the choice of weights is "inherited" from the merge candidate. For this purpose, the GBI prediction mode supports a decoder-side motion vector refinement (DMVR) mode to generate a weighted average over the template as well as a final predictor for BMS-1.0.

2.2.6 Предельное выражение вектора движения2.2.6 Motion vector limit expression

В некоторых вариантах, представлено предельное выражение вектора движения (ultimate motion vector expression) (UMVE). Параметр UMVE используется вместе с режимом пропуска или режимом объединения с предлагаемым способом выражения вектора движения.In some embodiments, an ultimate motion vector expression (UMVE) is provided. The UMVE parameter is used in conjunction with skip mode or merge mode with a suggested way of expressing the motion vector.

Параметр UMVE повторно использует объединяемого кандидата, как такого же, как используемый в стандарте кодирования VVC. Из совокупности объединяемых кандидатов может быть выбран один кандидат и далее расширен посредством предлагаемого способа выражения вектора движения.The UMVE parameter reuses the merged candidate as the same as used in the VVC encoding standard. From the set of combined candidates, one candidate can be selected and further expanded by the proposed method of expressing the motion vector.

Параметр UMVE предлагает новое выражение вектора движения с упрощенной сигнализацией. Этот способ выражения содержит начальную точку, величину движения и направление движения.The UMVE parameter offers a new motion vector expression with simplified signaling. This way of expression contains the starting point, the amount of movement, and the direction of movement.

Этот предлагаемый способ использует список объединяемых кандидатов, как он есть. Но для расширения UMVE рассматриваются только кандидаты, имеющие тип объединения по умолчанию (MRG_TYPE_DEFAULT_N).This proposed method uses the merged candidate list as it is. But for the UMVE extension, only candidates that have a default merge type (MRG_TYPE_DEFAULT_N) are considered.

Индекс базового кандидата определяет начальную точку. Этот индекс базового кандидата обозначает наилучшего кандидата из совокупности кандидатов, входящих в список, следующим образом.The base candidate index defines the starting point. This base candidate index designates the best candidate from the pool of candidates in the list as follows.

Таблица 1. Индекс (IDX) базового кандидатаTable 1. Index (IDX) of the base candidate

Индекс (IDX) базового кандидатаIndex (IDX) of the underlying candidate 00 11 22 33 N-ый MVPNth MVP 1-ый MVP1st MVP 2-ой MVP2nd MVP 3-ий MVP3rd MVP 4ый MVP4th MVP

Если число базовых кандидатов равно 1, сигнализацию об индексе IDX базового кандидата не передают.If the number of base candidates is 1, the base candidate IDX index is not signaled.

Индекс расстояния представляет собой информацию о величине движения. Индекс расстояния обозначает предварительно заданное расстояние от информации о начальной точке. Это предварительно заданное расстояние определено следующим образом:The distance index is information about the amount of movement. The distance index indicates a predetermined distance from the start point information. This preset distance is defined as follows:

Таблица 2. Индекс (IDX) расстоянияTable 2. Index (IDX) distance

Индекс (IDX) расстоянияIndex (IDX) distance 00 11 22 33 44 55 66 77 Расстояние в пикселях (pel)Distance in pixels (pel) 1/4-pel1/4-pel 1/2-pel1/2-pel 1-pel1-pel 2-pel2-pel 4-pel4-pel 8-pel8-pel 16-pel16-pel 32-pel32-pel

Индекс направления представляет направление разности векторов движения (motion vector difference (MVD)) относительно начальной точки. Индекс направления может представлять четыре направления, как показано ниже.The direction index represents the direction of the motion vector difference (MVD) relative to the starting point. A direction index can represent four directions, as shown below.

Таблица 3. Индекс (IDX) направленияTable 3. Index (IDX) directions

Индекс (IDX) направленияIndex (IDX) directions 0000 0101 1010 11eleven x-осьx-axis ++ - Не применимоNot applicable Не применимоNot applicable y-осьy-axis Не применимоNot applicable Не применимоNot applicable ++ -

Флаг расширения UMVE передают в виде сигнализации сразу после передачи флага пропуска и флага объединения. Если флаг пропуска и объединения является истинным, выполняют синтаксический анализ флага UMVE. Если флаг UMVE равен 1, выполняют синтаксический анализ синтаксиса расширения UMVE. Но если этот флаг не равен 1, выполняют синтаксический анализ флага аффинности (AFFINE). Если флаг AFFINE равен 1, это означает аффинный (AFFINE) режим. Но если этот флаг не равен 1, выполняют синтаксический анализ индекса пропуска/объединения для режима пропуска/объединения из документа VTM.The UMVE extension flag is signaled immediately after the transmission of the skip flag and the merge flag. If the skip and merge flag is true, the UMVE flag is parsed. If the UMVE flag is 1, the UMVE extension syntax is parsed. But if this flag is not equal to 1, the affinity flag (AFFINE) is parsed. If the AFFINE flag is 1, it means affine (AFFINE) mode. But if this flag is not equal to 1, the skip/merge index for the skip/merge mode from the VTM document is parsed.

Дополнительный буфер строк из-за появления кандидатов UMVE не требуется, поскольку кандидат пропуска/объединяемый кандидат из программного обеспечения непосредственно используется в качестве базового кандидата. Используя входной индекс UMVE, определяют дополнение вектора MV непосредственно перед компенсацией движения. Нет необходимости держать буфер длинной строки для этого.An additional row buffer due to the emergence of UMVE candidates is not required since the skip/merge candidate from software is directly used as the base candidate. Using the input index UMVE, determine the addition of the MV vector just before motion compensation. There is no need to keep a long string buffer for this.

2.2.7 Прогнозирование вектора движения на основе предыстории2.2.7 Motion vector prediction based on history

В нашей предыдущей заявке на изобретение, P1805028401H, используются одна или несколько преобразовательных таблиц по меньшей мере с одним сохраненным кандидатом движения для прогнозирования информации о движении для блока.Our previous patent application, P1805028401H, uses one or more lookup tables with at least one stored motion candidate to predict motion information for a block.

Предложен способ прогнозирования вектора движения на основе предыстории (HMVP), в котором кандидат прогнозирования HMVP определен как информация о движении ранее кодированного блока. В процессе кодирования/декодирования поддерживают таблицу с несколькими кандидатами прогнозирования HMVP. Эту таблицу опустошают, когда отмечен новый срез. Всякий раз, когда встречается блок, кодируемый с применением межкадрового прогнозирования, ассоциированную с ним информацию о движении добавляют к последней входной позиции таблицы в качестве нового кандидата прогнозирования HMVP. Общий поток кодирования показан на фиг. 13.A history-based motion vector prediction (HMVP) method is provided in which an HMVP prediction candidate is defined as motion information of a previously encoded block. In the encoding/decoding process, a multi-candidate HMVP prediction table is maintained. This table is emptied when a new slice is marked. Whenever an inter-prediction encoded block is encountered, its associated motion information is added to the last input table position as a new HMVP prediction candidate. The overall coding flow is shown in FIG. 13.

В одном из примеров, размер таблицы установлен L (например, L = 16 или 6, или 44), что означает, что в таблицу могут быть внесены всего до L кандидатов прогнозирования HMVP.In one example, the table size is set to L (eg, L = 16 or 6 or 44), which means that up to L total of HMVP prediction candidates can be entered in the table.

В одном из вариантов, если имеется больше L кандидатов прогнозирования HMVP из ранее кодированных блоков, применяется правило «первым записан – первым вычеркнут» (First-In-First-Out (FIFO)), так что таблица всегда содержит L самых последних из ранее кодированных кандидатов движения. На фиг. 14 показан пример, в котором правило FIFO применяется для вычеркивания из таблицы, используемой в предлагаемом способе, одного кандидата прогнозирования HMVP и добавления нового кандидата в эту таблицу.In one embodiment, if there are more than L HMVP prediction candidates from previously coded blocks, the First-In-First-Out (FIFO) rule is applied so that the table always contains the L most recent previously coded blocks. movement candidates. In FIG. 14 shows an example in which the FIFO rule is applied to delete one HMVP prediction candidate from the table used in the proposed method and add a new candidate to the table.

В другом варианте, при каждом добавлении нового кандидата движения (например, когда текущий блок кодируют в неаффинном режиме и с применением. межкадрового прогнозирования) сначала выполняют контроль избыточности, чтобы идентифицировать, имеются ли идентичные или аналогичные кандидаты движения в преобразовательных таблицах LUT.In another embodiment, each time a new motion candidate is added (eg, when the current block is encoded in non-affine mode and using inter prediction), a redundancy check is first performed to identify if there are identical or similar motion candidates in the LUTs.

2.2.8 Симметричная разность векторов движения 2.2.8 Symmetric motion vector difference

В некоторых вариантах, предложен подход с симметричной разностью векторов движения (symmetric motion vector difference (SMVD)) для более эффективного кодирования разности MVD.In some embodiments, a symmetric motion vector difference (SMVD) approach has been proposed to more efficiently encode the MVD difference.

Сначала, на уровне среза, определяют переменные BiDirPredFlag, RefIdxSymL0 и RefIdxSymL1 следующим образом:First, at the slice level, the variables BiDirPredFlag, RefIdxSymL0 and RefIdxSymL1 are defined as follows:

Сначала в списке 0 опорных изображений осуществляют поиск опорного изображения прямого направления, ближайшего к текущему изображению. Если таковое найдено, переменную RefIdxSymL0 устанавливают равной опорному индексу этого изображения прямого направления.First, reference picture list 0 is searched for the forward direction reference picture closest to the current picture. If one is found, the variable RefIdxSymL0 is set equal to the reference index of this forward image.

В списке 1 опорных изображений осуществляют поиск опорного изображения обратного направления, ближайшего к текущему изображению. Если таковое найдено, переменную RefIdxSymL1 устанавливают равной опорному индексу этого изображения обратного направления.In the reference picture list 1, a reverse direction reference picture closest to the current picture is searched. If one is found, the variable RefIdxSymL1 is set equal to the reference index of this reverse image.

Если найдены оба изображения – и прямого, и обратного направления, флаг BiDirPredFlag устанавливают равным 1.If both forward and backward images are found, the BiDirPredFlag flag is set to 1.

В противном случае применяется следующее:Otherwise, the following applies:

В списке 0 опорных изображений осуществляют поиск опорного изображения обратного направления, ближайшего к текущему изображению. Если таковое найдено, переменную RefIdxSymL0 устанавливают равной опорному индексу этого изображения обратного направления.Reference picture list 0 is searched for the reverse direction reference picture closest to the current picture. If one is found, the variable RefIdxSymL0 is set equal to the reference index of this reverse image.

В списке 1 опорных изображений осуществляют поиск опорного изображения прямого направления, ближайшего к текущему изображению. Если таковое найдено, переменную RefIdxSymL1 устанавливают равной опорному индексу этого изображения прямого направления.In the reference picture list 1, a forward direction reference picture closest to the current picture is searched. If one is found, the variable RefIdxSymL1 is set equal to the reference index of this forward image.

Если найдены оба изображения – и обратного, и прямого направления, флаг BiDirPredFlag устанавливают равным 1. В противном случае, флаг BiDirPredFlag устанавливают равным 0.If both reverse and forward images are found, the BiDirPredFlag flag is set to 1. Otherwise, the BiDirPredFlag flag is set to 0.

Во-вторых, на уровне единицы CU, передают в форме сигнализации в явном виде флаг симметричного режима, указывающий, применяется ли симметричный режим или нет, если направление прогнозирования для рассматриваемой единицы CU является «двунаправленным», и флаг BiDirPredFlag равен 1. Second, at the CU level, a symmetric mode flag is explicitly signaled indicating whether symmetric mode is applied or not if the prediction direction for the CU in question is "bidirectional" and the BiDirPredFlag flag is 1.

Когда этот флаг является истинным, передают в явном виде в форме сигнализации только флаг mvp_l0_flag, флаг mvp_l1_flag и разность MVD0. Опорные индексы устанавливают равными RefIdxSymL0, RefIdxSymL1 для списка 0 и списка 1, соответственно. Разность MVD1 просто устанавливают равной –MVD0. Окончательные векторы движения определены формулами ниже.When this flag is true, only the mvp_l0_flag flag, the mvp_l1_flag flag and the MVD0 difference are explicitly signaled. The reference indexes are set to RefIdxSymL0, RefIdxSymL1 for list 0 and list 1, respectively. The MVD1 difference is simply set to -MVD0. The final motion vectors are defined by the formulas below.

Модификации синтаксиса единицы кодирования показаны таблице 2.Modifications to the coding unit syntax are shown in Table 2.

Таблица 2. Модификации синтаксиса единицы кодирования Table 2. Syntax modifications of a coding unit

2.2. 9 Комбинированный режим прогнозирования CIIP в стандарте VTM42.2. 9 Combined CIIP prediction mode in VTM4 standard

В стандарте VTM4, когда единицу CU кодируют в режиме объединения, и если эта единица CU содержит по меньшей мере 64 отсчета яркостной составляющей (иными словами, произведение ширины единицы CU на высоту этой единицы CU не меньше 64), передают в форме сигнализации дополнительный флаг для индикации, применяется ли комбинированный режим межкадрового/внутрикадрового прогнозирования (CIIP) к текущей единице CU. In the VTM4 standard, when a CU is encoded in combining mode, and if that CU contains at least 64 luma samples (in other words, the product of the width of the CU and the height of that CU is not less than 64), an additional flag is signaled for indicating whether the combined inter-picture/intra-picture prediction (CIIP) mode is applied to the current CU.

Для формирования прогнозирования в комбинированном режиме CIIP сначала определяют режим внутрикадрового прогнозирования на основе двух дополнительных синтаксических элементов. Могут быть использованы вплоть до четырех возможных режимов внутрикадрового прогнозирования: DC-режим, планарный режим, горизонтальный режим или вертикальный режим. Затем формируют сигналы межкадрового и внутрикадрового прогнозирования с использованием регулярных процедур внутрикадрового и межкадрового прогнозирования. Наконец, осуществляют взвешенное усреднение этих сигналов межкадрового и внутрикадрового прогнозирования для получения прогнозирования в комбинированном режиме CIIP.To generate a CIIP combined mode prediction, an intra prediction mode is first determined based on two additional syntax elements. Up to four possible intra prediction modes can be used: DC mode, planar mode, horizontal mode, or vertical mode. Then, inter-frame and intra-frame prediction signals are generated using regular intra-frame and inter-frame prediction procedures. Finally, these inter- and intra-prediction signals are weighted averaged to obtain a combined CIIP prediction.

1. Определение режима внутрикадрового прогнозирования 1. Determination of intra-prediction mode

Вплоть до 4 режимов внутрикадрового прогнозирования, включая DC-режим, планарный (PLANAR) режим, горизонтальный (HORIZONTAL) режим и вертикальный (VERTICAL) режим, могут быть использованы для прогнозирования яркостной составляющей в комбинированном режиме прогнозирования CIIP. Если единица CU сильно вытянута в ширину (иными словами, ширина более чем вдвое превышает высоту), тогда горизонтальный режим не допускается. Если единица CU является очень узкой (иными словами, высота более чем вдвое превышает ширину), тогда вертикальный режим не допускается. В этих случаях допустимы только 3 режима внутрикадрового прогнозирования. Up to 4 intra-prediction modes, including DC mode, PLANAR mode, HORIZONTAL mode, and VERTICAL mode, can be used to predict the luminance component in the combined CIIP prediction mode. If the CU is very long in width (in other words, the width is more than twice the height), then the horizontal mode is not allowed. If the CU is very narrow (in other words, the height is more than twice the width), then vertical mode is not allowed. In these cases, only 3 intra prediction modes are allowed.

Режим комбинированного прогнозирования CIIP использует 3 наиболее вероятных режима (most probable modes (MPM)) для внутрикадрового прогнозирования. Список таких наиболее вероятных режимов-кандидатов для комбинированного прогнозирования (CIIP MPM) формируют следующим образом: The CIIP combined prediction mode uses the 3 most probable modes (MPM) for intra prediction. The list of such most likely candidate modes for combined prediction (CIIP MPM) is formed as follows:

- Соседние блоки слева и сверху обозначают как A и B, соответственно- Neighboring blocks on the left and top are designated as A and B, respectively

- Режимы внутрикадрового прогнозирования для блока A и блока B, обозначенные как. intraModeA и intraModeB, соответственно, определяют следующим образом:- Intra-prediction modes for block A and block B, denoted as. intraModeA and intraModeB, respectively, are defined as follows:

○ Пусть X будет A или B○ Let X be A or B

○ Параметр intraModeX устанавливают как DC, если 1) блок X недоступен; или 2) блок X не прогнозируют в комбинированном режиме CIIP и в режиме внутрикадрового прогнозирования; 3) блок B находится вне текущей единицы CTU○ The intraModeX parameter is set to DC if 1) block X is not available; or 2) block X is not predicted in the combined CIIP mode and intra prediction mode; 3) block B is outside the current CTU

○ В противном случае, параметр intraModeX устанавливают как 1) DC или PLANAR, если режимом внутрикадрового прогнозирования для блока X является DC-режим или режим PLANAR; или 2) режим VERTICAL, если режим внутрикадрового прогнозирования для блока X представляет собой угловой режим «типа вертикального» (номер больше 34), или 3) режим HORIZONTAL, если режим внутрикадрового прогнозирования для блока X представляет собой угловой режим «типа горизонтального» (номер не больше 34)○ Otherwise, the intraModeX parameter is set to 1) DC or PLANAR if the intra prediction mode for block X is DC mode or PLANAR mode; or 2) VERTICAL mode if the intra frame prediction mode for block X is a "vertical type" angle mode (number greater than 34), or 3) HORIZONTAL mode if the intra frame prediction mode for block X is a "horizontal type" angle mode (number no more than 34)

- Если параметры. intraModeA и intraModeB являются одинаковыми: - If parameters. intraModeA and intraModeB are the same:

○ Если параметр intraModeA установлен как PLANAR или DC, тогда тремя режимами MPM являются режимы {PLANAR, DC, VERTICAL} в этом порядке○ If intraModeA is set to PLANAR or DC, then the three MPM modes are {PLANAR, DC, VERTICAL} in that order

○ В противном случае, этими тремя режимами MPM являются режимы {intraModeA, PLANAR, DC} в этом порядке○ Otherwise, the three MPM modes are {intraModeA, PLANAR, DC} in that order

- В противном случае (параметры intraModeA и intraModeB являются разными): - Otherwise (parameters intraModeA and intraModeB are different):

○ Первые два режима MPM устанавливают как {intraModeA, intraModeB} в этом порядке○ The first two MPM modes are set to {intraModeA, intraModeB} in this order

○ Уникальность режимов PLANAR, DC и VERTICAL проверяют в этом порядке, сравнивая с первыми двумя режимами-кандидатами MPM; как только будет найден уникальный режим, его добавляют в качестве третьего режима MPM ○ The uniqueness of the PLANAR, DC and VERTICAL modes is checked in this order against the first two candidate MPM modes; once a unique mode is found, it is added as a third MPM mode

Если единица CU имеет очень широкую или очень узкую форму, как определено выше, флаг режима MPM считается равным 1 без передачи сигнализации. В противном случае передают в виде сигнализации флаг режима MPM для индикации, если режим внутрикадрового прогнозирования из комбинированного режима CIIP является одним из режимов кандидатов CIIP MPM. If the CU has a very wide or very narrow shape as defined above, the MPM mode flag is considered to be 1 without signaling. Otherwise, an MPM mode flag is signaled to indicate if the intra-prediction mode from the combined CIIP mode is one of the CIIP MPM candidate modes.

Если флаг режима MPM равен 1, далее передают в виде сигнализации индекс режима MPM с целью индикации, какой именно из режимов-кандидатов MPM используется для внутрикадрового прогнозирования в комбинированном режиме CIIP. В противном случае, если флаг режима MPM равен 0, в качестве режима внутрикадрового прогнозирования устанавливают режим, «отсутствующий» в списке режимов-кандидатов MPM. Например, если режима PLANAR нет в списке режимов-кандидатов MPM, тогда режим PLANAR является отсутствующим режимом, и в качестве режима внутрикадрового прогнозирования устанавливают режим PLANAR. Поскольку в комбинированном режиме прогнозирования CIIP допускаются 4 возможных режима внутрикадрового прогнозирования, а список режимов-кандидатов MPM содержит только 3 режима внутрикадрового прогнозирования, одним из 4 возможных режимов должен быть указанный отсутствующий режим. If the MPM mode flag is 1, then an MPM mode index is signaled to indicate which of the candidate MPM modes is used for intra-prediction in the combined CIIP mode. Otherwise, if the MPM mode flag is 0, a mode "not present" in the MPM candidate mode list is set as the intra-prediction mode. For example, if the PLANAR mode is not in the MPM candidate mode list, then the PLANAR mode is the missing mode, and the PLANAR mode is set as the intra-prediction mode. Since 4 possible intra-prediction modes are allowed in the CIIP combined prediction mode, and the list of candidate MPM modes contains only 3 intra-prediction modes, one of the 4 possible modes should be the missing mode indicated.

Для цветностных составляющих всегда применяется DM-режим без дополнительной сигнализации; иными словами, цветностная составляющая всегда использует такой же режим прогнозирования, как и яркостная составляющая. Chroma is always in DM mode without additional signaling; in other words, the chrominance component always uses the same prediction mode as the luminance component.

Индикация режима внутрикадрового прогнозирования, примененного к единице CU, кодированной в комбинированном режиме CIIP, будет сохранена и этот режим будет использован для внутрикадрового кодирования будущих соседних единиц CU.An indication of the intra-prediction mode applied to a CU encoded in the combined CIIP mode will be kept and this mode will be used for intra-frame coding of future adjacent CUs.

2.2.9.2 Комбинирование сигналов межкадрового и внутрикадрового прогнозирования 2.2.9.2 Combining inter-frame and intra-frame prediction signals

Сигнал Pinter межкадрового прогнозирования в комбинированном режиме CIIP получают с использованием той же самой процедуры межкадрового прогнозирования, какая применена к обычному, регулярному режиму объединения; и сигнал Pintra внутрикадрового прогнозирования определяют с использованием применяемого в комбинированном режиме CIIP режима внутрикадрового прогнозирования, следуя обычной, регулярной процедуре внутрикадрового прогнозирования. Затем сигналы внутрикадрового и межкадрового прогнозирования комбинируют посредством взвешенного усреднения, где значение весового коэффициента зависит от режима внутрикадрового прогнозирования, и где отсчет расположен в блоке кодирования, следующим образом: The inter prediction signal P inter in the combined CIIP mode is obtained using the same inter prediction procedure as applied to the normal, regular combining mode; and the intra prediction signal P intra is determined using the intra prediction mode applied in the combined CIIP mode, following a normal, regular intra prediction procedure. Then, the intra prediction and inter prediction signals are combined by weighted averaging, where the value of the weighting factor depends on the intra prediction mode, and where the sample is located in the coding block, as follows:

- Если режим внутрикадрового прогнозирования представляет собой DC-режим или планарный режим, либо если ширина или высота блока меньше 4, тогда к сигналам внутрикадрового прогнозирования и межкадрового прогнозирования применяют одинаковые весовые коэффициенты. - If the intra prediction mode is DC mode or planar mode, or if the block width or block height is less than 4, then the same weights are applied to the intra prediction and inter prediction signals.

- В противном случае, весовые коэффициенты определяют на основе режима внутрикадрового прогнозирования (либо горизонтального режима, либо вертикального режима в этом случае) и позиции отсчета в блоке. Возьмем в качестве примера горизонтальный режим прогнозирования (весовые коэффициенты для вертикального режима определяют аналогичным образом, но в ортогональном направлении). Обозначим W ширину блока и H высоту этого блока. Блок кодирования сначала разбивают на четыре части равной площади, каждая размером (W/4)xH. Начиная от части, ближайшей к опорным отсчетам для внутрикадрового прогнозирования, и заканчивая частью, наиболее удаленной от этих опорных отсчетов для внутрикадрового прогнозирования, весовой коэффициент wt для каждой из 4 областей устанавливают равным 6, 5, 3 и 2, соответственно. Окончательный сигнал прогнозирования в комбинированном режиме CIIP определяют с использованием следующего: - Otherwise, the weights are determined based on the intra-prediction mode (either horizontal mode or vertical mode in this case) and the sample position in the block. Take the horizontal prediction mode as an example (the weights for the vertical mode are determined in a similar way, but in the orthogonal direction). Let W denote the width of the block and H the height of this block. The coding block is first divided into four parts of equal area, each with a size of (W/4)xH. Starting from the part closest to the intra prediction reference samples to the part farthest from these intra prediction reference samples, the weighting coefficient wt for each of the 4 regions is set to 6, 5, 3, and 2, respectively. The final CIIP combined mode prediction signal is determined using the following:

ii Комбинированный режим прогнозирования CIIP в стандарте VTM5ii Combined CIIP prediction mode in VTM5 standard

В стандарте VTM5, когда единицу CU кодируют в режиме объединения, если эта единица CU содержит по меньшей мере 64 отсчета яркостной составляющей (иными словами, произведение ширины единицы CU на высоту этой единицы CU не меньше 64), и если оба размера – и ширина единицы CU, и высота единицы CU, меньше 128 отсчетов яркостной составляющей, передают в виде сигнализации дополнительный флаг для индикации, что комбинированный режим межкадрового/внутрикадрового прогнозирования (CIIP) применяется к текущей единице CU. Как указывает само название, комбинированный режим прогнозирования CIIP осуществляет комбинирование сигнала межкадрового прогнозирования и сигнала внутрикадрового прогнозирования. Сигнал Pinter межкадрового прогнозирования в комбинированном режиме CIIP получают с использованием той же самой процедуры межкадрового прогнозирования, какая применена к обычному, регулярному режиму объединения; и сигнал Pintra внутрикадрового прогнозирования определяют с использованием применяемого в комбинированном режиме CIIP режима внутрикадрового прогнозирования, следуя обычной, регулярной процедуре внутрикадрового прогнозирования в планарном режиме. Затем сигналы внутрикадрового и межкадрового прогнозирования комбинируют посредством взвешенного усреднения, где значение весового коэффициента вычисляют в зависимости от режимов кодирования для соседних блоков сверху и слева (показаны на фиг. 16) следующим образом: In the VTM5 standard, when a CU is encoded in merge mode, if that CU contains at least 64 luma samples (in other words, the product of the width of the CU and the height of that CU is at least 64), and if both dimensions and the width of the unit A CU and a CU height less than 128 luma samples signal an additional flag to indicate that a combined inter-frame/intra-picture prediction (CIIP) mode is applied to the current CU. As the name itself indicates, the combined CIIP prediction mode combines an inter prediction signal and an intra prediction signal. The inter prediction signal P inter in the combined CIIP mode is obtained using the same inter prediction procedure as applied to the normal, regular combining mode; and the intra intra prediction signal P is determined using the intra prediction mode applied in the combined CIIP mode, following the normal regular intra prediction procedure in the planar mode. Then, the intra and inter prediction signals are combined by weighted averaging, where the weight value is calculated depending on the coding modes for the top and left adjacent blocks (shown in FIG. 16) as follows:

- Если сосед сверху доступен и кодирован с применением внутрикадрового прогнозирования, тогда параметр isIntraTop устанавливают равным 1, в противном случае параметр isIntraTop устанавливают равным 0;- If the up-neighbor is available and encoded using intra-prediction, then the isIntraTop parameter is set to 1, otherwise the isIntraTop parameter is set to 0;

- Если сосед слева доступен и кодирован с применением внутрикадрового прогнозирования, тогда параметр isIntraLeft устанавливают равным 1, в противном случае параметр isIntraLeft устанавливают равным 0;- If the left neighbor is available and encoded using intra-prediction, then the isIntraLeft parameter is set to 1, otherwise the isIntraLeft parameter is set to 0;

- Если (isIntraLeft + isIntraTop) равно 2, тогда весовой коэффициент wt устанавливают равным 3;- If (isIntraLeft + isIntraTop) is 2, then the weight wt is set to 3;

- В противном случае, если (isIntraLeft + isIntraTop) равно 1, тогда весовой коэффициент wt устанавливают равным 2;- Otherwise, if (isIntraLeft + isIntraTop) is 1, then the weight wt is set to 2;

- В противном случае, весовой коэффициент wt устанавливают равным 1.- Otherwise, the weighting factor wt is set to 1.

Результат комбинированного прогнозирования CIIP формируют следующим образом: The combined CIIP prediction result is generated as follows:

На фиг. 16 показаны верхний и левый соседние блоки, используемые для определения весовых коэффициентов для комбинированного режима прогнозирования CIIP In FIG. 16 shows the top and left neighbor blocks used to determine the weights for the combined CIIP prediction mode.

2.3. Процедура определения внутрикадрового прогнозирования 2.3. Intra prediction determination procedure

В сегодняшней версии документа VTM-4.0, при кодировании одного блока с применением внутрикадрового прогнозирования сначала в виде сигнализации передают один флаг наиболее вероятного режима (MPM). Если флаг режима MPM является истинным, тогда далее сигнализируют индекс к списку режимов MPM. В противном случае передают в виде сигнализации индекс к режимам, не являющимся режимами MPM.In today's version of the VTM-4.0 document, when encoding one block using intra-prediction, one most likely mode (MPM) flag is first signaled. If the MPM mode flag is true, then the index to the MPM mode list is further signaled. Otherwise, an index to non-MPM modes is signaled.

Относящиеся к делу синтаксические элементы, симметрия и процедура декодирования в самой последней версии стандарта кодирования VVC (JVET-M1001_v7) имеют следующий вид:The relevant syntax elements, symmetry, and decoding procedure in the most recent version of the VVC encoding standard (JVET-M1001_v7) are as follows:

Относящийся к делу синтаксисRelevant Syntax

Синтаксис единиц кодированияSyntax of coding units

СемантикаSemantics

Синтаксические элементы intra_luma_mpm_flag[ x0 ][ y0 ], intra_luma_mpm_idx[ x0 ][ y0 ] и intra_luma_mpm_remainder[ x0 ][ y0 ] специфицируют режим внутрикадрового прогнозирования для отсчетов яркостной составляющей. Индексы x0, y0 массива специфицируют позицию ( x0 , y0 ) верхнего левого отсчета яркостной составляющей рассматриваемого блока кодирования относительно верхнего левого отсчета яркостной составляющей изображения. Когда параметр intra_luma_mpm_flag[ x0 ][ y0 ] равен 1, режим внутрикадрового прогнозирования выводят от соседней единицы кодирования с внутрикадровым прогнозированием в соответствии со статьей 8.4.2.The syntax elements intra_luma_mpm_flag[ x0 ][ y0 ], intra_luma_mpm_idx[ x0 ][ y0 ] and intra_luma_mpm_remainder[ x0 ][ y0 ] specify the intra-frame prediction mode for luma samples. The array indices x0, y0 specify the position ( x0 , y0 ) of the top left luma sample of the coding block in question relative to the top left luma sample of the image. When the parameter intra_luma_mpm_flag[ x0 ][ y0 ] is equal to 1, the intra prediction mode is output from the adjacent intra prediction coding unit according to clause 8.4.2.

Когда параметр intra_luma_mpm_flag[ x0 ][ y0 ] не присутствует, его считают равным 1.When the parameter intra_luma_mpm_flag[ x0 ][ y0 ] is not present, it is assumed to be 1.

Процедура декодированияDecoding procedure

Процедура вывода для режима внутрикадрового прогнозирования яркостной составляющейDerivation Procedure for Intra-Picture Luminance Prediction Mode

Входными данными для этой процедуры являются:The input to this procedure is:

позиция ( xCb , yCb ) яркостной составляющей, специфицирующая верхний левый отсчет текущего блока кодирования яркостной составляющей относительно верхнего левого отсчета яркостной составляющей текущего изображения,position ( xCb , yCb ) of the luminance component, specifying the upper left sample of the current luminance component coding block relative to the upper left sample of the luminance component of the current image,

переменная cbWidth, специфицирующая ширину текущего блока кодирования в отсчетах яркостной составляющей,variable cbWidth specifying the width of the current coding block in luma samples,

переменная cbHeight, специфицирующая высоту текущего блока кодирования в отсчетах яркостной составляющей.variable cbHeight specifying the height of the current coding block in luma samples.

В этой процедуре определяют параметр IntraPredModeY[ xCb ][ yCb ] режима внутрикадрового прогнозирования яркостной составляющей.In this procedure, the parameter IntraPredModeY[ xCb ][ yCb ] of the intra-prediction mode of the luminance component is determined.

Таблица 8-1 специфицирует значения параметра IntraPredModeY[ xCb ][ yCb ] для режима внутрикадрового прогнозирования и ассоциированные названия.Table 8-1 specifies the IntraPredModeY[ xCb ][ yCb ] parameter values for intra-prediction mode and associated names.

Таблица 8-1. Спецификация режимов внутрикадрового прогнозирования и ассоциированных названийTable 8-1. Specification of Intra Prediction Modes and Associated Names

Режим внутрикадрового прогнозированияIntra-prediction mode Ассоциированное названиеAssociated name 00 INTRA_PLANARINTRA_PLANAR 11 INTRA_DCINTRA_DC 2..662..66 INTRA_ANGULAR2..INTRA_ANGULAR66INTRA_ANGULAR2..INTRA_ANGULAR66 81..8381..83 INTRA_LT_CCLM, INTRA_L_CCLM, INTRA_T_CCLMINTRA_LT_CCLM, INTRA_L_CCLM, INTRA_T_CCLM

Примечание: Режимы внутрикадрового прогнозирования INTRA_LT_CCLM, INTRA_L_CCLM и INTRA_T_CCLM применимы только к цветностным составляющим.Note: The intra-frame prediction modes INTRA_LT_CCLM, INTRA_L_CCLM and INTRA_T_CCLM are only applicable to chroma.

Параметр IntraPredModeY[xCb][yCb] определяют посредством следующих упорядоченных этапов:The IntraPredModeY[xCb][yCb] parameter is determined through the following ordered steps:

1. Соседние позиции ( xNbA, yNbA ) и ( xNbB, yNbB ) устанавливают равными ( xCb − 1, yCb + cbHeight − 1 ) и ( xCb + cbWidth − 1, yCb − 1 ), соответственно.1. Adjacent positions ( xNbA, yNbA ) and ( xNbB, yNbB ) are set equal to ( xCb − 1, yCb + cbHeight − 1 ) and ( xCb + cbWidth − 1, yCb − 1 ), respectively.

2. Для X, замененного на A или B, переменные candIntraPredModeX определяют следующим образом:2. For X replaced by A or B, the variables candIntraPredModeX are defined as follows:

- Процедуру определения доступности для блока, как это специфицировано в статье 6.4.X, [Ред. (BB): Процедура проверки доступности соседних блоков еще должна быть определена] привлекают с того, что позицию ( xCurr, yCurr ) устанавливают равной ( xCb, yCb ) и соседнюю позицию ( xNbY, yNbY ) устанавливают равной ( xNbX, yNbX ) в качестве входных данных, а выходные данные присваивают параметру availableX.- The procedure for determining availability for a block, as specified in Article 6.4.X, [Rev. (BB): Neighbor block availability check procedure yet to be defined] is invoked by setting position ( xCurr, yCurr ) to ( xCb, yCb ) and neighbor position ( xNbY, yNbY ) to ( xNbX, yNbX ) as input data, and the output data is assigned to the parameter availableX.

- Режим-кандидат внутрикадрового прогнозирования candIntraPredModeX определяют следующим образом:- The intra-prediction candidate mode candIntraPredModeX is determined as follows:

- Если одно или более из следующих условий являются истинными, параметр candIntraPredModeX устанавливают равным INTRA_PLANAR.- If one or more of the following conditions are true, the candIntraPredModeX parameter is set to INTRA_PLANAR.

- Переменной availableX присвоено значение «ЛОЖНО» (FALSE).- The availableX variable is set to FALSE.

- Параметр CuPredMode[ xNbX ][ yNbX ] не равен MODE_INTRA флаг ciip_flag[ xNbX ][ yNbX ] не равен 1.- Parameter CuPredMode[ xNbX ][ yNbX ] is not equal to MODE_INTRA flag ciip_flag[ xNbX ][ yNbX ] is not equal to 1.

- Флаг pcm_flag[ xNbX ][ yNbX ] равен 1.- Flag pcm_flag[ xNbX ][ yNbX ] is 1.

- X равен B и yCb − 1 меньше ( ( yCb. >>. CtbLog2SizeY ). <<. CtbLog2SizeY ).- X is equal to B and yCb − 1 is less than ( ( yCb. >>. CtbLog2SizeY ). <<. CtbLog2SizeY ).

- В противном случае, параметр candIntraPredModeX устанавливают равным параметру IntraPredModeY[ xNbX ][ yNbX ].- Otherwise, the parameter candIntraPredModeX is set equal to the parameter IntraPredModeY[ xNbX ][ yNbX ].

3. Переменные ispDefaultMode1 и ispDefaultMode2 определяют следующим образом:3. The ispDefaultMode1 and ispDefaultMode2 variables are defined as follows:

- Если параметр IntraSubPartitionsSplitType равен ISP_HOR_SPLIT, параметр ispDefaultMode1 устанавливают равным INTRA_ANGULAR18 и параметр ispDefaultMode2 устанавливают равным INTRA_ANGULAR5.- If the IntraSubPartitionsSplitType parameter is ISP_HOR_SPLIT, the ispDefaultMode1 parameter is set to INTRA_ANGULAR18 and the ispDefaultMode2 parameter is set to INTRA_ANGULAR5.

- В противном случае, параметр ispDefaultMode1 устанавливают равным INTRA_ANGULAR50 и параметр ispDefaultMode2 устанавливают равным INTRA_ANGULAR63.- Otherwise, the ispDefaultMode1 parameter is set to INTRA_ANGULAR50 and the ispDefaultMode2 parameter is set to INTRA_ANGULAR63.

4. Параметр candModeList[ x ] при x = 0..5 определяют следующим образом:4. Parameter candModeList[ x ] for x = 0..5 is defined as follows:

- Если параметр candIntraPredModeB равен candIntraPredModeA и параметр candIntraPredModeA больше INTRA_DC, параметр candModeList[ x ] при x = 0..5 определяют следующим образом:- If the parameter candIntraPredModeB is equal to candIntraPredModeA and the parameter candIntraPredModeA is greater than INTRA_DC, the parameter candModeList[ x ] at x = 0..5 is defined as follows:

- Если параметр IntraLumaRefLineIdx[ xCb ][ yCb ] равен 0 и параметр IntraSubPartitionsSplitType равен ISP_NO_SPLIT, применяется следующее:- If IntraLumaRefLineIdx[ xCb ][ yCb ] is 0 and IntraSubPartitionsSplitType is ISP_NO_SPLIT, the following applies:

candModeList[ 0 ] = candIntraPredModeA (8-9)candModeList[ 0 ] = candIntraPredModeA(8-9)

candModeList[ 1 ] = INTRA_PLANAR (8-10)candModeList[ 1 ] = INTRA_PLANAR(8-10)

candModeList[ 2 ] = INTRA_DC (8-11)candModeList[ 2 ] = INTRA_DC(8-11)

candModeList[ 3 ] = 2 + ( ( candIntraPredModeA + 61 ) % 64 ) (8-12)candModeList[ 3 ] = 2 + ( ( candIntraPredModeA + 61 ) % 64 ) (8-12)

candModeList[ 4 ] = 2 + ( ( candIntraPredModeA − 1 ) % 64 ) (8-13)candModeList[ 4 ] = 2 + ( ( candIntraPredModeA − 1 ) % 64 ) (8-13)

candModeList[ 5 ] = 2 + ( ( candIntraPredModeA + 60 ) % 64 ) (8-14)candModeList[ 5 ] = 2 + ( ( candIntraPredModeA + 60 ) % 64 ) (8-14)

- В противном случае (параметр IntraLumaRefLineIdx[ xCb ][ yCb ] не равен 0 или параметр IntraSubPartitionsSplitType не равен ISP_NO_SPLIT), применяется следующее:- Otherwise (IntraLumaRefLineIdx[ xCb ][ yCb ] is not equal to 0 or IntraSubPartitionsSplitType is not equal to ISP_NO_SPLIT), the following applies:

candModeList[ 0 ] = candIntraPredModeA (8-15)candModeList[ 0 ] = candIntraPredModeA(8-15)

candModeList[ 1 ] = 2 + ( ( candIntraPredModeA + 61 ) % 64 ) (8-16)candModeList[ 1 ] = 2 + ( ( candIntraPredModeA + 61 ) % 64 ) (8-16)

candModeList[ 2 ] = 2 + ( ( candIntraPredModeA − 1 ) % 64 ) (8-17)candModeList[ 2 ] = 2 + ( ( candIntraPredModeA − 1 ) % 64 ) (8-17)

- Если одно из следующих условий является истинным,- If one of the following conditions is true,

- Параметр IntraSubPartitionsSplitType равен ISP_HOR_SPLIT и параметр candIntraPredModeA. меньше INTRA_ANGULAR34,- The IntraSubPartitionsSplitType parameter is ISP_HOR_SPLIT and the parameter candIntraPredModeA. less than INTRA_ANGULAR34,

- Параметр IntraSubPartitionsSplitType равен ISP_VER_SPLIT и параметр candIntraPredModeA. не меньше INTRA_ANGULAR34,- The parameter IntraSubPartitionsSplitType is equal to ISP_VER_SPLIT and the parameter candIntraPredModeA. not less than INTRA_ANGULAR34,

- Параметр IntraLumaRefLineIdx[ xCb ][ yCb ] не равен 0, применяется следующее:- Parameter IntraLumaRefLineIdx[ xCb ][ yCb ] is not equal to 0, the following applies:

candModeList[ 3 ] = 2 + ( ( candIntraPredModeA + 60 ) % 64 ) (8-18)candModeList[ 3 ] = 2 + ( ( candIntraPredModeA + 60 ) % 64 ) (8-18)

candModeList[ 4 ] = 2 + ( candIntraPredModeA % 64 ) (8-19)candModeList[ 4 ] = 2 + ( candIntraPredModeA % 64 ) (8-19)

candModeList[ 5 ] = 2 + ( ( candIntraPredModeA + 59 ) % 64 ) (8-20)candModeList[ 5 ] = 2 + ( ( candIntraPredModeA + 59 ) % 64 ) (8-20)

- В противном случае, применяется следующее:- Otherwise, the following applies:

candModeList[ 3 ] = ispDefaultMode1 (8-21)candModeList[ 3 ] = ispDefaultMode1 (8-21)

candModeList[ 4 ] = ispDefaultMode2 (8-22)candModeList[ 4 ] = ispDefaultMode2 (8-22)

candModeList[ 5 ] = INTRA_PLANAR (8-23)candModeList[ 5 ] = INTRA_PLANAR(8-23)

- В противном случае, если параметр candIntraPredModeB не равен candIntraPredModeA и candIntraPredModeA или параметр candIntraPredModeB больше INTRA_DC, применяется следующее:- Otherwise, if candIntraPredModeB is not equal to candIntraPredModeA and candIntraPredModeA or candIntraPredModeB is greater than INTRA_DC, the following applies:

- Переменные minAB и maxAB определяют следующим образом:- Variables minAB and maxAB are defined as follows:

minAB = Min( candIntraPredModeA, candIntraPredModeB ) (8-24)minAB = Min( candIntraPredModeA, candIntraPredModeB ) (8-24)

maxAB = Max( candIntraPredModeA, candIntraPredModeB ) (8-25)maxAB = Max( candIntraPredModeA, candIntraPredModeB ) (8-25)

- Если параметры candIntraPredModeA и candIntraPredModeB оба больше INTRA_DC, параметр candModeList[ x ] при x = 0..5 определяют следующим образом:- If the parameters candIntraPredModeA and candIntraPredModeB are both greater than INTRA_DC, the parameter candModeList[ x ] at x = 0..5 is defined as follows:

candModeList[ 0 ] = candIntraPredModeA (8-26)candModeList[ 0 ] = candIntraPredModeA(8-26)

candModeList[ 1 ] = candIntraPredModeB (8-27)candModeList[ 1 ] = candIntraPredModeB(8-27)

- Если параметр IntraLumaRefLineIdx[ xCb ][ yCb ] равен 0 и параметр IntraSubPartitionsSplitType равен ISP_NO_SPLIT, применяется следующее:- If IntraLumaRefLineIdx[ xCb ][ yCb ] is 0 and IntraSubPartitionsSplitType is ISP_NO_SPLIT, the following applies:

candModeList[ 2 ] = INTRA_PLANAR (8-28)candModeList[ 2 ] = INTRA_PLANAR(8-28)

candModeList[ 3 ] = INTRA_DC (8-29)candModeList[ 3 ] = INTRA_DC(8-29)

- Если maxAB − minAB находится в диапазоне от 2 до 62, включительно, применяется следующее:- If maxAB − minAB is between 2 and 62, inclusive, the following applies:

candModeList[ 4 ] = 2 + ( ( maxAB + 61 ) % 64 ) (8-30)candModeList[ 4 ] = 2 + ( ( maxAB + 61 ) % 64 ) (8-30)

candModeList[ 5 ] = 2 + ( ( maxAB − 1 ) % 64 ) (8-31)candModeList[ 5 ] = 2 + ( ( maxAB − 1 ) % 64 ) (8-31)

- В противном случае, применяется следующее:- Otherwise, the following applies:

candModeList[ 4 ] = 2 + ( ( maxAB + 60 ) % 64 ) (8-32)candModeList[ 4 ] = 2 + ( ( maxAB + 60 ) % 64 ) (8-32)

candModeList[ 5 ] = 2 + ( ( maxAB ) % 64 ) (8-33)candModeList[ 5 ] = 2 + ( ( maxAB ) % 64 ) (8-33)

- В противном случае параметр (IntraLumaRefLineIdx[ xCb ][ yCb ] не равен 0 или параметр IntraSubPartitionsSplitType не равен ISP_NO_SPLIT), применяется следующее:- Otherwise, the parameter (IntraLumaRefLineIdx[ xCb ][ yCb ] is not equal to 0 or the parameter IntraSubPartitionsSplitType is not equal to ISP_NO_SPLIT), the following applies:

- Когда параметр IntraSubPartitionsSplitType не равен ISP_NO_SPLIT, и abs( candIntraPredModeB − ispDefaultMode1 ) меньше abs( candIntraPredModeA − ispDefaultMode1 ), применяется следующее:- When IntraSubPartitionsSplitType is not equal to ISP_NO_SPLIT and abs( candIntraPredModeB − ispDefaultMode1 ) is less than abs( candIntraPredModeA − ispDefaultMode1 ), the following applies:

candModeList[ 0 ] = candIntraPredModeB (8-34)candModeList[ 0 ] = candIntraPredModeB(8-34)

candModeList[ 1 ] = candIntraPredModeA (8-35)candModeList[ 1 ] = candIntraPredModeA(8-35)

- Если maxAB − minAB равно 1, применяется следующее:- If maxAB − minAB is equal to 1, the following applies:

candModeList[ 2 ] = 2 + ( ( minAB + 61 ) % 64 ) (8-36)candModeList[ 2 ] = 2 + ( ( minAB + 61 ) % 64 ) (8-36)

candModeList[ 3 ] = 2 + ( ( maxAB − 1 ) % 64 ) (8-37)candModeList[ 3 ] = 2 + ( ( maxAB − 1 ) % 64 ) (8-37)

candModeList[ 4 ] = 2 + ( ( minAB + 60 ) % 64 ) (8-38)candModeList[ 4 ] = 2 + ( ( minAB + 60 ) % 64 ) (8-38)

candModeList[ 5 ] = 2 + ( maxAB % 64 ) (8-39)candModeList[ 5 ] = 2 + ( maxAB % 64 ) (8-39)

- В противном случае если maxAB − minAB равно 2, применяется следующее:- Otherwise, if maxAB − minAB is 2, the following applies:

candModeList[ 2 ] = 2 + ( ( minAB − 1 ) % 64 ) (8-40)candModeList[ 2 ] = 2 + ( ( minAB − 1 ) % 64 ) (8-40)

candModeList[ 3 ] = 2 + ( ( minAB + 61 ) % 64 ) (8-41)candModeList[ 3 ] = 2 + ( ( minAB + 61 ) % 64 ) (8-41)

candModeList[ 4 ] = 2 + ( ( maxAB − 1 ) % 64 ) (8-42)candModeList[ 4 ] = 2 + ( ( maxAB − 1 ) % 64 ) (8-42)

candModeList[ 5 ] = 2 + ( ( minAB + 60 ) % 64 ) (8-43)candModeList[ 5 ] = 2 + ( ( minAB + 60 ) % 64 ) (8-43)

- В противном случае если maxAB − minAB больше 61, применяется следующее:- Otherwise, if maxAB − minAB is greater than 61, the following applies:

candModeList[ 2 ] = 2 + ( ( minAB − 1 ) % 64 ) (8-44)candModeList[ 2 ] = 2 + ( ( minAB − 1 ) % 64 ) (8-44)

candModeList[ 3 ] = 2 + ( ( maxAB + 61 ) % 64 ) (8-45)candModeList[ 3 ] = 2 + ( ( maxAB + 61 ) % 64 ) (8-45)

candModeList[ 4 ] = 2 + ( minAB % 64 ) (8-46)candModeList[ 4 ] = 2 + ( minAB % 64 ) (8-46)

candModeList[ 5 ] = 2 + ( ( maxAB + 60 ) % 64 ) (8-47)candModeList[ 5 ] = 2 + ( ( maxAB + 60 ) % 64 ) (8-47)

- В противном случае, применяется следующее:- Otherwise, the following applies:

candModeList[ 2 ] = 2 + ( ( minAB + 61 ) % 64 ) (8-48)candModeList[ 2 ] = 2 + ( ( minAB + 61 ) % 64 ) (8-48)

candModeList[ 3 ] = 2 + ( ( minAB − 1 ) % 64 ) (8-49)candModeList[ 3 ] = 2 + ( ( minAB − 1 ) % 64 ) (8-49)

candModeList[ 4 ] = 2 + ( ( maxAB + 61 ) % 64 ) (8-50)candModeList[ 4 ] = 2 + ( ( maxAB + 61 ) % 64 ) (8-50)

candModeList[ 5 ] = 2 + ( ( maxAB − 1 ) % 64 ) (8-51)candModeList[ 5 ] = 2 + ( ( maxAB − 1 ) % 64 ) (8-51)

- В противном случае (параметр candIntraPredModeA или параметр candIntraPredModeB больше INTRA_DC), параметр candModeList[ x ] при x = 0..5 определяют следующим образом:- Otherwise (the parameter candIntraPredModeA or the parameter candIntraPredModeB is greater than INTRA_DC), the parameter candModeList[ x ] when x = 0..5 is defined as follows:

- Если параметр IntraLumaRefLineIdx[ xCb ][ yCb ] равен 0 и параметр IntraSubPartitionsSplitType равен ISP_NO_SPLIT, применяется следующее:- If IntraLumaRefLineIdx[ xCb ][ yCb ] is 0 and IntraSubPartitionsSplitType is ISP_NO_SPLIT, the following applies:

candModeList[ 0 ] = candIntraPredModeA (8-52)candModeList[ 0 ] = candIntraPredModeA(8-52)

candModeList[ 1 ] = candIntraPredModeB (8-53)candModeList[ 1 ] = candIntraPredModeB(8-53)

candModeList[ 2 ] = 1 − minAB (8-54)candModeList[ 2 ] = 1 − minAB (8-54)

candModeList[ 3 ] = 2 + ( ( maxAB + 61 ) % 64 ) (8-55)candModeList[ 3 ] = 2 + ( ( maxAB + 61 ) % 64 ) (8-55)

candModeList[ 4 ] = 2 + ( ( maxAB − 1 ) % 64 ) (8-56)candModeList[ 4 ] = 2 + ( ( maxAB − 1 ) % 64 ) (8-56)

candModeList[ 5 ] = 2 + ( ( maxAB + 60 ) % 64 ) (8-57)candModeList[ 5 ] = 2 + ( ( maxAB + 60 ) % 64 ) (8-57)

- В противном случае, если параметр IntraLumaRefLineIdx[ xCb ][ yCb ] не равен 0, применяется следующее:- Otherwise, if the parameter IntraLumaRefLineIdx[ xCb ][ yCb ] is not equal to 0, the following applies:

candModeList[ 0 ] = maxAB (8-58)candModeList[ 0 ] = maxAB(8-58)

candModeList[ 1 ] = 2 + ( ( maxAB + 61 ) % 64 ) (8-59)candModeList[ 1 ] = 2 + ( ( maxAB + 61 ) % 64 ) (8-59)

candModeList[ 2 ] = 2 + ( ( maxAB − 1 ) % 64 ) (8-60)candModeList[ 2 ] = 2 + ( ( maxAB − 1 ) % 64 ) (8-60)

candModeList[ 3 ] = 2 + ( ( maxAB + 60 ) % 64 ) (8-61)candModeList[ 3 ] = 2 + ( ( maxAB + 60 ) % 64 ) (8-61)

candModeList[ 4 ] = 2 + ( maxAB % 64 ) (8-62)candModeList[ 4 ] = 2 + ( maxAB % 64 ) (8-62)

candModeList[ 5 ] = 2 + ( ( maxAB + 59 ) % 64 ) (8-63)candModeList[ 5 ] = 2 + ( ( maxAB + 59 ) % 64 ) (8-63)

- В противном случае (параметр IntraSubPartitionsSplitType не равен ISP_NO_SPLIT), применяется следующее:- Otherwise (IntraSubPartitionsSplitType is not equal to ISP_NO_SPLIT), the following applies:

candModeList[ 0 ] = INTRA_PLANAR (8-64)candModeList[ 0 ] = INTRA_PLANAR(8-64)

candModeList[ 1 ] = maxAB (8-65)candModeList[ 1 ] = maxAB(8-65)

candModeList[ 2 ] = 2 + ( ( maxAB + 61 ) % 64 ) (8-66)candModeList[ 2 ] = 2 + ( ( maxAB + 61 ) % 64 ) (8-66)

candModeList[ 3 ] = 2 + ( ( maxAB − 1 ) % 64 ) (8-67)candModeList[ 3 ] = 2 + ( ( maxAB − 1 ) % 64 ) (8-67)

candModeList[ 4 ] = 2 + ( ( maxAB + 60 ) % 64 ) (8-68)candModeList[ 4 ] = 2 + ( ( maxAB + 60 ) % 64 ) (8-68)

candModeList[ 5 ] = 2 + ( maxAB % 64 ) (8-69)candModeList[ 5 ] = 2 + ( maxAB % 64 ) (8-69)

- В протимвном случае, применяется следующее:- Otherwise, the following applies:

- Если параметр IntraLumaRefLineIdx[ xCb ][ yCb ] равен 0 и параметр IntraSubPartitionsSplitType равен ISP_NO_SPLIT, применяется следующее:- If IntraLumaRefLineIdx[ xCb ][ yCb ] is 0 and IntraSubPartitionsSplitType is ISP_NO_SPLIT, the following applies:

candModeList[ 0 ] = candIntraPredModeA (8-70)candModeList[ 0 ] = candIntraPredModeA(8-70)

candModeList[ 1 ] = ( candModeList[0]. = =. INTRA_PLANAR ). ?. INTRA_DC. :. (8-71) candModeList[ 1 ] = ( candModeList[0]. = =. INTRA_PLANAR ). ?. INTRA_DC. :. (8-71)

INTRA_PLANARINTRA_PLANAR

candModeList[ 2 ] = INTRA_ANGULAR50 (8-72)candModeList[ 2 ] = INTRA_ANGULAR50 (8-72)

candModeList[ 3 ] = INTRA_ANGULAR18 (8-73)candModeList[ 3 ] = INTRA_ANGULAR18 (8-73)

candModeList[ 4 ] = INTRA_ANGULAR46 (8-74)candModeList[ 4 ] = INTRA_ANGULAR46 (8-74)

candModeList[ 5 ] = INTRA_ANGULAR54 (8-75)candModeList[ 5 ] = INTRA_ANGULAR54 (8-75)

- В противном случае, если параметр IntraLumaRefLineIdx[ xCb ][ yCb ] не равен 0, применяется следующее:- Otherwise, if the parameter IntraLumaRefLineIdx[ xCb ][ yCb ] is not equal to 0, the following applies:

candModeList[ 0 ] = INTRA_ANGULAR50 (8-76)candModeList[ 0 ] = INTRA_ANGULAR50 (8-76)

candModeList[ 1 ] = INTRA_ANGULAR18 (8-77)candModeList[ 1 ] = INTRA_ANGULAR18 (8-77)

candModeList[ 2 ] = INTRA_ANGULAR2 (8-78)candModeList[ 2 ] = INTRA_ANGULAR2 (8-78)

candModeList[ 3 ] = INTRA_ANGULAR34 (8-79)candModeList[ 3 ] = INTRA_ANGULAR34 (8-79)

candModeList[ 4 ] = INTRA_ANGULAR66 (8-80)candModeList[ 4 ] = INTRA_ANGULAR66 (8-80)

candModeList[ 5 ] = INTRA_ANGULAR26 (8-81)candModeList[ 5 ] = INTRA_ANGULAR26 (8-81)

- В противном случае, если параметр IntraSubPartitionsSplitType равен ISP_HOR_SPLIT, применяется следующее:- Otherwise, if the IntraSubPartitionsSplitType parameter is equal to ISP_HOR_SPLIT, the following applies:

candModeList[ 0 ] = INTRA_PLANAR (8-82)candModeList[ 0 ] = INTRA_PLANAR(8-82)

candModeList[ 1 ] = INTRA_ANGULAR18 (8-83)candModeList[ 1 ] = INTRA_ANGULAR18 (8-83)

candModeList[ 2 ] = INTRA_ANGULAR25 (8-84)candModeList[ 2 ] = INTRA_ANGULAR25 (8-84)

candModeList[ 3 ] = INTRA_ANGULAR10 (8-85)candModeList[ 3 ] = INTRA_ANGULAR10 (8-85)

candModeList[ 4 ] = INTRA_ANGULAR65 (8-86)candModeList[ 4 ] = INTRA_ANGULAR65 (8-86)

candModeList[ 5 ] = INTRA_ANGULAR50 (8-87)candModeList[ 5 ] = INTRA_ANGULAR50 (8-87)

- В противном случае, если параметр IntraSubPartitionsSplitType равен ISP_VER_SPLIT, применяется следующее:- Otherwise, if IntraSubPartitionsSplitType is ISP_VER_SPLIT, the following applies:

candModeList[ 0 ] = INTRA_PLANAR (8-88)candModeList[ 0 ] = INTRA_PLANAR(8-88)

candModeList[ 1 ] = INTRA_ANGULAR50 (8-89)candModeList[ 1 ] = INTRA_ANGULAR50 (8-89)

candModeList[ 2 ] = INTRA_ANGULAR43 (8-90)candModeList[ 2 ] = INTRA_ANGULAR43 (8-90)

candModeList[ 3 ] = INTRA_ANGULAR60 (8-91)candModeList[ 3 ] = INTRA_ANGULAR60 (8-91)

candModeList[ 4 ] = INTRA_ANGULAR3 (8-e)candModeList[ 4 ] = INTRA_ANGULAR3 (8th)

candModeList[ 5 ] = INTRA_ANGULAR18 (8-93)candModeList[ 5 ] = INTRA_ANGULAR18 (8-93)

5. Параметр IntraPredModeY[ xCb ][ yCb ] получают в результате применения следующей процедуры:5. The parameter IntraPredModeY[ xCb ][ yCb ] is obtained by applying the following procedure:

- Если флаг intra_luma_mpm_flag[ xCb ][ yCb ] равен 1, параметр IntraPredModeY[ xCb ][ yCb ] устанавливают равным. candModeList[ intra_luma_mpm_idx[ xCb ][ yCb ] ].- If the flag intra_luma_mpm_flag[ xCb ][ yCb ] is equal to 1, the parameter IntraPredModeY[ xCb ][ yCb ] is set equal. candModeList[ intra_luma_mpm_idx[ xCb ][ yCb ] ].

- В противном случае, параметр IntraPredModeY[ xCb ][ yCb ] получают в результате применения следующих упорядоченных этапов:- Otherwise, the parameter IntraPredModeY[ xCb ][ yCb ] is obtained by applying the following ordered steps:

1. Когда параметр candModeList[ i ] больше candModeList[ j ] для i = 0..4 и для каждого i, j = ( i + 1 )..5, оба значения заменяют следующим образом:1. When parameter candModeList[ i ] is greater than candModeList[ j ] for i = 0..4 and for each i, j = ( i + 1 )..5, both values are replaced as follows:

( candModeList[ i ], candModeList[ j ] ) = Swap( candModeList[ i ], candModeList[ j ] ) (8-94)( candModeList[ i ], candModeList[ j ] ) = Swap( candModeList[ i ], candModeList[ j ] ) (8-94)

2. Параметр IntraPredModeY[ xCb ][ yCb ] получают в результате применения следующих упорядоченных этапов:2. The parameter IntraPredModeY[ xCb ][ yCb ] is obtained by applying the following ordered steps:

i. Параметр IntraPredModeY[ xCb ][ yCb ] устанавливают равным intra_luma_mpm_remainder[ xCb ][ yCb ].i. The parameter IntraPredModeY[ xCb ][ yCb ] is set to intra_luma_mpm_remainder[ xCb ][ yCb ].

ii. Для i равного 0 – 5, включительно, когда параметр IntraPredModeY[ xCb ][ yCb ] не меньше candModeList[ i ], значение IntraPredModeY[ xCb ][ yCb ] увеличивают на единицу.ii. For i equal to 0 - 5, inclusive, when the parameter IntraPredModeY[ xCb ][ yCb ] is not less than candModeList[ i ], the value of IntraPredModeY[ xCb ][ yCb ] is increased by one.

Переменную IntraPredModeY[ x ][ y ] при. x = xCb..xCb + cbWidth − 1 и y = yCb..yCb + cbHeight − 1 устанавливают равной IntraPredModeY[ xCb ][ yCb ].Variable IntraPredModeY[ x ][ y ] at. x = xCb..xCb + cbWidth − 1 and y = yCb..yCb + cbHeight − 1 are set to IntraPredModeY[ xCb ][ yCb ].

3. Примеры проблем, решаемых вариантами изобретения 3. Examples of Problems Solved by Embodiments of the Invention

В режиме компенсации LIC, два параметра, включая параметр масштабирования (масштабный коэффициент) a и сдвиг b необходимо определять с использованием соседних реконструированных отсчетов, что может вызвать проблемы с задержкой.In LIC compensation mode, two parameters, including the scaling parameter (scale factor) a and offset b, must be determined using adjacent reconstructed samples, which can cause latency problems.

Группа допустимых весовых коэффициентов, используемых при прогнозировании GBI, является фиксированной, что может быть неэффективным.The group of allowable weights used in GBI prediction is fixed, which may not be efficient.

Комбинированный режим прогнозирования CIIP применяется только к режиму объединения, не являющемуся режимом пропуска, что может быть неэффективным.The combined CIIP prediction mode is applied only to the non-skip mode combining mode, which may be inefficient.

В сегодняшней версии, флаг комбинированного режима CIIP следует сохранять, поскольку для процедуры определения режима внутрикадрового прогнозирования для блока, кодируемого в режиме внутрикадрового прогнозирования, и для процедуры определения режима внутрикадрового прогнозирования для блоков, кодируемых в комбинированном режиме CIIP, используется флаг комбинированного режима CIIP для соседнего блока.In today's version, the CIIP combined mode flag should be retained because the intra prediction mode determination procedure for an intra prediction encoded block and the intra prediction mode determination procedure for blocks encoded in CIIP combined mode use the adjacent CIIP combined mode flag. block.

В сегодняшней версии, можно далее улучшить определение весовых коэффициентов для комбинированного режима CIIP, например, проверка двух соседних блоков и трех разных пар весовых коэффициентов может быть упрощена.In today's version, it is possible to further improve the determination of the weights for the combined CIIP mode, for example, checking two neighboring blocks and three different pairs of weights can be simplified.

В сегодняшней версии, в процессе определения весовых коэффициентов для комбинированного режима прогнозирования CIIP, если соседний блок кодирован в режиме. дельта-импульсно-кодовой модуляции на блочной основе (BDPCM), это считается режимом внутрикадрового прогнозирования. Однако может оказаться более разумным считать, что этот режим не является режим внутрикадрового прогнозирования, поскольку режим модуляции BDPCM рассчитан на кодирование контента экрана.In today's version, in the process of determining the weights for the combined CIIP prediction mode, if the neighboring block is encoded in the mode. block-based delta pulse code modulation (BDPCM), this is considered an intra-prediction mode. However, it may be more reasonable to consider that this mode is not an intra-prediction mode, since the BDPCM modulation mode is designed for screen content coding.

4. Примеры вариантов4. Examples of options

В дальнейшем термин «блок» будет использоваться для обозначения единицы преобразования (transform unit (TU))/единицы прогнозирования (prediction unit (PU))/единицы кодирования (coding unit (CU))/суб-блока в одной из единиц TU/PU/CU и т.п. In the following, the term "block" will be used to refer to a transform unit (TU)/prediction unit (PU)/coding unit (CU)/sub-unit in one of the TU/PUs. /CU etc.

Приведенные ниже подробные описания способов следует рассматривать в качестве примеров для пояснения общих концепций. Эти способы не следует интерпретировать в узком смысле. Более того, эти способы можно комбинировать каким-либо образом.The following detailed descriptions of the methods should be considered as examples to clarify the general concepts. These methods should not be interpreted in a narrow sense. Moreover, these methods can be combined in any way.

Предположим, что координаты (xCb, yCb) обозначают позицию верхнего левого отсчета текущего блока относительно верхнего левого отсчета текущего изображения, параметры cbWidth и cbHeight специфицируют ширину и высоту текущего блока.Assume that the coordinates (xCb, yCb) denote the position of the top left of the current box relative to the top left of the current image, the cbWidth and cbHeight parameters specify the width and height of the current box.

1. Флаг режима прогнозирования CIIP или/и флаг компенсации LIC или/и флаг рассеивающей фильтрации или/и флаг двусторонней фильтрации или/и флаг фильтрации в преобразованной области или/и флаг активизации пост-реконструкционной фильтрации какого-либо другого типа может быть ограничен, чтобы быть ложным (false) (и комбинированный режим прогнозирования CIIP или/и компенсация LIC или/и рассеивающий фильтр или/и двусторонний фильтр или/и фильтр преобразованной области могут быть неявно не активизированы), в зависимости от режимов кодирования других блоков (таких как смежные или несмежные соседние блоки и/или опорные блоки). 1. CIIP prediction mode flag or/and LIC compensation flag or/and diffuse filtering flag or/and two-way filtering flag or/and transform domain filtering flag or/and some other type of post-reconstruction filter activation flag may be restricted, to be false (and combined CIIP prediction mode or/and LIC compensation or/and diffusing filter or/and two-sided filter or/and transformed region filter may be implicitly not activated), depending on the coding modes of other blocks (such as adjacent or non-adjacent neighboring blocks and/or reference blocks).

a. Когда один флаг определен в качестве ложного, соответствующий способ может не применяться. a. When one flag is determined to be false, the corresponding method may not be applied.

b. Когда один флаг определен в качестве ложного, передачу сигнализации с индикацией использования таких режимов пропускают. b. When one flag is determined to be false, signaling indicating the use of such modes is skipped.

c. Когда один флаг определен в качестве ложного, индикацию использования таких режимов можно все равно передавать в виде сигнализации, однако значения такой индикации ограничены, чтобы быть ложными, в потоке битов данных соответствия, и такие режимы не применяются.c. When one flag is determined to be false, an indication of the use of such modes may still be signaled, however, the values of such an indication are limited to be false in the conformance data bitstream and such modes are not applied.

d. В одном из примеров, применять ли одно или более из нескольких предлагаемых ограничений (таких как 1.a, 1.b и 1.c) или нет, может зависеть от режимов кодирования всех или некоторых смежных и/или несмежных соседних строк или столбцов.d. In one example, whether one or more of several proposed constraints (such as 1.a, 1.b, and 1.c) apply or not may depend on the encoding modes of all or some of the adjacent and/or non-adjacent adjacent rows or columns.

i. В качестве альтернативы, применять ли такое ограничение или нет, может зависеть по меньшей мере от числа N (N >= 1) отсчетов в смежных или несмежных соседних строках или столбцах, которые НЕ кодируют в определенных режимах.i. Alternatively, whether or not to apply such a constraint may depend on at least the number N (N >= 1) of samples in adjacent or non-adjacent adjacent rows or columns that are NOT encoded in certain modes.

e. В одном из примеров, к смежным или несмежным соседним строкам могут относиться строка сверху и/или строка сверху справа.e. In one example, adjacent or non-adjacent adjacent rows may include a top row and/or a top right row.

f. В одном из примеров, к смежным или несмежным соседним столбцам могут относиться столбец слева и/или снизу слева и/или верхний левый угол.f. In one example, adjacent or non-adjacent adjacent columns may include a left and/or bottom left and/or top left column.

g. В одном из примеров, к указанным определенным режимам для блока, не являющегося текущим блоком, могут относиться режим внутрикадрового прогнозирования и/или режим комбинированного прогнозирования CIIP и/или режим с применением ссылки на текущее изображение в качестве опоры (CPR). g. In one example, said defined modes for a block other than the current block may include an intra-frame prediction mode and/or a CIIP combined prediction mode and/or a current picture reference (CPR) mode.

h. В одном из примеров, если какой-либо один из соседних/несмежных блоков в соседних и/или несмежных строках или столбцах кодируют в определенном режиме (например, режиме внутрикадрового и/или комбинированного прогнозирования CIIP и/или режиме CPR), применяют одно или несколько из предложенных ограничений (таких как 1.a, 1.b и 1.c).h. In one example, if any one of the adjacent/non-adjacent blocks in adjacent and/or non-adjacent rows or columns is encoded in a particular mode (e.g., CIIP intra-frame and/or combined prediction mode and/or CPR mode), one or more from proposed constraints (such as 1.a, 1.b and 1.c).

i. В одном из примеров, если все соседние/несмежные блоки в смежных и/или несмежных соседних строках или столбцах кодированы в определенном режиме (например, режиме внутрикадрового прогнозирования и/или комбинированном режиме CIIP и/или режиме CPR), применяются одно или несколько из предлагаемых ограничений.i. In one example, if all adjacent/non-adjacent blocks in adjacent and/or non-adjacent adjacent rows or columns are encoded in a particular mode (e.g., intra-prediction mode and/or combined CIIP mode and/or CPR mode), one or more of the proposed restrictions.

j. В одном из примеров, если по меньшей мере N соседних/несмежных блоков в соседней или несмежной строке или столбцах НЕ кодируют в определенном режиме (например, режиме внутрикадрового и/или комбинированного прогнозирования CIIP и/или режиме CPR), одно или несколько из предлагаемых ограничений (таких как 1.a, 1.b и 1.c) НЕ применяются.j. In one example, if at least N adjacent/non-adjacent blocks in an adjacent or non-adjacent row or columns are NOT encoded in a particular mode (e.g., CIIP intra-frame and/or combined prediction mode and/or CPR mode), one or more of the proposed restrictions (such as 1.a, 1.b and 1.c) do NOT apply.

k. В одном из примеров, следует ли применить одно или несколько из предлагаемых ограничений (таких как 1.a, 1.b и 1.c) или нет, может зависеть от позиции текущего блока.k. In one example, whether one or more of the proposed constraints (such as 1.a, 1.b, and 1.c) should be applied or not may depend on the position of the current block.

i. В одном из примеров, если текущий блок находится сверху в текущей единице CTU (текущий блок и соседний с ним сверху блок принадлежат разным единицам CTU), предлагаемые ограничения не применяются.i. In one example, if the current block is at the top of the current CTU (the current block and its top neighbor belong to different CTUs), the proposed restrictions do not apply.

ii. В одном из примеров, если текущий блок находится на левой стороне от текущей единицы CTU (текущий блок и соседний с ним блок слева принадлежат разным единицам CTU), предлагаемые ограничения не применяются.ii. In one example, if the current block is on the left side of the current CTU (the current block and the block to its left belong to different CTUs), the proposed restrictions do not apply.

2. Флаг режима прогнозирования CIIP и/или режима внутрикадрового прогнозирования из комбинированного режима прогнозирования CIIP могут быть сохранены вместе с информацией о движении в таблице прогнозирования вектора движения на основе предыстории (HMVP).2. The flag of the CIIP prediction mode and/or the intra-frame prediction mode of the combined CIIP prediction mode may be stored together with motion information in a history-based motion vector prediction (HMVP) table.

a. В одном из примеров, при сравнении информации о движении для двух кандидатов (например, в ходе процедуры усечения), не учитывают флаг режима прогнозирования CIIP или/и режима внутрикадрового прогнозирования из комбинированного режима прогнозирования CIIP.a. In one example, when comparing motion information for two candidates (eg, during a truncation procedure), the CIIP prediction mode flag and/or the intra-frame prediction mode flag from the combined CIIP prediction mode are not taken into account.

b. В одном из примеров, при сравнении информации о движении для двух кандидатов (например, в ходе процедуры усечения), учитывают флаг режима прогнозирования CIIP или/и режима внутрикадрового прогнозирования из комбинированного режима прогнозирования CIIP.b. In one example, when comparing motion information for two candidates (eg, during a truncation procedure), the CIIP prediction mode flag and/or the intra prediction mode flag from the combined CIIP prediction mode are taken into account.

c. В одном из примеров, когда объединяемый кандидат взят из одной из входных позиций таблицы прогнозирования HMVP, флаг режима прогнозирования CIIP для этой входной позиции также копируют в объединяемого кандидата.c. In one example, when the merged candidate is from one of the HMVP prediction table input positions, the CIIP prediction mode flag for that input position is also copied to the merged candidate.

d. В одном из примеров, когда объединяемый кандидат взят из одной из входных позиций таблицы прогнозирования HMVP, флаг режима прогнозирования CIIP и индикацию режима внутрикадрового прогнозирования из этой входной позиции также копируют в объединяемого кандидата.d. In one example, when the merging candidate is taken from one of the HMVP prediction table input positions, the CIIP prediction mode flag and intra prediction mode indication from that input position are also copied to the merged candidate.

3. Комбинированный режим прогнозирования CIIP может быть также реализован для режима прогнозирования AMVP (режим прогнозирования AMVP или/и прогнозирования AMVP с режимом разностей SMVD)3. Combined CIIP prediction mode can also be implemented for AMVP prediction mode (AMVP prediction mode or/and AMVP prediction with SMVD difference mode)

a. Флаг комбинированного режима прогнозирования CIIP и/или режима внутрикадрового прогнозирования из режима прогнозирования CIIP для соседних/несмежных блоков может быть «унаследован» в режиме объединения или/и режиме выражения UMVE (также известен как режим объединения с разностями векторов движения (merge with motion vector difference), сокращенно MMVD) для текущего блока.a. The combined CIIP prediction mode and/or intra-frame prediction mode flag from the adjacent/non-adjacent CIIP prediction mode can be "inherited" in the merge mode and/or the UMVE expression mode (also known as merge with motion vector difference mode). ), abbreviated as MMVD) for the current block.

b. Флаг комбинированного режима прогнозирования CIIP и/или режима внутрикадрового прогнозирования из режима прогнозирования CIIP может быть передан в виде сигнализации для режима объединения, не являющегося режимом пропуска или/и режима выражения UMVE, не являющегося режимом пропуска, и флаг комбинированного режима прогнозирования CIIP и/или режима внутрикадрового прогнозирования из режима прогнозирования CIIP для соседних/несмежных блоков может быть «унаследован» в являющихся режимами пропуска режиме объединения или/и режиме UMVE.b. A combined CIIP prediction mode flag and/or an intra prediction mode flag from a CIIP prediction mode may be signaled for a combining mode that is not a skip mode and/or a UMVE expression mode that is not a skip mode, and a combined CIIP prediction mode flag and/or intra-frame prediction mode from CIIP prediction mode for neighbor/non-contiguous blocks can be "inherited" in being skip mode merge mode and/or UMVE mode.

c. Флаг комбинированного режима прогнозирования CIIP и/или режима внутрикадрового прогнозирования из режима прогнозирования CIIP может быть передан в виде сигнализации для являющихся режимами пропуска режима объединения или/и режима выражения UMVE, и флаг комбинированного режима прогнозирования CIIP и/или режима внутрикадрового прогнозирования из режима прогнозирования CIIP для соседних/несмежных блоков может быть «унаследован» в не являющихся режимами пропуска режиме объединения или/и режиме выражения UMVE.c. The combined CIIP prediction mode and/or intra prediction mode flag from the CIIP prediction mode can be signaled for being skip modes of the combining mode and/or UMVE expression mode, and the combined CIIP prediction mode and/or intra prediction mode flag from the CIIP prediction mode for neighboring/non-contiguous blocks can be "inherited" in non-skip modes merge mode and/or UMVE expression mode.

d. В одном из примеров, флаг комбинированного режима прогнозирования CIIP и режима внутрикадрового прогнозирования может быть сообщен в виде сигнализации в режиме прогнозирования AMVP.d. In one example, a combined CIIP prediction mode and intra prediction mode flag may be signaled in the AMVP prediction mode.

e, В одном из примеров, флаг комбинированного режима прогнозирования CIIP может быть унаследован в режиме объединения или/и в режиме выражения UMVE, и если флаг комбинированного режима прогнозирования CIIP является истинным, сигнализация о режиме внутрикадрового прогнозирования может быть передана дополнительно, если в режиме комбинированного прогнозирования CIIP допускаются больше одного режима внутрикадрового прогнозирования.e, In one example, the CIIP combined prediction mode flag may be inherited in the combined mode and/or the UMVE expression mode, and if the CIIP combined prediction mode flag is true, the intra prediction mode signaling may be additionally transmitted if in the combined mode CIIP prediction, more than one intra-prediction mode is allowed.

f. В одном из примеров, флаг комбинированного режима прогнозирования CIIP и режима внутрикадрового прогнозирования для соседних/несмежных блоков в режим объединения или/и режиме выражения UMVE может быть унаследован текущим блоком.f. In one example, the combined CIIP prediction mode and intra-frame prediction mode flag for adjacent/non-adjacent blocks in merge mode and/or UMVE expression mode may be inherited by the current block.

g. В одном из примеров, режим прогнозирования CIIP может не быть активизирован для режима пропуска.g. In one example, the CIIP prediction mode may not be activated for the skip mode.

h. В одном из примеров, при сравнении двух объединяемых кандидатов может не учитываться флаг комбинированного режима прогнозирования CIIP или/и режима внутрикадрового прогнозирования CIIP.h. In one example, when comparing two merged candidates, the combined CIIP prediction mode flag and/or the CIIP intra prediction mode flag may be ignored.

i. В одном из примеров, при сравнении двух объединяемых кандидатов может учитываться флаг комбинированного режима прогнозирования CIIP или/и режима внутрикадрового прогнозирования CIIP.i. In one example, when comparing two merged candidates, the combined CIIP prediction mode flag and/or the CIIP intra prediction mode flag may be taken into account.

4. Режим комбинированного прогнозирования CIIP может не быть активизирован для попарного прогнозирования или комбинированного двунаправленного прогнозирования или других видов виртуальных/искусственных кандидатов (например, кандидатов с нулевым вектором движения).4. The CIIP combined prediction mode may not be activated for pairwise prediction or combined bidirectional prediction or other kinds of virtual/artificial candidates (eg, zero motion vector candidates).

a. В качестве альтернативы, если один из двух кандидатов, участвующих в попарном прогнозировании или комбинированном двунаправленном прогнозировании принимает комбинированное прогнозирование CIIP, режим комбинированного прогнозирования CIIP может быть активизирован для попарно или двунаправлено прогнозируемого объединяемого кандидата.a. Alternatively, if one of the two candidates participating in pairwise prediction or combined bi-directional prediction receives a combined CIIP prediction, the combined CIIP prediction mode may be activated for the pairwise or bi-directional combined prediction candidate.

ii. В одном из примеров, режим внутрикадрового прогнозирования из комбинированного режима прогнозирования CIIP может быть унаследован.ii. In one example, the intra-prediction mode from the combined CIIP prediction mode may be inherited.

iii. В одном из примеров, индикация режима внутрикадрового прогнозирования может быть в явном виде передана в форме сигнализации.iii. In one example, an intra prediction mode indication may be explicitly signaled.

b. В качестве альтернативы, если оба кандидата, участвующих в попарном прогнозировании или комбинированном двунаправленном прогнозировании принимают комбинированное прогнозирование CIIP, режим комбинированного прогнозирования CIIP может быть активизирован для попарно или двунаправлено прогнозируемого объединяемого кандидата.b. Alternatively, if both candidates participating in pairwise prediction or combined bi-directional prediction receive combined CIIP prediction, the combined CIIP prediction mode may be activated for the pairwise or bi-directional combined prediction candidate.

iv. В одном из примеров, режим внутрикадрового прогнозирования для одного из двух кандидатов может быть унаследован.iv. In one example, the intra-prediction mode for one of the two candidates may be inherited.

v. В одном из примеров, режим внутрикадрового прогнозирования может быть определен из совокупности режимов внутрикадрового прогнозирования для двух кандидатов и использован для попарно или двунаправлено прогнозируемого объединяемого кандидата.v. In one example, an intra-prediction mode may be determined from a plurality of intra-prediction modes for two candidates, and used for a pairwise or bidirectionally predictive merging candidate.

vi. В одном из примеров, индикация режима внутрикадрового прогнозирования может быть сообщена в форме сигнализации в явном виде.vi. In one example, an intra prediction mode indication may be signaled explicitly in the form of signalling.

5. Соседние и/или несмежные пространственно реконструированные отсчеты, требуемые в режиме комбинированного прогнозирования CIIP или/и для рассеивающей фильтрации или/и для двусторонней фильтрации или/и для фильтрации в преобразованной области или/и для активизации пост-реконструкционной фильтрации другого типа, могут быть заменены соответствующими отсчетами в опорных изображениях (такими как соседними и/или несмежными пространственно отсчетами опорного блока, как показано на фиг. 17).5. Adjacent and/or non-adjacent spatially reconstructed samples required in CIIP combined prediction mode or/and for diffusing filtering or/and for bidirectional filtering or/and for filtering in the transformed region or/and for activating another type of post-reconstruction filtering may be replaced by corresponding reference picture samples (such as adjacent and/or spatially non-adjacent reference block samples, as shown in FIG. 17).

a. В одном из примеров, если текущий блок прогнозируют в двух направлениях, соседние отсчеты из двух опорных блоков могут быть усреднены для генерации окончательных соседних отсчетов.a. In one example, if the current block is bidirectionally predicted, adjacent samples from two reference blocks may be averaged to generate the final adjacent samples.

b. В одном из примеров, если текущий блок прогнозируют в двух направлениях, соседние отсчеты одного из двух опорных блоков могут быть использованы в качестве окончательных соседних отсчетов.b. In one example, if the current block is bidirectionally predicted, adjacent samples of one of the two reference blocks may be used as the final adjacent samples.

c. В одном из примеров, если текущий блок прогнозируют в двух направлениях, соседние отсчеты из двух опорных блоков могут быть подвергнуты взвешенному усреднению для генерации окончательных соседних отсчетов, если прогнозирование GBI с неравными весовыми коэффициентами, или взвешенное прогнозирование, или компенсацию LIC применяют к текущему блоку.c. In one example, if the current block is bidirectionally predicted, adjacent samples from two reference blocks may be weighted averaged to generate final adjacent samples if GBI prediction with unequal weights or weighted prediction or LIC compensation is applied to the current block.

d. В одном из примеров, соответствующие отсчеты в опорных изображениях (например, соседние отсчеты опорного блока) могут быть идентифицированы посредством информации о движении для текущего блока.d. In one example, corresponding samples in reference pictures (eg, neighboring samples of a reference block) can be identified by motion information for the current block.

e. В одном из примеров, соответствующие отсчеты в опорных изображениях (например, соседние отсчеты из опорного блока) могут быть идентифицированы посредством модифицированной информации о движении текущего блока. Например, вектор движения может быть округлен до целочисленной точности прежде использования для идентификации соседних отсчетов.e. In one example, corresponding samples in reference pictures (eg, neighboring samples from a reference block) can be identified by modified motion information of the current block. For example, the motion vector may be rounded to integer precision before being used to identify neighboring samples.

f. В одном из примеров, соответствующие отсчеты в опорных изображениях (например, соседние отсчеты из опорных отсчетов) идентифицированы посредством векторов движения с точностью до целого элемента изображения.f. In one example, corresponding samples in the reference pictures (eg, adjacent samples from the reference samples) are identified by motion vectors to within an integer pixel.

i. В одном из примеров, вектор MV, относящийся к опорному блоку, сначала округляют до целого пикселя. Округленный вектор MV используют для идентификации соседних отсчетов опорного блока.i. In one example, the reference block vector MV is first rounded to an integer pixel. The rounded MV vector is used to identify adjacent reference block samples.

ii. В одном из примеров, предлагаемую замену применяют, когда текущий блок кодируют с использованием информации о движении с точностью до целого пикселя. Поэтому округление не требуется.ii. In one example, the proposed substitution is applied when the current block is encoded using motion information up to an integer pixel. Therefore, rounding is not required.

g. В одном из примеров, предлагаемая замена может быть применена только для определенной цветовой составляющей, такой как яркостная составляющая.g. In one example, the proposed substitution can only be applied to a particular color component, such as the luminance component.

i. В качестве альтернативы, предлагаемая замена может быть применена для всех цветовых составляющих.i. Alternatively, the proposed substitution can be applied to all color components.

6. Предлагается не допустить использования ранее кодированных флагов режима комбинированного прогнозирования CIIP для кодирования следующих блоков. 6. It is proposed to prevent the previously coded CIIP combined prediction mode flags from being used to code the next blocks.

a. В одном из примеров, процедуру проверки флагов режима комбинированного прогнозирования CIIP из ранее кодированных блоков пропускают для повышения пропускной способности.a. In one example, the procedure for checking CIIP combined prediction mode flags from previously coded blocks is omitted to improve throughput.

b. В одном из примеров, процедуру проверки флагов режима комбинированного прогнозирования CIIP из соседних блоков при определении режима внутрикадрового прогнозирования пропускают.b. In one example, the procedure for checking CIIP combined prediction mode flags from adjacent blocks is omitted when determining the intra prediction mode.

i. В одном из примеров, для одного соседнего блока, если его кодируют в режиме комбинированного прогнозирования CIIP, в качестве ассоциированного режима внутрикадрового прогнозирования может быть установлен некий конкретный режим (такой как планарный режим). В качестве альтернативы, кроме того, ассоциированный режим внутрикадрового прогнозирования может быть использован при формировании списка режимов MPM.i. In one example, for one adjacent block, if encoded in CIIP combined prediction mode, a particular mode (such as planar mode) may be set as the associated intra-prediction mode. Alternatively, in addition, the associated intra-prediction mode may be used in generating the list of MPM modes.

ii. В одном из примеров, для одного соседнего блока, если его кодируют в режиме комбинированного прогнозирования CIIP или в обычном режиме межкадрового прогнозирования, в качестве ассоциированного режима внутрикадрового прогнозирования может быть установлен некий конкретный режим (такой как планарный режим). В качестве альтернативы, кроме того, ассоциированный режим внутрикадрового прогнозирования может быть использован при формировании списка режимов MPM.ii. In one example, for one adjacent block, if it is encoded in the CIIP combined prediction mode or in the normal inter prediction mode, a particular mode (such as planar mode) can be set as the associated intra prediction mode. Alternatively, in addition, the associated intra-prediction mode may be used in generating the list of MPM modes.

iii. В одном из примеров, индикация режима внутрикадрового прогнозирования для блоков, кодированных в комбинированном режиме прогнозирования CIIP, может быть не сохранена, а блоки, кодированные в комбинированном режиме прогнозирования CIIP, могут считаться недоступными в процессе декодирования. В качестве альтернативы, блоки, кодированные в комбинированном режиме прогнозирования CIIP, можно рассматривать таким же способом, как в обычном режиме межкадрового прогнозирования.iii. In one example, intra prediction mode indication for blocks encoded in combined CIIP prediction mode may not be stored, and blocks encoded in combined CIIP prediction mode may be considered unavailable during the decoding process. Alternatively, blocks encoded in the combined CIIP prediction mode may be viewed in the same manner as in the conventional inter prediction mode.

c. В качестве альтернативы, более того, предлагается удалить флаг комбинированного режима прогнозирования CIIP из запоминающего устройства, чтобы сберечь требуемый размер памяти для хранения информации о режиме.c. Alternatively, moreover, it is proposed to remove the combined CIIP prediction mode flag from the storage device in order to save the required memory size for storing the mode information.

7. Предлагается, чтобы флаг комбинированного режима прогнозирования CIIP был кодирован посредством обходного кодирования.7. It is proposed that the CIIP combined prediction mode flag be encoded by bypass coding.

a. В качестве альтернативы, флаг комбинированного режима прогнозирования CIIP может быть кодирован контекстно-зависимым способом без ссылок на флаги комбинированного режима прогнозирования CIIP для соседних блоков.a. Alternatively, the CIIP combined prediction mode flag may be encoded in a context-dependent manner without reference to neighboring block CIIP combined prediction mode flags.

8. Предлагается, чтобы способ построения взвешенной суммы в комбинированном режиме прогнозирования CIIP мог зависеть от цветовых составляющих.8. It is proposed that the method of constructing the weighted sum in the combined CIIP prediction mode may depend on the color components.

a. Например, значения весовых коэффициентов в комбинированном режиме CIIP различаются для главной цветовой составляющей (например, составляющей G) и для других цветовых составляющих (например, составляющих B и R).a. For example, the weight values in the CIIP combined mode are different for the main color component (eg, G component) and for other color components (eg, B and R components).

b. Например, значения весовых коэффициентов в комбинированном режиме CIIP различаются для яркостной составляющей и для цветностных составляющих.b. For example, the values of the weight coefficients in the combined CIIP mode are different for the luminance component and for the chrominance components.

c. Например, значения весовых коэффициентов для межкадрового прогнозирования и внутрикадрового прогнозирования равны для цветностных составляющих.c. For example, the weight values for inter-prediction and intra-prediction are equal for chrominance components.

9. Предлагается, чтобы, когда выбор весовых коэффициентов осуществляется в соответствии с соседними блоками, тогда соседний блок, если он кодируется в режиме комбинированного прогнозирования CIIP, можно рассматривать в качестве блока, кодируемого в режиме межкадрового прогнозирования.9. It is proposed that when the selection of weights is made according to adjacent blocks, then the adjacent block, if encoded in the CIIP combined prediction mode, can be considered as a block encoded in the inter prediction mode.

a. В качестве альтернативы, когда выбор весовых коэффициентов осуществляется в соответствии с соседними блоками, тогда соседний блок, если он кодируется в режиме комбинированного прогнозирования CIIP, можно рассматривать в качестве блока, кодируемого в режиме внутрикадрового прогнозирования.a. Alternatively, when the selection of weights is made according to adjacent blocks, then the adjacent block, if encoded in the CIIP combined prediction mode, may be considered as a block encoded in the intra prediction mode.

10. Предлагаемый выше способ может быть применен при определенных условиях, таких как размеры блока, типы среза/изображения/плитки или информация о движении.10. The method proposed above can be applied under certain conditions such as block sizes, slice/image/tile types, or motion information.

a. В одном из примеров, когда блок содержит меньше M*H отсчетов, например, 16 или 32 или 64 отсчета яркостной составляющей, применение предлагаемого способа не допускается.a. In one example, when the block contains less than M*H samples, for example, 16 or 32 or 64 samples of the luminance component, the proposed method is not allowed.

b. В качестве альтернативы, когда минимальное значение ширины или/и высоты блока меньше или не больше X, применение предлагаемого способа не допускается. В одном из примеров, параметр X устанавливают равным 8.b. Alternatively, when the minimum width or/and height of the box is less than or less than X, the proposed method is not allowed. In one example, the X parameter is set to 8.

c. В качестве альтернативы, когда минимальное значение ширины или/и высоты блока не меньше X, применение предлагаемого способа не допускается. В одном из примеров, параметр X устанавливают равным 8.c. Alternatively, when the minimum width or/and height of the block is not less than X, the proposed method is not allowed. In one example, the X parameter is set to 8.

d. В качестве альтернативы, когда ширина блока > th1 или >=th1 и/или высота блока > th2 или >=th2, применение предлагаемого способа не допускается. В одном из примеров, значение th1 и/или th2 устанавливают равным 8.d. Alternatively, when the box width is > th1 or >=th1 and/or the box height is > th2 or >= th2, the proposed method is not allowed. In one example, the value of th1 and/or th2 is set to 8.

e. В качестве альтернативы, когда ширина блока < th1 или <=th1 и/или a высота блока < th2 or <a=th2, применение предлагаемого способа не допускается. В одном из примеров, значение th1 и/или th2 устанавливают равным 8.e. Alternatively, when the block width is < th1 or <=th1 and/or a block height is < th2 or <a=th2, the proposed method is not allowed. In one example, the value of th1 and/or th2 is set to 8.

11. Число допустимых пар весовых коэффициентов (wIntra, wInter), используемых в комбинированном режиме прогнозирования CIIP, может быть уменьшено от 3 до 2, обозначенных как (a, b) и (c, d).11. The number of valid weight pairs (wIntra, wInter) used in the combined CIIP prediction mode can be reduced from 3 to 2, denoted as (a, b) and (c, d).

a. В одном из примеров, эти две пары определены как {(1,3) и (3,1)}; или {(1,3) и (2, 2)}; или {(3,1) и (2, 2)}; или {(3, 5) и (4, 4)} или {(5, 3) и (4, 4)}, или {(1, 7) и (4, 4)} или {(7, 1) и (4, 4)}.a. In one example, these two pairs are defined as {(1,3) and (3,1)}; or {(1,3) and (2, 2)}; or {(3,1) and (2, 2)}; or {(3, 5) and (4, 4)} or {(5, 3) and (4, 4)} or {(1, 7) and (4, 4)} or {(7, 1) and (4, 4)}.

b. В одном из примеров, пару весовых коэффициентов определяют на основе только одного соседнего блока A.b. In one example, a pair of weights is determined based on only one neighboring block A.

i. В одном из примеров, если один соседний блок A доступен и кодирован в режиме внутрикадрового прогнозирования, значения (wIntra, wInter) устанавливают равными (a, b); В противном случае, значения (wIntra, wInter) устанавливают равными (c, d).i. In one example, if one adjacent block A is available and encoded in intra prediction mode, the values (wIntra, wInter) are set to (a, b); Otherwise, the values (wIntra, wInter) are set to (c, d).

ii. В одном из примеров, блок A является соседним блоком слева.ii. In one example, block A is a neighboring block on the left.

iii. В одном из примеров, блок A является соседним блоком сверху.iii. In one example, block A is a neighboring block from above.

c. В одном из примеров, пару весовых коэффициентов определяют на основе двух или более соседних блоков, и по меньшей мере для одного из соседних блоков удовлетворяются определенные условия.c. In one example, a weight pair is determined based on two or more neighboring blocks, and at least one of the neighboring blocks satisfies certain conditions.

i. В одном из примеров, если по меньшей мере один из соседних блоков A и B доступен и кодирован в режиме внутрикадрового прогнозирования, значения (wIntra, wInter) устанавливают равными (a, b); В противном случае, значения (wIntra, wInter) устанавливают равными (c, d).i. In one example, if at least one of adjacent blocks A and B is available and encoded in intra-prediction mode, the values (wIntra, wInter) are set to (a, b); Otherwise, the values (wIntra, wInter) are set to (c, d).

1. В одном из примеров, блок A является соседним блоком слева, и блок B является соседним блоком сверху.1. In one example, block A is the adjacent block on the left and block B is the adjacent block on the top.

d. В одном из примеров, пару весовых коэффициентов определяют на основе двух или более соседних блоков и для каждого из соседних блоков удовлетворяются одинаковые условия.d. In one example, a weight pair is determined based on two or more neighboring blocks, and the same conditions are satisfied for each of the neighboring blocks.

i. В одном из примеров, если оба соседних блока A и B доступны и кодированы в режиме внутрикадрового прогнозирования, значения (wIntra, wInter) устанавливают равными (a, b); В противном случае, значения (wIntra, wInter) устанавливают равными (c, d).i. In one example, if both adjacent blocks A and B are available and encoded in intra prediction mode, the values (wIntra, wInter) are set to (a, b); Otherwise, the values (wIntra, wInter) are set to (c, d).

1. В одном из примеров, блок A является соседним блоком слева и блок B является соседним блоком сверху.1. In one example, block A is the adjacent block on the left and block B is the neighboring block on the top.

e. В одном из примеров, значения (a, b) и (c, d) могут быть установлены следующим образом:e. In one example, the values (a, b) and (c, d) can be set as follows:

1. В одном из примеров, (a, b) устанавливают равными (2, 2) или (3, 1).1. In one example, (a, b) is set to (2, 2) or (3, 1).

2. В одном из примеров, (c, d) устанавливают равными (1, 3).2. In one example, (c, d) is set to (1, 3).

3. В одном из примеров, по меньшей мере одно из двух условий является истинным: a не равно c или b не равно d.3. In one example, at least one of two conditions is true: a is not equal to c or b is not equal to d.

4. (a, b) не равно (c, d).4. (a, b) is not equal to (c, d).

f. В одном из примеров, соседний блок (например, блок A или B), упомянутый выше, является смежным или несмежным пространственно соседним блоком или временным соседним блоком.f. In one example, an adjacent block (eg, block A or B) mentioned above is a contiguous or non-contiguous spatially adjacent block or a temporal adjacent block.

i. В одном из примеров, соседний блок A или B является соседним блоком слева (или сверху).i. In one example, adjacent block A or B is a neighboring block to the left (or top).

ii. В одном из примеров, соседние блоки A и B являются соседними блоками слева и сверху, соответственно.ii. In one example, adjacent blocks A and B are neighboring blocks on the left and top, respectively.

iii. В одном из примеров, соседний блок слева покрывает позицию (xCb − 1, yCb + cbHeight − 1). iii. In one example, the adjacent block on the left covers the position (xCb − 1, yCb + cbHeight − 1).

iv. В одном из примеров, соседний блок сверху покрывает позицию (xCb + cbWidth − 1, yCb − 1).iv. In one example, the adjacent block from above covers the position (xCb + cbWidth − 1, yCb − 1).

v. В одном из примеров, соседний блок слева покрывает позицию (xCb − 1, yCb). v. In one example, the adjacent block on the left covers position (xCb − 1, yCb).

vi. В одном из примеров, соседний блок сверху покрывает позицию (xCb, yCb − 1).vi. In one example, the adjacent block from above covers position (xCb, yCb − 1).

g. Для приведенных выше примеров, комбинированное прогнозирование CIIP осуществляется следующим образом: g. For the examples above, combined CIIP prediction is done as follows:

где сдвиг (offset) устанавливают равным (1<< (N-1)) или 0, и N может быть установлено равным log2(wIntra + wInter).where the offset is set to (1<< (N-1)) or 0, and N can be set to log2(wIntra + wInter).

12. Число допустимых пар весовых коэффициентов (wIntra, wInter), используемых в комбинированном режиме прогнозирования CIIP может быть уменьшено от 3 до 1.12. The number of valid weight pairs (wIntra, wInter) used in the combined CIIP prediction mode can be reduced from 3 to 1.

a. В одном из примеров, одна пара весовых коэффициентов определена как (1,3) или (2, 2) или (1,7) или (2, 6) или (3, 5) или (4, 4).a. In one example, one pair of weights is defined as (1,3) or (2, 2) or (1,7) or (2, 6) or (3, 5) or (4, 4).

b. В одном из примеров, значения (wIntra, wInter) устанавливают равными (2, 2).b. In one example, the values (wIntra, wInter) are set to (2, 2).

c. В одном из примеров, значения (wIntra, wInter) устанавливают равными (1, 3).c. In one example, the values (wIntra, wInter) are set to (1, 3).

d. Для приведенных выше примеров, комбинированное прогнозирование CIIP осуществляется следующим образом: d. For the examples above, combined CIIP prediction is done as follows:

где сдвиг (offset) устанавливают равным (1<< (N-1)) или 0, и N может быть установлено равным log2(wIntra + wInter).where the offset is set to (1<< (N-1)) or 0, and N can be set to log2(wIntra + wInter).

13. Пары весовых коэффициентов (wIntra, wInter) могут быть определены на основе того, кодированы ли один или несколько соседних блоков в комбинированном режиме прогнозирования CIIP.13. Pairs of weight coefficients (wIntra, wInter) may be determined based on whether one or more neighboring blocks are encoded in the combined CIIP prediction mode.

a. Пара весовых коэффициентов, используемая для текущего блока, может быть определена из тех, какие использовались для ранее кодированного блока.a. The weight pair used for the current block may be determined from those used for the previously encoded block.

b. В одном из примеров, пару весовых коэффициентов определяют на основе только одного соседнего блока A.b. In one example, a pair of weights is determined based on only one neighboring block A.

i. В одном из примеров, если один соседний блок A кодируют в комбинированном режиме прогнозирования CIIP, значения (wIntra, wInter) для текущего блока устанавливают равными значениям (wIntra, wInter) для этого соседнего блока A; в противном случае, если соседний блок A доступен и кодирован в режиме внутрикадрового прогнозирования, значения (wIntra, wInter) устанавливают равными (a, b); в противном случае, значения (wIntra, wInter) устанавливают равными (c, d).i. In one example, if one neighbor block A is encoded in CIIP combined prediction mode, the values (wIntra, wInter) for the current block are set equal to the values (wIntra, wInter) for that neighbor block A; otherwise, if neighboring block A is available and encoded in intra prediction mode, the values (wIntra, wInter) are set to (a, b); otherwise, the values (wIntra, wInter) are set to (c, d).

ii. В одном из примеров, если один соседний блок A кодируют в комбинированном режиме прогнозирования CIIP, значения (wIntra, wInter) для текущего блока устанавливают равными значениям (wIntra, wInter) для соседа; в противном случае, значения (wIntra, wInter) устанавливают равными (a, b).ii. In one example, if one neighboring block A is encoded in CIIP combined prediction mode, the values (wIntra, wInter) for the current block are set equal to the values (wIntra, wInter) for the neighbor; otherwise, the values (wIntra, wInter) are set to (a, b).

iii. Для приведенных выше примеров может применяться следующее:iii. For the examples above, the following might apply:

1. В одном из примеров, (a, b) устанавливают равными (2, 2) или (3, 1).1. In one example, (a, b) is set to (2, 2) or (3, 1).

2. В одном из примеров, (c, d) устанавливают равными (1, 3).2. In one example, (c, d) is set to (1, 3).

3. В одном из примеров, по меньшей мере одно из двух условий является истинным: a не равно c; b не равно d.3. In one example, at least one of two conditions is true: a is not equal to c; b is not equal to d.

c. В одном из примеров, пару весовых коэффициентов определяют на основе двух или более соседних блоков, и по меньшей мере для одного из этих соседних блоков, удовлетворяются определенные условия.c. In one example, a weight pair is determined based on two or more neighboring blocks, and for at least one of these neighboring blocks, certain conditions are met.

i. Несколько соседних блоков могут быть проверено в конкретном порядке проверки (например, сначала проверяют блок слева, а затем проверяют блок сверху) для идентификации использования комбинированного режима прогнозирования CIIP.i. Several adjacent blocks may be checked in a particular check order (eg, check the block on the left first and then check the block on top) to identify the use of the combined CIIP prediction mode.

ii. В одном из примеров, если по меньшей мере один из соседних блоков A и B кодируют в комбинированном режиме прогнозирования CIIP, значения (wIntra, wInter) для текущего блока устанавливают равными (wIntra, wInter) для первого соседнего блока, кодированного в комбинированном режиме прогнозирования CIIP в конкретном порядке проверки; в противном случае, если по меньшей мере один из соседних блоков A и B доступен и кодирован в режиме внутрикадрового прогнозирования, значения (wIntra, wInter) устанавливают равными (a, b); в противном случае, значения (wIntra, wInter) устанавливают равными (c, d).ii. In one example, if at least one of neighboring blocks A and B is encoded in combined CIIP prediction mode, the values (wIntra, wInter) for the current block are set to (wIntra, wInter) for the first neighboring block encoded in combined CIIP prediction mode in a specific order of verification; otherwise, if at least one of the neighboring blocks A and B is available and encoded in intra prediction mode, the values (wIntra, wInter) are set to (a, b); otherwise, the values (wIntra, wInter) are set to (c, d).

iii. Для приведенных выше примеров, может применяться следующее:iii. For the examples above, the following may apply:

1. В одном из примеров, (a, b) устанавливают равными (2, 2) или (3, 1).1. In one example, (a, b) is set to (2, 2) or (3, 1).

2. В одном из примеров, (c, d) устанавливают равными (1, 3).2. In one example, (c, d) is set to (1, 3).

3. В одном из примеров, по меньшей мере одно из двух условий является истинным: a не равно c; b не равно d.3. In one example, at least one of two conditions is true: a is not equal to c; b is not equal to d.

iv. В одном из примеров, если по меньшей мере один из соседних блоков A и B кодируют в комбинированном режиме прогнозирования CIIP, значения (wIntra, wInter) для текущего блока устанавливают равными значениям (wIntra, wInter) для первого кодированного в комбинированном режиме CIIP соседнего блока в конкретном порядке проверки; в противном случае, если оба соседних блока A и B доступны и кодированы в режиме внутрикадрового прогнозирования, значения (wIntra, wInter) устанавливают равными (a, b); в противном случае, значения (wIntra, wInter) устанавливают равными (c, d).iv. In one example, if at least one of neighboring blocks A and B is encoded in CIIP combined prediction mode, the values (wIntra, wInter) for the current block are set equal to the values (wIntra, wInter) for the first CIIP combined prediction mode coded neighbor block in specific order of verification; otherwise, if both neighboring blocks A and B are available and coded in intra prediction mode, the values (wIntra, wInter) are set to (a, b); otherwise, the values (wIntra, wInter) are set to (c, d).

v. В одном из примеров, если по меньшей мере один из соседних блоков A и B кодируют в комбинированном режиме прогнозирования CIIP, значения (wIntra, wInter) для текущего блока устанавливают равными значениям (wIntra, wInter) для первого кодированного в комбинированном режиме CIIP соседнего блока в конкретном порядке проверки; в противном случае, значения (wIntra, wInter) устанавливают равными (c, d).v. In one example, if at least one of neighboring blocks A and B is encoded in CIIP combined prediction mode, the values (wIntra, wInter) for the current block are set equal to the values (wIntra, wInter) for the first CIIP combined prediction mode coded neighbor block in specific order of verification; otherwise, the values (wIntra, wInter) are set to (c, d).

vi. Для приведенных выше примеров может применяться следующее:vi. For the examples above, the following might apply:

1. В одном из примеров, (c, d) устанавливают равными (2, 2) или (1, 3).1. In one example, (c, d) is set to (2, 2) or (1, 3).

d. В одном из примеров, соседний блок A или B, отмеченный выше, является смежным или несмежным пространственным соседним блоком или временным соседним блоком.d. In one example, adjacent block A or B, noted above, is an adjacent or non-adjacent spatial adjacent block or a temporal adjacent block.

i. В одном из примеров, соседний блок A или B является соседним блоком слева (или сверху).i. In one example, adjacent block A or B is a neighboring block to the left (or top).

ii. В одном из примеров, соседние блоки A и B являются соседними блоками слева и сверху, соответственно.ii. In one example, adjacent blocks A and B are neighboring blocks on the left and top, respectively.

iii. В одном из примеров, соседний блок слева покрывает позицию (xCb − 1, yCb + cbHeight − 1). iii. In one example, the adjacent block on the left covers the position (xCb − 1, yCb + cbHeight − 1).

iv. В одном из примеров, соседний блок сверху покрывает позицию (xCb + cbWidth − 1, yCb − 1).iv. In one example, the adjacent block from above covers the position (xCb + cbWidth − 1, yCb − 1).

v. В одном из примеров, соседний блок слева покрывает позицию (xCb − 1, yCb). v. In one example, the adjacent block on the left covers position (xCb − 1, yCb).

vi. В одном из примеров, соседний блок сверху покрывает позицию (xCb, yCb − 1).vi. In one example, the adjacent block from above covers position (xCb, yCb − 1).

e. Для приведенных выше примеров, комбинированное прогнозирование CIIP осуществляется следующим образом: e. For the examples above, combined CIIP prediction is done as follows:

где сдвиг (offset) устанавливают равным (1<< (N-1)) или 0, и N может быть установлено равным log2(wIntra + wInter).where the offset is set to (1<< (N-1)) or 0, and N can be set to log2(wIntra + wInter).

14. Выбор соседних блоков, используемых в комбинированном режиме прогнозирования CIIP может зависеть от кодированной информации, такой как размер блока/форма блока/флаг проверки малой задержки/информация об опорных изображениях/информация о движении текущего блока и соседних блоков/индикация режимов внутрикадрового прогнозирования для соседних блоков.14. The selection of neighboring blocks used in the combined CIIP prediction mode may depend on encoded information such as block size/block shape/low delay check flag/reference picture information/movement information of the current block and neighboring blocks/indication of intra frame prediction modes for neighboring blocks.

15. Пары весовых коэффициентов, используемые для комбинированного прогнозируемого CIIP, могут зависеть от кодированной информации, такой как размер блока/форма блока/флаг проверки малой задержки/информация об опорных изображениях/информация о движении текущего блока и соседних блоков/индикация режимов внутрикадрового прогнозирования для соседних блоков.15. Weight pairs used for combined predictive CIIP may depend on encoded information such as block size/block shape/low delay check flag/reference picture information/motion information of current block and adjacent blocks/intra prediction modes indication for neighboring blocks.

a. В одном из примеров, далее сообщают в виде сигнализации группу пар весовых коэффициентов. a. In one example, a group of weight pairs is further signaled.

b. В одном из примеров, выбор пары весовых коэффициентов может зависеть от того, кодируют ли соседний блок в режиме межкадрового прогнозирования вместо внутрикадрового прогнозирования.b. In one example, the choice of a pair of weight coefficients may depend on whether the neighboring block is encoded in inter-prediction mode instead of intra-prediction.

16. При определении информации о комбинированном режиме прогнозирования CIIP (например, при определении весовых коэффициентов, применяемых к сигналу внутрикадрового прогнозирования или к сигналу межкадрового прогнозирования для предыдущей конфигурации способа и упомянутых выше разделов), если соседний блок не кодируют в режиме MODE_INTRA (т.е. в режиме внутрикадрового прогнозирования), его можно рассматривать в качестве блока, кодированного в режиме внутрикадрового прогнозирования. 16. When determining the CIIP combined prediction mode information (for example, when determining the weights applied to the intra prediction signal or the inter prediction signal for the previous method configuration and the above sections), if the adjacent block is not encoded in MODE_INTRA mode (i.e., . in the intra prediction mode), it can be considered as a block encoded in the intra prediction mode.

a. В одном из примеров, если соседний блок кодирован в режиме с копированием IBC.a. In one example, if the adjacent block is encoded in IBC copy mode.

b. В одном из примеров, если соседний блок кодирован в комбинированном режиме прогнозирования CIIP.b. In one example, if the adjacent block is encoded in the combined CIIP prediction mode.

c. В одном из примеров, если соседний блок кодирован в режиме треугольного прогнозирования (TPM).c. In one example, if the adjacent block is encoded in triangular prediction mode (TPM).

d. В одном из примеров, если соседний блок кодирован в режиме палитры.d. In one example, if the adjacent block is coded in palette mode.

e. В одном из примеров, если соседний блок кодирован в режиме модуляции RDPCM.e. In one example, if the neighboring block is encoded in RDPCM modulation mode.

f. В одном из примеров, если соседний блок кодирован в режиме без преобразования (например, в режиме пропуска преобразования) и/или с применением квантования (например, режим квантования с обходом преобразования).f. In one example, if the adjacent block is encoded in a non-transform mode (eg, transform-skip mode) and/or with quantization applied (eg, transform-bypass quantization mode).

g. В качестве альтернативы, если соседний блок кодирован в режиме, упомянутом в приведенных выше подразделах (например, режиме копирования IBC, режиме модуляции RDPCM, режиме палитры), этот соседний блок можно рассматривать как блок, кодированный в режиме, не являющемся режимом внутрикадрового кодирования, (например, в режиме межкадрового прогнозирования).g. Alternatively, if an adjacent block is encoded in the mode mentioned in the above subsections (e.g., IBC copy mode, RDPCM modulation mode, paletted mode), that adjacent block may be considered to be a non-intra-frame encoded block ( for example, in inter-frame prediction mode).

h. В одном из примеров, если соседний блок кодирован в режиме внутрикадрового прогнозирования, но НЕ кодирован в определенных режимах прогнозирования (например, в планарном режиме), этот соседний блок можно рассматривать как блок, кодированный в режиме, не являющемся режимом внутрикадрового кодирования, (например, в режиме межкадрового прогнозирования).h. In one example, if an adjacent block is encoded in intra prediction mode but is NOT encoded in certain prediction modes (e.g., planar mode), that adjacent block can be considered to be a non-intra frame encoded block (e.g., in inter-frame prediction mode).

i. В качестве альтернативы, если соседний блок кодирован в режиме внутрикадрового прогнозирования на матричной основе и/или в режиме внутрикадрового прогнозирования с несколькими опорными строками и с неравным K индексом опорной строки (например, K=0) и/или в режиме модуляции BDPCM, этот соседний блок можно рассматривать как блок, кодированный в режиме, не являющемся режимом внутрикадрового кодирования, (например, в режиме межкадрового прогнозирования).i. Alternatively, if an adjacent block is encoded in a matrix-based intra-frame prediction mode and/or in a multi-reference row intra-frame prediction mode with an unequal reference row index K (e.g., K=0) and/or in a BDPCM modulation mode, that adjacent a block can be considered as a block encoded in a non-intra-frame mode (eg, in an inter-prediction mode).

j. Предлагаемые способы могут быть применены к другим инструментам кодирования, которые опираются на то, кодирован ли какой-то соседний блок в режиме внутрикадрового прогнозирования или нет. j. The proposed methods can be applied to other coding tools that rely on whether some adjacent block is coded in intra-prediction mode or not.

k. Предлагаемые способы могут быть применены к другим инструментам кодирования, которые опираются на то, кодирован ли какой-то соседний блок в режиме межкадрового прогнозирования или нет.k. The proposed methods can be applied to other coding tools that rely on whether some adjacent block is encoded in inter-prediction mode or not.

17. О том, активизировать или отменить активизацию приведенных выше способов, может быть сообщено в форме сигнализации в наборе SPS/наборе PPS/наборе VPS/заголовке последовательности/заголовке изображения/заголовке среза/заголовке группы плиток/плитке/группе единиц CTU, и т.п.17. Whether to activate or deactivate the above methods can be signaled in the SPS set/PPS set/VPS set/sequence header/image header/slice header/tile group header/tile/CTU group, etc. .P.

a. В качестве альтернативы, какой именно способ следует использовать, может быть сообщено в форме сигнализации в наборе SPS/наборе PPS/наборе VPS/заголовке последовательности/заголовке изображения/заголовке среза/заголовке группы плиток/плитке/группе единиц CTU, и т.п.a. Alternatively, which method to use may be signaled in the SPS set/PPS set/VPS set/sequence header/image header/slice header/tile group header/tile/CTU group, etc.

b. В качестве альтернативы, следует ли активизировать или отменить активизацию приведенных выше способов, и/или, какой именно способ следует применить, зависит от размера блока, единицы обработки данных видео (video processing data unit (VPDU)), типа изображения, флага проверки малой задержки, информации о кодировании текущего блока (такой как опорные изображения, однонаправленное или двунаправленное прогнозирование) или ранее кодированных блоков.b. Alternatively, whether to enable or disable the above methods and/or which method to apply depends on the block size, video processing data unit (VPDU), image type, low latency check flag , encoding information of the current block (such as reference pictures, unidirectional or bidirectional prediction), or previously coded blocks.

5. Варианты5. Options

5.1 Вариант 15.1 Option 1

Пример пропуска проверки флагов комбинированного режима прогнозирования CIIP для ранее кодированных блоков описан следующим образом. An example of skipping the check of CIIP combined prediction mode flags for previously coded blocks is described as follows.

8.4.2 Процедура определения режима внутрикадрового прогнозированияяркостной составляющей8.4.2 Luminance intra-frame prediction mode determination procedure

Входными данными для этой процедуры являются:The input to this procedure is:

- позиция ( xCb , yCb ) яркостной составляющей, специфицирующая верхний левый отсчет текущего блока кодирования яркостной составляющей относительно верхнего левого отсчета яркостной составляющей для текущего изображения,- position ( xCb , yCb ) of the luminance component, specifying the upper left sample of the current luminance component coding block relative to the upper left sample of the luminance component for the current image,

- переменная cbWidth, специфицирующая ширину текущего блока кодирования в отсчетах яркостной составляющей,- cbWidth variable specifying the width of the current coding block in luma samples,

- переменная cbHeight, специфицирующая высоту текущего блока кодирования в отсчетах яркостной составляющей.- cbHeight variable specifying the height of the current coding block in luma samples.

В этой процедуре, определяют индикацию режима IntraPredModeY[ xCb ][ yCb ] внутрикадрового прогнозирования яркостной составляющей.In this procedure, an indication of the mode IntraPredModeY[ xCb ][ yCb ] of the intra-frame luminance component prediction is determined.

Таблица 8-1 специфицирует значение индикации IntraPredModeY[ xCb ][ yCb ] режима внутрикадрового прогнозирования и ассоциированные названия.Table 8-1 specifies the IntraPredModeY[ xCb ][ yCb ] indication value of intra-prediction mode and associated names.

Таблица 8-1. Спецификация режима внутрикадрового прогнозирования и ассоциированные названия Table 8-1. Intra Prediction Mode Specification and Associated Names

Режим внутрикадрового прогнозированияIntra-prediction mode Ассоциированное названиеAssociated name 00 INTRA_PLANARINTRA_PLANAR 11 INTRA_DCINTRA_DC 2..662..66 INTRA_ANGULAR2..INTRA_ANGULAR66INTRA_ANGULAR2..INTRA_ANGULAR66 81..8381..83 INTRA_LT_CCLM, INTRA_L_CCLM, INTRA_T_CCLMINTRA_LT_CCLM, INTRA_L_CCLM, INTRA_T_CCLM

Примечание: Режимы внутрикадрового прогнозирования INTRA_LT_CCLM, INTRA_L_CCLM и INTRA_T_CCLM применимы только к цветностным составляющим.Note: The intra-frame prediction modes INTRA_LT_CCLM, INTRA_L_CCLM and INTRA_T_CCLM are only applicable to chroma.

Параметр IntraPredModeY[ xCb ][ yCb ] определяют посредством следующих упорядоченных этапов:The IntraPredModeY[ xCb ][ yCb ] parameter is determined through the following ordered steps:

1. Соседние позиции ( xNbA, yNbA ) и ( xNbB, yNbB ) устанавливают равными ( xCb − 1, yCb + cbHeight − 1 ) и ( xCb + cbWidth − 1, yCb − 1 ), соответственно.1. Adjacent positions ( xNbA, yNbA ) and ( xNbB, yNbB ) are set equal to ( xCb − 1, yCb + cbHeight − 1 ) and ( xCb + cbWidth − 1, yCb − 1 ), respectively.

2. Для X, заменяемого на A или B, переменные candIntraPredModeX определяют следующим образом:2. For X being replaced by A or B, the candIntraPredModeX variables are defined as follows:

- Процедуру определения доступности для блока, как это специфицировано в статье 6.4.X, [Ред. (BB): Процедура проверки доступности соседних блоков еще должна быть определена] привлекают с позиции ( xCurr, yCurr ), установленной равной ( xCb, yCb ), и соседнюю позицию ( xNbY, yNbY ) устанавливают равной ( xNbX, yNbX ) в качестве входных данных, а выходные данные назначают переменной availableX.- The procedure for determining availability for a block, as specified in Article 6.4.X, [Rev. (BB): Neighbor block availability check procedure yet to be defined] is attracted from position ( xCurr, yCurr ) set to ( xCb, yCb ), and neighbor position ( xNbY, yNbY ) is set to ( xNbX, yNbX ) as input , and the output data is assigned to the availableX variable.

- Режим-кандидат внутрикадрового прогнозирования candIntraPredModeX определяют следующим образом:- The intra-prediction candidate mode candIntraPredModeX is determined as follows:

- Если одно или несколько заданных условий являются истинными, параметр candIntraPredModeX устанавливают равным INTRA_PLANAR.- If one or more given conditions are true, the candIntraPredModeX parameter is set to INTRA_PLANAR.

- Переменная availableX является равной FALSE (ЛОЖНО).- The availableX variable is equal to FALSE.

- Параметр CuPredMode[ xNbX ][ yNbX ] не равен MODE_INTRA.- Parameter CuPredMode[ xNbX ][ yNbX ] is not equal to MODE_INTRA.

- pcm_flag[ xNbX ][ yNbX ] равно 1.- pcm_flag[ xNbX ][ yNbX ] is equal to 1.

- X равно B и yCb − 1 меньше ( ( yCb. >>. CtbLog2SizeY ). <<. CtbLog2SizeY ).- X is equal to B and yCb − 1 is less than ( ( yCb. >>. CtbLog2SizeY ). <<. CtbLog2SizeY ).

- В противном случае, параметр candIntraPredModeX установлен равным IntraPredModeY[ xNbX ][ yNbX ].- Otherwise, the parameter candIntraPredModeX is set to IntraPredModeY[ xNbX ][ yNbX ].

3. Переменные ispDefaultMode1 и ispDefaultMode2 определяют следующим образом:3. The ispDefaultMode1 and ispDefaultMode2 variables are defined as follows:

- Если IntraSubPartitionsSplitType равно ISP_HOR_SPLIT, параметр ispDefaultMode1 устанавливают равным INTRA_ANGULAR18 и параметр ispDefaultMode2 устанавливают равным INTRA_ANGULAR5.- If IntraSubPartitionsSplitType is equal to ISP_HOR_SPLIT, the ispDefaultMode1 parameter is set to INTRA_ANGULAR18 and the ispDefaultMode2 parameter is set to INTRA_ANGULAR5.

- В противном случае, параметр ispDefaultMode1 устанавливают равным INTRA_ANGULAR50 и параметр ispDefaultMode2 устанавливают равным INTRA_ANGULAR63.- Otherwise, the ispDefaultMode1 parameter is set to INTRA_ANGULAR50 and the ispDefaultMode2 parameter is set to INTRA_ANGULAR63.

4. Параметр candModeList[ x ] при x = 0..5 определяют следующим образом:4. Parameter candModeList[ x ] for x = 0..5 is defined as follows:

Вариант #2Option #2

Если сосед слева доступен и кодирован в режиме внутрикадрового прогнозирования, значения (wIntra, wInter) устанавливают равными (2, 2); В противном случае, значения (wIntra, wInter) устанавливают равными (1, 3).If the left neighbor is available and encoded in intra prediction mode, the values (wIntra, wInter) are set to (2, 2); Otherwise, the values (wIntra, wInter) are set to (1, 3).

Комбинированное прогнозирование CIIP осуществляется следующим образом: Combined CIIP prediction is done as follows:

Вариант #3Option #3

Если сосед слева доступен и кодирован в режиме внутрикадрового прогнозирования, значения (wIntra, wInter) устанавливают равными (3, 1); В противном случае, значения (wIntra, wInter) устанавливают равными (1, 3).If the left neighbor is available and encoded in intra prediction mode, the values (wIntra, wInter) are set to (3, 1); Otherwise, the values (wIntra, wInter) are set to (1, 3).

Комбинированное прогнозирование CIIP осуществляется следующим образом: Combined CIIP prediction is done as follows:

Вариант #4Option #4

Если сосед сверху доступен и кодирован в режиме внутрикадрового прогнозирования, значения (wIntra, wInter) устанавливают равными (2, 2); В противном случае, значения (wIntra, wInter) устанавливают равными (1, 3).If the up-neighbor is available and encoded in intra-prediction mode, the values of (wIntra, wInter) are set to (2, 2); Otherwise, the values (wIntra, wInter) are set to (1, 3).

Комбинированное прогнозирование CIIP осуществляется следующим образом: Combined CIIP prediction is done as follows:

Вариант #5Option #5

Если сосед сверху доступен и кодирован в режиме внутрикадрового прогнозирования, значения (wIntra, wInter) устанавливают равными (3, 1); В противном случае, значения (wIntra, wInter) устанавливают равными (1, 3).If the up-neighbor is available and encoded in intra-prediction mode, the values (wIntra, wInter) are set to (3, 1); Otherwise, the values (wIntra, wInter) are set to (1, 3).

Комбинированное прогнозирование CIIP осуществляется следующим образом: Combined CIIP prediction is done as follows:

Вариант #6Option #6

Если соседи слева и сверху доступны и кодированы в режиме внутрикадрового прогнозирования, значения (wIntra, wInter) устанавливают равными (2, 2); В противном случае, значения (wIntra, wInter) устанавливают равными (1, 3).If left and top neighbors are available and encoded in intra-prediction mode, the values of (wIntra, wInter) are set to (2, 2); Otherwise, the values (wIntra, wInter) are set to (1, 3).

Комбинированное прогнозирование CIIP осуществляется следующим образом:Combined CIIP prediction is done as follows:

Вариант #7Option #7

Если соседи слева и сверху доступны и кодированы в режиме внутрикадрового прогнозирования, значения (wIntra, wInter) устанавливают равными (3, 1); В противном случае, значения (wIntra, wInter) устанавливают равными (1, 3).If left and top neighbors are available and encoded in intra-prediction mode, the values of (wIntra, wInter) are set to (3, 1); Otherwise, the values (wIntra, wInter) are set to (1, 3).

Комбинированное прогнозирование CIIP осуществляется следующим образом: Combined CIIP prediction is done as follows:

Вариант #8Option #8

Если сосед слева или сверху доступен и кодирован в режиме внутрикадрового прогнозирования, значения (wIntra, wInter) устанавливают равными (2, 2); В противном случае, значения (wIntra, wInter) устанавливают равными (1, 3).If the left or top neighbor is available and encoded in intra-prediction mode, the values of (wIntra, wInter) are set to (2, 2); Otherwise, the values (wIntra, wInter) are set to (1, 3).

Комбинированное прогнозирование CIIP осуществляется следующим образом: Combined CIIP prediction is done as follows:

Вариант #9Option #9

Если сосед слева или сверху доступен и кодирован в режиме внутрикадрового прогнозирования, значения (wIntra, wInter) устанавливают равными (3, 1); В противном случае, значения (wIntra, wInter) устанавливают равными (1, 3).If the left or top neighbor is available and encoded in intra prediction mode, the values of (wIntra, wInter) are set to (3, 1); Otherwise, the values (wIntra, wInter) are set to (1, 3).

Комбинированное прогнозирование CIIP осуществляется следующим образом: Combined CIIP prediction is done as follows:

Вариант #10Option #10

значения (wIntra, wInter) устанавливают равными (2, 2).the values (wIntra, wInter) are set to (2, 2).

Комбинированное прогнозирование CIIP осуществляется следующим образом: Combined CIIP prediction is done as follows:

Вариант #11Option #11

значения (wIntra, wInter) устанавливают равными (1, 3).the values (wIntra, wInter) are set to (1, 3).

Комбинированное прогнозирование CIIP осуществляется следующим образом:Combined CIIP prediction is done as follows:

Вариант #12Option #12

Если сосед слева кодирован в комбинированном режиме прогнозирования CIIP, значения (wIntra, wInter) для текущего блока устанавливают равными значениям (wIntra, wInter) для соседа слева, в противном случае, если сосед слева доступен и кодирован в режиме внутрикадрового прогнозирования, значения (wIntra, wInter) устанавливают равными (3, 1). В противном случае, значения (wIntra, wInter) устанавливают равными (1, 3).If the left neighbor is encoded in combined CIIP prediction mode, the values (wIntra, wInter) for the current block are set to the values (wIntra, wInter) for the left neighbor, otherwise, if the left neighbor is available and encoded in intra prediction mode, the values (wIntra, wInter) are set to (3, 1). Otherwise, the values (wIntra, wInter) are set to (1, 3).

Комбинированное прогнозирование CIIP осуществляется следующим образом: Combined CIIP prediction is done as follows:

Вариант #13Option #13

Если сосед слева кодирован в комбинированном режиме прогнозирования CIIP, значения (wIntra, wInter) для текущего блока устанавливают равными значениям (wIntra, wInter) для соседа слева, в противном случае, если сосед слева доступен и кодирован в режиме внутрикадрового прогнозирования, значения (wIntra, wInter) устанавливают равными (2, 2); в противном случае, значения (wIntra, wInter) устанавливают равными (1, 3).If the left neighbor is encoded in combined CIIP prediction mode, the values (wIntra, wInter) for the current block are set to the values (wIntra, wInter) for the left neighbor, otherwise, if the left neighbor is available and encoded in intra prediction mode, the values (wIntra, wInter) are set equal to (2, 2); otherwise, the values (wIntra, wInter) are set to (1, 3).

Комбинированное прогнозирование CIIP осуществляется следующим образом: Combined CIIP prediction is done as follows:

Вариант #14Option #14

Если сосед сверху кодирован в комбинированном режиме прогнозирования CIIP, значения (wIntra, wInter) для текущего блока устанавливают равными значениям (wIntra, wInter) для соседа сверху; в противном случае, если сосед сверху доступен и кодирован в режиме внутрикадрового прогнозирования, значения (wIntra, wInter) устанавливают равными (3, 1); в противном случае, значения (wIntra, wInter) устанавливают равными (1, 3).If the up-neighbor is encoded in the combined CIIP prediction mode, the values (wIntra, wInter) for the current block are set to the values (wIntra, wInter) for the up-neighbor; otherwise, if the up-neighbor is available and encoded in intra-prediction mode, the values of (wIntra, wInter) are set to (3, 1); otherwise, the values (wIntra, wInter) are set to (1, 3).

Комбинированное прогнозирование CIIP осуществляется следующим образом: Combined CIIP prediction is done as follows:

Вариант #15Option #15

Если сосед сверху кодирован в комбинированном режиме прогнозирования CIIP, значения (wIntra, wInter) для текущего блока устанавливают равными значениям (wIntra, wInter) для соседа сверху; в противном случае, если сосед сверху доступен и кодирован в режиме внутрикадрового прогнозирования, значения (wIntra, wInter) устанавливают равными (2, 2); в противном случае, значения (wIntra, wInter) устанавливают равными (1, 3).If the up-neighbor is encoded in the combined CIIP prediction mode, the values (wIntra, wInter) for the current block are set to the values (wIntra, wInter) for the up-neighbor; otherwise, if the up-neighbor is available and encoded in intra-prediction mode, the values of (wIntra, wInter) are set to (2, 2); otherwise, the values (wIntra, wInter) are set to (1, 3).

Комбинированное прогнозирование CIIP осуществляется следующим образом: Combined CIIP prediction is done as follows:

Вариант #16Option #16

Если сосед слева или/и сверху кодирован в комбинированном режиме прогнозирования CIIP, значения (wIntra, wInter) для текущего блока устанавливают равными значениям (wIntra, wInter). для первого соседа (слева->сверху), кодированного в комбинированном режиме прогнозирования CIIP; в противном случае, если сосед слева или/и сверху доступен и кодирован в режиме внутрикадрового прогнозирования, значения (wIntra, wInter) устанавливают равными (3, 1); в противном случае, значения (wIntra, wInter) устанавливают равными (1, 3).If the neighbor on the left and/or the top is encoded in the combined CIIP prediction mode, the values (wIntra, wInter) for the current block are set to the values (wIntra, wInter). for the first neighbor (left->top) encoded in the combined CIIP prediction mode; otherwise, if the left or/and top neighbor is available and encoded in intra prediction mode, the values of (wIntra, wInter) are set to (3, 1); otherwise, the values (wIntra, wInter) are set to (1, 3).

Комбинированное прогнозирование CIIP осуществляется следующим образом: Combined CIIP prediction is done as follows:

Вариант #17Option #17

Если сосед слева или/и сверху кодирован в комбинированном режиме прогнозирования CIIP, значения (wIntra, wInter) для текущего блока устанавливают равными значениям (wIntra, wInter) для первого соседа (слева->сверху), кодированного в комбинированном режиме прогнозирования CIIP; в противном случае, если сосед слева или/и сверху доступен и кодирован в режиме внутрикадрового прогнозирования, значения (wIntra, wInter) устанавливают равными (2, 2); в противном случае, значения (wIntra, wInter) устанавливают равными (1, 3).If the left or/and top neighbor is coded in the combined CIIP prediction mode, the values (wIntra, wInter) for the current block are set to the values (wIntra, wInter) for the first neighbor (left->top) coded in the combined CIIP prediction mode; otherwise, if the left or/and top neighbor is available and encoded in intra prediction mode, the values of (wIntra, wInter) are set to (2, 2); otherwise, the values (wIntra, wInter) are set to (1, 3).

Комбинированное прогнозирование CIIP осуществляется следующим образом: Combined CIIP prediction is done as follows:

Вариант #18Option #18

Если сосед слева кодирован в комбинированном режиме прогнозирования CIIP, значения (wIntra, wInter) для текущего блока устанавливают равными значениям (wIntra, wInter) для соседа слева; в противном случае, значения (wIntra, wInter) устанавливают равными (1, 3).If the left neighbor is encoded in the combined CIIP prediction mode, the values (wIntra, wInter) for the current block are set equal to the values (wIntra, wInter) for the left neighbor; otherwise, the values (wIntra, wInter) are set to (1, 3).

Комбинированное прогнозирование CIIP осуществляется следующим образом: Combined CIIP prediction is done as follows:

Вариант #19Option #19

Если сосед слева кодирован в комбинированном режиме прогнозирования CIIP, значения (wIntra, wInter) для текущего блока устанавливают равными значениям (wIntra, wInter) для соседа слева; в противном случае, значения (wIntra, wInter) устанавливают равными (2, 2).If the left neighbor is encoded in the combined CIIP prediction mode, the values (wIntra, wInter) for the current block are set equal to the values (wIntra, wInter) for the left neighbor; otherwise, the values (wIntra, wInter) are set to (2, 2).

Комбинированное прогнозирование CIIP осуществляется следующим образом: Combined CIIP prediction is done as follows:

Вариант #20Option #20

Если сосед сверху кодирован в комбинированном режиме прогнозирования CIIP, значения (wIntra, wInter) для текущего блока устанавливают равными значениям (wIntra, wInter) для соседа сверху; в противном случае, значения (wIntra, wInter) устанавливают равными (1, 3).If the up-neighbor is encoded in the combined CIIP prediction mode, the values (wIntra, wInter) for the current block are set to the values (wIntra, wInter) for the up-neighbor; otherwise, the values (wIntra, wInter) are set to (1, 3).

Комбинированное прогнозирование CIIP осуществляется следующим образом: Combined CIIP prediction is done as follows:

Вариант #21Option #21

Если сосед сверху кодирован в комбинированном режиме прогнозирования CIIP, значения (wIntra, wInter) для текущего блока устанавливают равными значениям (wIntra, wInter) для соседа сверху; в противном случае, значения (wIntra, wInter) устанавливают равными (2, 2).If the up-neighbor is encoded in the combined CIIP prediction mode, the values (wIntra, wInter) for the current block are set to the values (wIntra, wInter) for the up-neighbor; otherwise, the values (wIntra, wInter) are set to (2, 2).

Комбинированное прогнозирование CIIP осуществляется следующим образом: Combined CIIP prediction is done as follows:

Вариант #22Option #22

Если сосед слева или/и сверху кодирован в комбинированном режиме прогнозирования CIIP, значения (wIntra, wInter) для текущего блока устанавливают равными значениям (wIntra, wInter) для первого соседа (слева->сверху), кодированного в комбинированном режиме прогнозирования CIIP; в противном случае, значения (wIntra, wInter) устанавливают равными (1, 3).If the left or/and top neighbor is coded in the combined CIIP prediction mode, the values (wIntra, wInter) for the current block are set to the values (wIntra, wInter) for the first neighbor (left->top) coded in the combined CIIP prediction mode; otherwise, the values (wIntra, wInter) are set to (1, 3).

Комбинированное прогнозирование CIIP осуществляется следующим образом: Combined CIIP prediction is done as follows:

Вариант #23Option #23

Если сосед слева или/и сверху кодирован в комбинированном режиме прогнозирования CIIP, значения (wIntra, wInter) для текущего блока устанавливают равными значениям (wIntra, wInter) для первого соседа (слева->сверху), кодированного в комбинированном режиме прогнозирования CIIP; в противном случае, значения (wIntra, wInter) устанавливают равными (2, 2).If the left or/and top neighbor is coded in the combined CIIP prediction mode, the values (wIntra, wInter) for the current block are set to the values (wIntra, wInter) for the first neighbor (left->top) coded in the combined CIIP prediction mode; otherwise, the values (wIntra, wInter) are set to (2, 2).

Комбинированное прогнозирование CIIP осуществляется следующим образом: Combined CIIP prediction is done as follows:

Вариант #24Option #24

8.5.6 Процедура кодирования для блоков, кодированных в режиме межкадрового прогнозирования 8.5.6 Encoding procedure for blocks encoded in inter-prediction mode

8.5.6.1 Общие положения8.5.6.1 General

Эту процедуру привлекают при декодировании единицы кодирования, которая кодирована в режиме межкадрового прогнозирования.This procedure is invoked when decoding a coding unit that is encoded in the inter prediction mode.

Когда флаг ciip_flag[ xCb ][ yCb ] равен 1, массив predSamples прогнозируемых отсчетов модифицирует следующим образом:When the ciip_flag[ xCb ][ yCb ] flag is 1, the predSamples array of predicted samples is modified as follows:

- Если параметр cIdx равен 0, применяется следующее:- If the cIdx parameter is 0, the following applies:

- Общую процедуру внутрикадрового прогнозирования отсчетов, как она специфицирована в статье 8.4.5.2.5, привлекают с позиции ( xTbCmp, yTbCmp ), установленной равной ( xCb, yCb ), при режиме внутрикадрового прогнозирования predModeIntra, установленном равным IntraPredModeY[ xCb ][ yCb ], и в качестве входных данных используют ширину nTbW и высоту nTbH блока преобразования, установленные равными ширине cbWidth и высоте cbHeight, ширину nCbW и высоту nCbH блока кодирования, установленные равными ширине cbWidth и высоте cbHeight, и переменную cIdx, а выходными данными является массив predSamplesIntraL размером (cbWidth)x(cbHeight).- The general intra-frame sample prediction procedure as specified in clause 8.4.5.2.5 is invoked with position ( xTbCmp, yTbCmp ) set to ( xCb, yCb ), with the intra-frame prediction mode predModeIntra set to IntraPredModeY[ xCb ][ yCb ] , and use as input the width nTbW and height nTbH of the transform block, set equal to the width cbWidth and height cbHeight, the width nCbW and height nCbH of the encoding block, set equal to the width cbWidth and height cbHeight, and the variable cIdx, and the output is the array predSamplesIntra L size (cbWidth)x(cbHeight).

- Процедуру прогнозирования взвешенных отсчетов для комбинированного прогнозирования в режиме объединения и внутрикадрового прогнозирования, как это специфицировано в статье 8.5.6.7, привлекают с позиции ( xTbCmp, yTbCmp ), установленной равной ( xCb, yCb ), и используют в качестве входных данных ширину cbWidth блока кодирования, высоту cbHeight блока кодирования, массивы predSamplesInter и predSamplesIntra отсчетов, установленные равными массивам predSamples и predSamplesIntraL, соответственно, режим внутрикадрового прогнозирования predModeIntra, установленный равным IntraPredModeY[ xCb ][ yCb ], и индекс cIdx цветовой составляющей, а выходными данными является массив predSamples размером (cbWidth)x(cbHeight).- The weighted sample prediction procedure for combined pooled prediction and intra prediction as specified in clause 8.5.6.7 is invoked from a position ( xTbCmp, yTbCmp ) set to ( xCb, yCb ) and takes as input the block width cbWidth encoding block height cbHeight, predSamplesInter and predSamplesIntra arrays of samples set equal to predSamples and predSamplesIntra L arrays, respectively, predModeIntra intra-prediction mode set to IntraPredModeY[ xCb ][ yCb ], and color component index cIdx, and the output is predSamples array size (cbWidth)x(cbHeight).

8.5.6.7 Процедура прогнозирования взвешенных отсчетов для комбинированноо режима объединения и внутрикадрового прогнозирования 8.5.6.7 Weighted sample prediction procedure for combined combining mode and intra-frame prediction

Входными данными для этой процедуры являются:The input to this procedure is:

- позиция ( xCb, yCb ) яркостной составляющей, специфицирующая верхний левый отсчет текущего блока кодирования яркостной составляющей относительно верхнего левого отсчета текущего изображения,- position ( xCb, yCb ) of the luminance component, specifying the upper left sample of the current luminance component coding block relative to the upper left sample of the current image,

- ширина cbWidth текущего блока кодирования,- cbWidth width of the current coding block,

- высмота cbHeight текущего блока кодирования,- cbHeight height of the current coding block,

- два массива predSamplesInter и predSamplesIntra размером (cbWidth)x(cbHeight),- two arrays predSamplesInter and predSamplesIntra of size (cbWidth)x(cbHeight),

- переменная cIdx, специфицирующая индекс цветовой составляющей.- variable cIdx specifying the index of the color component.

Выходными данными этой процедуры является массив predSamplesComb размером (cbWidth)x(cbHeight) значений прогнозируемых отсчетов.The output of this procedure is a predSamplesComb array of size (cbWidth)x(cbHeight) of the predicted sample values.

Переменную bitDepth определяют следующим образом:The bitDepth variable is defined as follows:

- Если параметр cIdx равен 0, переменную bitDepth устанавливают равной BitDepthY.- If the cIdx parameter is 0, the bitDepth variable is set to BitDepth Y .

- В противном случае, переменную bitDepth устанавливают равной BitDepthC.- Otherwise, the bitDepth variable is set to BitDepth C .

Переменную scallFact определяют следующим образом:The variable scallFact is defined as follows:

scallFact = ( cIdx = = 0 ) ? 0 : 1. (8-838)scallFact = ( cIdx == 0 ) ? 0 : 1. (8-838)

Соседнюю позицию ( xNbA, yNbA ) и ( xNbB, yNbB ) яркостной составляющей устанавливают равной ( xCb − 1, yCb − 1 + ( cbHeight << scallFact ) ) и. xCb − 1. + (cbWidth << scallFact ), yCb − 1 ), соответственно.The adjacent position ( xNbA, yNbA ) and ( xNbB, yNbB ) of the luminance component is set equal to ( xCb − 1, yCb − 1 + ( cbHeight << scallFact ) ) and. xCb − 1. + (cbWidth << scallFact ), yCb − 1 ), respectively.

Для X замененного на A или B, the variables availableX and isIntraCodedNeighbourX определяют следующим образом:For X replaced by A or B, the variables availableX and isIntraCodedNeighbourX are defined as follows:

- Процедуру определения доступности соседнего блока, как это специфицировано в статье 6.4.4, привлекают с позиции ( xCurr, yCurr ), установленной равной ( xCb, yCb ), в качестве входных данных используют соседнюю позицию ( xNbY, yNbY ), установленную равной ( xNbX, yNbX ), параметр checkPredModeY, установленный равным FALSE (ЛОЖНО), и параметр cIdx, установленный равным 0, а выходными данными является параметр availableX.- The procedure for determining the availability of a neighboring block, as specified in clause 6.4.4, is invoked from a position ( xCurr, yCurr ) set to ( xCb, yCb ), using as input a neighboring position ( xNbY, yNbY ) set to ( xNbX , yNbX ), the checkPredModeY parameter set to FALSE, and the cIdx parameter set to 0, and the output is the availableX parameter.

- Переменную isIntraCodedNeighbourX определяют следующим образом:- The variable isIntraCodedNeighbourX is defined as follows:

- Если параметр availableX равен TRUE (ИСТИННО) и параметр CuPredMode[ 0 ][ xNbX ][ yNbX ] равен MODE_INTRA и параметр BdpcmFlag[ xNbX ][ yNbX ] равен 0, параметр isIntraCodedNeighbourX установлен равным TRUE (ИСТИННО).- If availableX is TRUE and CuPredMode[ 0 ][ xNbX ][ yNbX ] is MODE_INTRA and BdpcmFlag[ xNbX ][ yNbX ] is 0, isIntraCodedNeighbourX is set to TRUE.

- В противном случае, isIntraCodedNeighbourX устанавливают равным FALSE (ЛОЖНО).- Otherwise, isIntraCodedNeighbourX is set to FALSE.

Весовой коэффициент w определяют следующим образом:The weighting factor w is determined as follows:

- Если параметры isIntraCodedNeighbourA и isIntraCodedNeighbourB оба равны TRUE (ИСТИННО), весовой коэффициент w установлен равным 3.- If the parameters isIntraCodedNeighbourA and isIntraCodedNeighbourB are both TRUE, the weighting factor w is set to 3.

- В противном случае, если параметры isIntraCodedNeighbourA и isIntraCodedNeighbourB оба равны FALSE (ЛОЖНО), весовой коэффициент w установлен равным 1.- Otherwise, if the parameters isIntraCodedNeighbourA and isIntraCodedNeighbourB are both FALSE, the weighting factor w is set to 1.

- В противном случае, весовой коэффициент w установлен равным 2.- Otherwise, the weighting factor w is set to 2.

Когда параметр cIdx равен 0 и флаг slice_lmcs_enabled_flag равен 1, параметр predSamplesInter[ x ][ y ] при x = 0..cbWidth − 1 и y = 0..cbHeight − 1 модифицируют следующим образом:When the cIdx parameter is 0 and the slice_lmcs_enabled_flag is 1, the predSamplesInter[ x ][ y ] parameter with x = 0..cbWidth − 1 and y = 0..cbHeight − 1 is modified as follows:

На фиг. 18 представлена блок-схема устройства 1800 для обработки видео. Устройство 1800 может быть использовано для реализации одного или нескольких описываемых здесь способов. Это устройство 1800 может представлять собой смартфон, планшетный компьютер, обычный компьютер, приемник Интернет вещей (Internet of Things (IoT)) и т.д. Устройство 1800 может содержать один или несколько процессоров 1802, одно или несколько запоминающих устройств 1804 и аппаратуру 1806 для обработки видео. Процессор (ы) 1802 может быть конфигурирован для реализации одного или нескольких способов, описываемых в настоящем документе. Запоминающее устройство (устройства) 1804 может быть использовано для сохранения данных и кода, применяемых для реализации способов и технологий, описываемых здесь. Аппаратура 1806 для обработки видео может быть использована для реализации, в аппаратной схеме, некоторых технологий, описываемых в настоящем документе. In FIG. 18 is a block diagram of a device 1800 for video processing. Device 1800 may be used to implement one or more of the methods described here. This device 1800 may be a smartphone, a tablet computer, a desktop computer, an Internet of Things (IoT) receiver, and so on. Device 1800 may include one or more processors 1802, one or more memory devices 1804, and video processing hardware 1806. Processor(s) 1802 may be configured to implement one or more of the methods described herein. The storage device(s) 1804 may be used to store data and code used to implement the methods and technologies described here. Video processing hardware 1806 may be used to implement, in hardware, some of the technologies described herein.

На фиг. 20 представлена логическая схема способа 2000 обработки видео. Этот способ 2000 содержит определение (2005) режима кодирования первого видеоблока, ограничение (2010) одного или нескольких флагов рабочим состоянием на основе определения режима кодирования первого видеоблока, это рабочее состояние является «ложным» (false) или «истинным» (true), и осуществление (2015) дальнейшей обработки второго видеоблока в соответствии с рабочим состоянием одного или нескольких флагов, где первый видеоблок является соседним видеоблоком или опорным видеоблоком относительно второго видеоблока.In FIG. 20 is a flow diagram of a video processing method 2000. This method 2000 comprises determining (2005) the coding mode of the first video block, restricting (2010) one or more flags to an operational state based on the determination of the coding mode of the first video block, this operational state is "false" (false) or "true" (true), and performing (2015) further processing of the second video block in accordance with the operating state of one or more flags, where the first video block is a neighboring video block or a reference video block relative to the second video block.

На фиг. 21 представлена логическая схема способа 2100 обработки видео. Этот способ 2100 содержит определение (2105), что попарное прогнозирование или комбинированное двунаправленное прогнозирование используются в отношении первого видеоблока, определение (2110) рабочего состояния комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP) на основе определения, что используется попарное прогнозирование или комбинированное двунаправленное прогнозирование, где это рабочее состояние является активизированным или неактивизированным, и осуществление (2115) дальнейшей обработки первого видеоблока в соответствии с рабочим состоянием комбинированного режима прогнозирования CIIP.In FIG. 21 is a logic diagram of a video processing method 2100. This method 2100 comprises determining (2105) that pairwise prediction or combined bidirectional prediction is used with respect to the first video block, determining (2110) a combined intra- and inter-prediction (CIIP) coding mode operating state based on the determination that pairwise prediction or combined bidirectional prediction is used. predicting where the operating state is enabled or disabled; and performing (2115) further processing of the first video block in accordance with the operating state of the combined CIIP prediction mode.

На фиг. 23 представлена логическая схема способа 2300 обработки видео. Этот способ 2300 содержит определение (2305), в процессе преобразования первого блока данных видео и представления этого первого блока в форме потока битов данных, одного или нескольких режимов кодирования для одного или нескольких вторых блоков; определение (2310), на основе одного или нескольких режимов кодирования одного или нескольких вторых блоков, ограничения режима кодирования для первого блока; осуществление (2315), по меньшей мере путем применения указанного ограничения режима кодирования для первого блока, указанного преобразования; где совокупность одного или нескольких вторых блоков содержит по меньшей мере одно – смежный блок, несмежный блок и/или опорный блок относительно указанного первого блока.In FIG. 23 is a flow chart of a video processing method 2300. This method 2300 includes determining (2305), in the process of converting the first block of video data and representing this first block in the form of a data bitstream, one or more coding modes for one or more second blocks; determining (2310), based on one or more coding modes of one or more second blocks, a coding mode constraint for the first block; performing (2315) at least by applying said coding mode constraint to the first block of said transform; where the collection of one or more second blocks contains at least one - adjacent block, non-adjacent block and / or reference block relative to the specified first block.

На фиг. 24 представлена логическая схема способа 2400 обработки видео. Этот способ 2400 содержит осуществление (2405) преобразования между текущим блоком из данных видео и представлением этого текущего блока в форме потока битов данных путем использования по меньшей мере одного – комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP), рассеивающей фильтрации, двусторонней фильтрации, фильтрации в преобразованной области или другого типа пост-реконструкционной фильтрации, отличного от рассеивающей фильтрации, двусторонней фильтрации и фильтрации в преобразованной области, где реконструированные соседние отсчеты текущего блока, используемые по меньшей мере в одном – комбинированном режиме кодирования с внутрикадровым и межкадровым прогнозированием (CIIP), режиме рассеивающей фильтрации, режиме двусторонней фильтрации, режиме фильтрации в преобразованной области или режиме пост-реконструкционной фильтрации другого типа, заменяют аппроксимированными отсчетами, генерируемыми из соответствующих отсчетов из совокупности реконструированных соседних отсчетов в одном или нескольких опорных изображениях.In FIG. 24 is a logic diagram of a video processing method 2400. This method 2400 comprises performing (2405) a transformation between a current block of video data and a representation of that current block in the form of a data bitstream by using at least one of a combined intra- and inter-prediction (CIIP) coding mode, diffusing filtering, bidirectional filtering, transform-domain filtering or other type of post-reconstruction filtering other than diffusing, two-way filtering, and transform-domain filtering where the reconstructed adjacent samples of the current block used in at least one combined intra- and inter-prediction (CIIP) coding mode , diffuse filtering mode, two-sided filtering mode, transformed region filtering mode, or another type of post-rendered filtering mode, are replaced by approximated samples generated from the corresponding samples from a set of reconstructed adjacent samples in one or more reference images.

На фиг. 25 представлена логическая схема способа 2500 обработки видео. Этот способ 2500 содержит сохранение (2505) флага комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP) и/или режима внутрикадрового прогнозирования из комбинированного режима CIIP с информацией о движении в таблице прогнозирования вектора движения на основе предыстории (HMVP); и осуществление, по меньшей мере на основе таблицы прогнозирования HMVP, преобразования между текущим блоком данных видео и представлением этого текущего блока в форме потока битов данных.In FIG. 25 is a flow chart of a video processing method 2500. The method 2500 comprises storing (2505) a combined intra- and inter-prediction (CIIP) coding mode flag and/or an intra-prediction mode from a combined CIIP mode with motion information in a history-based motion vector prediction (HMVP) table; and performing, at least based on the HMVP prediction table, a transformation between the current block of video data and a representation of this current block in the form of a data bitstream.

На фиг. 26 представлена логическая схема способа 2600 обработки видео. Этот способ 2600 содержит определение (2605), в процессе преобразования между текущим блоком из данных видео и представлением этого текущего блока в форме потока битов данных, режима прогнозирования для этого текущего блока; определение (2610) применимости комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP), обозначающей, что этот режим прогнозирования CIIP активизирован для текущего блока, в ответ на определение, что текущий блок кодируют в режиме усовершенствованного прогнозирования вектора движения (AMVP) или в режиме объединения; и осуществление (2615) преобразования, на основе применимости режима комбинированного прогнозирования. CIIP.In FIG. 26 is a logic diagram of a video processing method 2600. This method 2600 comprises determining (2605), in the process of converting between a current block of video data and a data bitstream representation of that current block, a prediction mode for that current block; determining (2610) applicability of a combined intra-frame and inter-frame prediction (CIIP) coding mode indicating that this CIIP prediction mode is enabled for the current block, in response to determining that the current block is encoded in the advanced motion vector prediction (AMVP) mode or in the associations; and performing (2615) transformation based on the applicability of the combined prediction mode. CIIP.

На фиг. 27 представлена логическая схема способа 2700 обработки видео. Этот способ 2700 содержит определение (2705), в процессе преобразования между текущим блоком из данных видео и представлением этого текущего блока в форме потока битов данных, типа выбранного объединяемого кандидата для текущего блока; определение (2710), применимости комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP) для текущего блока в соответствии с типом выбранного объединяемого кандидата, где текущий блок кодируют в режиме объединения.In FIG. 27 is a flowchart of a video processing method 2700. This method 2700 includes determining (2705), in the process of converting between the current block of video data and the data bitstream representation of that current block, the type of the selected merging candidate for the current block; determining (2710) whether a combined intra- and inter-prediction (CIIP) coding mode is applicable for the current block according to the type of the selected merged candidate, where the current block is coded in the merging mode.

На фиг. 28 представлена логическая схема способа 2800 обработки видео. Этот способ 2800 содержит кодирование (2805), в процессе преобразования между текущим видеоблоком из данных видео и представлением этого текущего видеоблока в форме потока битов данных, флага комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP) для текущего видеоблока посредством кодирования на основе контекстной модели без ссылки на флаг режима прогнозирования CIIP одного или нескольких соседних видеоблоков относительно текущего видеоблока; и осуществление указанного преобразования (2810), по меньшей мере посредством применения флага комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP) для текущего блока.In FIG. 28 is a flow diagram of a video processing method 2800. This method 2800 comprises encoding (2805), in the process of converting between a current video block of video data and a data bitstream representation of that current video block, a combined intra- and inter-prediction (CIIP) coding mode flag for the current video block by encoding based on the context model without reference to the CIIP prediction mode flag of one or more adjacent video blocks relative to the current video block; and performing said transformation (2810) by at least applying a combined intra- and inter-prediction (CIIP) coding mode flag for the current block.

На фиг. 29 представлена логическая схема способа 2900 обработки видео. Этот способ 2900 содержит кодирование (2905), в процессе преобразования между текущим видеоблоком из данных видео и представлением этого текущего видеоблока в форме потока битов данных, флага комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP) для текущего видеоблока посредством обходного кодирования; и осуществление преобразования (2910), по меньшей мере посредством применения флага комбинированного режим кодирования с внутрикадровым и межкадровым прогнозированием (CIIP).In FIG. 29 is a flow diagram of a video processing method 2900. This method 2900 includes encoding (2905), in the process of converting between the current video block of the video data and the representation of this current video block in the form of a data bit stream, a combined intra- and inter-prediction (CIIP) coding mode flag for the current video block by bypass coding; and performing the transformation (2910) by at least applying a combined intra- and inter-prediction (CIIP) coding mode flag.

На фиг. 30 представлена логическая схема способа 3000 обработки видео. Этот способ 3000 содержит определение (3005), режима внутрикадрового прогнозирования для первого видеоблока видео в соответствии с некоторым правилом, где это правило содержит пропуск, в процессе определения режима внутрикадрового прогнозирования для первого видеоблока, проверки флага комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP) для одного или нескольких соседних видеоблоков относительно первого видеоблока; и осуществление (3010), на основе по меньшей мере найденного режима внутрикадрового прогнозирования, преобразования между первым видеоблоком и представлением этого первого видеоблока в форме потока битов данных.In FIG. 30 is a logic diagram of a video processing method 3000. The method 3000 comprises determining (3005) an intra-prediction mode for a first video video block according to some rule, where the rule contains a gap, in the process of determining the intra-prediction mode for the first video block, checking a combined intra- and inter-prediction (CIIP) coding mode flag ) for one or more adjacent video blocks relative to the first video block; and performing (3010), based on at least the determined intra-prediction mode, a transformation between the first video block and a representation of that first video block in the form of a data bit stream.

На фиг. 31 представлена логическая схема способа 3100 обработки видео. Этот способ 3100 содержит определение (3105), в процессе преобразования между текущим видеоблоком видео, кодированным в комбинированном режиме кодирования с внутрикадровым и межкадровым прогнозированием (CIIP), и представлением этого текущего видеоблока в форме потока битов данных, пары весовых коэффициентов, содержащей первый весовой коэффициент для первого результата прогнозирования текущего видеоблока и второй весовой коэффициент для второго результата прогнозирования текущего видеоблока, где первый результат прогнозирования генерируют в режиме внутрикадрового прогнозирования, и второй результат прогнозирования генерируют в режиме межкадрового прогнозирования; и определение (3110) результата прогнозирования для текущего блока на основе взвешенной суммы первого результата прогнозирования и второго результата прогнозирования.In FIG. 31 is a logic diagram of a video processing method 3100. This method 3100 comprises determining (3105), in the process of converting between a current video block of video encoded in a combined intra-frame and inter-frame prediction (CIIP) coding mode, and a representation of that current video block in the form of a data bit stream, a pair of weights containing a first weight for the first prediction result of the current video block, and a second weighting coefficient for the second prediction result of the current video block, where the first prediction result is generated in the intra prediction mode and the second prediction result is generated in the inter prediction mode; and determining (3110) a prediction result for the current block based on the weighted sum of the first prediction result and the second prediction result.

В соответствии со способами 2000 и 2100, некоторые примеры комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием и их использование были описаны Разделе 4 настоящего документа. Например, как описано в Разделе 4, видеоблоки могут быть обработаны в соответствии с комбинированным режимом кодирования с внутрикадровым и межкадровым прогнозированием.According to methods 2000 and 2100, some examples of the combined intra- and inter-prediction coding mode and their use have been described in Section 4 of this document. For example, as described in Section 4, video blocks may be processed in accordance with a combined intra- and inter-prediction coding mode.

В соответствии со способами 2000 и 2100, видеоблок может быть кодирован с преобразованием в поток битов данных видео, в котором эффективность использования битов может быть достигнута с применением правила генерации потока битов данных, относящегося к комбинированному режиму кодирования с внутрикадровым и межкадровым прогнозированием. According to methods 2000 and 2100, a video block may be encoded into a video data bitstream in which bit efficiency can be achieved by applying a data bitstream generation rule related to a combined intra- and inter-prediction coding mode.

Согласно этим способам совокупность одного или нескольких флагов может содержать флаг комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP), флаг локальной компенсации освещенности (LIC), флаг рассеивающей фильтрации, флаг двусторонней фильтрации, флаг фильтрации преобразованной области или флаг какого-либо другого типа пост-реконструкционной фильтрации.According to these methods, the collection of one or more flags may comprise a combined intra- and inter-prediction (CIIP) coding mode flag, a local illumination compensation (LIC) flag, a diffuse filtering flag, a two-way filtering flag, a transformed area filtering flag, or some other type of flag. post-reconstruction filtration.

Эти способы могут содержать ситуацию, в которой указанная совокупность одного или нескольких флагов содержит первый флаг, относящийся к первой операции, этот первый флаг определен как ложный и тогда первая операция не применяется.These methods may include the situation in which the specified set of one or more flags contains the first flag associated with the first operation, this first flag is determined to be false, and then the first operation is not applied.

Способы могут содержать ситуацию, когда передают сигнализацию о том, что первую операцию следует пропустить.The methods may include signaling that the first operation should be skipped.

Способы могут содержать ситуацию, когда передают сигнализацию о том, что использование первой операции ограничено быть ложным в потоке битов данных соответствия.The methods may comprise signaling that the use of the first operation is constrained to be false in the matching data bit stream.

Способы могут содержать ситуацию, когда первый видеоблок находится в соседней строке или столбце относительно второго видеоблока.The methods may include the situation where the first video block is in an adjacent row or column relative to the second video block.

Способы могут содержать ситуацию, когда указанная соседняя строка является строкой сверху или строкой сверху справа.The methods may include the situation where the specified adjacent row is the top row or top right row.

Способы могут содержать ситуацию, когда указанный соседний столбец представляет собой столбец слева, столбец снизу слева или угловой столбец сверху слева.The methods may comprise the situation where said adjacent column is a column on the left, a column on the bottom left, or a corner column on the top left.

Способы могут содержать ситуацию, когда может представлять собой режим внутрикадрового прогнозирования, комбинированный режим прогнозирования CIIP или режим с использованием текущего изображения в качестве опоры (CPR).The methods may comprise a situation where it may be an intra-prediction mode, a combined CIIP prediction mode, or a current picture-as-a-reference (CPR) mode.

Способы могут содержать определение позиции второго видеоблока, и при этом ограничение одного или нескольких флагов состоянием «ложно» также основано на определении позиции второго видеоблока.The methods may include determining the position of the second video block, wherein one or more flags being set to false is also based on determining the position of the second video block.

Способы могут содержать ситуацию, когда указанная позиция находится сверху от текущей единицы дерева кодирования (CTU), а находящийся сверху относительно второго видеоблока соседний блок располагается в другой единице CTU.The methods may include the situation where the specified position is above the current coding tree unit (CTU), and the neighboring block located above the second video block is located in another CTU.

Способы могут содержать ситуацию, когда указанная позиция находится на левой стороне от текущей единицы дерева кодирования (CTU), а находящийся слева относительно второго видеоблока соседний блок располагается в другой единице CTU.The methods may include the situation where the indicated position is on the left side of the current coding tree unit (CTU) and the adjacent block located to the left of the second video block is located in another CTU.

Способы могут содержать ситуацию, когда совокупность одного или нескольких флагов содержит флаг комбинированного режима прогнозирования CIIP или флаг режима внутрикадрового прогнозирования из комбинированного режима прогнозирования CIIP, а данные относительно этих одного или нескольких флагов сохранены вместе с информацией о движении в таблице прогнозирования вектора движения на основе предыстории (HMVP).The methods may comprise a situation where the collection of one or more flags comprises a CIIP combined prediction mode flag or an intra-frame prediction mode flag from a CIIP combined prediction mode, and data regarding these one or more flags is stored along with motion information in a motion vector prediction table based on history. (HMVP).

Способы могут содержать сравнение информации о движении для двух кандидатов, и при этом флаг комбинированного режима прогнозирования CIIP или флаг режима внутрикадрового прогнозирования из комбинированного режима прогнозирования CIIP не используются при сравнении информации о движении.The methods may comprise comparing the motion information for the two candidates, wherein the CIIP combined prediction mode flag or intra-frame prediction mode flag from the CIIP combined prediction mode is not used in the comparison of the motion information.

Способы могут содержать сравнение информации о движении для двух кандидатов, и при этом флаг комбинированного режима прогнозирования CIIP или флаг режима внутрикадрового прогнозирования из комбинированного режима прогнозирования CIIP используются при сравнении информации о движении.The methods may comprise comparing motion information for the two candidates, wherein a CIIP combined prediction mode flag or an intra prediction mode flag from the CIIP combined prediction mode is used in comparing the motion information.

Способы могут содержать определение, что объединяемый кандидат исходит из одной из входных позиций прогнозирования HMVP; и копирование флага комбинированного режима прогнозирования CIIP из этой входной позиции объединяемому кандидату.The methods may comprise determining that the candidate to be combined comes from one of the HMVP prediction input positions; and copying the combined CIIP prediction mode flag from this input position to the merged candidate.

Способы могут содержать определение, что объединяемый кандидат исходит из одной из входных позиций прогнозирования HMVP; и копирование флага комбинированного режима прогнозирования CIIP и индикации режима внутрикадрового прогнозирования CIIP из этой входной позиции объединяемому кандидату.The methods may comprise determining that the candidate to be combined comes from one of the HMVP prediction input positions; and copying the combined CIIP prediction mode flag and the CIIP intra prediction mode indication from the input position to the merged candidate.

Способы могут содержать ситуацию, когда какой-либо флаг из указанной совокупности одного или нескольких флагов относится к комбинированному режиму прогнозирования CIIP, и этот режим прогнозирования CIIP осуществляется для усовершенствованного прогнозирования вектора движения (AMVP).The methods may comprise a situation where any flag of said set of one or more flags is related to a combined CIIP prediction mode, and this CIIP prediction mode is performed for advanced motion vector prediction (AMVP).

Способы могут содержать ситуацию, когда флаг комбинированного режима прогнозирования CIIP и флаг режима внутрикадрового прогнозирования передают в виде сигнализации в режиме прогнозирования AMVP.The methods may comprise a situation where a combined CIIP prediction mode flag and an intra prediction mode flag are signaled in the AMVP prediction mode.

Способы могут содержать ситуацию, когда флаг комбинированного режима прогнозирования CIIP унаследован в режиме объединения или в режиме расширения UMVE, этот флаг режима прогнозирования CIIP содержит рабочее состояние «истинно», больше одного режима внутрикадрового прогнозирования допускаются в режиме прогнозирования CIIP, и передают сигнализацию об одном из режимов внутрикадрового прогнозирования на основе этих одного или нескольких режимов внутрикадрового прогнозирования допустимых в режиме прогнозирования CIIP.The methods may comprise a situation where the CIIP combined prediction mode flag is inherited in the combining mode or in the UMVE extension mode, this CIIP prediction mode flag contains the operating state "true", more than one intra frame prediction mode is allowed in the CIIP prediction mode, and signaling one of intra-prediction modes based on those one or more intra-prediction modes allowed in the CIIP prediction mode.

Способы могут содержать ситуацию, когда флаг комбинированного режима прогнозирования CIIP и индикация режима внутрикадрового прогнозирования для соседних или несмежных видеоблоков в режиме объединения или режиме расширения UMVE унаследованы вторым видеоблоком.The methods may comprise a situation where the CIIP combined prediction mode flag and the intra-frame prediction mode indication for adjacent or non-adjacent video blocks in the merge mode or the UMVE extension mode are inherited by the second video block.

Способы могут содержать ситуацию, когда комбинированное прогнозирование CIIP не активизировано для режима пропуска.The methods may include the situation where the combined CIIP prediction is not activated for the skip mode.

Способы могут содержать сравнение информации относительно двух кандидатов, и при этом флаг комбинированного режима прогнозирования CIIP или флаг режима внутрикадрового прогнозирования из комбинированного режима прогнозирования CIIP не используются при сравнении информации.The methods may comprise comparing information regarding the two candidates, and wherein the CIIP combined prediction mode flag or intra-frame prediction mode flag from the CIIP combined prediction mode is not used in comparing the information.

Способы могут содержать сравнение информации относительно двух кандидатов, и при этом флаг комбинированного режима прогнозирования CIIP или флаг режима внутрикадрового прогнозирования из комбинированного режима прогнозирования CIIP используются при сравнении информации.The methods may comprise comparing information regarding the two candidates, wherein a CIIP combined prediction mode flag or an intra prediction mode flag from the CIIP combined prediction mode is used in comparing the information.

Способы могут содержать ситуацию, когда один или несколько кандидатов, участвующих в попарном прогнозировании или комбинированном двунаправленном прогнозировании, принимают комбинированное прогнозирование CIIP и когда рабочее состояние активизировано.The methods may comprise a situation where one or more candidates participating in pairwise prediction or combined bidirectional prediction receive a combined CIIP prediction and when the operating state is activated.

Способы могут содержать ситуацию, когда режим внутрикадрового прогнозирования одного из двух кандидатов является унаследованным.The methods may comprise a situation where the intra-prediction mode of one of the two candidates is legacy.

Способы могут содержать ситуацию, в виде сигнализации сообщают режим внутрикадрового прогнозирования.The methods may comprise a situation in which the intra-prediction mode is signaled.

Способы могут содержать ситуацию, когда два кандидата участвуют в попарном прогнозировании или комбинированном двунаправленном прогнозировании.The methods may include the situation where two candidates participate in pairwise prediction or combined bidirectional prediction.

Способы могут содержать ситуацию, когда реконструированные отсчеты, используемые при комбинированном прогнозировании CIIP, в рассеивающем фильтре, двустороннем фильтре, фильтре преобразованной области или пост-реконструкционных фильтрах других типов заменены отсчетами из опорных изображений.The methods may include reconstructed samples used in combined CIIP prediction in a diffusing filter, a two-sided filter, a transformed region filter, or other types of post-reconstruction filters are replaced with samples from reference images.

Способы могут содержать ситуацию, когда второй видеоблок подвергают двунаправленному прогнозированию, и соседние отсчеты двух опорных блоков усредняют для генерации окончательных соседних отсчетов.The methods may comprise a situation where the second video block is subjected to bi-directional prediction and adjacent samples of two reference blocks are averaged to generate the final adjacent samples.

Способы могут содержать ситуацию, когда второй видеоблок подвергают двунаправленному прогнозированию, и соседние отсчеты двух опорных блоков используют в качестве окончательных соседних отсчетов.The methods may comprise a situation where the second video block is subjected to bi-directional prediction and adjacent samples of two reference blocks are used as the final adjacent samples.

Способы могут содержать ситуацию, когда второй видеоблок подвергают двунаправленному прогнозированию, и для получения второго видеоблока применяют взвешенное усреднение соседних отсчетов двух опорных блоков для генерации окончательных соседних отсчетов на основе обобщенного двунаправленного прогнозирования (GBI) с неравными весовыми коэффициентами, либо компенсацию LIC с взвешенным прогнозированием.The methods may include a situation where a second video block is subjected to bi-directional prediction, and to obtain a second video block, a weighted average of adjacent samples of two reference blocks is used to generate final adjacent samples based on generalized bi-directional prediction (GBI) with unequal weights, or LIC compensation with weighted prediction.

Способы могут содержать ситуацию, когда отсчеты в опорных изображениях идентифицируют посредством информации о движении для второго видеоблока.The methods may comprise the situation where the samples in the reference pictures are identified by motion information for the second video block.

Способы могут содержать ситуацию, когда отсчеты в опорных изображениях идентифицируют посредством информации о движении для второго видеоблока.The methods may comprise the situation where the samples in the reference pictures are identified by motion information for the second video block.

Способы могут содержать ситуацию, когда вектор движения округляют с целочисленной точностью и используют для идентификации отсчетов.The methods may include a situation where the motion vector is rounded to integer precision and used to identify samples.

Способы могут содержать ситуацию, когда отсчеты располагаются в опорных изображениях, идентифицируемых векторами движения с точностью до целых элементов изображения.The methods may include the situation where samples are located in reference images identified by motion vectors with an accuracy of whole pixels.

Способы могут содержать определение характеристик второго видеоблока, совокупность этих характеристик содержит одно или более из следующего – размер блока, тип среза, тип изображения, тип плитки или информацию о движении, и при этом ограничение рабочего состояния производится на основе такого определения характеристик.The methods may comprise defining characteristics of the second video block, the set of these characteristics comprising one or more of block size, slice type, image type, tile type, or motion information, and wherein the operating state is constrained based on such characteristic definition.

Способы могут содержать ситуацию, когда сигнализацию об этих способах передают в наборе параметров последовательности (SPS), наборе параметров видео (VPS), наборе параметров изображения (PPS), заголовке последовательности, заголовке изображения, заголовке среза, заголовке группы плиток, плитке или группе единиц CTU.The methods may include the situation that the methods are signaled in a sequence parameter set (SPS), a video parameter set (VPS), a picture parameter set (PPS), a sequence header, a picture header, a slice header, a tile group header, a tile, or a group of units. CTU.

Приведенный ниже список технических решений далее предлагает варианты и вариации статей, перечисленных в предыдущем разделе (например, статей 11 – 16).The following list of technical solutions further suggests variants and variations of the articles listed in the previous section (for example, articles 11 - 16).

40. Способ обработки видео, содержащий: осуществление преобразования между видеоблоком видео и кодированным представлением этого видеоблока с использованием комбинированного режима внутрикадрового и межкадрового прогнозирования, в котором указанное кодированное представление соответствует взвешенному усреднению результатов внутрикадрового и межкадрового прогнозирования для видеоблока с использованием пары весовых коэффициентов из группы пар весовых коэффициентов, куда входят меньше трех пар.40. A video processing method, comprising: performing a transformation between a video video block and an encoded representation of this video block using a combined mode of intra-frame and inter-frame prediction, in which the specified encoded representation corresponds to a weighted average of the results of intra-frame and inter-frame prediction for a video block using a pair of weight coefficients from a group of pairs weight coefficients, which include less than three pairs.

41. Способ согласно решению 40, отличающийся тем, что указанная группа пар весовых коэффициентов соответствует двум парам.41. The method according to solution 40, characterized in that said group of weight pairs corresponds to two pairs.

42. Способ согласно какому-либо из решений 40 – 41, отличающийся тем, что пары весовых коэффициентов определяют на основе одного соседнего блока. 42. The method according to any of the solutions 40-41, characterized in that pairs of weight coefficients are determined based on one neighboring block.

43. Способ согласно какому-либо из решений 40 – 41, отличающийся тем, что пары весовых коэффициентов определяют на основе нескольких соседних блоков.43. The method according to any of the solutions 40-41, characterized in that pairs of weight coefficients are determined based on several adjacent blocks.

44. Способ согласно решению 40, отличающийся тем, что группа пар весовых коэффициентов содержит точно одну пару. 44. The method of solution 40, wherein the group of weight pairs contains exactly one pair.

45. Способ согласно решению 44, отличающийся тем, что указанная одна пара представляет собой одно из (1,3) или (2, 2) или (1,7) или (2, 6) или (3, 5) или (4, 4).45. The method according to solution 44, characterized in that said one pair is one of (1,3) or (2, 2) or (1,7) or (2, 6) or (3, 5) or (4 , 4).

46. Способ обработки видео, содержащий: осуществление преобразования между видеоблоком видео и кодированным представлением этого видеоблока с использованием комбинированного режима внутрикадрового и межкадрового прогнозирования, в котором это кодированное представление соответствует взвешенному среднему результатов внутрикадрового и межкадрового прогнозирования видеоблока с использованием пары весовых коэффициентов из группы пар весовых коэффициентов, определяемой на основе информации о кодировании для одного или нескольких соседних блоков.46. A video processing method, comprising: converting between a video video block and an encoded representation of this video block using a combined intra-frame and inter-frame prediction mode, in which this encoded representation corresponds to a weighted average of the results of intra-frame and inter-frame prediction of the video block using a pair of weight coefficients from a group of weight pairs coefficients determined based on the coding information for one or more neighboring blocks.

47. Способ согласно решению 46, отличающийся тем, что группу пар весовых коэффициентов определяют на основе точно одного соседнего блока. 47. The method according to decision 46, characterized in that the group of weight pairs is determined based on exactly one adjacent block.

48. Способ согласно решению 46, отличающийся тем, что группу пар весовых коэффициентов определяют на основе двух или более соседних блоков. 48. The method according to decision 46, characterized in that a group of weight pairs is determined based on two or more neighboring blocks.

49. Способ согласно какому-либо из решений 40 – 48, отличающийся тем, что процедура преобразования содержит кодирование видео для генерации кодированного представления. 49. The method according to any of the solutions 40-48, characterized in that the conversion procedure comprises video encoding to generate an encoded representation.

50. Способ согласно какому-либо из решений 40 – 48, отличающийся тем, что процедура преобразования содержит декодирование кодированного представления для генерации видео.50. The method according to any one of solutions 40-48, wherein the conversion procedure comprises decoding the encoded representation to generate a video.

Разнообразные другие варианты и дополнительные признаки этих способов могут быть описаны с использованием следующего постатейного перечисления.Various other variations and additional features of these methods may be described using the following itemized enumeration.

1. Способ обработки видео, содержащий:1. Video processing method, comprising:

определение, в процессе преобразования между первым блоком данных видео и представлением этого первого блока в форме потока битов данных, одного или нескольких режимов кодирования для одного или нескольких вторых блоков;determining, in the process of converting between a first block of video data and a data bitstream representation of that first block, one or more coding modes for one or more second blocks;

определение, на основе указанных одного или нескольких режимов кодирования для одного или нескольких вторых блоков, ограничения режима кодирования для первого блока; иdetermining, based on said one or more coding modes for the one or more second blocks, a coding mode constraint for the first block; And

осуществление преобразования, по меньшей мере путем применения указанного ограничения режима кодирования для первого блока;performing the conversion at least by applying said coding mode constraint to the first block;

где совокупность одного или нескольких вторых блоков содержит по меньшей мере одно из следующего – смежный блок, несмежный блок и/или опорный блок для первого блока.where the collection of one or more second blocks contains at least one of the following - an adjacent block, a non-adjacent block, and/or a reference block for the first block.

2. Способ согласно статье 1, отличающийся тем, что процедура определения ограничения режима кодирования для первого блока содержит: 2. The method according to Article 1, characterized in that the procedure for determining the restriction of the coding mode for the first block contains:

определение, на основе одного или нескольких режимов кодирования для одного или нескольких вторых блоков, одного или нескольких флагов, соответствующих указанным одному или нескольким режимам кодирования первого блока, соответственно.determining, based on one or more coding modes for one or more second blocks, one or more flags corresponding to said one or more coding modes of the first block, respectively.

3. Способ согласно статье 2, отличающийся тем, что совокупность указанных одного или нескольких режимов кодирования содержит:3. The method according to Article 2, characterized in that the set of said one or more encoding modes contains:

комбинированный режим кодирования с внутрикадровым и межкадровым прогнозированием (CIIP), режим с локальной компенсацией освещенности (LIC), режим рассеивающей фильтрации, режим двусторонней фильтрации, режим фильтрации в преобразованной области или режим пост-реконструкционной фильтрации, отличный от. режима рассеивающей фильтрации, режима двусторонней фильтрации и режима фильтрации в преобразованной области.a combined intra- and inter-prediction (CIIP) coding mode, a local illumination compensation (LIC) mode, a diffuse filtering mode, a two-way filtering mode, a transform domain filtering mode, or a post-rendering filtering mode other than. diffuse filtering mode, bilateral filtering mode and filtering mode in the transformed area.

4. Способ согласно какой-либо из статей 2 – 3, отличающийся тем, что указанное ограничение режима кодирования для первого блока содержит:4. The method according to any of articles 2 - 3, characterized in that the specified encoding mode restriction for the first block contains:

первый режим кодирования из совокупности одного или нескольких режимов кодирования для первого блока не активизирован, когда определено, что первый флаг, соответствующий этому первому режиму кодирования, является ложным.the first coding mode of the plurality of one or more coding modes for the first block is not activated when it is determined that the first flag corresponding to this first coding mode is false.

5. Способ согласно какой-либо из статей 2 – 4, отличающийся тем, что указанное ограничение режима кодирования для первого блока содержит:5. A method according to any of Articles 2 to 4, characterized in that said coding mode constraint for the first block contains:

информацию, обозначающую, активизирован ли второй режим кодирования из указанной совокупности одного или нескольких режимов кодирования для первого блока, не передают в виде сигнализации, когда определено, что второй флаг, соответствующий этому второму режиму кодирования, является ложным.information indicating whether the second coding mode is activated from said set of one or more coding modes for the first block is not signaled when it is determined that the second flag corresponding to this second coding mode is false.

6. Способ согласно какой-либо из статей 2 – 5, отличающийся тем, что указанное ограничение режима кодирования для первого блока содержит:6. A method according to any of Articles 2 to 5, characterized in that said coding mode constraint for the first block contains:

информацию, обозначающую, активизирован ли третий режим кодирования из указанной совокупности одного или нескольких режимов кодирования для первого блока, передают в виде сигнализации и ограничивают, чтобы она была ложной, в потоке битов данных соответствия, когда определено, что третий флаг, соответствующий этому третьему режиму кодирования, является ложным.information indicating whether a third coding mode is activated from a specified set of one or more coding modes for the first block is signaled and constrained to be false in the matching data bit stream when it is determined that the third flag corresponding to the third mode encoding is false.

7. Способ согласно какой-либо из статей 1 – 6, дополнительно содержащий:7. A method according to any of Articles 1 to 6, further comprising:

определение, следует ли применить указанное ограничение режима кодирования для первого блока. determining whether to apply the specified coding mode constraint to the first block.

8. Способ согласно статье 7, отличающийся тем, что процедура определения, следует ли применить указанное ограничение режима кодирования для первого блока, содержит:8. The method according to Article 7, characterized in that the procedure for determining whether to apply the specified coding mode constraint for the first block comprises:

определение, следует ли применить указанное ограничение режима кодирования для первого блока, в соответствии с режимами кодирования для соседних строк или столбцов относительно первого блока.determining whether to apply the specified encoding mode constraint to the first block according to the encoding modes for adjacent rows or columns relative to the first block.

9. Способ согласно статье 7, отличающийся тем, что процедура определения, следует ли применить указанное ограничение режима кодирования для первого блока, содержит:9. The method according to Article 7, characterized in that the procedure for determining whether to apply the specified coding mode constraint for the first block comprises:

определение, следует ли применить указанное ограничение режима кодирования для первого блока, в соответствии по меньшей мере с N отсчетами в соседних строках или в соседних столбцах первого блока, которые не кодированы в четвертом режиме, и N≥1.determining whether to apply the specified coding mode constraint to the first block according to at least N samples in adjacent rows or adjacent columns of the first block that are not fourth mode encoded, and N≥1.

10. Способ согласно статье 8 или 9, отличающийся тем, что указанная соседняя строка представляет собой строку сверху и/или строку сверху справа относительно первого блока.10. The method according to article 8 or 9, characterized in that said adjacent line is the line above and/or the line above to the right of the first block.

11. Способ согласно какой-либо из статей 8 – 10, отличающийся тем, что указанный соседний столбец представляет собой столбец слева, столбец снизу слева и угловой столбец сверху слева относительно первого блока.11. A method according to any of articles 8 to 10, characterized in that said adjacent column is a column on the left, a column on the bottom left, and a corner column on the top left of the first block.

12. Способ согласно какой-либо из статей 7 – 11, отличающийся тем, что процедура определения, следует ли применить указанное ограничение режима кодирования для первого блока, содержит:12. A method according to any of Articles 7 to 11, characterized in that the procedure for determining whether said coding mode constraint should be applied to the first block comprises:

определение, что указанное ограничение режима кодирования для первого блока следует применить, когда какой-либо соседний несмежный блок кодируют в четвертом режиме.determining that the specified coding mode constraint for the first block should be applied when any neighboring non-contiguous block is encoded in the fourth mode.

13. Способ согласно какой-либо из статей 7 – 11, отличающийся тем, что процедура определения, следует ли применить указанное ограничение режима кодирования для первого блока, содержит:13. A method according to any of Articles 7 to 11, characterized in that the procedure for determining whether said coding mode constraint should be applied to the first block comprises:

определение, что указанное ограничение режима кодирования для первого блока следует применить, когда все соседние несмежные блоки кодируют в четвертом режиме.determining that the specified coding mode constraint for the first block should be applied when all neighboring non-contiguous blocks are encoded in the fourth mode.

14. Способ согласно какой-либо из статей 7 – 11, отличающийся тем, что процедура определения, следует ли применить указанное ограничение режима кодирования для первого блока, содержит:14. A method according to any of Articles 7 to 11, characterized in that the procedure for determining whether said coding mode constraint should be applied to the first block comprises:

определение, что указанное ограничение режима кодирования для первого блока не следует применять, когда по меньшей мере M соседних несмежных блоков не кодируют в четвертом режиме, и M представляет собой заданное первое пороговое значение.determining that said coding mode constraint for the first block should not be applied when at least M adjacent non-contiguous blocks are not fourth mode encoded and M is a predetermined first threshold.

15. Способ согласно какой-либо из статей 9 – 14, отличающийся тем, что совокупность четвертых режимов содержит по меньшей мере один из режимов – режим внутрикадрового прогнозирования, комбинированный режим кодирования с внутрикадровым и межкадровым прогнозированием (CIIP) и режим с использованием опорного изображения в качестве опоры (CPR).15. The method according to any of Articles 9 to 14, characterized in that the set of fourth modes comprises at least one of the modes - intra-prediction mode, combined intra- and inter-prediction (CIIP) coding mode, and a mode using a reference image in as a support (CPR).

16. Способ согласно какой-либо из статей 7 – 14, отличающийся тем, что процедура определения, следует ли применить указанное ограничение режима кодирования для первого блока, содержит:16. A method according to any one of Articles 7 to 14, characterized in that the procedure for determining whether said coding mode constraint should be applied to the first block comprises:

определение, следует ли применить указанное ограничение режима кодирования для первого блока, в соответствии с позицией первого блока.determining whether to apply the specified coding mode constraint to the first block, according to the position of the first block.

17. Способ согласно статье 16, отличающийся тем, что процедура определения, следует ли применить указанное ограничение режима кодирования для первого блока в соответствии с позицией этого первого блока, содержит:17. The method according to article 16, characterized in that the procedure for determining whether to apply the specified coding mode restriction for the first block in accordance with the position of this first block, contains:

определение, что указанное ограничение режима кодирования для первого блока не следует применять, когда указанная позиция находится сверху от текущей единицы дерева кодирования (CTU), а соседний блок сверху и первый блок принадлежат разным единицам CTU.determining that the specified coding mode constraint for the first block should not be applied when the specified position is upstream of the current coding tree unit (CTU) and the upstream adjacent unit and the first block belong to different CTUs.

18. Способ согласно статье 16, отличающийся тем, что процедура определения, следует ли применить указанное ограничение режима кодирования для первого блока в соответствии с позицией этого первого блока, содержит:18. The method according to article 16, characterized in that the procedure for determining whether to apply the specified coding mode restriction for the first block in accordance with the position of this first block, contains:

определение, что указанное ограничение режима кодирования для первого блока не следует применять, когда указанная позиция находится слева от текущей единицы дерева кодирования (CTU), а соседний блок слева и первый блок принадлежат разным единицам CTU.determining that the specified coding mode constraint for the first block should not be applied when the specified position is to the left of the current coding tree unit (CTU) and the left adjacent block and the first block belong to different CTUs.

19. Способ согласно какой-либо из статей 1 – 18, дополнительно содержащий: 19. A method according to any of Articles 1 to 18, further comprising:

определение характеристики текущего блока; и determining the characteristics of the current block; And

определение, что следует применить указанное ограничение режима кодирования для текущего блока, когда указанная характеристика текущего блока удовлетворяет заданному условию.determining that the specified coding mode constraint should be applied to the current block when the specified characteristic of the current block satisfies the specified condition.

20. Способ согласно какой-либо из статей 1 – 18, дополнительно содержащий:20. A method according to any of Articles 1 to 18, further comprising:

определение характеристик текущего блока и/или ранее кодированных блоков; и determining characteristics of the current block and/or previously encoded blocks; And

определение, следует ли применить указанное ограничение режима кодирования для текущего блока, в соответствии с характеристиками текущего блока и/или ранее кодированных блоков determining whether a specified coding mode constraint should be applied to the current block, according to characteristics of the current block and/or previously coded blocks

21. Способ обработки видео, содержащий:21. Video processing method, comprising:

осуществление преобразования между текущим блоком данных видео и представлением этого текущего блока в форме потока битов данных с использованием по меньшей мере одного из режимов – комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP), режима рассеивающей фильтрации, режима двусторонней фильтрации, режима фильтрации в преобразованной области или другого типа режима пост-реконструкционной фильтрации, отличной от рассеивающей фильтрации, двусторонней фильтрации и фильтрации в преобразованной области,converting between the current block of video data and the representation of this current block in the form of a data bit stream using at least one of the combined intra-frame and inter-frame prediction (CIIP) coding mode, diffuse filtering mode, two-way filtering mode, transformed filtering mode region or other type of post-reconstruction filtering mode other than diffuse filtering, two-sided filtering, and filtering in the transformed region,

где реконструированные соседние отсчеты для соседнего блока, используемые меньшей мере в одном из режимов – комбинированном режиме кодирования с внутрикадровым и межкадровым прогнозированием (CIIP), режиме рассеивающей фильтрации, режиме двусторонней фильтрации, режиме фильтрации в преобразованной области или режиме пост-реконструкционной фильтрации другого типа, заменяют аппроксимированными отсчетами, генерируемыми на основе соответствующих отсчетов из совокупности реконструированных соседних отсчетов в одном или нескольких опорных изображениях.where are the reconstructed neighbor samples for a neighboring block used in at least one of the combined intra- and inter-frame prediction (CIIP) coding mode, diffuse filtering mode, two-way filtering mode, transformed domain filtering mode, or another type of post-reconstruction filtering mode, are replaced by approximated samples generated based on the corresponding samples from the set of reconstructed adjacent samples in one or more reference images.

22. Способ согласно статье 21, отличающийся тем, что соседние отсчеты из двух опорных блоков относительно текущего блока усредняют для генерации аппроксимированных отсчетов, когда текущий блок подвергают двунаправленному прогнозированию.22. The method according to Clause 21, wherein adjacent samples from two reference blocks relative to the current block are averaged to generate approximate samples when the current block is subjected to bidirectional prediction.

23. Способ согласно статье 21, отличающийся тем, что соседние отсчеты одного опорного блока относительно текущего блока используются в качестве аппроксимированных отсчетов, когда текущий блок подвергнут двунаправленному прогнозированию или однонаправленному прогнозированию.23. The method according to clause 21, characterized in that adjacent samples of one reference block relative to the current block are used as approximate samples when the current block is subjected to bidirectional prediction or unidirectional prediction.

24. Способ согласно статье 21, отличающийся тем, что соседние отсчеты из двух опорных блоков для текущего блока подвергают взвешенному усреднению для генерации аппроксимированных отсчетов, когда текущий блок подвергнут двунаправленному прогнозированию, и к этому текущему блоку применяют по меньшей мере одно – обобщенное двунаправленное прогнозирование (GBI) с неравными весовыми коэффициентами, взвешенное прогнозирование и/или локальную компенсацию освещенности (LIC).24. The method according to Article 21, characterized in that adjacent samples from two reference blocks for the current block are subjected to a weighted average to generate approximate samples, when the current block is subjected to bidirectional prediction, and at least one generalized bidirectional prediction is applied to this current block ( GBI) with unequal weighting factors, weighted prediction and/or local illumination compensation (LIC).

25. Способ согласно статье 22 – 24, отличающийся тем, что соседние отсчеты из опорных блоков относительно текущего блока идентифицированы посредством информации о движении текущего блока.25. The method according to Articles 22-24, characterized in that neighboring samples from the reference blocks relative to the current block are identified by information about the movement of the current block.

26. Способ согласно статье 22 – 24, отличающийся тем, что соседние отсчеты из опорных блоков относительно текущего блока идентифицированы посредством модифицированной информации о движении для текущего блока.26. The method according to Articles 22 to 24, characterized in that adjacent reference block samples relative to the current block are identified by modified motion information for the current block.

27. Способ согласно статье 24, отличающийся тем, что модифицированная информация о движении текущего блока представляет собой модифицированный вектор движения, округленный до целочисленной точности.27. The method according to clause 24, characterized in that the modified motion information of the current block is a modified motion vector rounded to integer precision.

28. Способ согласно статье 21, отличающийся тем, что соседние отсчеты из опорных блоков относительно текущего блока идентифицированы посредством векторов движения с точностью до целых элементов изображения.28. The method according to Article 21, characterized in that neighboring samples from the reference blocks relative to the current block are identified by motion vectors with an accuracy of whole pixels.

29. Способ согласно статье 28, отличающийся тем, что векторы движения для реконструированных соседних отсчетов округлены до целочисленной точности, чтобы идентифицировать соответствующие отсчеты.29. The method according to clause 28, characterized in that the motion vectors for the reconstructed adjacent samples are rounded to integer precision in order to identify the corresponding samples.

30. Способ согласно какой-либо из статей 21 – 29, отличающийся тем, что реконструированные соседние отсчеты для текущих блоков заменяют аппроксимированными отсчетами только тогда, когда текущий блок кодируют с точностью до целых пикселей.30. The method according to any of Articles 21 to 29, characterized in that the reconstructed adjacent samples for the current blocks are replaced by approximated samples only when the current block is encoded with an accuracy of whole pixels.

31. Способ согласно какой-либо из статей 21 – 30, отличающийся тем, что реконструированные соседние отсчеты для текущих блоков заменяют аппроксимированными отсчетами только яркостной составляющей или только цветностной составляющей.31. The method according to any of articles 21 to 30, characterized in that the reconstructed adjacent samples for the current blocks are replaced with approximated samples of only the luminance component or only the chrominance component.

32. Способ согласно какой-либо из статей 19 – 31, дополнительно содержащий: 32. A method according to any of Articles 19 to 31, further comprising:

определение характеристики текущего блока; и determining the characteristics of the current block; And

определение, что следует заменить реконструированные соседние отсчеты для текущих блоков аппроксимированными отсчетами, когда указанная характеристика текущего блока удовлетворяет заданному условию.determining that the reconstructed adjacent samples for the current blocks should be replaced with the approximated samples when the specified characteristic of the current block satisfies a given condition.

33. Способ согласно статье 19 или 32, отличающийся тем, что указанная характеристика текущего блока содержит по меньшей мере одно – размер блока, тип среза, тип изображения, тип плитки и информацию о движении.33. The method according to article 19 or 32, characterized in that said characteristic of the current block contains at least one - block size, slice type, image type, tile type, and motion information.

34. Способ согласно статье 33, отличающийся тем, что указанное заданное условие состоит в том, что текущий блок содержит отсчеты не меньше заданного второго порогового значения.34. The method according to article 33, characterized in that said predetermined condition is that the current block contains samples not less than a predetermined second threshold value.

35. Способ согласно статье 33, отличающийся тем, что указанное заданное условие состоит в том, что ширина и высота текущего блока больше заданного третьего порогового значения.35. The method according to article 33, characterized in that said predetermined condition is that the width and height of the current block is greater than the predetermined third threshold value.

36. Способ согласно статье 33, отличающийся тем, что указанное заданное условие состоит в том, что ширина и высота текущего блока меньше заданного четвертого порогового значения.36. The method according to article 33, characterized in that said predetermined condition is that the width and height of the current block is less than a predetermined fourth threshold value.

37. Способ согласно статье 33, отличающийся тем, что указанное заданное условие состоит в том, что ширина текущего блока меньше заданного пятого порогового значения и/или высота текущего блока меньше заданного шестого порогового значения.37. The method according to Article 33, characterized in that said predetermined condition is that the width of the current block is less than the predetermined fifth threshold value and/or the height of the current block is less than the predetermined sixth threshold value.

38. Способ согласно статье 33, отличающийся тем, что указанное заданное условие состоит в том, что ширина текущего блока больше заданного седьмого порогового значения и/или высота текущего блока больше заданного восьмого порогового значения.38. The method according to Article 33, characterized in that said predetermined condition is that the width of the current block is greater than the predetermined seventh threshold value and/or the height of the current block is greater than the predetermined eighth threshold value.

39. Способ согласно статье 38, отличающийся тем, что39. Method according to article 38, characterized in that

передают в виде сигнализации информацию, указывающую, следует ли применить ограничение режима кодирования для текущего блока и/или заменить реконструированные соседние отсчеты аппроксимированными отсчетами в наборе параметров последовательности (SPS), наборе параметров видео (VPS), наборе параметров изображение (PPS), в заголовке последовательности, заголовке изображения, заголовке среза, заголовке группы плиток, плитке или группе единиц CTU.signaling information indicating whether to apply a coding mode constraint to the current block and/or replace reconstructed adjacent samples with approximated samples in the sequence parameter set (SPS), video parameter set (VPS), picture parameter set (PPS), in the header sequence, image title, slice title, tile group title, tile, or CTU group.

40. Способ согласно какой-либо из статей 21 – 39, дополнительно содержащий:40. A method according to any of Articles 21 to 39, further comprising:

определение характеристик текущего блока и/или ранее кодированных блоков; и determining characteristics of the current block and/or previously encoded blocks; And

определение, следует ли заменить реконструированные соседние отсчеты аппроксимированными отсчетами в соответствии с указанными характеристиками текущего блока или ранее кодированных блоков.determining whether reconstructed adjacent samples should be replaced with approximated samples according to specified characteristics of the current block or previously coded blocks.

41. Способ согласно статье 20 или 40, отличающийся тем, что совокупность указанных характеристик текущего блока и/или ранее кодированных блоков содержит по меньшей мере одно из следующего – размер блока, единицу обработки данных видео (VPDU), тип изображения, флаг проверки малой задержки, информацию кодирования для текущего блока и/или ранее кодированных блоков.41. The method according to Article 20 or 40, characterized in that the set of specified characteristics of the current block and/or previously coded blocks contains at least one of the following - block size, video processing unit (VPDU), image type, low delay check flag , encoding information for the current block and/or previously coded blocks.

42. Способ согласно статье 41, отличающийся тем, что информация кодирования для текущего блока и/или ранее кодированных блоков указывает опорные изображения, однонаправленное прогнозирование или двунаправленное прогнозирование.42. The method according to clause 41, characterized in that the encoding information for the current block and/or previously coded blocks indicates reference pictures, unidirectional prediction or bidirectional prediction.

43. Устройство для обработки видео, содержащее процессор, конфигурированный для осуществления способа согласно какой-либо из статей 1 – 42. 43. A video processing device containing a processor configured to implement a method according to any of Articles 1 to 42.

44. Устройство согласно статье 43, отличающееся тем, что это устройство является кодирующим устройством для видео.44. Device according to article 43, characterized in that this device is a video encoding device.

45. Устройство согласно статье 43, отличающееся тем, что это устройство является декодирующим устройством для видео.45. A device according to article 43, characterized in that this device is a decoding device for video.

46. Читаемые компьютером носители для записи информации, на которых записан код, содержащий программу, в соответствии с этой программой процессор осуществляет способ согласно какой-либо из статей 1 – 42.46. Computer-readable media for recording information on which a code containing a program is recorded, in accordance with this program, the processor performs a method according to any of Articles 1 to 42.

Разнообразные другие варианты и дополнительные признаки этих способов могут быть описаны с использованием следующего постатейного перечисления.Various other variations and additional features of these methods may be described using the following itemized enumeration.

1. Способ обработки видео, содержащий:1. Video processing method, comprising:

сохранение флага комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP) и/или режима внутрикадрового прогнозирования из комбинированного режима прогнозирования CIIP с информацией о движении в таблице прогнозирования вектора движения на основе предыстории (HMVP); иstoring a combined intra- and inter-prediction (CIIP) coding mode flag and/or an intra-frame prediction mode from the CIIP combined prediction mode with motion information in a history-based motion vector prediction (HMVP) table; And

осуществление, по меньшей мере на основе таблицы прогнозирования HMVP, преобразования между текущим блоком данных видео и представлением этого текущего блока в форме потока битов данных.performing, at least based on the HMVP prediction table, a transformation between the current block of video data and a representation of this current block in the form of a data bitstream.

2. Способ согласно статье 1, дополнительно содержащий:2. The method according to article 1, further comprising:

сравнение информации о движении для двух кандидатов, comparing traffic information for two candidates,

где флаг комбинированного режима прогнозирования CIIP и/или режим внутрикадрового прогнозирования из комбинированного режима прогнозирования CIIP не используются в сравнении информации о движении для двух кандидатов.where the CIIP combined prediction mode flag and/or intra-frame prediction mode from the CIIP combined prediction mode are not used in comparing the motion information for the two candidates.

3. Способ согласно статье 1, дополнительно содержащий:3. The method according to Article 1, further comprising:

сравнение информации о движении для двух кандидатов, comparing traffic information for two candidates,

где флаг комбинированного режима прогнозирования CIIP и/или режим внутрикадрового прогнозирования из комбинированного режима прогнозирования CIIP используются в сравнении информации о движении для двух кандидатов.where the CIIP combined prediction mode flag and/or intra-frame prediction mode from the CIIP combined prediction mode are used in comparing the motion information for the two candidates.

4. Способ согласно какой-либо из статей 1 – 3, отличающийся тем, что процедура содержит:4. A method according to any of Articles 1 to 3, characterized in that the procedure contains:

когда объединяемый кандидат исходит из одной из входных позиций таблицы прогнозирования HMVP; копирование флага комбинированного режима прогнозирования CIIP из этой входной позиции объединяемому кандидату.when the merged candidate comes from one of the input positions of the HMVP prediction table; copying the combined CIIP prediction mode flag from this input position to the merged candidate.

5. Способ согласно какой-либо из статей 1 – 3, отличающийся тем, что процедура содержит:5. A method according to any of Articles 1 to 3, characterized in that the procedure contains:

когда объединяемый кандидат исходит из одной из входных позиций таблицы прогнозирования HMVP; копирование флага комбинированного режима прогнозирования CIIP и индикации режима внутрикадрового прогнозирования CIIP из этой входной позиции объединяемому кандидату.when the merged candidate comes from one of the input positions of the HMVP prediction table; copying the combined CIIP prediction mode flag and the CIIP intra prediction mode indication from the input position to the merged candidate.

6. Способ обработки видео, содержащий:6. Video processing method, comprising:

определение, в процессе преобразования между текущим блоком данных видео и представлением этого текущего блока в форме потока битов данных, режима прогнозирования для этого текущего блока; determining, in the process of converting between the current block of video data and a representation of this current block in the form of a data bit stream, a prediction mode for this current block;

определение применимости комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP), обозначающей, что этот режим прогнозирования CIIP активизирован для текущего блока, в ответ на определение, что текущий блок кодируют в режиме усовершенствованного прогнозирования вектора движения (AMVP) или в режиме объединения; и determining the applicability of a combined intra-frame and inter-frame prediction (CIIP) coding mode indicating that this CIIP prediction mode is activated for the current block, in response to determining that the current block is encoded in an advanced motion vector prediction (AMVP) mode or in a combining mode; And

осуществление преобразования, на основе применимости режима комбинированного прогнозирования. CIIP.performing a transformation based on the applicability of the combined prediction mode. CIIP.

7. Способ по статье 6, отличающийся тем, что флаг комбинированного режима прогнозирования CIIP и/или индикацию режима внутрикадрового прогнозирования CIIP передают в виде сигнализации, когда текущий блок кодирован в режиме прогнозирования AMVP.7. The method of Clause 6, wherein the CIIP combined prediction mode flag and/or CIIP intra prediction mode indication is signaled when the current block is encoded in the AMVP prediction mode.

8. Способ по статье 6 или 7, отличающийся тем, что флаг комбинированного режима прогнозирования CIIP и/или индикацию режима внутрикадрового прогнозирования CIIP для смежных соседних блоков и/или несмежных соседних блоков наследуют в режиме объединения и/или в режиме объединения с разностями векторов движения (MMVD) для текущего блока.8. The method of Clause 6 or 7, characterized in that the combined CIIP prediction mode flag and/or the CIIP intra-frame prediction mode indication for adjacent adjacent blocks and/or non-adjacent adjacent blocks are inherited in the combining mode and/or in the combining mode with motion vector differences (MMVD) for the current block.

9. Способ согласно какой-либо из статей 6 – 8, отличающийся тем, что флаг комбинированного режима прогнозирования CIIP и/или индикацию режима внутрикадрового прогнозирования CIIP для режима объединения, не являющегося режимом пропуска, и/или режима MMVD, не являющегося режимом пропуска, передают в виде сигнализации, а флаг комбинированного режима прогнозирования CIIP и/или индикацию режима внутрикадрового прогнозирования CIIP для смежных соседних блоков и/или несмежных соседних блоков. наследуют в режиме объединения с пропуском и/или в режиме MMVD с пропуском.9. The method according to any one of clauses 6 to 8, characterized in that the CIIP combined prediction mode flag and/or the CIIP intra-frame prediction mode indication for a non-skip combining mode and/or a non-skip MMVD mode, and a CIIP combined prediction mode flag and/or an intra-frame CIIP prediction mode indication for adjacent adjacent blocks and/or non-adjacent adjacent blocks are transmitted as signaling. inherit in skip merge mode and/or skip MMVD mode.

10. Способ согласно какой-либо из статей 6 – 8,. отличающийся тем, что флаг комбинированного режима прогнозирования CIIP и/или индикацию режима внутрикадрового прогнозирования CIIP режима объединения с пропуском и/или режима MMVD с пропуском передают в виде сигнализации, а флаг комбинированного режима прогнозирования CIIP и/или индикацию режима внутрикадрового прогнозирования CIIP для смежных соседних блоков и/или несмежных соседних блоков наследуют в режиме объединения, не являющемся режимом пропуска, и/или в режиме MMVD, не являющемся режимом пропуска.10. Method according to any of the articles 6 - 8,. characterized in that the CIIP combined prediction mode flag and/or the CIIP intra prediction mode indication of the skip combining mode and/or the MMVD skip mode is signaled, and the CIIP combined prediction mode flag and/or the CIIP intra prediction mode indication for adjacent adjacent blocks and/or non-contiguous neighboring blocks are inherited in a non-skip merge mode and/or in a non-skip MMVD mode.

11. Способ согласно какой-либо из статей 6 – 10, отличающийся тем, что флаг комбинированного режима прогнозирования CIIP наследуют в режиме объединения и/или в режиме MMVD с пропуском.11. The method according to any one of Clauses 6 to 10, characterized in that the combined CIIP prediction mode flag is inherited in the combined mode and/or in the skip MMVD mode.

12. Способ по статье 11, отличающийся тем, что индикацию режима внутрикадрового прогнозирования передают в виде сигнализации, когда флаг комбинированного режима прогнозирования CIIP является истинным и в режиме прогнозирования CIIP допускается больше одного режима внутрикадрового прогнозирования.12. The method of Clause 11, wherein the intra prediction mode indication is signaled when the combined CIIP prediction mode flag is true and more than one intra prediction mode is allowed in the CIIP prediction mode.

13. Способ согласно какой-либо из статей 6 – 12, отличающийся тем, что флаг комбинированного режима прогнозирования CIIP и/или индикацию режима внутрикадрового прогнозирования CIIP для смежных соседних блоков и/или несмежных соседних блоков, кодируемых в режиме объединения и/или в режиме MMVD, наследует текущий блок.13. The method according to any one of clauses 6 to 12, characterized in that the combined CIIP prediction mode flag and/or the CIIP intra-frame prediction mode indication for contiguous adjacent blocks and/or non-contiguous adjacent blocks encoded in the combined mode and/or in the mode MMVD, inherits the current block.

14. Способ согласно какой-либо из статей 6 – 13, дополнительно содержащий:14. A method according to any of Articles 6 to 13, further comprising:

отмену активизации комбинированного режима прогнозирования CIIP для режима пропуска.deactivating the combined CIIP prediction mode for the skip mode.

15. Способ согласно какой-либо из статей 6 – 13, дополнительно содержащий:15. A method according to any of Articles 6 to 13, further comprising:

сравнение информации о двух объединяемых кандидатов, comparison of information about two merged candidates,

где флаг комбинированного режима прогнозирования CIIP и/или the индикацию режима внутрикадрового прогнозирования CIIP не используют при сравнении информации о двух объединяемых кандидатов.where the CIIP combined prediction mode flag and/or the CIIP intra prediction mode indication is not used when comparing information about the two candidates being combined.

16. Способ согласно какой-либо из статей 6 – 13, дополнительно содержащий:16. A method according to any of Articles 6 to 13, further comprising:

сравнение информации о двух объединяемых кандидатах, comparison of information about the two candidates being merged,

где флаг комбинированного режима прогнозирования CIIP и/или the индикацию режима внутрикадрового прогнозирования CIIP используют при сравнении информации о двух объединяемых кандидатах.where the combined CIIP prediction mode flag and/or the CIIP intra prediction mode indication is used when comparing information about the two candidates to be combined.

17. Способ обработки видео, содержащий:17. Video processing method, comprising:

определение, в процессе преобразования между текущим блоком данных видео и представлением этого текущего блока в форме потока битов данных, типа выбранного объединяемого кандидата для текущего блока, иdetermining, in the process of converting between the current video data block and the data bitstream representation of that current block, the type of the selected merging candidate for the current block, and

определение, применимости комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP) для текущего блока в соответствии с выбранным объединяемым кандидатом,determining whether a combined intra-frame and inter-frame prediction (CIIP) coding mode is applicable for the current block in accordance with the selected merging candidate,

где текущий блок кодируют в режиме объединения.where the current block is encoded in merge mode.

18. Способ согласно статье 17, отличающийся тем, что режим прогнозирования CIIP не активизируют, когда выбранный объединяемый кандидат для текущего блока представляет собой по меньшей мере одно из – попарно объединяемый кандидат, объединяемый кандидат с двунаправленным прогнозированием, объединяемый кандидат с нулевым движением, или виртуальный или искусственный объединяемый кандидат. 18. The method according to Clause 17, wherein the CIIP prediction mode is not activated when the selected merged candidate for the current block is at least one of a pairwise merged candidate, a bidirectional merged candidate, a zero motion merged candidate, or a virtual or an artificial merge candidate.

19. Способ согласно статье 17 или 18, отличающийся тем, что когда один кандидат, участвующий в попарно объединяемом кандидате или объединяемом кандидате с двунаправленным прогнозированием принимает комбинированный режим прогнозирования CIIP, этот режим прогнозирования CIIP активизируют для такого попарно объединяемого кандидата или объединяемого кандидата с двунаправленным прогнозированием.19. The method according to Clause 17 or 18, characterized in that when one candidate participating in a pairwise pooled candidate or bidirectional prediction pooling candidate receives a combined CIIP prediction mode, that CIIP prediction mode is activated for that pairwise pooled candidate or bidirectional pooling candidate. .

20. Способ согласно статье 19, отличающийся тем, что режим внутрикадрового прогнозирования для участвующего кандидата комбинированного режима прогнозирования CIIP наследуется.20. The method of Clause 19, wherein the intra-prediction mode for the participating CIIP combined prediction mode candidate is inherited.

21. Способ согласно статье 19, отличающийся тем, что индикацию режима внутрикадрового прогнозирования для участвующего комбинированного режима прогнозирования CIIP сообщают в виде сигнализации для попарно объединяемого кандидата или объединяемого кандидата с двунаправленным прогнозированием.21. The method according to Clause 19, wherein the intra prediction mode indication for the participating combined CIIP prediction mode is reported as a signaling for a pairwise combined candidate or a combined bidirectional prediction candidate.

22. Способ согласно статье 17 или 18, отличающийся тем, что когда оба кандидата, участвующие в попарно объединяемом кандидате или в объединяемом кандидате с двунаправленным прогнозированием, принимают комбинированный режим прогнозирования CIIP, этот режим прогнозирования CIIP активизируют для попарно объединяемого кандидата или объединяемого кандидата с двунаправленным прогнозированием.22. The method according to Clause 17 or 18, characterized in that when both candidates participating in a pairwise combined candidate or a combined bidirectional prediction candidate receive a combined CIIP prediction mode, this CIIP prediction mode is activated for a pairwise combined candidate or a combined bidirectional candidate. forecasting.

23. Способ согласно статье 22, отличающийся тем, что режим внутрикадрового прогнозирования для одного из двух участвующих кандидатов является унаследованным.23. The method according to Article 22, characterized in that the intra-prediction mode for one of the two participating candidates is inherited.

24. Способ согласно статье 22, отличающийся тем, что режим внутрикадрового прогнозирования из участвующего комбинированного режима прогнозирования CIIP определяют из совокупности режимов внутрикадрового прогнозирования для двух участвующих кандидатов и используют для попарно объединяемого кандидата или объединяемого кандидата с двунаправленным прогнозированием.24. The method according to Clause 22, wherein the intra-prediction mode of the participating combined CIIP prediction mode is determined from a plurality of intra-prediction modes for two participating candidates, and is used for a pairwise combined candidate or a combined bidirectional prediction candidate.

25. Способ согласно статье 22, отличающийся тем, что индикацию режима внутрикадрового прогнозирования из участвующего комбинированного режима прогнозирования CIIP сообщают в виде сигнализации для попарно объединяемого кандидата или объединяемого кандидата с двунаправленным прогнозированием.25. The method according to Clause 22, wherein the intra prediction mode indication from the participating combined CIIP prediction mode is reported as a signaling for a pairwise combined candidate or a combined bidirectional prediction candidate.

26. Устройство для обработки видео, содержащее процессор, конфигурированный для осуществления способа согласно какой-либо из статей 1 – 25. 26. A video processing device comprising a processor configured to implement a method according to any of Articles 1 to 25.

27. Устройство согласно статье 26, отличающееся тем, что это устройство представляет собой кодирующее устройство для видео.27. A device according to article 26, characterized in that this device is a video encoder.

28. Устройство согласно статье 26, отличающееся тем, что это устройство представляет собой декодирующее устройство для видео.28. Device according to article 26, characterized in that this device is a video decoding device.

29. Читаемые компьютером носители для записи информации, на которых записана программа, содержащая код, при выполнении этой программы процессор осуществляет способ согласно какой-либо из статей 1 – 25.29. Computer-readable media for recording information on which a program containing code is recorded, when executing this program, the processor performs a method according to any of Articles 1 to 25.

Разнообразные другие варианты и дополнительные признаки этих способов могут быть описаны с использованием следующего постатейного перечисления.Various other variations and additional features of these methods may be described using the following itemized enumeration.

1. Способ обработки видео, содержащий:1. Video processing method, comprising:

кодирование, в процессе преобразования между текущим видеоблоком из данных видео и представлением этого текущего видеоблока в форме потока битов данных, флага комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP) для текущего видеоблока с использованием способа кодирования на основе контекстной модели без учета флага комбинированного режима прогнозирования CIIP для одного или нескольких соседних видеоблоков относительно текущего видеоблока, иencoding, in the process of converting between the current video block of the video data and the data bitstream representation of that current video block, the combined intra-frame and inter-frame prediction (CIIP) coding mode flag for the current video block using a context model-based coding method without considering the combined mode flag predicting CIIP for one or more adjacent video blocks relative to the current video block, and

осуществление преобразования, по меньшей мере путем применения флага комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP) для текущего видеоблока. performing the transformation by at least applying a combined intra- and inter-prediction (CIIP) coding mode flag to the current video block.

2. Способ согласно статье 1, отличающийся тем, что при кодировании флага комбинированного режима прогнозирования CIIP для текущего видеоблока на основе контекстной модели используется фиксированный контекст.2. The method according to Article 1, characterized in that when encoding the CIIP combined prediction mode flag for the current video block based on the context model, a fixed context is used.

3. Способ обработки видео, содержащий:3. Video processing method, comprising:

кодирование, в процессе преобразования между текущим видеоблоком из данных видео и представлением этого текущего видеоблока в форме потока битов данных, флага комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP) для текущего видеоблока посредством обходного кодирования, иencoding, in the process of converting between the current video block of the video data and the data bitstream representation of that current video block, a combined intra- and inter-prediction (CIIP) coding mode flag for the current video block by bypass coding, and

осуществление преобразования, по меньшей мере путем применения указанного флага комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP). performing the transformation by at least applying said combined intra- and inter-prediction (CIIP) coding mode flag.

4. Способ согласно статье 3, отличающийся тем, что процедура кодирования флага комбинированного режима межкадрового-внутрикадрового прогнозирования (CIIP) для текущего видеоблока посредством обходного кодирования содержит кодирование флага комбинированного режима прогнозирования CIIP с равной вероятностью того, что флаг этот будет равен 0 или 1. 4. The method according to Article 3, characterized in that the procedure for encoding the combined inter-frame-intra-frame prediction (CIIP) flag for the current video block by bypass coding comprises encoding the CIIP combined prediction mode flag with an equal probability that this flag will be equal to 0 or 1.

5. Способ согласно какой-либо из статей 1 – 4, дополнительно содержащий:5. A method according to any of Articles 1 to 4, further comprising:

в ответ на то, что текущий видеоблок кодирован в комбинированном режиме прогнозирования CIIP, установление некоторого конкретного режима внутрикадрового прогнозирования в качестве режима внутрикадрового прогнозирования, ассоциированного с текущим видеоблоком.in response to the fact that the current video block is encoded in the combined CIIP prediction mode, setting some particular intra prediction mode as the intra prediction mode associated with the current video block.

6. Способ согласно статье 5, отличающийся тем, что указанный конкретный режим внутрикадрового прогнозирования является планарным режимом.6. The method according to Article 5, characterized in that said particular intra-prediction mode is a planar mode.

7. Способ согласно статье 5 или 6, отличающийся тем, что указанный конкретный режим внутрикадрового прогнозирования используется при определении режима внутрикадрового прогнозирования для последующих кодируемых видеоблоков.7. The method according to Article 5 or 6, characterized in that said particular intra prediction mode is used in determining the intra prediction mode for subsequent encoded video blocks.

8. Способ согласно статье 7, дополнительно содержащий:8. The method according to Article 7, further comprising:

в процессе преобразования второго видеоблока, являющегося одним из последующих кодируемых видеоблоков относительно текущего видеоблока, если текущий видеоблок является соседним видеоблоком относительно второго видеоблока, указанный конкретный режим внутрикадрового прогнозирования добавляют к списку режимов-кандидатов внутрикадрового прогнозирования для второго видеоблока.in the process of converting the second video block, which is one of the subsequent encoded video blocks relative to the current video block, if the current video block is a neighboring video block relative to the second video block, the specified intra-frame prediction mode is added to the list of candidate intra-frame prediction modes for the second video block.

9. Способ согласно статье 8, дополнительно содержащий:9. The method according to article 8, further comprising:

список режимов-кандидатов внутрикадрового прогнозирования содержит список наиболее вероятных режимов-кандидатов.the list of intra-prediction candidate modes contains a list of the most likely candidate modes.

10. Способ согласно какой-либо из статей 1 – 9, отличающийся тем, что в ответ на то, что текущий видеоблок кодируют в комбинированном режиме прогнозирования CIIP, не сохраняют информацию о режиме внутрикадрового прогнозирования для текущего видеоблока.10. The method according to any one of Clauses 1 to 9, characterized in that, in response to the current video block being encoded in the combined CIIP prediction mode, information about the intra-frame prediction mode for the current video block is not stored.

11. Способ согласно статье 10, отличающийся тем, что текущий видеоблок считается недоступным в процессе декодирования других блоков.11. The method according to article 10, characterized in that the current video block is considered inaccessible in the process of decoding other blocks.

12. Способ согласно статье 10, отличающийся тем, что текущий видеоблок считается видеоблоком, кодируемым в режиме межкадрового прогнозирования.12. The method according to article 10, characterized in that the current video block is considered to be a video block encoded in the inter-prediction mode.

13. Способ согласно статье 1 – 12, отличающийся тем, что the флаг комбинированного режима прогнозирования CIIP для текущего видеоблока не сохраняют.13. The method according to Article 1 to 12, characterized in that the CIIP combined prediction mode flag for the current video block is not stored.

14. Способ обработки видео, содержащий:14. Video processing method, comprising:

определение режима внутрикадрового прогнозирования для первого видеоблока видео в соответствии с некоторым правилом, это правило содержит:determining the mode of intra-frame prediction for the first video block of the video in accordance with some rule, this rule contains:

пропуск, в ходе процедуры определения режима внутрикадрового прогнозирования для первого видеоблока, проверки флага комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием (CIIP) для одного или нескольких соседних видеоблоков относительно первого видеоблока, иskipping, during the procedure for determining the intra-frame prediction mode for the first video block, checking the combined intra- and inter-frame prediction (CIIP) coding mode flag for one or more neighboring video blocks relative to the first video block, and

осуществление, на основе по меньшей мере найденного режима внутрикадрового прогнозирования, преобразования между первым видеоблоком и представлением этого первого видеоблока в форме потока битов данных.performing, based on at least the found intra-prediction mode, a transformation between the first video block and a representation of that first video block in the form of a data bitstream.

15. Способ согласно статье 14, отличающийся тем, что15. The method according to article 14, characterized in that

процедура определения режима внутрикадрового прогнозирования содержит определение наиболее вероятного режима.the procedure for determining the intra-prediction mode comprises determining the most probable mode.

16. Способ согласно статье 14 или 15, отличающийся тем, что для второго видеоблока видео, в ответ на то, что второй видеоблок кодирован в режиме межкадрового прогнозирования или в комбинированном режиме прогнозирования CIIP, для второго видеоблока устанавливают режим внутрикадрового прогнозирования по умолчанию, где второй видеоблок является соседним видеоблоком относительно первого видеоблока.16. The method according to Clause 14 or 15, characterized in that, for the second video block of video, in response to the second video block being encoded in the inter-frame prediction mode or in the combined CIIP prediction mode, the second video block is set to the default intra-frame prediction mode, where the second the video block is a neighboring video block relative to the first video block.

17. Способ согласно статье 16, отличающийся тем, что процедура определения режима внутрикадрового прогнозирования основана на режиме внутрикадрового прогнозирования по умолчанию для второго видеоблока;17. The method according to Article 16, characterized in that the intra prediction mode determination procedure is based on the default intra prediction mode for the second video block;

и режим внутрикадрового прогнозирования по умолчанию является планарным режимом внутрикадрового прогнозирования.and the default intra prediction mode is the planar intra prediction mode.

18.. Способ согласно какой-либо из статей 14 – 17, отличающийся тем, что флаг комбинированного режима прогнозирования CIIP для одного или нескольких соседних видеоблоков не сохраняют.18. The method according to any one of clauses 14 to 17, characterized in that the CIIP combined prediction mode flag for one or more adjacent video blocks is not stored.

19. Устройство для обработки видео, содержащее процессор, конфигурированный для осуществления способа согласно какой-либо из статей 1 – 18. 19. A video processing device comprising a processor configured to implement a method according to any one of Articles 1 to 18.

20. Устройство согласно статье 19, отличающееся тем, что это устройство представляет собой кодирующее устройство для видео.20. Device according to article 19, characterized in that this device is a video encoder.

21. Устройство согласно статье 19, отличающееся тем, что это устройство представляет собой декодирующее устройство для видео.21. Device according to article 19, characterized in that this device is a video decoding device.

22. Читаемые компьютером носители для записи информации, на которых записана программа, содержащая код, при выполнении этой программы процессор осуществляет способ согласно какой-либо из статей 1 – 21.22. Computer-readable media for recording information on which a program containing code is recorded, when executing this program, the processor performs a method according to any of Articles 1 to 21.

Разнообразные другие варианты и дополнительные признаки этих способов могут быть описаны с использованием следующего постатейного перечисления.Various other variations and additional features of these methods may be described using the following itemized enumeration.

1. Способ обработки видео, содержащий:1. Video processing method, comprising:

определение, в процессе преобразования между текущим видеоблоком, кодируемым в комбинированном режиме кодирования с внутрикадровым и межкадровым прогнозированием (CIIP), видео и представлением этого текущего видеоблока в форме потока битов данных, пары весовых коэффициентов, содержащей первый весовой коэффициент для первого результата прогнозирования для текущего видеоблока и второй весовой коэффициент для второго результата прогнозирования для текущего видеоблока, на основе одного или нескольких соседних видеоблоков относительно текущего видеоблока, determining, in the process of converting between the current video block encoded in the combined intra- and inter-prediction (CIIP) coding mode, the video and the bitstream representation of that current video block, a weight pair containing a first weight coefficient for the first prediction result for the current video block and a second weight coefficient for the second prediction result for the current video block, based on one or more neighboring video blocks relative to the current video block,

где первый результат прогнозирования генерируется режимом внутрикадрового прогнозирования, и второй результат прогнозирования генерируется режимом межкадрового прогнозирования; иwhere the first prediction result is generated by the intra prediction mode, and the second prediction result is generated by the inter prediction mode; And

определение результат прогнозирования для текущего блока на основе взвешенной суммы первого результата прогнозирования и второго результата прогнозирования. determining a prediction result for the current block based on the weighted sum of the first prediction result and the second prediction result.

2.. Способ согласно статье 1, отличающийся тем, что процедура определения пары весовых коэффициентов содержит:2. The method according to Article 1, characterized in that the procedure for determining a pair of weight coefficients contains:

определение пары весовых коэффициентов в соответствии с режимом прогнозирования одного или нескольких соседних блоков относительно текущего видеоблока.determining a pair of weight coefficients in accordance with the prediction mode of one or more adjacent blocks relative to the current video block.

3. Способ согласно статье 1 или 2, отличающийся тем, что для соседнего видеоблока, кодируемого в комбинированном режиме прогнозирования CIIP, соседний видеоблок рассматривают в качестве блока, кодируемого в режиме межкадрового прогнозирования.3. The method according to Article 1 or 2, characterized in that for an adjacent video block encoded in the combined CIIP prediction mode, the adjacent video block is considered as a block encoded in the inter-picture prediction mode.

4 Способ согласно статье 1 или 2, отличающийся тем, что в случае соседнего видеоблока, кодируемого в комбинированном режиме прогнозирования CIIP, этот соседний видеоблок рассматривают в качестве блока, кодируемого в режиме внутрикадрового прогнозирования.4 The method according to Article 1 or 2, characterized in that, in the case of a neighboring video block encoded in the combined CIIP prediction mode, this neighboring video block is considered as a block encoded in the intra prediction mode.

5. Способ согласно какой-либо из статей 1 – 4, отличающийся тем, что указанные соседние видеоблоки представляют собой по меньшей мере одно – смежный блок, несмежный блок и/или временной соседний блок, относительно соседнего видеоблока.5. A method according to any of Articles 1 to 4, characterized in that said adjacent video blocks are at least one adjacent block, non-adjacent block, and/or temporary adjacent block relative to the neighboring video block.

6. Способ согласно какой-либо одной из статей 1 – 5, отличающийся тем, что один из соседних видеоблоков представляет соседний видеоблок слева или соседний видеоблок сверху.6. The method according to any one of articles 1 to 5, characterized in that one of the adjacent video blocks represents the adjacent video block on the left or the adjacent video block on top.

7. Способ согласно какой-либо одной из статей 1 – 5, отличающийся тем, что два из соседних видеоблоков представляют соседний видеоблок слева и соседний видеоблок сверху, соответственно.7. The method according to any one of articles 1 to 5, characterized in that two of the neighboring video blocks represent the neighboring video block on the left and the neighboring video block on top, respectively.

8. Способ согласно статье 6 или 7, отличающийся тем, что соседний видеоблок слева покрывает позицию (xCb-1, yCb+cbHeight-1) и соседний видеоблок сверху покрывает позицию (xCb+cbWidth-1, yCb-1), и отличающийся тем, что (xCb, yCb) обозначает позицию верхнего левого отсчета текущего видеоблока, и cbWidth и cbHeight представляют собой ширину и высоту текущего видеоблока, соответственно.8. Method according to article 6 or 7, characterized in that the neighboring video block on the left covers the position (xCb-1, yCb+cbHeight-1) and the neighboring video block on the top covers the position (xCb+cbWidth-1, yCb-1), and characterized in that that (xCb, yCb) denotes the top-left reference position of the current video block, and cbWidth and cbHeight are the width and height of the current video block, respectively.

9. Способ согласно статье 6 или 7, отличающийся тем, что соседний видеоблок слева покрывает позицию (xCb-1, yCb) и соседний видеоблок сверху покрывает позицию (xCb, yCb-1), и отличающийся тем, что (xCb, yCb) обозначает позицию верхнего левого отсчета текущего видеоблока.9. The method according to Article 6 or 7, characterized in that the adjacent video block on the left covers the position (xCb-1, yCb) and the neighboring video block on the top covers the position (xCb, yCb-1), and characterized in that (xCb, yCb) denotes the position of the upper left reading of the current video block.

10. Способ согласно какой-либо из статей 1 – 9, отличающийся тем, что результат комбинированного режима прогнозирования CIIP получают путем применения пары весовых коэффициентов к результату внутрикадрового прогнозирования и к результату межкадрового прогнозирования по формуле:10. The method according to any one of Articles 1 to 9, characterized in that the combined CIIP prediction mode result is obtained by applying a pair of weight coefficients to the intra prediction result and the inter prediction result according to the formula:

и где РСПР обозначает результат комбинированного режима прогнозирования CIIP, Pinter обозначает результат межкадрового прогнозирования, Pintra обозначает результат внутрикадрового прогнозирования, (wInter, wIntra) обозначает пару весовых коэффициентов, offset (сдвиг) установлен равным (1<< (N-1)) или 0, и N устанавливают равным log2(wIntra + wInter).and where P PRP denotes the result of the CIIP combined prediction mode, P inter denotes the result of inter-prediction, P intra denotes the result of intra-prediction, (wInter, wIntra) denotes a pair of weight coefficients, offset (shift) is set to (1<< (N-1) ) or 0, and N is set to log2(wIntra + wInter).

11. Способ согласно какой-либо из статей 1 – 10, отличающийся тем, что указанный соседний видеоблок выбирают на основе информации о кодировании для текущего блока и/или этого соседнего блока.11. A method according to any one of Articles 1 to 10, characterized in that said adjacent video block is selected based on encoding information for the current block and/or that adjacent block.

12. Способ согласно какой-либо из статей 1 – 11, отличающийся тем, что пару весовых коэффициентов определяют на основе информации о кодировании соседнего блока и/или соседнего блока.12. The method according to any one of Articles 1 to 11, characterized in that a pair of weight coefficients is determined based on information about the coding of the adjacent block and/or neighboring block.

13. Способ согласно статье 11 или 12, отличающийся тем, что эта информация о кодировании содержит по меньшей мере одно из: информацию о размерах блока, информацию о форме блока, флаг проверки малой задержки, информацию об опорных изображениях, информацию о движении текущего видеоблока и/или соседнего видеоблока или индикацию режимов внутрикадрового прогнозирования для соседних видеоблоков.13. The method according to clause 11 or 12, characterized in that this encoding information contains at least one of: block size information, block shape information, low delay check flag, reference picture information, current video block motion information, and /or an adjacent video block or an indication of intra-prediction modes for neighboring video blocks.

14. Способ согласно статье 1, отличающийся тем, что пара весовых коэффициентов зависит от цветовых составляющих текущего видеоблока.14. The method according to article 1, characterized in that a pair of weight coefficients depends on the color components of the current video block.

15. Способ согласно статье 14, отличающийся тем, что пара весовых коэффициентов для главной цветовой составляющей отличается от коэффициентов для других цветовых составляющих.15. The method according to article 14, characterized in that the pair of weight coefficients for the main color component is different from the coefficients for other color components.

16. Способ согласно статье 14, отличающийся тем, что пара весовых коэффициентов для яркостной составляющей отличаются от коэффициентов для цветностной составляющей.16. The method according to article 14, characterized in that the pair of weight coefficients for the luminance component are different from the coefficients for the chrominance component.

17. Способ согласно какой-либо из статей 14 – 16, отличающийся тем, что для цветностной составляющей первый весовой коэффициент равен второму весовому коэффициенту. 17. The method according to any of the articles 14 to 16, characterized in that for the chromaticity component, the first weighting factor is equal to the second weighting factor.

18. Способ согласно какой-либо из статей 1 – 17, отличающийся тем, что указанная пара весовых коэффициентов представляет собой одну из двух пар-кандидатов весовых коэффициентов, включая первую пару-кандидата весовых коэффициентов и вторую пару-кандидата весовых коэффициентов.18. A method according to any one of Clauses 1 to 17, wherein said weight pair is one of two candidate weight pairs, including a first weight candidate pair and a second weight candidate pair.

19. Способ согласно статье 18, отличающийся тем, что указанные две пары-кандидата весовых коэффициентов представляют собой одно из {(1,3) и (3,1)}, {(1,3) и (2,2)}, {(3,1) и (2,2)}, {(3, 5) и (4, 4)}, {(5, 3) и (4, 4)}, {(1, 7) и (4, 4)} и {(7, 1) и (4, 4)}.19. The method according to Article 18, wherein said two candidate weight pairs are one of {(1,3) and (3,1)}, {(1,3) and (2,2)}, {(3,1) and (2,2)}, {(3, 5) and (4, 4)}, {(5, 3) and (4, 4)}, {(1, 7) and ( 4, 4)} and {(7, 1) and (4, 4)}.

20. Способ согласно статье 18 или 19, отличающийся тем, что пару весовых коэффициентов определяют на основе одного соседнего видеоблока относительно текущего видео.20. The method according to clause 18 or 19, characterized in that the weight pair is determined based on one adjacent video block relative to the current video.

21. Способ согласно статье 20, отличающийся тем, что когда указанный один соседний видеоблок кодируют в режиме внутрикадрового прогнозирования, пара весовых коэффициентов представляет собой первую пару-кандидата весовых коэффициентов; и когда указанный один соседний видеоблок кодируют в режиме межкадрового прогнозирования, пара весовых коэффициентов представляет собой вторую пару-кандидата весовых коэффициентов.21. The method of Clause 20, wherein when said one adjacent video block is encoded in intra-prediction mode, the weight pair is a first candidate weight pair; and when said one adjacent video block is encoded in the inter prediction mode, the weight pair is the second candidate weight pair.

22. Способ согласно статье 20 или 21, отличающийся тем, что указанный один соседний видеоблок представляет собой соседний видеоблок слева или соседний видеоблок сверху.22. The method according to Article 20 or 21, wherein said one adjacent video block is a left adjacent video block or a top adjacent video block.

23. Способ согласно статье 18 или 19, отличающийся тем, что указанную пару весовых коэффициентов определяют на основе двух или более соседних видеоблоков относительно текущего видеоблока и по меньшей мере один из двух или более соседних видеоблоков удовлетворяет заданным условиям.23. The method according to Article 18 or 19, characterized in that said pair of weight coefficients is determined based on two or more adjacent video blocks relative to the current video block and at least one of the two or more adjacent video blocks satisfies the given conditions.

24. Способ согласно статье 23, отличающийся тем, что когда по меньшей мере один из двух или более соседних видеоблоков кодируют в режиме внутрикадрового прогнозирования, указанная пара весовых коэффициентов является первой парой-кандидатом весовых коэффициентов; и когда по меньшей мере один из двух или более соседних видеоблоков кодируют в режиме межкадрового прогнозирования, указанная пара весовых коэффициентов является второй парой-кандидатом весовых коэффициентов.24. The method of Clause 23, wherein when at least one of two or more adjacent video blocks is encoded in intra-prediction mode, said weight pair is the first candidate weight pair; and when at least one of the two or more adjacent video blocks is encoded in the inter prediction mode, said weight pair is a second candidate weight pair.

25. Способ согласно статье 18 или 19, отличающийся тем, указанную пару весовых коэффициентов определяют на основе двух или более соседних видеоблоков относительно текущего видеоблока и каждый из этих из двух или более соседних видеоблоков удовлетворяет заданным условиям.25. The method according to Article 18 or 19, characterized in that said weight coefficient pair is determined based on two or more neighboring video blocks relative to the current video block, and each of these two or more neighboring video blocks satisfies the given conditions.

26. Способ согласно статье 25, отличающийся тем, что когда все из двух или более соседних видеоблоков кодируют в режиме внутрикадрового прогнозирования, указанная пара весовых коэффициентов является первой парой-кандидатом весовых коэффициентов; и когда все из двух или более соседних видеоблоков кодируют в режиме межкадрового прогнозирования, указанная пара весовых коэффициентов является второй парой-кандидатом весовых коэффициентов.26. The method of Clause 25, wherein when all of two or more adjacent video blocks are encoded in intra-prediction mode, said weight pair is the first candidate weight pair; and when all of the two or more adjacent video blocks are encoded in the inter prediction mode, said weight pair is a second candidate weight pair.

27. Способ согласно какой-либо из статей 23 – 26, отличающийся тем, что один из двух или более соседних видеоблоков представляет собой соседний видеоблок слева, и другой из двух или более соседних видеоблоков представляет собой соседний видеоблок сверху.27. A method according to any one of Articles 23 to 26, wherein one of the two or more adjacent video blocks is a left adjacent video block and the other of the two or more adjacent video blocks is a top adjacent video block.

28. Способ согласно какой-либо из статей 23 – 27, отличающийся тем, что первая пара-кандидат весовых коэффициентов представляет собой одно из (2, 2) и (3, 1), и вторая пара-кандидат весовых коэффициентов представляет собой (1, 3).28. A method according to any one of clauses 23 to 27, wherein the first weight candidate pair is one of (2, 2) and (3, 1) and the second weight candidate pair is (1 , 3).

29. Способ согласно какой-либо из статей 23 – 28, отличающийся тем, что по меньшей мере один весовой коэффициент в первой паре-кандидате весовых коэффициентов отличается по меньшей мере от одного весового коэффициента во второй паре-кандидате весовых коэффициентов.29. A method according to any of Clauses 23-28, wherein at least one weight in the first candidate weight pair is different from at least one weight in the second candidate weight pair.

30. Способ согласно какой-либо из статей 23 – 29, отличающийся тем, что первая пара-кандидат весовых коэффициентов отличается от второй пары-кандидата весовых коэффициентов.30. A method according to any one of clauses 23 to 29, wherein the first candidate weight pair is different from the second candidate weight pair.

31. Способ согласно какой-либо из статей 1 – 17, отличающийся тем, что указанная пара весовых коэффициентов представляет собой точно одну пару-кандидата весовых коэффициентов.31. A method according to any one of clauses 1 to 17, wherein said weight pair is exactly one candidate weight pair.

32. Способ согласно статье 31, отличающийся тем, что указанная одна пара-кандидат весовых коэффициентов представляет собой одно из (1,3), (2,2), (1, 7), (2, 6), (3, 5) и (4, 4).32. The method according to Article 31, characterized in that said one pair of candidate weights is one of (1,3), (2,2), (1, 7), (2, 6), (3, 5 ) and (4, 4).

33. Способ согласно какой-либо из статей 1 – 32, отличающийся тем, что указанную пару весовых коэффициентов определяют на основе того, кодируют ли один или несколько соседних видеоблоков в режиме комбинированного прогнозирования CIIP.33. The method according to any one of Articles 1 to 32, characterized in that said weight coefficient pair is determined based on whether one or more adjacent video blocks are coded in the CIIP combined prediction mode.

34. Способ по статье 33, отличающийся тем, что указанную пару весовых коэффициентов определяют на основе пары весовых коэффициентов для ранее кодированных видеоблоков.34. The method according to article 33, characterized in that said pair of weight coefficients is determined based on a pair of weight coefficients for previously encoded video blocks.

35. Способ согласно статье 33 или 34, отличающийся тем, что указанную пару весовых коэффициентов для текущего видеоблока определяют на основе одного соседнего видеоблока относительно текущего видеоблока.35. The method according to clause 33 or 34, characterized in that said weight coefficient pair for the current video block is determined based on one adjacent video block relative to the current video block.

36. Способ согласно статье 35, отличающийся тем, что когда один соседний видеоблок кодируют в комбинированном режиме прогнозирования CIIP, пару весовых коэффициентов для текущего видеоблока устанавливают равной паре весовых коэффициентов для одного соседнего видеоблока; и36. The method according to Clause 35, wherein when one adjacent video block is encoded in the combined CIIP prediction mode, a pair of weight coefficients for the current video block is set equal to a pair of weight coefficients for one neighboring video block; And

когда указанный один соседний видеоблок кодируют в режиме внутрикадрового прогнозирования, указанная пара весовых коэффициентов представляет собой первую пару-кандидата весовых коэффициентов из двух пар-кандидатов весовых коэффициентов, содержащих первую пару-кандидата весовых коэффициентов и вторую пару-кандидата весовых коэффициентов;when said one adjacent video block is encoded in intra-prediction mode, said weight pair is a first weight candidate pair of two weight candidate pairs comprising a first weight candidate pair and a second weight candidate pair;

когда указанный один соседний видеоблок кодируют в режиме межкадрового прогнозирования, указанная пара весовых коэффициентов представляет собой вторую пару-кандидата весовых коэффициентов из двух пар-кандидатов весовых коэффициентов, содержащих первую пару-кандидата весовых коэффициентов и вторую пару-кандидата весовых коэффициентов.when said one adjacent video block is encoded in inter-frame prediction mode, said weight pair is the second weight candidate pair of two weight candidate pairs comprising the first weight candidate pair and the second weight candidate pair.

37. Способ согласно статье 35, отличающийся тем, что когда указанный один соседний видеоблок кодируют в комбинированном режиме прогнозирования CIIP, пару весовых коэффициентов для текущего видеоблока устанавливают равной паре весовых коэффициентов для указанного одного соседнего видеоблока; и37. The method according to Clause 35, wherein when said one adjacent video block is encoded in a combined CIIP prediction mode, a pair of weights for the current video block is set equal to a pair of weights for said one neighboring video block; And

когда указанный один соседний видеоблок кодируют в режиме внутрикадрового прогнозирования или в режиме межкадрового прогнозирования, указанная пара весовых коэффициентов представляет собой первую пару-кандидата весовых коэффициентов из двух пар-кандидатов весовых коэффициентов, содержащих первую пару-кандидата весовых коэффициентов и вторую пару-кандидата весовых коэффициентов.when said one adjacent video block is encoded in intra-prediction mode or inter-prediction mode, said weight pair is the first weight candidate pair of two weight candidate pairs comprising the first weight candidate pair and the second weight candidate pair .

38. Способ согласно статье 33 или 34, отличающийся тем, что указанную пару весовых коэффициентов определяют на основе двух или более соседних видеоблоков относительно текущего видеоблока и по меньшей мере один из двух или более соседних видеоблоков удовлетворяет заданным условиям.38. The method according to clause 33 or 34, characterized in that said pair of weight coefficients is determined based on two or more neighboring video blocks relative to the current video block and at least one of the two or more neighboring video blocks satisfies the given conditions.

39. Способ согласно статье 38, отличающийся тем, что два или более из соседних видеоблоков проверяют в конкретном порядке проверки для идентификации, кодируют ли указанные два или более соседних видеоблоков в комбинированном режиме прогнозирования CIIP.39. The method of Clause 38, wherein two or more of the adjacent video blocks are checked in a specific test order to identify whether said two or more adjacent video blocks are encoding in a combined CIIP prediction mode.

40. Способ согласно статье 39, отличающийся тем, что когда по меньшей мере один из указанных двух или более соседних видеоблоков кодируют в комбинированном режиме прогнозирования CIIP, пару весовых коэффициентов для текущего видеоблока устанавливают равной паре весовых коэффициентов для указанного соседнего видеоблока, который был первым идентифицирован, как кодируемый в комбинированном режиме прогнозирования CIIP при проверке в указанном конкретном порядке;40. The method according to Clause 39, wherein when at least one of said two or more neighboring video blocks is encoded in a combined CIIP prediction mode, the weight pair for the current video block is set equal to the weight pair for said neighboring video block that was first identified. , as encoded in the combined CIIP prediction mode when checked in the specified specific order;

когда ни один из двух или более соседних видеоблоков не кодируют в комбинированном режиме прогнозирования CIIP, по меньшей мере один из этих двух или более соседних видеоблоков кодируют в режиме внутрикадрового прогнозирования, указанная пара весовых коэффициентов представляет собой первую пару-кандидата весовых коэффициентов из двух пар-кандидатов весовых коэффициентов, содержащих первую пару-кандидата весовых коэффициентов и вторую пару-кандидата весовых коэффициентов;when none of the two or more adjacent video blocks are encoded in the combined CIIP prediction mode, at least one of the two or more adjacent video blocks are encoded in the intra prediction mode, the specified weight pair is the first candidate weight pair of the two pairs weight candidates comprising a first weight candidate pair and a second weight candidate pair;

когда ни один из двух или более соседних видеоблоков не кодируют в комбинированном режиме прогнозирования CIIP, по меньшей мере один из этих двух или более соседних видеоблоков кодируют в режиме межкадрового прогнозирования, указанная пара весовых коэффициентов представляет собой вторую пару-кандидата весовых коэффициентов из двух пар-кандидатов весовых коэффициентов, содержащих первую пару-кандидата весовых коэффициентов и вторую пару-кандидата весовых коэффициентов.when none of the two or more adjacent video blocks are encoded in the combined CIIP prediction mode, at least one of the two or more adjacent video blocks is encoded in the inter-picture prediction mode, the specified weight pair is the second candidate weight pair of the two pairs weight candidates comprising a first weight candidate pair and a second weight candidate pair.

41. Способ согласно статье 39, отличающийся тем, что когда по меньшей мере один из двух или более соседних видеоблоков кодируют в комбинированном режиме прогнозирования CIIP, пару весовых коэффициентов для текущего блока устанавливают равной паре весовых коэффициентов для указанного соседнего видеоблока, который был первым идентифицирован, как кодируемый в комбинированном режиме прогнозирования CIIP при проверке в указанном конкретном порядке;41. The method according to Clause 39, characterized in that when at least one of two or more adjacent video blocks are encoded in the combined CIIP prediction mode, the weight pair for the current block is set equal to the weight pair for the specified neighboring video block that was first identified, as encoded in the combined CIIP prediction mode when checked in the specified specific order;

когда ни один из двух или более соседних видеоблоков не кодируют в комбинированном режиме прогнозирования CIIP, указанная пара весовых коэффициентов представляет собой вторую пару-кандидата весовых коэффициентов из двух пар-кандидатов весовых коэффициентов, содержащих первую пару-кандидата весовых коэффициентов и вторую пару-кандидата весовых коэффициентов.when none of the two or more adjacent video blocks are encoded in the combined CIIP prediction mode, the specified weight pair is the second weight candidate pair of the two weight candidate pairs comprising the first weight candidate pair and the second weight candidate pair. coefficients.

42. Способ согласно какой-либо из статей 36 – 41, отличающийся тем, что первая пара-кандидат весовых коэффициентов представляет собой одно из (2, 2) и (3, 1), и вторая пара-кандидат весовых коэффициентов представляет собой (1, 3).42. A method according to any one of clauses 36 to 41, wherein the first weight candidate pair is one of (2, 2) and (3, 1) and the second weight candidate pair is (1 , 3).

43. Способ согласно какой-либо из статей 36 – 42, отличающийся тем, что по меньшей мере один весовой коэффициент в первой паре-кандидате весовых коэффициентов отличается по меньшей мере от одного весового коэффициента во второй паре-кандидате весовых коэффициентов.43. A method according to any of Clauses 36-42, wherein at least one weight in the first candidate weight pair is different from at least one weight in the second candidate weight pair.

44. Способ согласно какой-либо из статей 36 – 41, отличающийся тем, что указанная вторая пара-кандидат весовых коэффициентов представляет собой одно из (2, 2) и (1, 3).44. The method according to any one of Articles 36 to 41, characterized in that said second pair of candidate weights is one of (2, 2) and (1, 3).

45. Способ согласно какой-либо из статей 1 – 44, отличающийся тем, что пару весовых коэффициентов передают в виде сигнализации.45. A method according to any one of articles 1 to 44, characterized in that a pair of weights is transmitted as a signaling.

46. Способ согласно какой-либо из статей 1 – 45, отличающийся тем, что указанную пару весовых коэффициентов определяют на основе того, кодируют ли соседний видеоблок в режиме межкадрового прогнозирования.46. The method according to any one of Articles 1 to 45, characterized in that said weight coefficient pair is determined based on whether an adjacent video block is encoded in inter-prediction mode.

47. Способ согласно какой-либо из статей 1 – 46, отличающийся тем, что когда соседний видеоблок не кодируют в режиме внутрикадрового прогнозирования, этот соседний видеоблок рассматривают в качестве блока, кодируемого в режиме внутрикадрового прогнозирования.47. The method according to any one of Clauses 1 to 46, wherein when an adjacent video block is not intra prediction encoded, that adjacent video block is considered an intra prediction encoded block.

48. Способ согласно статье 47, отличающийся тем, что соседний видеоблок не кодируют по меньшей мере в одном из режимов – режиме внутрикадрового кодирования блоков (intra block copy (IBC)), комбинированном режиме прогнозирования CIIP, треугольном режиме прогнозирования (triangular prediction mode (TPM)), режиме палитры, режиме модуляции RDPCM.48. The method according to Article 47, characterized in that the adjacent video block is not encoded in at least one of the modes - intra block copy (IBC) mode, CIIP combined prediction mode, triangular prediction mode (TPM )), palette mode, RDPCM modulation mode.

49. Способ согласно статье 48, отличающийся тем, что соседний видеоблок кодируют без применения преобразования и/или квантования.49. The method according to article 48, characterized in that the neighboring video block is encoded without applying transformation and/or quantization.

50. Способ согласно какой-либо одной из статей 1 – 46, отличающийся тем, что когда соседний видеоблок кодируют по меньшей мере в одном из режимов – режиме внутрикадрового кодирования блоков (IBC), комбинированном режиме прогнозирования CIIP, треугольном режиме прогнозирования (TPM), режиме палитры, режиме модуляции RDPCM, этот соседний видеоблок рассматривают в качестве блока, кодируемого в режиме, не являющемся режимом внутрикадрового прогнозирования.50. The method according to any one of Articles 1 to 46, characterized in that when an adjacent video block is encoded in at least one of intra-frame block coding (IBC) mode, CIIP combined prediction mode, triangular prediction mode (TPM), palette mode, RDPCM modulation mode, this adjacent video block is considered as a block encoded in a non-intra-prediction mode.

51. Способ согласно какой-либо из статей 1 – 46, отличающийся тем, что когда соседний видеоблок кодируют в режиме внутрикадрового прогнозирования, но не кодируют в заданном режиме прогнозирования, этот соседний видеоблок рассматривают в качестве блока, кодируемого в режиме, не являющемся режимом внутрикадрового прогнозирования.51. The method according to any one of clauses 1 to 46, wherein when an adjacent video block is encoded in intra prediction mode but not encoded in a given prediction mode, that adjacent video block is considered to be a block encoded in a non-intra prediction mode. forecasting.

52. Способ согласно какой-либо из статей 1 – 46, отличающийся тем, что когда соседний видеоблок кодируют в режиме внутрикадрового прогнозирования на матричной основе и/или в режиме внутрикадрового прогнозирования с несколькими опорными строками, где индекс опорной строки не равен 0, и/или в режиме модуляции BDPCM, этот соседний видеоблок рассматривают в качестве блока, кодируемого в режиме, не являющемся режимом внутрикадрового прогнозирования.52. The method according to any one of clauses 1 to 46, characterized in that when an adjacent video block is encoded in a matrix-based intra-frame prediction mode and/or in a multiple reference row intra-frame prediction mode, where the reference row index is not equal to 0, and/ or in BDPCM modulation mode, this adjacent video block is considered as a block encoded in a non-intra-prediction mode.

53. Устройство для обработки видео, содержащее процессор, конфигурированный для осуществления способа согласно какой-либо из статей 1 – 52. 53. A video processing device containing a processor configured to implement a method according to any of Articles 1 to 52.

54. Устройство согласно статье 53, отличающееся тем, что это устройство представляет собой кодирующее устройство для видео.54. Device according to article 53, characterized in that this device is a video encoder.

55. Устройство согласно статье 53, отличающееся тем, что это устройство представляет собой декодирующее устройство для видео.55. A device according to article 53, characterized in that this device is a video decoding device.

56. Читаемые компьютером носители для записи информации, на которых записана программа, содержащая код, при выполнении этой программы процессор осуществляет способ согласно какой-либо из статей 1 – 52.56. Computer-readable media for recording information on which a program containing code is recorded, when executing this program, the processor performs a method according to any of Articles 1 to 52.

Должно быть понятно, что описываемые технологии могут быть реализованы в кодирующих устройствах для видео или декодирующих устройствах для видео, чтобы повысить эффективность сжатия с использованием оценки движения на основе хэширования.It should be appreciated that the techniques described may be implemented in video encoders or video decoders to improve compression efficiency using hash-based motion estimation.

Описываемые здесь и другие технические решения, примеры, варианты, модули и функциональные операции, рассматриваемые в настоящем документе, могут быть реализованы в цифровой электронной схеме или компьютерном загружаемом программном обеспечении, встроенном программном обеспечении или оборудовании, включая структуры, описываемые в настоящем документе и их структурные эквиваленты, либо комбинации одного или нескольких из перечисленных объектов. Описываемые и другие варианты могут быть реализованы в виде одного или нескольких компьютерных программных продуктов, т.е. одного или нескольких модулей компьютерных программных команд, кодированных на читаемом компьютером носителе для выполнения устройством обработки данных или управления работой такого устройства. Такой читаемый компьютером носитель информации может представлять собой машиночитаемое устройство для хранения информации, машиночитаемую плату для хранения информации, запоминающее устройство, композицию объектов, реализующих машиночитаемый распространяющийся сигнал или комбинацию одного или нескольких из этих компонентов. Термин «устройство обработки данных» охватывает все – аппаратуру, устройства и машины для обработки данных, включая в качестве примеров, программируемый процессор, компьютер, либо несколько процессоров или компьютеров. Устройство может содержать, в дополнение к оборудованию, код, составляющий среду для выполнения рассматриваемой компьютерной программы, например, код, составляющий встроенное программное обеспечение процессора, стек протоколов, систему управления базой данных, операционную систему или комбинацию одного или нескольких перечисленных компонентов. Распространяющийся сигнал представляет собой искусственно генерируемый сигнал, например, генерируемый машиной электрический, оптический или электромагнитный сигнал, формируемый для кодирования информации для передачи подходящему приемному устройству.Described here and other technical solutions, examples, variants, modules and functional operations discussed in this document may be implemented in digital electronic circuit or computer downloadable software, firmware or hardware, including the structures described in this document and their structural equivalents or combinations of one or more of the listed items. The described and other embodiments may be implemented as one or more computer program products, i. one or more modules of computer program instructions encoded on a computer-readable medium for execution by a data processing device or for controlling the operation of such a device. Such a computer-readable storage medium can be a computer-readable storage device, a computer-readable information storage card, a memory device, a composition of objects implementing a computer-readable propagating signal, or a combination of one or more of these components. The term "data processing device" encompasses all data processing apparatus, devices, and machines, including, by way of example, a programmable processor, a computer, or a plurality of processors or computers. The device may contain, in addition to hardware, code constituting the environment for executing the computer program in question, such as code constituting processor firmware, a protocol stack, a database management system, an operating system, or a combination of one or more of these components. A propagating signal is an artificially generated signal, such as a machine-generated electrical, optical, or electromagnetic signal, that is generated to encode information for transmission to a suitable receiver.

Компьютерная программа (также известная под названиями «программа», «программное обеспечение», «программное приложение», «сценарий» или «код») может быть записана на каком-либо языке программирования, включая компилируемые или интерпретируемые языки, и может быть развернута в любой форме, включая автономную программу, программный модуль, компонент, подпрограмму или другой подобный объект, подходящий для использования в компьютерной среде. Компьютерная программа не обязательно соответствует одному файлу в компьютерной системе. Программа может быть сохранена в части файла, который сохраняет другие программы или данные, (например, один или несколько сценариев, сохраненных в документе на языке разметки) в одном файле, выделенном для рассматриваемой программы, или в нескольких скоординированных файлах (например, в файлах, сохраняющих один или несколько модулей, подпрограмм или частей кода). Компьютерная программа может быть развернута для выполнения на одном компьютере или на нескольких компьютерах, расположенных в одном месте или распределенных по нескольким пунктам и соединенных сетью связи.A computer program (also known as a "program", "software", "software application", "script", or "code") may be written in any programming language, including compiled or interpreted languages, and may be deployed in any form, including a stand-alone program, program module, component, subroutine, or other similar entity suitable for use in a computer environment. A computer program does not necessarily correspond to a single file on a computer system. A program may be stored in a portion of a file that stores other programs or data (for example, one or more scripts stored in a markup language document) in a single file dedicated to the program in question, or in several coordinated files (for example, in files storing one or more modules, subroutines, or parts of code). The computer program may be deployed to run on a single computer or on multiple computers located in the same location or distributed over multiple locations and connected by a communications network.

Процедуры и логические схемы, рассматриваемые в настоящем описании, могут быть реализованы одним или несколькими программируемыми процессорами, выполняющими одну или несколько программ для осуществления функции посредством оперирования над входными данными и генерации выходных данных. Эти процедуры и логические схемы могут также быть осуществлены посредством и устройства могут быть реализованы в виде логических схем специального назначения, например, программируемой пользователем вентильной матрицы (FPGA (field programmable gate array)) или специализированных интегральных схем (ASIC (application specific integrated circuit)).The procedures and logic described herein may be implemented by one or more programmable processors executing one or more programs to perform a function by operating on input data and generating output data. These procedures and logic circuits can also be implemented by and devices can be implemented as special-purpose logic circuits, such as field programmable gate array (FPGA) or application specific integrated circuit (ASIC) .

Процессоры, подходящие для выполнения компьютерной программы, могут представлять собой, например, микропроцессоры, как общего, так и специального назначения, и один или несколько процессоров цифрового компьютера какого-либо типа. В общем случае, процессор будет принимать команды и данные из постоянного запоминающего устройства или запоминающего устройства с произвольной выборкой, либо из запоминающих устройств обоих типов. Существенными элементами компьютера являются процессор для выполнения команд и одно или несколько запоминающих устройств для сохранения команд и данных. В общем случае, компьютер будет также содержать или быть оперативно соединен для приема и/или передачи данных с запоминающими устройствами большой емкости для хранения данных, например, магнитными дисками, магнитооптическими дисками или оптическими дисками. Однако компьютеру нет необходимости иметь такие устройства. К читаемым компьютером носителям информации для сохранения команд и данных относятся все формы энергонезависимой памяти, носителей информации и запоминающих устройств, включая в качестве примеров, полупроводниковые запоминающие устройства, например, стираемое программируемое постоянное запоминающее устройство (СППЗУ (EPROM)), электрически стираемое и программируемое постоянное запоминающее устройство (ЭСППЗУ (EEPROM)) и устройства флэш-памяти; магнитные диски, например, встроенные жесткие диски или сменные диски; магнитооптические диски; а также диски. CD ROM и DVD-ROM. Процессор и запоминающее устройство могут быть дополнены или включены в логическую схему специального назначения. Processors suitable for executing a computer program may be, for example, microprocessors, both general purpose and special purpose, and one or more digital computer processors of some type. In general, the processor will receive instructions and data from ROM or Random Access Memory, or both. The essential elements of a computer are a processor for executing instructions and one or more memory devices for storing instructions and data. In general, the computer will also include or be operatively connected for receiving and/or transmitting data to mass storage devices for data storage, such as magnetic disks, magneto-optical disks or optical disks. However, the computer does not need to have such devices. Computer-readable storage media for storing instructions and data includes all forms of non-volatile memory, storage media, and storage devices, including, by way of example, semiconductor memory devices such as erasable programmable read-only memory (EPROM), electrically erasable, and programmable constant storage device (EEPROM (EEPROM)) and flash memory devices; magnetic disks, such as built-in hard disks or removable disks; magneto-optical disks; as well as discs. CD-ROM and DVD-ROM. The processor and storage device may be augmented or incorporated into special purpose logic.

Хотя настоящий патентный документ содержит много специфических деталей, их не следует толковать в качестве каких-либо ограничений объема какого-либо нововведения или того, что может быть заявлено в качестве изобретения, а просто как описания признаков, которые могут быть специфичными для конкретных вариантов конкретных нововведений. Некоторые признаки, описываемые в настоящем патентном документе в контексте раздельных вариантов, могут быть также реализованы в виде комбинации в одном варианте. Напротив, различные признаки, описываемые в контексте одного варианта, могут быть также реализованы в нескольких вариантах по отдельности или в какой-либо подходящей субкомбинации. Более того, хотя признаки могут быть описаны выше как действующие в определенных комбинациях и даже первоначально заявлены как таковые, один или несколько признаков из заявляемой комбинации могут быть в некоторых случаях исключены из этой заявляемой комбинации, так что эта заявляемая комбинация может быть превращена в субкомбинацию или вариации такой субкомбинации.Although this patent document contains many specific details, they should not be construed as any limitation on the scope of any innovation or what may be claimed as an invention, but merely as descriptions of features that may be specific to particular variations of a particular innovation. . Some of the features described in this patent document in the context of separate variants may also be implemented as a combination in one embodiment. On the contrary, various features described in the context of one embodiment may also be implemented in several variants individually or in any suitable subcombination. Moreover, although the features may be described above as operating in certain combinations and even initially claimed as such, one or more features from the claimed combination may in some cases be excluded from this claimed combination, so that this claimed combination can be turned into a subcombination or variations of such a subcombination.

Аналогично, тогда как операции изображены на чертежах в конкретном порядке, это не следует понимать как требование, что такие операции должны выполняться в показанном конкретном порядке или в последовательном порядке или что все показанные иллюстрации должны быть выполнены для достижения желаемых результатов. Более того, разделение различных системных компонентов, описываемых в настоящем патентном документе, не следует понимать как требование такого разделения во всех вариантах.Likewise, while the operations are shown in the drawings in a specific order, this should not be understood as a requirement that such operations must be performed in the specific order shown or in sequential order, or that all illustrations shown must be performed in order to achieve the desired results. Moreover, separation of the various system components described in this patent document should not be understood as requiring such separation in all embodiments.

Здесь описаны только несколько вариантов и примеров, однако и другие варианты реализации, усовершенствования и вариации могут быть созданы на основе того, что описано и иллюстрировано в настоящем патентном документе.Only a few variants and examples are described here, however, other implementations, improvements and variations can be created based on what is described and illustrated in this patent document.

Claims (48)

1. Способ обработки видео, содержащий этапы, на которых:1. A video processing method, comprising the steps of: определяют, в процессе преобразования между текущим видеоблоком, который кодирован в комбинированном режиме кодирования с внутрикадровым и межкадровым прогнозированием, видеоданных и потоком битов данных, пару весовых коэффициентов, содержащую первый весовой коэффициент для первого результата прогнозирования текущего видеоблока и второй весовой коэффициент для второго результата прогнозирования текущего видеоблока, на основе одного или более соседних видеоблоков относительно текущего видеоблока,determine, in the process of converting between the current video block, which is encoded in a combined intra- and inter-prediction coding mode, of video data and a data bit stream, a pair of weight coefficients containing a first weight coefficient for the first prediction result of the current video block and a second weight coefficient for the second prediction result of the current video block, based on one or more neighboring video blocks relative to the current video block, причем первый результат прогнозирования генерируется в режиме внутрикадрового прогнозирования, а второй результат прогнозирования генерируется в режиме межкадрового прогнозирования;wherein the first prediction result is generated in the intra prediction mode and the second prediction result is generated in the inter prediction mode; определяют результат прогнозирования текущего блока на основе взвешенной суммы первого результата прогнозирования и второго результата прогнозирования; иdetermining a prediction result of the current block based on a weighted sum of the first prediction result and the second prediction result; And выполняют преобразование на основе результата прогнозирования,performing a transformation based on the prediction result, при этом указанная пара весовых коэффициентов определяется в соответствии с режимом прогнозирования указанного одного или более соседних видеоблоков относительно текущего видеоблока,wherein the specified pair of weight coefficients is determined in accordance with the prediction mode of the specified one or more adjacent video blocks relative to the current video block, когда по меньшей мере один соседний видеоблок из указанного одного или более соседних видеоблоков кодирован в комбинированном режиме кодирования с внутрикадровым и межкадровым прогнозированием, указанный по меньшей мере один соседний видеоблок рассматривается в качестве видеоблока, кодированного в режиме межкадрового прогнозирования, который не является режимом внутрикадрового прогнозирования,when at least one adjacent video block of said one or more adjacent video blocks is encoded in a combined intra-prediction and inter-prediction coding mode, said at least one adjacent video block is considered as a video block encoded in an inter-prediction mode that is not an intra-prediction mode, указанный один или более соседних видеоблоков содержит видеоблок, покрывающий позицию и видеоблок, покрывающий позицию где указывает позицию верхнего левого отсчета текущего видеоблока, cbWidth и cbHeight представляют собой соответственно ширину и высоту текущего видеоблока и параметр "а" определяется с использованием cIdx текущего видеоблока, причем cIdx представляет собой переменную, определяющую индекс цветовой составляющей для текущего блока, и индекс цветовой составляющей текущего блока указывает, что цветовая составляющая текущего блока является яркостной составляющей.the specified one or more neighboring video blocks contain a video block covering the position and a video block covering the position Where indicates the position of the top left reference of the current video block, cbWidth and cbHeight are respectively the width and height of the current video block, and the parameter "a" is determined using the cIdx of the current video block, wherein cIdx is a variable defining the color component index for the current block, and the color component index of the current block indicates that the color component of the current block is the luminance component. 2. Способ по п. 1, в котором режим прогнозирования для указанного одного или более соседних видеоблоков указывает, кодирован ли указанный один или более соседних видеоблоков в режиме внутрикадрового прогнозирования или не в режиме внутрикадрового прогнозирования.2. The method of claim 1, wherein the prediction mode for said one or more neighboring video blocks indicates whether said one or more neighboring video blocks are encoded in intra prediction mode or not in intra prediction mode. 3. Способ по п. 1, в котором, когда указанный по меньшей мере один соседний видеоблок кодирован по меньшей мере в одном из режима внутрикадрового копирования блоков, комбинированного режима кодирования с внутрикадровым и межкадровым прогнозированием, режима геометрического разделения или режима палитры, указанный соседний видеоблок рассматривается в качестве блока, кодированного не в режиме внутрикадрового прогнозирования.3. The method of claim 1, wherein when said at least one adjacent video block is encoded in at least one of intra block copy mode, combined intra and inter prediction coding mode, geometric separation mode, or paletted mode, said adjacent video block considered as a non-intra-prediction encoded block. 4. Способ по п. 1, в котором указанная пара весовых коэффициентов определяется в соответствии с цветовой составляющей текущего видеоблока.4. The method of claim. 1, in which the specified pair of weight coefficients is determined in accordance with the color component of the current video block. 5. Способ по п. 4, в котором позиция указанного одного или более соседних видеоблоков определяется цветовой составляющей текущего видеоблока.5. The method of claim 4, wherein the position of said one or more neighboring video blocks is determined by the color component of the current video block. 6. Способ по п. 1, в котором указанный один или более соседних видеоблоков содержит по меньшей мере один из левого соседнего видеоблока или верхнего соседнего видеоблока.6. The method of claim 1, wherein said one or more adjacent video blocks comprise at least one of a left adjacent video block or a top adjacent video block. 7. Способ по п. 1, в котором указанная пара весовых коэффициентов определяется в соответствии с доступностью указанного одного или более соседних видеоблоков, причем для переменной checkPredModeY, определяющей, зависит ли доступность соседнего видеоблока от режима прогнозирования, установлено значение "ложь".7. The method of claim 1, wherein said weight pair is determined according to the availability of said one or more adjacent video blocks, wherein the variable checkPredModeY, which determines whether the availability of the adjacent video block depends on the prediction mode, is set to false. 8. Способ по п. 1, в котором в ответ на то, что параметр cIdx для текущего блока равен 0, параметр «а» устанавливается равным 0.8. The method of claim. 1, in which in response to the fact that the parameter cIdx for the current block is 0, the parameter "a" is set to 0. 9. Способ по п. 1, в котором в ответ на то, что параметр cIdx для текущего блока не равен 0, параметр «а» устанавливается равным 1.9. The method of claim. 1, in which in response to the fact that the parameter cIdx for the current block is not equal to 0, the parameter "a" is set equal to 1. 10. Способ по п. 1, в котором указанная пара весовых коэффициентов определяется на основе двух или более соседних видеоблоков;10. The method according to p. 1, in which the specified pair of weight coefficients is determined based on two or more adjacent video blocks; когда все из указанных двух или более соседних видеоблоков кодированы в режиме внутрикадрового прогнозирования, указанная пара весовых коэффициентов является первой парой-кандидатом весовых коэффициентов,when all of said two or more adjacent video blocks are intra prediction encoded, said weight pair is the first candidate weight pair, когда все из указанных двух или более соседних видеоблоков кодированы в режиме, не являющемся режимом внутрикадрового прогнозирования, указанная пара весовых коэффициентов является второй парой-кандидатом весовых коэффициентов, отличной от первой пары-кандидата весовых коэффициентов,when all of said two or more adjacent video blocks are encoded in a non-intra-prediction mode, said weight pair is a second weight candidate pair different from the first weight candidate pair, в противном случае указанная пара весовых коэффициентов является третьей парой-кандидатом весовых коэффициентов, отличной от первой и второй пар-кандидатов весовых коэффициентов.otherwise, said weight pair is a third candidate weight pair different from the first and second weight candidate pairs. 11. Способ по п. 1, в котором первая пара-кандидат весовых коэффициентов равна (3, 1), вторая пара-кандидат весовых коэффициентов равна (1, 3) и третья пара-кандидат весовых коэффициентов равна (2, 2), причем для пары (х, у) х обозначает первый весовой коэффициент, а у обозначает второй весовой коэффициент.11. The method of claim 1, wherein the first weight candidate pair is (3, 1), the second weight candidate pair is (1, 3), and the third weight candidate pair is (2, 2), wherein for the pair (x, y), x denotes the first weight and y denotes the second weight. 12. Способ по п. 1, в котором результат прогнозирования получается путем применения пары весовых коэффициентов к результату внутрикадрового прогнозирования и к результату межкадрового прогнозирования по формуле12. The method of claim 1, wherein the prediction result is obtained by applying a pair of weight coefficients to the intra-prediction result and the inter-prediction result by the formula и где Р - результат прогнозирования, - первый результат прогнозирования, - второй результат прогнозирования, (wInter, wIntra) - пара весовых коэффициентов, параметр offset установлен равным 2.and where Р is the result of forecasting, - the first prediction result, - the second prediction result, (wInter, wIntra) - a pair of weight coefficients, the offset parameter is set to 2. 13. Устройство обработки данных видео, содержащее процессор и энергонезависимое запоминающее устройство с записанными в нем командами, причем команды при их исполнении процессором вызывают выполнение процессором:13. A video data processing device containing a processor and a non-volatile storage device with instructions recorded therein, wherein the instructions, when executed by the processor, cause the processor to execute: определения, в процессе преобразования между текущим видеоблоком, который кодирован в комбинированном режиме кодирования с внутрикадровым и межкадровым прогнозированием, видеоданных и потоком битов данных, пары весовых коэффициентов, содержащей первый весовой коэффициент для первого результата прогнозирования текущего видеоблока и второй весовой коэффициент для второго результата прогнозирования текущего видеоблока, на основе одного или более соседних видеоблоков относительно текущего видеоблока,determining, in the conversion process between the current video block, which is encoded in a combined intra- and inter-prediction coding mode, of video data and a data bit stream, a pair of weight coefficients containing a first weight coefficient for the first prediction result of the current video block and a second weight coefficient for the second prediction result of the current video block, based on one or more neighboring video blocks relative to the current video block, причем первый результат прогнозирования генерируется в режиме внутрикадрового прогнозирования, а второй результат прогнозирования генерируется в режиме межкадрового прогнозирования;wherein the first prediction result is generated in the intra prediction mode and the second prediction result is generated in the inter prediction mode; определения результата прогнозирования текущего блока на основе взвешенной суммы первого результата прогнозирования и второго результата прогнозирования; иdetermining a prediction result of the current block based on a weighted sum of the first prediction result and the second prediction result; And выполнения преобразования на основе результата прогнозирования,performing a transformation based on the prediction result, при этом указанная пара весовых коэффициентов определяется в соответствии с режимом прогнозирования указанного одного или более соседних видеоблоков относительно текущего видеоблока,wherein the specified pair of weight coefficients is determined in accordance with the prediction mode of the specified one or more adjacent video blocks relative to the current video block, когда по меньшей мере один соседний видеоблок из указанного одного или более соседних видеоблоков кодирован в комбинированном режиме кодирования с внутрикадровым и межкадровым прогнозированием, указанный по меньшей мере один соседний видеоблок рассматривается в качестве видеоблока, кодированного в режиме межкадрового прогнозирования, который не является режимом внутрикадрового прогнозирования,when at least one adjacent video block of said one or more adjacent video blocks is encoded in a combined intra-prediction and inter-prediction coding mode, said at least one adjacent video block is considered as a video block encoded in an inter-prediction mode that is not an intra-prediction mode, указанный один или более соседних видеоблоков содержит видеоблок, покрывающий позицию и видеоблок, покрывающий позицию где указывает позицию верхнего левого отсчета текущего видеоблока, cbWidth и cbHeight представляют собой соответственно ширину и высоту текущего видеоблока и параметр "а" определяется с использованием cIdx текущего видеоблока, причем cIdx представляет собой переменную, определяющую индекс цветовой составляющей для текущего блока, и индекс цветовой составляющей текущего блока указывает, что цветовая составляющая текущего блока является яркостной составляющей.the specified one or more neighboring video blocks contain a video block covering the position and a video block covering the position Where indicates the position of the top left reference of the current video block, cbWidth and cbHeight are respectively the width and height of the current video block, and the parameter "a" is determined using the cIdx of the current video block, wherein cIdx is a variable defining the color component index for the current block, and the color component index of the current block indicates that the color component of the current block is the luminance component. 14. Энергонезависимый читаемый компьютером носитель для хранения информации, хранящий команды, которые вызывают выполнение процессором:14. A non-volatile computer-readable storage medium that stores instructions that cause the processor to execute: определения, в процессе преобразования между текущим видеоблоком, который кодирован в комбинированном режиме кодирования с внутрикадровым и межкадровым прогнозированием, видеоданных и потоком битов данных, пары весовых коэффициентов, содержащей первый весовой коэффициент для первого результата прогнозирования текущего видеоблока и второй весовой коэффициент для второго результата прогнозирования текущего видеоблока, на основе одного или более соседних видеоблоков относительно текущего видеоблока,determining, in the conversion process between the current video block, which is encoded in a combined intra- and inter-prediction coding mode, of video data and a data bit stream, a pair of weight coefficients containing a first weight coefficient for the first prediction result of the current video block and a second weight coefficient for the second prediction result of the current video block, based on one or more neighboring video blocks relative to the current video block, причем первый результат прогнозирования генерируется в режиме внутрикадрового прогнозирования, а второй результат прогнозирования генерируется в режиме межкадрового прогнозирования;wherein the first prediction result is generated in the intra prediction mode and the second prediction result is generated in the inter prediction mode; определения результата прогнозирования текущего блока на основе взвешенной суммы первого результата прогнозирования и второго результата прогнозирования; иdetermining a prediction result of the current block based on a weighted sum of the first prediction result and the second prediction result; And выполнения преобразования на основе результата прогнозирования,performing a transformation based on the prediction result, при этом указанная пара весовых коэффициентов определяется в соответствии с режимом прогнозирования указанного одного или более соседних видеоблоков относительно текущего видеоблока,wherein the specified pair of weight coefficients is determined in accordance with the prediction mode of the specified one or more adjacent video blocks relative to the current video block, когда по меньшей мере один соседний видеоблок из указанного одного или более соседних видеоблоков кодирован в комбинированном режиме кодирования с внутрикадровым и межкадровым прогнозированием, указанный по меньшей мере один соседний видеоблок рассматривается в качестве видеоблока, кодированного в режиме межкадрового прогнозирования, который не является режимом внутрикадрового прогнозирования,when at least one adjacent video block of said one or more adjacent video blocks is encoded in a combined intra-prediction and inter-prediction coding mode, said at least one adjacent video block is considered as a video block encoded in an inter-prediction mode that is not an intra-prediction mode, указанный один или более соседних видеоблоков содержит видеоблок, покрывающий позицию и видеоблок, покрывающий позицию где указывает позицию верхнего левого отсчета текущего видеоблока, cbWidth и cbHeight представляют собой соответственно ширину и высоту текущего видеоблока и параметр "а" определяется с использованием cIdx текущего видеоблока, причем cIdx представляет собой переменную, определяющую индекс цветовой составляющей для текущего блока, и индекс цветовой составляющей текущего блока указывает, что цветовая составляющая текущего блока является яркостной составляющей.the specified one or more neighboring video blocks contain a video block covering the position and a video block covering the position Where indicates the position of the top left reference of the current video block, cbWidth and cbHeight are respectively the width and height of the current video block, and the parameter "a" is determined using the cIdx of the current video block, wherein cIdx is a variable defining the color component index for the current block, and the color component index of the current block indicates that the color component of the current block is the luminance component. 15. Энергонезависимый читаемый компьютером носитель для записи информации, хранящий поток битов видеоданных, генерируемых способом, выполняемым устройством обработки видео, причем способ содержит этапы, на которых:15. A non-volatile computer-readable storage medium for recording information, storing a stream of video data bits generated by a method performed by a video processing device, the method comprising the steps of: определяют, для текущего видеоблока, который кодирован в комбинированном режиме кодирования с внутрикадровым и межкадровым прогнозированием, пару весовых коэффициентов, содержащую первый весовой коэффициент для первого результата прогнозирования текущего видеоблока и второй весовой коэффициент для второго результата прогнозирования текущего видеоблока, на основе одного или более соседних видеоблоков относительно текущего видеоблока,determining, for a current video block that is encoded in a combined intra- and inter-prediction coding mode, a pair of weight coefficients comprising a first weight coefficient for the first prediction result of the current video block and a second weight coefficient for the second prediction result of the current video block, based on one or more adjacent video blocks relative to the current video block, причем первый результат прогнозирования генерируется в режиме внутрикадрового прогнозирования, а второй результат прогнозирования генерируется в режиме межкадрового прогнозирования;wherein the first prediction result is generated in the intra prediction mode and the second prediction result is generated in the inter prediction mode; определяют результат прогнозирования текущего блока на основе взвешенной суммы первого результата прогнозирования и второго результата прогнозирования; иdetermining a prediction result of the current block based on a weighted sum of the first prediction result and the second prediction result; And генерируют битовый поток на основе результата прогнозирования,generating a bitstream based on the prediction result, при этом указанная пара весовых коэффициентов определяется в соответствии с режимом прогнозирования указанного одного или более соседних видеоблоков относительно текущего видеоблока,wherein the specified pair of weight coefficients is determined in accordance with the prediction mode of the specified one or more adjacent video blocks relative to the current video block, когда по меньшей мере один соседний видеоблок из указанного одного или более соседних видеоблоков кодирован в комбинированном режиме кодирования с внутрикадровым и межкадровым прогнозированием, указанный по меньшей мере один соседний видеоблок рассматривается в качестве видеоблока, кодированного в режиме межкадрового прогнозирования, который не является режимом внутрикадрового прогнозирования,when at least one adjacent video block of said one or more adjacent video blocks is encoded in a combined intra-prediction and inter-prediction coding mode, said at least one adjacent video block is considered as a video block encoded in an inter-prediction mode that is not an intra-prediction mode, указанный один или более соседних видеоблоков содержит видеоблок, покрывающий позицию и видеоблок, покрывающий позицию где указывает позицию верхнего левого отсчета текущего видеоблока, cbWidth и cbHeight представляют собой соответственно ширину и высоту текущего видеоблока и параметр "а" определяется с использованием cIdx текущего видеоблока, причем cIdx представляет собой переменную, определяющую индекс цветовой составляющей для текущего блока, и индекс цветовой составляющей текущего блока указывает, что цветовая составляющая текущего блока является яркостной составляющей.the specified one or more neighboring video blocks contain a video block covering the position and a video block covering the position Where indicates the position of the top left reference of the current video block, cbWidth and cbHeight are respectively the width and height of the current video block, and the parameter "a" is determined using the cIdx of the current video block, wherein cIdx is a variable defining the color component index for the current block, and the color component index of the current block indicates that the color component of the current block is the luminance component.
RU2021126292A 2019-03-21 2020-03-23 Advanced weight processing using combined mode with intra-frame and inter-frame prediction RU2802175C2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CNPCT/CN2019/079148 2019-03-21
CNPCT/CN2019/100616 2019-08-14

Publications (2)

Publication Number Publication Date
RU2021126292A RU2021126292A (en) 2023-03-07
RU2802175C2 true RU2802175C2 (en) 2023-08-22

Family

ID=

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016072775A1 (en) * 2014-11-06 2016-05-12 삼성전자 주식회사 Video encoding method and apparatus, and video decoding method and apparatus
KR20170119664A (en) * 2010-04-16 2017-10-27 에스케이텔레콤 주식회사 Video Coding and Decoding Method and Apparatus
WO2018067672A1 (en) * 2016-10-04 2018-04-12 Qualcomm Incorporated Adaptive motion vector precision for video coding

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170119664A (en) * 2010-04-16 2017-10-27 에스케이텔레콤 주식회사 Video Coding and Decoding Method and Apparatus
WO2016072775A1 (en) * 2014-11-06 2016-05-12 삼성전자 주식회사 Video encoding method and apparatus, and video decoding method and apparatus
WO2018067672A1 (en) * 2016-10-04 2018-04-12 Qualcomm Incorporated Adaptive motion vector precision for video coding

Similar Documents

Publication Publication Date Title
KR102649520B1 (en) Improved weighting of combined intra-inter predictions
US11190795B2 (en) Method and an apparatus for processing a video signal
JP7259053B2 (en) Extended Application of Combined Intra-Inter Prediction
US11683482B2 (en) Method and apparatus for encoding and decoding video using inter-prediction
KR20210127722A (en) Limited and coordinated application of combined inter and intra-prediction modes
JPWO2020187329A5 (en)
RU2802175C2 (en) Advanced weight processing using combined mode with intra-frame and inter-frame prediction
JPWO2020156537A5 (en)
WO2020012449A1 (en) Shape dependent interpolation order
RU2812648C2 (en) Method and device for processing video data and media for information storage
WO2023236916A1 (en) Updating motion attributes of merge candidates
WO2024017004A1 (en) Reference list reordering in video coding