RU2814858C1 - Method of signaling division of rectangular slice in encoded video stream - Google Patents

Method of signaling division of rectangular slice in encoded video stream Download PDF

Info

Publication number
RU2814858C1
RU2814858C1 RU2021129537A RU2021129537A RU2814858C1 RU 2814858 C1 RU2814858 C1 RU 2814858C1 RU 2021129537 A RU2021129537 A RU 2021129537A RU 2021129537 A RU2021129537 A RU 2021129537A RU 2814858 C1 RU2814858 C1 RU 2814858C1
Authority
RU
Russia
Prior art keywords
sub
image
images
value
layer
Prior art date
Application number
RU2021129537A
Other languages
Russian (ru)
Inventor
Беондоо ЧОЙ
Шань ЛЮ
Штефан ВЕНГЕР
Original Assignee
TEНСЕНТ АМЕРИКА ЭлЭлСи
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TEНСЕНТ АМЕРИКА ЭлЭлСи filed Critical TEНСЕНТ АМЕРИКА ЭлЭлСи
Application granted granted Critical
Publication of RU2814858C1 publication Critical patent/RU2814858C1/en

Links

Abstract

FIELD: physics.
SUBSTANCE: invention relates to video encoding means. Video data containing one or more sub-images are received. Number of sub-images and the delta value between the number of sub-images and the number of rectangular slices are signaled. Number of rectangular slices is obtained based on the number of sub-images and the delta value. When the current image is not the first image of a coded layer video sequence (CLVS), for each value i in range from 0 to the syntax element sps_num_subpics_minus1, if the value of the variable SubpicIdVal [ i ] of the current image is not equal to the value of SubpicIdVal [ i ] of the previous image in the decoding order in the same layer, syntax element subpic_treated_as_pic_flag[ i ] and syntax element loop_filter_across_subpic_enabled_flag[ i ] are equal to 1, wherein the syntax element sps_num_subpics_minus1 plus 1 indicates the number of sub-images in each image in the CLVS.
EFFECT: high efficiency of video encoding.
20 cl, 26 dwg

Description

ПЕРЕКРЕСТНАЯ ССЫЛКА НА РОДСТВЕННУЮ ЗАЯВКУCROSS REFERENCE TO RELATED APPLICATION

[1] Эта заявка испрашивает приоритет предварительной заявки на патент США № 63/003,101, поданной 31 марта 2020 г., и заявки на патент США № 17/098,892, поданной 16 ноября 2020 г. в Бюро по патентам и товарным знакам США, которые полностью включены в настоящий документ посредством ссылки.[1] This application claims the benefit of U.S. Provisional Patent Application No. 63/003,101, filed March 31, 2020, and U.S. Patent Application No. 17/098,892, filed November 16, 2020, in the United States Patent and Trademark Office, which are incorporated herein by reference in their entirety.

ОБЛАСТЬ ТЕХНИКИ, К КОТОРОЙ ОТНОСИТСЯ ИЗОБРЕТЕНИЕFIELD OF TECHNOLOGY TO WHICH THE INVENTION RELATES

[2] Раскрытый объект изобретения относится к кодированию и декодированию видео, а более конкретно к сигнализации разделения слайсов в кодированном видеопотоке.[2] The disclosed subject matter of the invention relates to video encoding and decoding, and more particularly to slice division signaling in an encoded video stream.

УРОВЕНЬ ТЕХНИКИBACKGROUND OF THE ART

[3] Кодирование и декодирование видео с использованием межкадрового предсказания с компенсацией движения известно уже несколько десятилетий. Несжатое цифровое видео может состоять из серии изображений, причем каждое изображение имеет пространственный размер, например, 1920 x 1080 отсчетов яркости и связанных отсчетов цветности. Серия изображений может иметь фиксированную или переменную частоту изображений (неофициально также известную как частота кадров), например, 60 изображений в секунду или 60 Гц. Несжатое видео имеет значительные требования к битрейту. Например, для видео 1080p60 4:2:0 с частотой 8 бит на отсчет (разрешение 1920x1080 отсчетов яркости при частоте кадров 60 Гц) требуется полоса пропускания, близкая к 1,5 Гбит/с. Час такого видео требует более 600 ГБ дискового пространства.[3] Video encoding and decoding using motion-compensated inter-frame prediction has been known for decades. Uncompressed digital video may consist of a series of images, each image having a spatial dimension, such as 1920 x 1080 luminance samples and associated chrominance samples. A series of images can have a fixed or variable image rate (informally also known as frame rate), such as 60 images per second or 60 Hz. Uncompressed video has significant bitrate requirements. For example, 1080p60 4:2:0 video at 8 bits per sample (1920x1080 luminance samples resolution at 60 Hz frame rate) requires a bandwidth of close to 1.5 Gbps. An hour of such video requires more than 600 GB of disk space.

[4] Одной из целей кодирования и декодирования видео может быть уменьшение избыточности входного видеосигнала посредством сжатия. Сжатие может помочь снизить вышеупомянутые требования к полосе пропускания или пространству для хранения, в некоторых случаях на два порядка или более. Могут использоваться как сжатие без потерь, так и сжатие с потерями, а также их комбинация. Сжатие без потерь относится к методам, при которых из сжатого исходного сигнала может быть восстановлена точная копия исходного сигнала. При использовании сжатия с потерями восстановленный сигнал может не быть идентичным исходному сигналу, но искажение между исходным и восстановленным сигналами достаточно мало, чтобы сделать восстановленный сигнал пригодным для предполагаемого приложения. В случае видео широко применяется сжатие с потерями. Допустимая степень искажения зависит от приложения; например, для пользователей определенных потребительских приложений потоковой передачи допустимы более высокие искажения, чем для пользователей приложений вещательного телевидения. Достижимая степень сжатия может отражать следующее: более высокое разрешаемое/допустимое искажение может привести к более высокой степени сжатия.[4] One of the purposes of video encoding and decoding may be to reduce redundancy in the input video signal through compression. Compression can help reduce the aforementioned bandwidth or storage space requirements, in some cases by two orders of magnitude or more. Both lossless and lossy compression, or a combination of both, can be used. Lossless compression refers to techniques in which an exact copy of the original signal can be reconstructed from the compressed original signal. When lossy compression is used, the reconstructed signal may not be identical to the original signal, but the distortion between the original and reconstructed signals is small enough to make the reconstructed signal suitable for the intended application. In the case of video, lossy compression is widely used. The acceptable degree of distortion depends on the application; for example, users of certain consumer streaming applications may tolerate higher distortion than users of broadcast television applications. The achievable compression ratio may reflect the following: Higher resolution/acceptable distortion may result in a higher compression ratio.

[5] Видеокодер и видеодекодер могут использовать методы из нескольких широких категорий, включая, например, компенсацию движения, преобразование, квантование и энтропийное кодирование, некоторые из которых будут представлены ниже.[5] The video encoder and video decoder may use techniques from several broad categories, including, for example, motion compensation, transform, quantization, and entropy coding, some of which will be presented below.

[6] Исторически видеокодеры и видеодекодеры имели тенденцию работать с заданным размером изображения, который в большинстве случаев был определен и оставался постоянным для кодированной видеопоследовательности (CVS), группы изображений (GOP) или аналогичного временного кадра с множеством изображений. Например, в MPEG-2 известно, что конструкция системы изменяет горизонтальное разрешение (и, следовательно, размер изображения) в зависимости от таких факторов, как активность сцены, но только для I-изображений, следовательно, обычно для GOP. Передискретизация опорных изображений для использования различных разрешений в CVS известна, например, из Рекомендаций МСЭ-Т H.263, Приложение P. Однако здесь размер изображения не изменяется, только опорные изображения подвергаются передискретизации, в результате чего потенциально могут использоваться только части холста изображения (в случае понижающей дискретизации) или захватываться только части сцены (в случае повышающей дискретизации). Кроме того, Приложение Q H.263 разрешает передискретизацию отдельного макроблока с коэффициентом два (в каждом измерении), в сторону повышения или понижения. Опять же, размер изображения остается прежним. Размер макроблока фиксирован в H.263, и поэтому его не нужно сигнализировать.[6] Historically, video encoders and video decoders have tended to operate at a given picture size, which in most cases was defined and remained constant for a coded video sequence (CVS), group of pictures (GOP), or similar multi-picture time frame. For example, in MPEG-2 it is known that the system design changes the horizontal resolution (and thus the image size) depending on factors such as scene activity, but only for I-pictures, hence typically for GOP. Resampling of reference images to use different resolutions in CVS is known, for example, from ITU-T Rec. H.263, Annex P. However, here the image size is not changed, only the reference images are resampled, resulting in potentially only parts of the image canvas being used (in in the case of downsampling) or capturing only parts of the scene (in the case of upsampling). In addition, H.263 Annex Q allows an individual macroblock to be resampled by a factor of two (in each dimension), up or down. Again, the image size remains the same. The macroblock size is fixed in H.263 and therefore does not need to be signalled.

[7] Изменение размера изображения в предсказанных изображениях стало более распространенным явлением в современном кодировании видео. Например, VP9 позволяет выполнять передискретизацию опорного изображения и изменять разрешение для всего изображения. Аналогичным образом, некоторые предложения, сделанные в отношении VVC (включая, например, Hendry, et. al, «On adaptive resolution change (ARC) for VVC», документ Объединенной команды видеоэкспертов (JVT) JVET-M0135-v1, 9-19 января 2019 г., полностью включенный в настоящий документ) позволяют выполнять передискретизацию целых опорных изображений с другим - более высоким или более низким - разрешением. В этом документе предлагается кодировать различные кандидаты разрешения в наборе параметров последовательности и ссылаться на них с помощью элементов синтаксиса для каждого изображения в наборе параметров изображения. [7] Image resizing in predicted images has become more common in modern video coding. For example, VP9 allows you to resample a reference image and change the resolution of the entire image. Likewise, some proposals made regarding VVC (including, for example, Hendry, et. al, “On adaptive resolution change (ARC) for VVC,” JVT document JVET-M0135-v1, January 9-19 2019, incorporated herein in its entirety) allow entire reference images to be resampled to a different, higher or lower, resolution. This document proposes to encode different resolution candidates in a sequence parameter set and refer to them using syntax elements for each image in the image parameter set.

РАСКРЫТИЕ СУЩНОСТИ ИЗОБРЕТЕНИЯDISCLOSURE OF THE INVENTION

[8] Варианты осуществления изобретения относятся к способу, системе и машиночитаемому носителю для кодирования видеоданных. Согласно одному аспекту предоставляется способ кодирования видеоданных. Способ может включать в себя прием видеоданных, включающих в себя одно или более субизображений. Сигнализируется количество субизображений и значение дельты между количеством субизображений и количеством прямоугольных слайсов. Получается количество прямоугольных слайсов на основе количества субизображений и значения дельты.[8] Embodiments of the invention relate to a method, system, and computer-readable medium for encoding video data. In one aspect, a method for encoding video data is provided. The method may include receiving video data including one or more sub-images. The number of sub-images and the delta value between the number of sub-images and the number of rectangular slices are signaled. The number of rectangular slices is obtained based on the number of sub-images and the delta value.

[9] Согласно другому аспекту предоставляется компьютерная система для кодирования видеоданных. Компьютерная система может включать в себя один или более процессоров, один или более машиночитаемых элементов памяти, одно или более машиночитаемых материальных запоминающих устройств и программные инструкции, хранящиеся по меньшей мере на одном из одного или более запоминающих устройств для исполнения по меньшей мере одним из одного или более процессоров через по меньшей мере один из одного или более элементов памяти, посредством чего компьютерная система способна осуществлять способ. Способ может включать в себя прием видеоданных, включающих в себя одно или более субизображений. Сигнализируется количество субизображений и значение дельты между количеством субизображений и количеством прямоугольных слайсов. Получается количество прямоугольных слайсов на основе количества субизображений и значения дельты.[9] In another aspect, a computer system for encoding video data is provided. The computer system may include one or more processors, one or more computer-readable memory elements, one or more computer-readable physical storage devices, and program instructions stored on at least one of the one or more storage devices for execution by at least one of one or more more processors through at least one of one or more memory elements, whereby the computer system is capable of implementing the method. The method may include receiving video data including one or more sub-images. The number of sub-images and the delta value between the number of sub-images and the number of rectangular slices are signaled. The number of rectangular slices is obtained based on the number of sub-images and the delta value.

[10] Согласно еще одному аспекту предоставляется машиночитаемый носитель для кодирования видеоданных. Машиночитаемый носитель может включать в себя одно или более машиночитаемых запоминающих устройств и программных инструкций, хранящихся по меньшей мере на одном из одного или более материальных запоминающих устройств, причем программные инструкции исполняются процессором. Программные инструкции исполняются процессором для осуществления способа, который, соответственно, может включать в себя прием видеоданных, включающих в себя одно или более субизображений. Сигнализируется количество субизображений и значение дельты между количеством субизображений и количеством прямоугольных слайсов. Получается количество прямоугольных слайсов на основе количества субизображений и значения дельты.[10] In another aspect, a computer-readable medium for encoding video data is provided. A computer-readable medium may include one or more computer-readable storage devices and program instructions stored on at least one of one or more tangible storage devices, the program instructions being executed by a processor. The program instructions are executed by the processor to implement the method, which accordingly may include receiving video data including one or more sub-images. The number of sub-images and the delta value between the number of sub-images and the number of rectangular slices are signaled. The number of rectangular slices is obtained based on the number of sub-images and the delta value.

КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙBRIEF DESCRIPTION OF THE DRAWINGS

[11] Эти и другие задачи, признаки и преимущества станут очевидными из следующего ниже подробного описания иллюстративных вариантов осуществления, которое следует читать вместе с прилагаемыми чертежами. Различные элементы чертежей показаны не в масштабе, поскольку иллюстрации приведены для ясности и упрощения понимания специалистом в данной области техники вместе с подробным описанием. На чертежах:[11] These and other objects, features and advantages will become apparent from the following detailed description of the illustrative embodiments, which should be read in conjunction with the accompanying drawings. Various elements of the drawings are not to scale because the illustrations are provided for clarity and ease of understanding by one skilled in the art in conjunction with the detailed description. On the drawings:

[12] На фиг.1 показана схематическая иллюстрация упрощенной блок-схемы системы связи в соответствии с вариантом осуществления. [12] FIG. 1 is a schematic illustration of a simplified block diagram of a communication system according to an embodiment.

[13] На фиг.2 показана схематическая иллюстрация упрощенной блок-схемы системы связи в соответствии с вариантом осуществления.[13] FIG. 2 is a schematic illustration of a simplified block diagram of a communication system according to an embodiment.

[14] На фиг.3 показана схематическая иллюстрация упрощенной блок-схемы декодера в соответствии с вариантом осуществления.[14] FIG. 3 is a schematic illustration of a simplified block diagram of a decoder according to an embodiment.

[15] На фиг.4 показана схематическая иллюстрация упрощенной блок-схемы кодера в соответствии с вариантом осуществления.[15] FIG. 4 is a schematic illustration of a simplified block diagram of an encoder according to an embodiment.

[16] На фиг.5 показана схематическая иллюстрация вариантов сигнализации параметров ARC в соответствии с предшествующим уровнем техники или вариантом осуществления, как указано.[16] FIG. 5 is a schematic illustration of ARC parameter signaling embodiments in accordance with the prior art or embodiment as indicated.

[17] На фиг.6 показан пример таблицы синтаксиса в соответствии с вариантом осуществления.[17] FIG. 6 shows an example of a syntax table according to an embodiment.

[18] На фиг.7 показана схематическая иллюстрация компьютерной системы в соответствии с вариантом осуществления.[18] FIG. 7 is a schematic illustration of a computer system according to an embodiment.

[19] На фиг.8 показан пример структуры предсказания для масштабируемости с изменением адаптивного разрешения.[19] FIG. 8 shows an example of a prediction structure for adaptive resolution scalability.

[20] На фиг.9 показан пример таблицы синтаксиса в соответствии с вариантом осуществления.[20] FIG. 9 shows an example of a syntax table according to an embodiment.

[21] На фиг.10 показана схематическая иллюстрация упрощенной блок-схемы парсинга и декодирования цикла poc для каждой единицы доступа и значения счетчика единиц доступа.[21] FIG. 10 is a schematic illustration of a simplified flowchart for parsing and decoding a poc frame for each access unit and access unit counter value.

[22] На фиг.11 показана схематическая иллюстрация структуры битового видеопотока, содержащей многослойные субизображения.[22] FIG. 11 is a schematic illustration of a video bitstream structure containing multi-layer sub-images.

[23] На фиг.12 показана схематическая иллюстрация отображения выбранного суб-изображения с улучшенным разрешением.[23] FIG. 12 is a schematic illustration of displaying a selected sub-image with improved resolution.

[24] На фиг.13 показана блок-схема процесса декодирования и отображения битового видеопотока, содержащего многослойные субизображения.[24] FIG. 13 is a flowchart of a process for decoding and displaying a video bit stream containing multi-layer sub-images.

[25] На фиг.14 показана схематическая иллюстрация отображения видео 360° со слоем улучшения субизображения.[25] FIG. 14 is a schematic illustration of a 360° video display with a sub-image enhancement layer.

[26] На фиг.15 показан пример информации о макете субизображений и его соответствующего слоя и структуры предсказания изображения.[26] FIG. 15 shows an example of sub-image layout information and its corresponding layer and image prediction structure.

[27] На фиг.16 показан пример информации о макете субизображения и его соответствующего слоя и структуры предсказания изображения с модальностью пространственной масштабируемости локальной области.[27] FIG. 16 shows an example of the layout information of a sub-image and its corresponding layer and image prediction structure with a local area spatial scalability modality.

[28] На фиг.17 показан пример таблицы синтаксиса для информации макета субизображения.[28] FIG. 17 shows an example of a syntax table for sub-image layout information.

[29] На фиг.18 показан пример таблицы синтаксиса сообщения SEI для информации макета субизображения.[29] FIG. 18 shows an example of a SEI message syntax table for sub-image layout information.

[30] На фиг.19 показан пример таблицы синтаксиса для указания выходных слоев и информации профиля/яруса/уровня для каждого набора выходных слоев.[30] FIG. 19 shows an example syntax table for specifying output layers and profile/tier/layer information for each set of output layers.

[31] На фиг.20 показан пример таблицы синтаксиса для указания режима выходного слоя для каждого набора выходных слоев.[31] FIG. 20 shows an example syntax table for specifying an output layer mode for each set of output layers.

[32] На фиг.21 показан пример таблицы синтаксиса для указания текущего субизображения каждого слоя для каждого набора выходных слоев.[32] FIG. 21 shows an example syntax table for specifying the current sub-image of each layer for each set of output layers.

[33] На фиг.22 показан пример таблицы синтаксиса для указания идентификатора субизображения.[33] FIG. 22 shows an example of a syntax table for specifying a sub-image identifier.

[34] На фиг.23 показан пример таблицы синтаксиса SPS для указания количества субизображений.[34] FIG. 23 shows an example of an SPS syntax table for specifying the number of sub-pictures.

[35] На фиг.24 показан пример таблицы синтаксиса PPS для указания разделения слайсов.[35] FIG. 24 shows an example of a PPS syntax table for specifying slice division.

[36] На фиг.25 показан пример таблицы синтаксиса PPS для указания количества слайсов в изображении.[36] FIG. 25 shows an example of a PPS syntax table for specifying the number of slices in an image.

[37] На фиг.26 показан еще один пример таблицы синтаксиса PPS для указания количества слайсов в изображении с измененным синтаксисом.[37] FIG. 26 shows another example of a PPS syntax table for indicating the number of slices in an image with a modified syntax.

ОСУЩЕСТВЛЕНИЕ ИЗОБРЕТЕНИЯIMPLEMENTATION OF THE INVENTION

[38] Подробные варианты осуществления заявленных структур и способов раскрыты в данном описании; однако можно понять, что раскрытые варианты осуществления являются лишь иллюстрацией заявленных структур и способов, которые могут быть воплощены в различных формах. Однако эти структуры и способы могут быть воплощены во многих различных формах, и их не следует рассматривать как ограниченные примерными вариантами осуществления, изложенными в данном документе. Скорее, данные примерные варианты осуществления представлены для того, чтобы данное описание было исчерпывающим и полным и полностью передавало объем правовой охраны для специалистов в данной области техники. В описании детали хорошо известных функций и методов могут быть опущены, чтобы избежать ненужного затруднения понимания представленных вариантов осуществления.[38] Detailed embodiments of the claimed structures and methods are disclosed herein; however, it will be understood that the disclosed embodiments are merely illustrative of the claimed structures and methods, which may be embodied in various forms. However, these structures and methods can be embodied in many different forms and should not be construed as limited to the exemplary embodiments set forth herein. Rather, these exemplary embodiments are presented to ensure that this description is exhaustive and complete and fully conveys the scope of legal protection to those skilled in the art. In the description, details of well-known functions and methods may be omitted to avoid unnecessary difficulty in understanding the presented embodiments.

[39] Как описано ранее, несжатое цифровое видео может состоять из серии изображений, причем каждое изображение имеет пространственный размер, например, 1920 x 1080 отсчетов яркости и связанных отсчетов цветности. Серия изображений может иметь фиксированную или переменную частоту изображений (неофициально также известную как частота кадров), например, 60 изображений в секунду или 60 Гц. Несжатое видео имеет значительные требования к битрейту. Например, для видео 1080p60 4:2:0 с частотой 8 бит на отсчет (разрешение 1920x1080 отсчетов яркости при частоте кадров 60 Гц) требуется полоса пропускания, близкая к 1,5 Гбит/с. Час такого видео требует более 600 ГБ дискового пространства. Однако изображение может быть разделено на одно или более субизображений, и каждое субизображение может быть дополнительно разделено на один или более слайсов. Следовательно, может быть предпочтительно сигнализировать разделение слайса на субизображение или изображение как более эффективный способ сигнализации.[39] As described previously, uncompressed digital video may consist of a series of images, each image having a spatial dimension, such as 1920 x 1080 luminance samples and associated chrominance samples. A series of images can have a fixed or variable image rate (informally also known as frame rate), such as 60 images per second or 60 Hz. Uncompressed video has significant bitrate requirements. For example, 1080p60 4:2:0 video at 8 bits per sample (1920x1080 luminance samples resolution at 60 Hz frame rate) requires a bandwidth of close to 1.5 Gbps. An hour of such video requires more than 600 GB of disk space. However, an image may be divided into one or more sub-images, and each sub-image may be further divided into one or more slices. Therefore, it may be preferable to signal by dividing a slice into a sub-image or image as a more efficient signaling method.

[40] Аспекты описаны здесь со ссылкой на иллюстрации блок-схем и/или диаграмм способов, устройств (систем) и машиночитаемых носителей в соответствии с различными вариантами осуществления. Следует понимать, что каждый блок иллюстраций блок-схем и/или диаграмм, а также комбинации блоков в иллюстрациях блок-схем и/или диаграмм могут быть реализованы с помощью машиночитаемых программных инструкций.[40] Aspects are described herein with reference to illustrations of flowcharts and/or diagrams of methods, devices (systems), and computer-readable media in accordance with various embodiments. It should be understood that each block of the flowchart and/or diagram illustrations, as well as combinations of blocks in the block diagram and/or diagram illustrations, may be implemented using machine-readable program instructions.

[41] На фиг.1 проиллюстрирована упрощенная блок-схема системы (100) связи согласно варианту осуществления настоящего раскрытия. Система (100) может включать в себя по меньшей мере два терминала (110-120), соединенных между собой через сеть (150). Для однонаправленной передачи данных первый терминал (110) может кодировать видеоданные в локальном местоположении для передачи другому терминалу (120) через сеть (150). Второй терминал (120) может принимать кодированные видеоданные другого терминала из сети (150), декодировать кодированные данные и отображать восстановленные видеоданные. Однонаправленная передача данных может быть обычным явлением в приложениях обслуживания мультимедиа и т. п.[41] FIG. 1 illustrates a simplified block diagram of a communication system (100) according to an embodiment of the present disclosure. The system (100) may include at least two terminals (110-120) connected to each other via a network (150). For unidirectional data transmission, the first terminal (110) may encode video data at a local location for transmission to another terminal (120) via the network (150). The second terminal (120) may receive encoded video data of another terminal from the network (150), decode the encoded data, and display the reconstructed video data. Unidirectional data transfer may be common in media serving applications and the like.

[42] На фиг.1 показана вторая пара терминалов (130, 140), обеспечивающая поддержку двунаправленной передачи кодированного видео, которая может происходить, например, во время видеоконференц-связи. Для двунаправленной передачи данных каждый терминал (130, 140) может кодировать видеоданные, захваченные в локальном местоположении, для передачи другому терминалу через сеть (150). Каждый терминал (130, 140) также может принимать кодированные видеоданные, переданные другим терминалом, может декодировать кодированные данные и может отображать восстановленные видеоданные на локальном устройстве отображения.[42] FIG. 1 shows a second pair of terminals (130, 140) providing support for bi-directional transmission of encoded video, which may occur, for example, during video conferencing. For bidirectional data transmission, each terminal (130, 140) may encode video data captured at a local location for transmission to another terminal via the network (150). Each terminal (130, 140) can also receive encoded video data transmitted by another terminal, can decode the encoded data, and can display the reconstructed video data on a local display device.

[43] На фиг.1 терминалы (110-140) могут быть изображены как серверы, персональные компьютеры и смартфоны, но принципы настоящего раскрытия не могут быть ограничены этим. Варианты осуществления настоящего изобретения находят применение в портативных компьютерах, планшетных компьютерах, медиаплеерах и/или специализированном оборудовании для видеоконференц-связи. Сеть (150) представляет собой любое количество сетей, которые передают кодированные видеоданные между терминалами (110-140), включая, например, сети проводной и/или беспроводной связи. Сеть (150) связи может обмениваться данными в каналах с коммутацией каналов и/или с коммутацией пакетов. Репрезентативные сети включают в себя телекоммуникационные сети, локальные сети, глобальные сети и/или Интернет. Для целей настоящего обсуждения архитектура и топология сети (150) могут быть несущественными для работы настоящего раскрытия, если это не объясняется в данном документе ниже.[43] In FIG. 1, the terminals (110-140) may be depicted as servers, personal computers, and smartphones, but the principles of the present disclosure cannot be limited to this. Embodiments of the present invention find use in laptop computers, tablet computers, media players, and/or specialized videoconferencing equipment. Network (150) is any number of networks that transmit encoded video data between terminals (110-140), including, for example, wired and/or wireless communication networks. The communications network (150) may communicate over circuit-switched and/or packet-switched channels. Representative networks include telecommunications networks, local area networks, wide area networks, and/or the Internet. For purposes of this discussion, the architecture and topology of the network (150) may not be essential to the operation of the present disclosure unless explained below herein.

[44] На фиг.2 проиллюстрировано, в качестве примера применения для раскрытого объекта изобретения, размещение видеокодера и видеодекодера в потоковой среде. Раскрытый объект изобретения может быть в равной степени применим к другим приложениям с поддержкой видео, включая, например, видеоконференц-связь, цифровое телевидение, хранение сжатого видео на цифровых носителях, включая CD, DVD, карту памяти и т. п., и так далее. [44] FIG. 2 illustrates, as an example of an application for the disclosed subject matter, the placement of a video encoder and a video decoder in a streaming environment. The disclosed subject matter may be equally applicable to other video-enabled applications including, for example, video conferencing, digital television, compressed video storage on digital media including CD, DVD, memory card, etc., etc. .

[45] Система потоковой передачи может включать в себя подсистему (213) захвата, которая может включать в себя источник (201) видео, например цифровую камеру, создающую, например, поток (202) отсчетов несжатого видео. Данный поток (202) отсчетов, изображенный жирной линией, чтобы подчеркнуть большой объем данных по сравнению с кодированными битовыми потоками видео, может быть обработан кодером (203), подключенным к камере (201). Кодер (203) может включать в себя аппаратное обеспечение, программное обеспечение или их комбинацию для включения или реализации аспектов раскрытого объекта изобретения, как более подробно описано ниже. Кодированный битовый поток (204) видео, изображенный тонкой линией, чтобы подчеркнуть меньший объем данных по сравнению с потоком отсчетов, может храниться на сервере (205) потоковой передачи для будущего использования. Один или более клиентов (206, 208) потоковой передачи могут получить доступ к серверу (205) потоковой передачи для извлечения копий (207, 209) кодированного битового потока (204) видео. Клиент (206) может включать в себя видеодекодер (210), который декодирует входящую копию кодированного битового видеопотока (207) и создает исходящий поток (211) отсчетов видео, который может отображаться на дисплее (212) или другом устройстве визуализации (не изображено). В некоторых системах потоковой передачи битовые потоки (204, 207, 209) видео могут кодироваться в соответствии с определенными стандартами кодирования/сжатия видео. Примеры этих стандартов включают Рекомендацию МСЭ-Т H.265. В стадии разработки находится стандарт кодирования видео, неофициально известный как универсальное кодирование видео или VVC. Раскрытый объект может использоваться в контексте VVC.[45] The streaming system may include a capture subsystem (213), which may include a video source (201), such as a digital camera, producing, for example, a stream (202) of uncompressed video samples. This sample stream (202), represented by a thick line to highlight the large amount of data compared to the encoded video bitstreams, can be processed by an encoder (203) connected to the camera (201). The encoder (203) may include hardware, software, or a combination thereof to enable or implement aspects of the disclosed subject matter, as described in more detail below. The encoded video bitstream (204), depicted as a thin line to emphasize the smaller amount of data compared to the sample stream, may be stored on the streaming server (205) for future use. One or more streaming clients (206, 208) may access the streaming server (205) to retrieve copies (207, 209) of the encoded video bitstream (204). The client (206) may include a video decoder (210) that decodes an incoming copy of the encoded video bitstream (207) and produces an outgoing stream (211) of video samples that can be displayed on a display (212) or other rendering device (not shown). In some streaming systems, the video bitstreams (204, 207, 209) may be encoded according to certain video encoding/compression standards. Examples of these standards include ITU-T Rec. H.265. A video encoding standard, informally known as Universal Video Coding or VVC, is under development. The exposed object can be used in a VVC context.

[46] Фиг.3 может быть функциональной блок-схемой видеодекодера (210) согласно одному или более вариантам осуществления.[46] FIG. 3 may be a functional block diagram of a video decoder (210) according to one or more embodiments.

[47] Приемник (310) может принимать одну или более кодированных видеопоследовательностей, которые должны быть декодированы декодером (210); в том же или другом варианте осуществления - по одной кодированной видеопоследовательности за раз, где декодирование каждой кодированной видеопоследовательности не зависит от других кодированных видеопоследовательностей. Кодированная видеопоследовательность может быть принята из канала (312), который может быть аппаратным/программным соединением с устройством хранения, в котором хранятся кодированные видеоданные. Приемник (310) может принимать кодированные видеоданные с другими данными, например, кодированными аудиоданными и/или потоками вспомогательных данных, которые могут быть отправлены их соответствующим использующим объектам (не изображены). Приемник (310) может отделять кодированную видеопоследовательность от других данных. Для борьбы с дрожанием в сети между приемником (310) и энтропийным декодером/парсером (320) (далее «парсер») может быть подключена буферная память (315). Когда приемник (310) принимает данные от устройства хранения/пересылки с достаточной полосой пропускания и управляемостью или из изосинхронной сети, буферная память (315) может не понадобиться или может быть небольшой. Для использования в пакетных сетях наилучшего качества, таких как Интернет, может потребоваться буфер (315), который может быть сравнительно большим и может быть предпочтительно адаптивного размера.[47] The receiver (310) may receive one or more encoded video sequences to be decoded by the decoder (210); in the same or another embodiment, one encoded video sequence at a time, where the decoding of each encoded video sequence is independent of other encoded video sequences. The encoded video sequence may be received from a channel (312), which may be a hardware/software connection to a storage device in which the encoded video data is stored. The receiver (310) may receive the encoded video data with other data, such as encoded audio data and/or ancillary data streams, which may be sent to their respective using entities (not shown). The receiver (310) can separate the encoded video sequence from other data. To combat network jitter, a buffer memory (315) can be connected between the receiver (310) and the entropy decoder/parser (320) (“parser”). When the receiver (310) receives data from a storage/forwarding device with sufficient bandwidth and controllability or from an iso-synchronous network, the buffer memory (315) may not be needed or may be small. For use in best quality packet networks such as the Internet, a buffer (315) may be required, which may be relatively large and may preferably be of an adaptive size.

[48] Видеодекодер (210) может включать в себя парсер (320) для восстановления символов (321) из энтропийно кодированной видеопоследовательности. Категории этих символов включают в себя информацию, используемую для управления работой декодера (210), и потенциально информацию для управления устройством визуализации, таким как дисплей (212), который не является неотъемлемой частью декодера, но может быть подключен к нему, как это было показано на фиг.2. Управляющая информация для устройства (устройств) визуализации может быть в форме дополнительной информации улучшения (сообщения SEI) или фрагментов набора параметров информации о пригодности видео (VUI) (не изображены). Парсер (320) может выполнять парсинг/энтропийно декодировать принятую кодированную видеопоследовательность. Кодирование кодированной видеопоследовательности может осуществляться в соответствии с технологией или стандартом кодирования видео и может следовать принципам, хорошо известным специалистам в уровне техники, включая кодирование переменной длины, кодирование Хаффмана, арифметическое кодирование с контекстной чувствительностью или без нее и так далее. Парсер (320) может извлекать из кодированной видеопоследовательности набор параметров подгруппы по меньшей мере для одной из подгрупп пикселей в видеодекодере на основе по меньшей мере одного параметра, соответствующего группе. Субгруппы могут включать в себя группы изображений (GOP), изображения, тайлы, слайсы, макроблоки, единицы кодирования (CU), блоки, единицы преобразования (TU), единицы предсказания (PU) и так далее. Энтропийный декодер/парсер также может извлекать из кодированной видеопоследовательности информацию, такую как коэффициенты преобразования, значения параметров квантователя, векторы движения и так далее.[48] The video decoder (210) may include a parser (320) for recovering symbols (321) from the entropy encoded video sequence. Categories of these symbols include information used to control the operation of the decoder (210), and potentially information to control a visualization device, such as a display (212), which is not an integral part of the decoder, but may be connected to it, as has been shown in figure 2. The control information for the rendering device(s) may be in the form of additional enhancement information (SEI messages) or video usability information (VUI) parameter set fragments (not shown). The parser (320) may parse/entropy decode the received encoded video sequence. Encoding of the encoded video sequence may be performed in accordance with a video encoding technology or standard and may follow principles well known to those skilled in the art, including variable length encoding, Huffman encoding, arithmetic encoding with or without context sensitivity, and so on. The parser (320) may extract from the encoded video sequence a set of subgroup parameters for at least one of the subgroups of pixels in the video decoder based on at least one parameter corresponding to the group. Subgroups may include groups of pictures (GOPs), pictures, tiles, slices, macroblocks, coding units (CUs), blocks, transform units (TUs), prediction units (PUs), and so on. An entropy decoder/parser can also extract information from the encoded video sequence, such as transform coefficients, quantizer parameter values, motion vectors, and so on.

[49] Парсер (320) может выполнять операцию энтропийного декодирования/парсинга видеопоследовательности, принятой из буфера (315), чтобы создавать символы (321).[49] The parser (320) may perform an entropy decoding/parsing operation on the video sequence received from the buffer (315) to create symbols (321).

[50] Восстановление символов (321) может включать в себя множество различных модулей в зависимости от типа кодированного видеоизображения или его частей (таких как: внешнее и внутреннее изображение, внешний и внутренний блок) и других факторов. Какие модули задействованы и как, можно контролировать с помощью управляющей информации субгруппы, парсинг которой был выполнен из кодированной видеопоследовательности с помощью парсера (320). Поток такой управляющей информации субгруппы между парсером (320) и множеством модулей ниже не показан для ясности.[50] The symbol recovery 321 may include a variety of different modules depending on the type of video image or portions thereof (such as: outer and inner image, outer and inner block) and other factors. Which modules are enabled and how can be controlled by subgroup control information parsed from the encoded video sequence using the parser (320). The flow of such subgroup control information between the parser (320) and the plurality of modules is not shown below for clarity.

[51] Помимо уже упомянутых функциональных блоков, декодер 210 может быть концептуально подразделен на ряд функциональных модулей, как описано ниже. В практическом осуществлении, работающем в условиях коммерческих ограничений, многие из этих модулей тесно взаимодействуют друг с другом и могут быть, по меньшей мере частично, интегрированы друг в друга. Однако для целей описания раскрытого объекта изобретения уместно концептуальное подразделение на функциональные модули, приведенные ниже.[51] In addition to the functional blocks already mentioned, the decoder 210 can be conceptually divided into a number of functional modules, as described below. In a practical implementation operating under commercial constraints, many of these modules interact closely with each other and can be at least partially integrated into each other. However, for purposes of describing the disclosed subject matter, it is appropriate to conceptually subdivide it into functional modules as follows.

[52] Первым модулем является модуль (351) масштабирования/обратного преобразования. Модуль (351) масштабирования/обратного преобразования принимает квантованный коэффициент преобразования, а также управляющую информацию, включая то, какое преобразование использовать, размер блока, коэффициент квантования, матрицы масштабирования квантования и так далее, в виде символа(ов) (321) от парсера (320). Он может выводить блоки, содержащие значения отсчетов, которые могут быть введены в агрегатор (355).[52] The first module is a scaling/inverting module (351). The scaling/inverse transform module (351) receives the quantized transform factor, as well as control information, including which transform to use, block size, quantization factor, quantization scaling matrices, and so on, as symbol(s) (321) from the parser ( 320). It can output blocks containing sample values that can be entered into the aggregator (355).

[53] В некоторых случаях выходные отсчеты модуля (351) масштабирования/обратного преобразования могут относиться к блоку с интракодированием; то есть к блоку, который не использует информацию предсказания из ранее восстановленных изображений, но может использовать информацию предсказания из ранее восстановленных частей текущего изображения. Такая информация предсказания может быть предоставлена модулем (352) внутрикадрового предсказания. В некоторых случаях модуль (352) внутрикадрового предсказания генерирует блок того же размера и формы, что и восстанавливаемый блок, используя окружающую уже восстановленную информацию, извлеченную из текущего (частично восстановленного) изображения (356). Агрегатор (355), в некоторых случаях, добавляет для каждого отсчета информацию предсказания, сгенерированную модулем (352) интрапредсказания, к информации выходных отсчетов, предоставляемой модулем (351) масштабирования/обратного преобразования.[53] In some cases, the output samples of the scaling/demapping module (351) may be related to an intra-encoded block; that is, to a block that does not use prediction information from previously reconstructed images, but may use prediction information from previously reconstructed portions of the current image. Such prediction information may be provided by an intra-frame prediction module (352). In some cases, the intra-frame prediction module (352) generates a block of the same size and shape as the block being reconstructed using surrounding already reconstructed information extracted from the current (partially reconstructed) image (356). The aggregator (355), in some cases, adds, for each sample, prediction information generated by the intra-prediction module (352) to the output sample information provided by the upscaling/inverse transform module (351).

[54] В других случаях выходные отсчеты модуля (351) масштабирования/обратного преобразования могут относиться к блоку с интеркодированием и потенциально с компенсацией движения. В таком случае модуль (353) предсказания с компенсацией движения может обращаться к памяти (357) опорных изображений, чтобы извлекать отсчеты, используемые для предсказания. После компенсации движения выбранных отсчетов в соответствии с символами (321), относящимися к блоку, эти отсчеты могут быть добавлены агрегатором (355) к выходу модуля масштабирования/обратного преобразования (в данном случае называемые остаточными отсчетами или остаточным сигналом), чтобы генерировать информацию о выходных отсчетах. Адреса в памяти опорных изображений, откуда модуль предсказания с компенсацией движения выбирает отсчеты предсказания, могут управляться векторами движения, доступными модулю предсказания с компенсацией движения в форме символов (321), которые могут иметь, например, компоненты X, Y и опорного изображения. Компенсация движения также может включать в себя интерполяцию значений отсчетов, извлеченных из памяти опорных изображений, когда используются точные векторы движения суботсчетов, механизмы предсказания вектора движения и так далее.[54] In other cases, the output samples of the scaling/demapping module (351) may be related to an intercoding and potentially motion-compensated block. In such a case, the motion compensated prediction module (353) may access the reference image memory (357) to retrieve samples used for prediction. After motion compensation of the selected samples according to the symbols (321) associated with the block, these samples can be added by the aggregator (355) to the output of the scaler/inverter (here called residual samples or residual signal) to generate output information counts. The addresses in the reference picture memory from which the motion-compensated prediction module selects prediction samples may be controlled by motion vectors available to the motion-compensated prediction module in the form of symbols (321), which may have, for example, X, Y, and reference picture components. Motion compensation may also include interpolation of sample values retrieved from reference image memory, where precise subsample motion vectors, motion vector prediction mechanisms, and so on are used.

[55] Выходные отсчеты агрегатора (355) могут подвергаться различным методам петлевой фильтрации в модуле (356) петлевого фильтра. Технологии сжатия видео могут включать в себя технологии внутрипетлевой фильтрации, которые управляются параметрами, включенными в битовый поток кодированного видео и предоставляются модулю (356) петлевой фильтрации как символы (321) из парсера (320), но также могут реагировать на метаинформацию, полученную во время декодирования предыдущих (в порядке декодирования) частей кодированного изображения или кодированной видеопоследовательности, а также реагировать на ранее восстановленные и отфильтрованные посредством петлевой фильтрации значения отсчетов.[55] The output samples of the aggregator (355) can be subjected to various loop filtering techniques in the loop filter module (356). Video compression technologies may include intra-loop filtering technologies that are controlled by parameters included in the encoded video bitstream and provided to the loop filtering module (356) as symbols (321) from the parser (320), but may also respond to meta-information received during decoding previous (in decoding order) parts of the encoded image or encoded video sequence, and also respond to sample values previously restored and filtered through loop filtering.

[56] Выходной сигнал модуля (356) петлевой фильтрации может быть потоком отсчетов, который может быть выведен на устройство (212) визуализации, а также сохранен в памяти (356) опорных изображений для использования в будущем межкадровом предсказании.[56] The output of the loop filter module (356) may be a stream of samples, which may be output to the renderer (212) and also stored in the reference picture memory (356) for use in future inter-frame prediction.

[57] Определенные кодированные изображения после полного восстановления могут использоваться в качестве опорных изображений для будущего предсказания. После того, как кодированное изображение полностью восстановлено и кодированное изображение было идентифицировано как опорное изображение (например, парсером (320)), текущее опорное изображение (356) может стать частью буфера (357) опорных изображений, и свежая память текущих изображений может быть перераспределена перед началом восстановления следующего кодированного изображения.[57] Certain encoded images, after complete restoration, can be used as reference images for future prediction. After the encoded picture has been completely reconstructed and the encoded picture has been identified as a reference picture (eg, by the parser (320)), the current reference picture (356) may become part of the reference picture buffer (357), and fresh current picture memory may be reallocated before starting to restore the next encoded image.

[58] Видеодекодер 320 может выполнять операции декодирования согласно заранее определенной технологии сжатия видео, которая может быть записана в стандарте, таком как Рекомендация МСЭ-Т H.265. Кодированная видеопоследовательность может соответствовать синтаксису, заданному используемой технологией или стандартом сжатия видео, в том смысле, что она соответствует синтаксису технологии или стандарта сжатия видео, как указано в документе или стандарте технологии сжатия видео и, в частности, в их документе профилей. Также для соответствия может быть необходимым, чтобы сложность кодированной видеопоследовательности находилась в пределах, определенных уровнем технологии или стандарта сжатия видео. В некоторых случаях уровни ограничивают максимальный размер изображения, максимальную частоту кадров, максимальную частоту дискретизации восстановления (измеряемую, например, в мегаотсчетах в секунду), максимальный размер опорного изображения и так далее. Пределы, установленные уровнями, в некоторых случаях могут быть дополнительно ограничены с помощью спецификаций гипотетического опорного декодера (HRD) и метаданных для управления буфером HRD, сигнализируемых в кодированной видеопоследовательности.[58] Video decoder 320 may perform decoding operations according to a predefined video compression technology, which may be written in a standard such as ITU-T Rec. H.265. The encoded video sequence may conform to the syntax specified by a video compression technology or standard in use, in the sense that it matches the syntax of the video compression technology or standard as specified in the video compression technology document or standard and, in particular, in its profiles document. It may also be necessary for compliance to ensure that the complexity of the encoded video sequence is within limits defined by the level of video compression technology or standard. In some cases, levels limit the maximum image size, the maximum frame rate, the maximum reconstruction sampling rate (measured in megasamples per second, for example), the maximum reference image size, and so on. The limits set by the layers may in some cases be further limited by hypothetical reference decoder (HRD) specifications and HRD buffer management metadata signaled in the encoded video sequence.

[59] В варианте осуществления приемник (310) может принимать дополнительные (избыточные) данные с кодированным видео. Дополнительные данные могут быть включены как часть кодированной видеопоследовательности(ей). Дополнительные данные могут использоваться видеодекодером (320) для правильного декодирования данных и/или для более точного восстановления исходных видеоданных. Дополнительные данные могут быть в форме, например, временных, пространственных слоев или слоев улучшения отношения сигнал/шум (SNR), избыточных слайсов, избыточных изображений, кодов прямого исправления ошибок и так далее.[59] In an embodiment, the receiver (310) may receive additional (redundant) coded video data. Additional data may be included as part of the encoded video sequence(s). The additional data may be used by the video decoder (320) to correctly decode the data and/or to more accurately reconstruct the original video data. The additional data may be in the form of, for example, temporal, spatial or signal-to-noise ratio (SNR) enhancement layers, redundant slices, redundant images, forward error correction codes, and so on.

[60] Фиг.4 может быть функциональной блок-схемой видеокодера (203) согласно варианту осуществления настоящего раскрытия.[60] FIG. 4 may be a functional block diagram of a video encoder (203) according to an embodiment of the present disclosure.

[61] Кодер (203) может принимать отсчеты видео от источника (201) видео (который не является частью кодера), который может захватывать видеоизображение(я) для кодирования кодером (203).[61] The encoder (203) may receive video samples from a video source (201) (which is not part of the encoder), which may capture video image(s) for encoding by the encoder (203).

[62] Источник (201) видео может предоставлять исходную видеопоследовательность для кодирования кодером (203) в форме цифрового потока отсчетов видео, который может иметь любую подходящую битовую глубину (например: 8 бит, 10 бит, 12 бит, ...), любое цветовое пространство (например, BT.601 Y CrCB, RGB, …) и любую подходящую структуру отсчетов (например, Y CrCb 4:2:0, Y CrCb 4:4:4). В системе обслуживания мультимедиа источник (201) видео может быть запоминающим устройством, хранящим предварительно подготовленное видео. В системе видеоконференц-связи источник (203) видео может быть камерой, которая захватывает информацию о локальном изображении в виде видеопоследовательности. Видеоданные могут быть предоставлены как множество отдельных изображений, которые при последовательном просмотре передают движение. Сами изображения могут быть организованы как пространственный массив пикселей, в котором каждый пиксель может содержать один или более отсчетов в зависимости от используемой структуры отсчетов, цветового пространства и т. д. Специалист в данной области техники может легко понять взаимосвязь между пикселями и отсчетами. Описание ниже ориентировано на отсчеты.[62] The video source (201) may provide the original video sequence for encoding by the encoder (203) in the form of a digital video sample stream, which may be of any suitable bit depth (eg: 8 bits, 10 bits, 12 bits, ...), any color space (eg BT.601 Y CrCB, RGB, ...) and any suitable sample structure (eg Y CrCb 4:2:0, Y CrCb 4:4:4). In a multimedia serving system, the video source (201) may be a storage device storing pre-prepared video. In a video conferencing system, the video source (203) may be a camera that captures local image information as a video sequence. Video data may be provided as many individual images that, when viewed sequentially, convey motion. The images themselves may be organized as a spatial array of pixels, in which each pixel may contain one or more samples depending on the sample structure used, color space, etc. The relationship between pixels and samples can be readily understood by one skilled in the art. The description below is oriented towards readings.

[63] Согласно варианту осуществления кодер (203) может кодировать и сжимать изображения исходной видеопоследовательности в кодированную видеопоследовательность (443) в реальном времени или с любыми другими временными ограничениями, как того требует приложение. Обеспечение соответствующей скорости кодирования - одна из функций контроллера (450). Контроллер управляет другими функциональными модулями, как описано ниже, и функционально связан с этими модулями. Связь не изображена для ясности. Параметры, устанавливаемые контроллером, могут включать в себя параметры, относящиеся к управлению скоростью (пропуск изображения, квантователь, значение лямбда методов оптимизации скорость-искажение, …), размеру изображения, макету группы изображений (GOP), максимальному диапазону поиска вектора движения и так далее. Специалист в данной области техники может легко определить другие функции контроллера (450), поскольку они могут относиться к видеокодеру (203), оптимизированному для определенной конструкции системы.[63] In an embodiment, the encoder (203) may encode and compress images of the original video sequence into an encoded video sequence (443) in real time or with any other timing constraints as required by the application. Providing an appropriate encoding rate is one of the functions of the controller (450). The controller controls other functional modules as described below and is functionally connected to these modules. The connection is not depicted for clarity. Parameters set by the controller may include parameters related to rate control (image skip, quantizer, lambda value of rate-distortion optimization methods, ...), image size, group of picture (GOP) layout, maximum motion vector search range, and so on . Other functions of the controller (450) can be readily recognized by one skilled in the art as they may relate to a video encoder (203) optimized for a particular system design.

[64] Некоторые видеокодеры работают в том, что специалист в данной области легко распознает как «петля кодирования». В качестве упрощенного описания петля кодирования может состоять из кодирующей части кодера (430) (далее «кодер источника») (ответственной за создание символов на основе входного изображения, которое должно быть кодировано, и опорного изображения(й)), и (локального) декодера (433), встроенного в кодер (203), который восстанавливает символы для создания данных отсчетов, которые (удаленный) декодер также может создать (поскольку любое сжатие между символами и кодированным битовым видеопотоком не имеет потерь в технологиях сжатия видео, рассматриваемых в раскрытом объекте). Этот восстановленный поток отсчетов вводится в память (434) опорных изображений. Поскольку декодирование потока символов приводит к результатам с точностью до бита, независимо от местоположения декодера (локально или удаленно), содержимое буфера опорных изображений также является точным до бита между локальным кодером и удаленным кодером. Другими словами, часть предсказания кодера «видит» в качестве отсчетов опорного изображения точно такие же значения отсчетов, которые декодер «видел» бы при использовании предсказания во время декодирования. Этот фундаментальный принцип синхронности опорного изображения (и результирующего дрейфа, если синхронность не может поддерживаться, например, из-за ошибок канала) хорошо известен специалисту в данной области техники.[64] Some video encoders operate in what one skilled in the art would readily recognize as a "coding loop". As a simplified description, the encoding loop may consist of an encoding portion of the encoder 430 (hereinafter referred to as the "source encoder") (responsible for generating symbols based on the input image to be encoded and the reference image(s)), and a (local) decoder (433) built into an encoder (203) that reconstructs the symbols to create sample data that the (remote) decoder can also create (since any compression between the symbols and the encoded video bitstream is lossless in the video compression technologies discussed in the subject matter disclosed) . This reconstructed stream of samples is entered into the reference image memory (434). Since decoding a symbol stream produces bit-accurate results regardless of the location of the decoder (locally or remotely), the contents of the reference picture buffer are also bit-accurate between the local encoder and the remote encoder. In other words, the prediction portion of the encoder "sees" as reference picture samples exactly the same sample values that the decoder would "see" using prediction during decoding. This fundamental principle of reference picture synchronicity (and the resulting drift if synchronicity cannot be maintained, for example due to channel errors) is well known to one skilled in the art.

[65] Работа «локального» декодера (433) может быть такой же, как у «удаленного» декодера (210), который уже был подробно описан выше со ссылкой на фиг.3. Кратко ссылаясь также на фиг.3, однако, поскольку символы доступны, и кодирование/декодирование символов в кодированную видеопоследовательность энтропийным кодером (445) и парсером (320) может осуществляться без потерь, части энтропийного декодирования декодера (210), включая канал (312), приемник (310), буфер (315) и парсер (320), не могут быть полностью реализованы в локальном декодере (433).[65] The operation of the "local" decoder (433) may be the same as that of the "remote" decoder (210), which has already been described in detail above with reference to FIG. 3. Briefly referring also to FIG. 3, however, since symbols are available, and encoding/decoding of symbols into a coded video sequence by the entropy encoder (445) and parser (320) can be performed losslessly, the entropy decoding portion of the decoder (210), including the channel (312) , the receiver (310), buffer (315) and parser (320), cannot be fully implemented in the local decoder (433).

[66] На этом этапе можно сделать наблюдение, что любая технология декодирования, кроме парсинга/энтропийного декодирования, которая присутствует в декодере, также обязательно должна присутствовать в, по существу, идентичной функциональной форме в соответствующем кодере. По этой причине раскрытый объект изобретения фокусируется на работе декодера. Описание технологий кодирования может быть сокращено, поскольку они являются инверсией полностью описанных технологий декодирования. Только в некоторых областях требуется более подробное описание, которое приводится ниже.[66] At this point, the observation can be made that any decoding technology other than parsing/entropy decoding that is present in the decoder must also necessarily be present in substantially identical functional form in the corresponding encoder. For this reason, the disclosed subject matter of the invention focuses on the operation of the decoder. The description of encoding technologies may be shortened because they are the inverse of the fully described decoding technologies. Only some areas require more detailed description, which is given below.

[67] В качестве части своей работы кодер (430) источника может выполнять кодирование с предсказанием с компенсацией движения, которое кодирует входной кадр с предсказанием со ссылкой на один или более ранее кодированных кадров из видеопоследовательности, которые были обозначены как «опорные кадры». Таким образом, механизм (432) кодирования кодирует различия между блоками пикселей входного кадра и блоками пикселей опорного кадра(ов), которые могут быть выбраны в качестве эталона(ов) предсказания для входного кадра.[67] As part of its operation, the source encoder (430) may perform motion-compensated predictive encoding that predictively encodes the input frame with reference to one or more previously encoded frames from the video sequence that have been designated “reference frames.” Thus, the encoding engine 432 encodes the differences between blocks of pixels of the input frame and blocks of pixels of the reference frame(s) that can be selected as the prediction reference(s) for the input frame.

[68] Локальный видеодекодер (433) может декодировать кодированные видеоданные кадров, которые могут быть обозначены как опорные кадры, на основе символов, созданных кодером (430) источника. Операции механизма (432) кодирования могут быть предпочтительно процессами с потерями. Когда кодированные видеоданные могут быть декодированы в видеодекодере (не показан на фиг.4), восстановленная видеопоследовательность обычно может быть копией исходной видеопоследовательности с некоторыми ошибками. Локальный видеодекодер (433) копирует процессы декодирования, которые могут выполняться видеодекодером на опорных кадрах, и может вызывать сохранение восстановленных опорных кадров в кэше (434) опорных изображений. Таким образом, кодер (203) может локально хранить копии восстановленных опорных кадров, которые имеют общее содержимое, в качестве восстановленных опорных кадров, которые будут получены видеодекодером на дальнем конце (при отсутствии ошибок передачи).[68] The local video decoder (433) may decode encoded frame video data, which may be referred to as reference frames, based on the symbols generated by the source encoder (430). The operations of the encoding engine (432) may preferably be lossy processes. When the encoded video data can be decoded in a video decoder (not shown in FIG. 4), the reconstructed video sequence can usually be a copy of the original video sequence with some errors. The local video decoder (433) copies the decoding processes that may be performed by the video decoder on the reference frames and may cause the reconstructed reference frames to be stored in a reference picture cache (434). Thus, the encoder (203) may locally store copies of reconstructed reference frames that have common content as reconstructed reference frames that will be received by the far-end video decoder (assuming no transmission errors).

[69] Предиктор (435) может выполнять поиски с предсказанием для механизма (432) кодирования. То есть, для нового изображения, которое должно быть кодировано, предиктор (435) может искать в памяти (434) опорных изображений данные отсчетов (в качестве кандидатов блоков опорных пикселей) или определенные метаданные, такие как векторы движения опорных изображений, формы блоков и так далее, которые могут служить подходящим эталоном предсказания для новых изображений. Предиктор (435) может работать на основе блока отсчетов «блок-за-пикселем», чтобы найти соответствующие эталоны предсказания. В некоторых случаях, как определено результатами поиска, полученными предиктором (435), входное изображение может иметь эталоны предсказания, взятые из множества опорных изображений, сохраненных в памяти (434) опорных изображений.[69] The predictor (435) may perform predictive searches for the encoding engine (432). That is, for a new image to be encoded, the predictor (435) may search the reference image memory (434) for sample data (as reference pixel block candidates) or certain metadata such as reference image motion vectors, block shapes, etc. further, which can serve as a suitable prediction standard for new images. The predictor (435) may operate on a block-by-pixel basis to find corresponding prediction standards. In some cases, as determined by the search results obtained by the predictor (435), the input image may have prediction patterns taken from a plurality of reference images stored in the reference image memory (434).

[70] Контроллер (450) может управлять операциями кодирования видеокодера (430), включая, например, установку параметров и параметров подгруппы, используемых для кодирования видеоданных.[70] The controller (450) may control the encoding operations of the video encoder (430), including, for example, setting parameters and subgroup parameters used to encode video data.

[71] Выходные сигналы всех вышеупомянутых функциональных модулей могут подвергаться энтропийному кодированию в энтропийном кодере (445). Энтропийный кодер переводит символы, сгенерированные различными функциональными модулями, в кодированную видеопоследовательность путем сжатия без потерь символов согласно технологиям, известным специалистам в данной области техники, таким как, например, кодирование Хаффмана, кодирование переменной длины, арифметическое кодирование и так далее.[71] The output signals of all the above functional modules may be entropy encoded in an entropy encoder (445). The entropy encoder translates the symbols generated by the various functional modules into an encoded video sequence by losslessly compressing the symbols according to techniques known to those skilled in the art, such as, for example, Huffman coding, variable length coding, arithmetic coding, and so on.

[72] Передатчик (440) может буферизовать кодированную видеопоследовательность(и), созданную энтропийным кодером (445), чтобы подготовить ее к передаче через канал (460) связи, который может быть аппаратным/программным соединением с запоминающим устройством, которое будет хранить кодированные видеоданные. Передатчик (440) может обеспечивать слияние кодированных видеоданных из видеокодера (430) с другими данными, подлежащими передаче, например, кодированными аудиоданными и/или потоками вспомогательных данных (источники не показаны).[72] The transmitter (440) may buffer the encoded video sequence(s) generated by the entropy encoder (445) to prepare it for transmission through a communication channel (460), which may be a hardware/software connection to a storage device that will store the encoded video data . The transmitter (440) may merge the encoded video data from the video encoder (430) with other data to be transmitted, such as encoded audio data and/or ancillary data streams (sources not shown).

[73] Контроллер (450) может управлять работой кодера (203). Во время кодирования контроллер (450) может назначить каждому кодированному изображению определенный тип кодированного изображения, что может повлиять на методы кодирования, которые могут быть применены к соответствующему изображению. Например, изображения часто могут быть отнесены к одному из следующих типов кадров.[73] The controller (450) may control the operation of the encoder (203). During encoding, the controller (450) may assign each encoded image a specific encoded image type, which may affect the encoding techniques that can be applied to the corresponding image. For example, images can often be classified into one of the following frame types.

[74] Внутреннее изображение (I-изображение) может быть таким, которое можно кодировать и декодировать без использования какого-либо другого кадра в последовательности в качестве источника предсказания. Некоторые видеокодеки допускают различные типы внутренних изображений, включая, например, изображения с независимым обновлением декодера. Специалисту в области техники известны эти варианты I-изображений и их соответствующие применения и особенности.[74] The internal picture (I-picture) may be one that can be encoded and decoded without using any other frame in the sequence as a prediction source. Some video codecs allow different types of internal images, including, for example, images with independent decoder update. One skilled in the art is aware of these variants of I-images and their respective applications and features.

[75] Изображение с предсказанием (P-изображение) может быть таким, которое может быть кодировано и декодировано с использованием интрапредсказания или интерпредсказания с использованием не более одного вектора движения и опорного индекса для предсказания значений отсчетов каждого блока.[75] A prediction picture (P picture) may be one that can be encoded and decoded using intra-prediction or inter-prediction using at most one motion vector and a reference index to predict the sample values of each block.

[76] Изображение с двунаправленным предсказанием (B-изображение) может быть таким, которое может быть кодировано и декодировано с использованием интрапредсказания или интерпредсказания с использованием не более двух векторов движения и опорных индексов для предсказания значений отсчетов каждого блока. Точно так же изображения с множественным предсказанием могут использовать более двух опорных изображений и связанных метаданных для восстановления одного блока.[76] A bidirectional prediction picture (B picture) may be one that can be encoded and decoded using intra prediction or inter prediction using at most two motion vectors and reference indices to predict the sample values of each block. Similarly, multi-prediction images can use more than two reference images and associated metadata to reconstruct a single block.

[77] Исходные изображения обычно могут быть пространственно разделены на множество блоков отсчетов (например, блоки из 4x4, 8x8, 4x8 или 16x16 отсчетов каждый) и кодированы на поблочной основе. Блоки могут кодироваться с предсказанием со ссылкой на другие (уже кодированные) блоки, как определено назначением кодирования, применяемым к соответствующим изображениям блоков. Например, блоки I-изображений могут кодироваться без предсказания или они могут кодироваться с предсказанием со ссылкой на уже кодированные блоки одного и того же изображения (пространственное предсказание или интрапредсказание). Пиксельные блоки P-изображений могут кодироваться без предсказания, посредством пространственного предсказания или посредством временного предсказания со ссылкой на одно ранее кодированное опорное изображение. Блоки B-изображений могут кодироваться без предсказания, посредством пространственного предсказания или посредством временного предсказания со ссылкой на одно или два ранее кодированных опорных изображения.[77] Source images can typically be spatially divided into multiple blocks of samples (eg, blocks of 4x4, 8x8, 4x8, or 16x16 samples each) and encoded on a block-by-block basis. Blocks may be predictively encoded with reference to other (already encoded) blocks, as determined by the encoding assignment applied to the corresponding block images. For example, I-picture blocks may be encoded without prediction, or they may be predictively encoded with reference to already encoded blocks of the same image (spatial prediction or intra-prediction). P-picture pixel blocks may be encoded without prediction, by spatial prediction, or by temporal prediction with reference to one previously encoded reference picture. B-picture blocks may be encoded without prediction, by spatial prediction, or by temporal prediction with reference to one or two previously encoded reference pictures.

[78] Видеокодер (203) может выполнять операции кодирования в соответствии с заранее определенной технологией или стандартом кодирования видео, такой как Рекомендация МСЭ-Т H.265. В своей работе видеокодер (203) может выполнять различные операции сжатия, включая операции кодирования с предсказанием, которые используют временную и пространственную избыточность во входной видеопоследовательности. Кодированные видеоданные, следовательно, могут соответствовать синтаксису, заданному используемой технологией или стандартом кодирования видео.[78] The video encoder (203) may perform encoding operations in accordance with a predefined video encoding technology or standard, such as ITU-T Rec. H.265. In operation, the video encoder (203) may perform various compression operations, including predictive encoding operations, that exploit temporal and spatial redundancy in the input video sequence. The encoded video data may therefore follow the syntax specified by the video encoding technology or standard being used.

[79] В варианте осуществления передатчик (440) может передавать дополнительные данные с кодированным видео. Видеокодер (430) может включать в себя такие данные как часть кодированной видеопоследовательности. Дополнительные данные могут содержать временные/пространственные слои/слои улучшения SNR, другие формы избыточных данных, такие как избыточные изображения и слайсы, сообщения дополнительной информации улучшения (SEI), фрагменты набора параметров информации о пригодности видео (VUI) и так далее.[79] In an embodiment, the transmitter (440) may transmit additional data with encoded video. The video encoder (430) may include such data as part of the encoded video sequence. The additional data may include temporal/spatial/SNR enhancement layers, other forms of redundant data such as redundant images and slices, additional enhancement information (SEI) messages, video suitability information (VUI) parameter set fragments, and so on.

[80] Перед более подробным описанием определенных аспектов раскрытого объекта изобретения необходимо ввести несколько терминов, на которые будет даваться ссылка в оставшейся части этого описания.[80] Before describing in more detail certain aspects of the disclosed subject matter, it is necessary to introduce several terms to which reference will be made throughout the remainder of this description.

[81] Субизображение далее относится к, в некоторых случаях, прямоугольной компоновке отсчетов, блоков, макроблоков, единиц кодирования или подобных объектов, которые семантически сгруппированы и которые могут быть независимо кодированы с измененным разрешением. Одно или более субизображений могут использоваться для изображения. Одно или более кодированных субизображений могут образовывать кодированное изображение. Одно или более субизображений могут быть собраны в изображение, и одно или более субизображений могут быть извлечены из изображения. В определенных средах одно или более кодированных субизображений могут быть собраны в сжатой области без перекодирования до уровня отсчетов в кодированное изображение, и в тех же или некоторых других случаях одно или более кодированных субизображений могут быть извлечены из кодированного изображения в сжатой области.[81] Sub-image further refers to, in some cases, a rectangular arrangement of samples, blocks, macroblocks, encoding units, or similar objects that are semantically grouped and that can be independently encoded at a changed resolution. One or more sub-images may be used for an image. One or more coded sub-pictures may form a coded picture. One or more sub-images may be assembled into an image, and one or more sub-images may be extracted from the image. In certain environments, one or more encoded sub-images may be collected in a compressed region without recoding to the sample level into the encoded image, and in the same or some other cases, one or more encoded sub-images may be extracted from a encoded image in the compressed region.

[82] В дальнейшем адаптивное изменение разрешения (ARC) относится к механизмам, которые позволяют изменять разрешение изображения или субизображения в кодированной видеопоследовательности, например, посредством передискретизации опорного изображения. В дальнейшем параметры ARC относятся к управляющей информации, необходимой для выполнения адаптивного изменения разрешения, которая может включать в себя, например, параметры фильтра, коэффициенты масштабирования, разрешения выходных и/или опорных изображений, различные флаги управления и так далее. [82] In the following, adaptive resolution resampling (ARC) refers to mechanisms that allow the resolution of an image or sub-image in an encoded video sequence to be changed, for example, by resampling a reference image. In the following, ARC parameters refer to the control information necessary to perform adaptive resolution change, which may include, for example, filter parameters, scaling factors, output and/or reference image resolutions, various control flags, and so on.

[83] Приведенное выше описание сосредоточено на кодировании и декодировании одного семантически независимого кодированного видеоизображения. Перед описанием последствий кодирования/декодирования множества субизображений с независимыми параметрами ARC и их подразумеваемой дополнительной сложности должны быть описаны варианты сигнализации параметров ARC. [83] The above description focuses on the encoding and decoding of a single semantically independent encoded video image. Before describing the consequences of encoding/decoding multiple sub-pictures with independent ARC parameters and their implied additional complexity, ARC parameter signaling options must be described.

[84] На фиг.5 показано несколько новых вариантов сигнализации параметров ARC. Как отмечено для каждого из вариантов, они имеют определенные преимущества и определенные недостатки с точки зрения эффективности кодирования, сложности и архитектуры. Стандарт или технология кодирования видео могут выбрать один или более из этих вариантов или вариантов, известных из предшествующего уровня техники, для сигнализации параметров ARC. Варианты могут не быть взаимоисключающими и, возможно, могут быть взаимозаменяемыми в зависимости от потребностей приложения, используемых стандартов или выбора кодера. [84] FIG. 5 shows several new variants of ARC parameter signaling. As noted for each option, they have certain advantages and certain disadvantages in terms of coding efficiency, complexity, and architecture. A video coding standard or technology may select one or more of these options or options known in the prior art for signaling ARC parameters. The options may not be mutually exclusive and may possibly be interchangeable depending on the needs of the application, the standards used, or the choice of encoder.

[85] Классы параметров ARC могут включать в себя следующее.[85] ARC parameter classes may include the following.

[86] - Коэффициенты повышения/понижения дискретизации, отдельные или объединенные в измерениях X и Y.[86] - Upsampling/downsampling factors, individual or combined in X and Y dimensions.

[87] - Коэффициенты повышения/понижения дискретизации с добавлением временного измерения, указывающие на увеличение/уменьшение размера с постоянной скоростью для заданного количества изображений.[87] - Upsampling/downsampling factors with added time dimension, indicating upsampling/downsampling at a constant rate for a given number of images.

[88] - Любой из двух вышеупомянутых вариантов может включать в себя кодирование одного или более предположительно коротких элементов синтаксиса, которые могут указывать на таблицу, содержащую коэффициент(ы).[88] - Either of the above two options may involve encoding one or more presumably short syntax elements that may indicate a table containing the coefficient(s).

[89] - Разрешение в измерении X или Y в единицах отсчетов, блоках, макроблоках, CU или любой другой подходящей степени детализации входного изображения, выходного изображения, опорного изображения, кодированного изображения, в сочетании или по отдельности. Если существует более одного разрешения (например, одно для входного изображения, одно для опорного изображения), то в некоторых случаях один набор значений может быть выведен из другого набора значений. Это может быть передано, например, путем использования флагов. Более подробный пример см. ниже.[89] - Resolution in the X or Y dimension in units of samples, blocks, macroblocks, CUs, or any other suitable granularity of the input image, output image, reference image, coded image, in combination or individually. If there is more than one resolution (for example, one for the input image, one for the reference image), then in some cases one set of values can be inferred from another set of values. This can be communicated, for example, by using flags. See below for a more detailed example.

[90] - Координаты «деформации», подобные тем, которые используются в Приложении P H.263, опять же с подходящей степенью детализации, как описано выше. Приложение P H.263 определяет один эффективный способ кодирования таких координат деформации, но, возможно, также разрабатываются другие, потенциально более эффективные способы. Например, реверсивное кодирование Хаффмана с переменной длиной координат деформации согласно Приложению P может быть заменено двоичным кодированием подходящей длины, где длина двоичного кодового слова может быть, например, получена из максимального размера изображения, возможно, умноженного на определенный коэффициент и смещенного на определенное значение, чтобы учесть «деформацию» за пределами границ максимального размера изображения.[90] - "Warp" coordinates similar to those used in Annex P of H.263, again with a suitable level of detail as described above. Annex P H.263 specifies one efficient way to encode such deformation coordinates, but other, potentially more efficient ways may also be being developed. For example, reverse Huffman coding with variable length warp coordinates according to Appendix P can be replaced by binary coding of suitable length, where the length of the binary codeword can be, for example, derived from the maximum image size, perhaps multiplied by a certain factor and offset by a certain value, so that take into account “deformation” beyond the limits of the maximum image size.

[91] - Параметры фильтра с повышающей и/или понижающей дискретизацией. В простейшем случае может быть только один фильтр для повышающей и/или понижающей дискретизации. Однако в некоторых случаях может быть предпочтительным обеспечить большую гибкость в конструкции фильтра, и для этого может потребоваться сигнализация параметров фильтра. Такие параметры могут быть выбраны с помощью индекса в списке возможных конструкций фильтров, фильтр может быть полностью задан (например, с помощью списка коэффициентов фильтра с использованием подходящих методов энтропийного кодирования), фильтр может быть неявно выбран с помощью соответствующих соотношений повышающей/понижающей дискретизации, которые, в свою очередь, сигнализируются в соответствии с любым из механизмов, упомянутых выше, и так далее.[91] - Upsampling and/or downsampling filter options. In the simplest case, there may be only one filter for upsampling and/or downsampling. However, in some cases it may be preferable to provide more flexibility in the filter design, and this may require signaling the filter parameters. Such parameters may be selected by an index into a list of possible filter designs, the filter may be fully specified (e.g. by a list of filter coefficients using suitable entropy coding techniques), the filter may be implicitly selected by appropriate upsampling/downsampling ratios that , in turn, are signaled according to any of the mechanisms mentioned above, and so on.

[92] Ниже описание предполагает кодирование конечного набора коэффициентов повышения/понижения дискретизации (тот же коэффициент, который должен использоваться в измерениях X и Y), указанных с помощью кодового слова. Это кодовое слово предпочтительно может быть закодировано с переменной длиной, например, с использованием экспоненциального кода Голомба, общего для определенных элементов синтаксиса в спецификациях кодирования видео, таких как H.264 и H.265. Одно подходящее сопоставление значений с коэффициентами повышения/понижения дискретизации может, например, соответствовать следующей таблице.[92] The following description assumes encoding a finite set of upsampling/downsampling factors (the same factor that should be used in the X and Y dimensions) specified by a codeword. This codeword may preferably be encoded with a variable length, for example using exponential Golomb code, common to certain syntax elements in video encoding specifications such as H.264 and H.265. One suitable mapping of values to upsampling/downsampling factors could, for example, correspond to the following table.

Кодовое словоA codeword Экспоненциальный код ГоломбаExponential Golomb code Исходное/Целевое разрешениеSource/Target Resolution 00 11 1/11/1 11 010010 1/1,5 (увеличение на 50%)1/1.5 (50% increase) 22 011011 1,5/1 (уменьшение на 50%)1.5/1 (50% reduction) 33 0010000100 1/2 (увеличение на 100%)1/2 (100% increase) 44 0010100101 2/1 (уменьшение на 100%)2/1 (100% reduction)

[93] Многие аналогичные сопоставления могут быть разработаны в соответствии с потребностями приложения и возможностями механизмов повышения и понижения дискретизации, доступных в технологии или стандарте сжатия видео. Таблица может быть расширена до большего количества значений. Значения также могут быть представлены механизмами энтропийного кодирования, отличными от Экспоненциальных кодов Голомба, например, с использованием двоичного кодирования. Это может иметь определенные преимущества, когда коэффициенты передискретизации представляли интерес за пределами самих механизмов обработки видео (прежде всего кодера и декодера), например, посредством MANE. Следует отметить, что для (предположительно) наиболее распространенного случая, когда изменение разрешения не требуется, может быть выбран Экспоненциальный код Голомба, который является коротким; в таблице выше только один бит. Это может иметь преимущество в эффективности кодирования по сравнению с использованием двоичных кодов для наиболее распространенного случая.[93] Many similar mappings can be developed according to the needs of the application and the capabilities of the upsampling and downsampling mechanisms available in the video compression technology or standard. The table can be expanded to include more values. Values can also be represented by entropy encoding mechanisms other than Exponential Golomb codes, such as using binary encoding. This may have certain advantages where resampling factors were of interest outside of the video processing engines themselves (primarily the encoder and decoder), for example through MANE. It should be noted that for the (presumably) most common case where no resolution change is required, the Exponential Golomb code, which is short, can be chosen; there is only one bit in the table above. This may have an advantage in coding efficiency over using binary codes for the most common case.

[94] Количество записей в таблице, а также их семантика могут быть полностью или частично настраиваемыми. Например, основная структура таблицы может быть передана в «высоком» наборе параметров, таком как последовательность или набор параметров декодера. В качестве альтернативы или в дополнение, одна или более таких таблиц могут быть определены в технологии или стандарте кодирования видео и могут быть выбраны, например, с помощью декодера или набора параметров последовательности.[94] The number of records in the table, as well as their semantics, can be fully or partially customized. For example, the underlying table structure may be conveyed in a "high" parameter set, such as a sequence or decoder parameter set. Alternatively or in addition, one or more such tables may be defined in a video encoding technology or standard and may be selected, for example, by a decoder or sequence parameter set.

[95] Далее описано, как коэффициент повышающей/понижающей дискретизации (информация ARC), кодированный, как описано выше, может быть включен в технологию кодирования видео или стандартный синтаксис. Подобные соображения могут применяться к одному или нескольким кодовым словам, управляющим фильтрами повышающей/понижающей дискретизации. Смотри ниже обсуждение, когда для фильтра или других структур данных требуются сравнительно большие объемы данных.[95] The following describes how the upsampling/downsampling factor (ARC information) encoded as described above can be included in a video encoding technology or standard syntax. Similar considerations may apply to one or more codewords driving the upsampling/downsampling filters. See the discussion below when a filter or other data structures require relatively large amounts of data.

[96] Приложение P H.263 включает информацию 502 ARC в форме четырех координат деформации в заголовок 501 изображения, в частности, в расширение заголовка PLUSPTYPE (503) H.263. Это может быть разумным выбором структуры, когда а) имеется доступный заголовок изображения и б) ожидаются частые изменения информации ARC. Однако служебные данные при использовании сигнализации в стиле H.263 могут быть довольно высокими, и коэффициенты масштабирования могут не относиться к границам изображения, поскольку заголовок изображения может иметь временный характер.[96] H.263 Annex P includes ARC information 502 in the form of four warp coordinates in the image header 501, specifically in the H.263 PLUSPTYPE (503) header extension. This may be a reasonable design choice when a) the image header is available and b) frequent changes to the ARC information are expected. However, the overhead when using H.263 style signaling can be quite high, and the scaling factors may not apply to image boundaries since the image header may be temporary.

[97] JVCET-M135-v1, процитированный выше, включает эталонную информацию ARC (505) (индекс), расположенную в наборе (504) параметров изображения, индексирует таблицу (506), включая целевые разрешения, которая, в свою очередь, находится внутри набора (507) параметров последовательности. Размещение возможного разрешения в таблице (506) в наборе (507) параметров последовательности может, в соответствии со словесными заявлениями, сделанными авторами, быть оправдано использованием SPS в качестве точки согласования совместимости во время обмена возможностями. Разрешение может изменяться в пределах, установленных значениями в таблице (506) от изображения к изображению, путем обращения к соответствующему набору (504) параметров изображения.[97] JVCET-M135-v1, cited above, includes ARC reference information (505) (index) located in the image parameter set (504), index table (506), including target resolutions, which in turn is located within set (507) of sequence parameters. Placing a possible resolution in a table (506) in a sequence parameter set (507) may, in accordance with verbal statements made by the authors, be justified by using the SPS as a point of interoperability negotiation during capability exchange. The resolution can be varied within the limits set by the values in the table (506) from image to image by accessing the appropriate set (504) of image parameters.

[98] По-прежнему ссылаясь на фиг.5, могут существовать следующие дополнительные опции для передачи информации ARC в битовом видеопотоке. Каждый из этих вариантов имеет определенные преимущества перед существующим уровнем техники, как описано выше. Опции могут одновременно присутствовать в одной и той же технологии или стандарте кодирования видео.[98] Still referring to FIG. 5, the following additional options may exist for transmitting ARC information in the video bit stream. Each of these options has certain advantages over the current state of the art, as described above. Options can be present simultaneously in the same video encoding technology or standard.

[99] В варианте осуществления информация (509) ARC, такая как коэффициент передискретизации (масштабирования), может присутствовать в заголовке слайса, заголовке GOB, заголовке тайла или заголовке группы тайлов (далее заголовок группы тайлов) (508). Этого может быть достаточно для информации ARC небольшого размера, такой как одиночное кодовое слово переменной длины ue(v) или кодовое слово фиксированной длины из нескольких битов, например, как показано выше. Наличие информации ARC непосредственно в заголовке группы тайлов имеет дополнительное преимущество, поскольку информация ARC может быть применима к субизображению, представленному, например, этой группой тайлов, а не ко всему изображению. См. также ниже. Кроме того, даже если технология или стандарт сжатия видео предусматривает только изменение адаптивного разрешения всего изображения (в отличие, например, от изменений адаптивного разрешения на основе группы тайлов), размещение информации ARC в заголовке группы тайлов вместо помещения ее в заголовок изображения в стиле H.263 имеет определенные преимущества с точки зрения устойчивости к ошибкам.[99] In an embodiment, ARC information (509), such as a resampling (scaling) factor, may be present in a slice header, GOB header, tile header, or tile group header (hereinafter, tile group header) (508). This may be sufficient for small size ARC information such as a single variable length codeword ue(v) or a fixed length codeword of several bits such as shown above. Having ARC information directly in the tile group header has the added benefit that the ARC information can be applied to a sub-image represented by, for example, that tile group rather than the entire image. See also below. Additionally, even if a video compression technology or standard only provides for changing the adaptive resolution of the entire image (as opposed to, for example, adaptive resolution changes on a per-tile group basis), placing the ARC information in the tile group header instead of placing it in the H. 263 has certain advantages in terms of error tolerance.

[100] В том же или другом варианте осуществления сама информация (512) ARC может присутствовать в соответствующем наборе (511) параметров, таком как, например, набор параметров изображения, набор параметров заголовка, набор параметров тайла, набор параметров адаптации и так далее (показан набор параметров адаптации). Объем этого набора параметров предпочтительно может быть не больше, чем изображение, например группа тайлов. Использование информации ARC неявно осуществляется путем активации соответствующего набора параметров. Например, когда технология или стандарт кодирования видео рассматривают только ARC на основе изображения, тогда подходящим вариантом может быть набор параметров изображения или эквивалент.[100] In the same or another embodiment, the ARC information (512) itself may be present in a corresponding parameter set (511), such as, for example, an image parameter set, a title parameter set, a tile parameter set, an adaptation parameter set, and so on ( shows a set of adaptation parameters). The scope of this parameter set may preferably be no larger than an image, such as a group of tiles. The use of ARC information is implemented implicitly by activating the appropriate set of parameters. For example, when a video encoding technology or standard considers only image-based ARC, then an image parameter set or equivalent may be an appropriate option.

[101] В том же или другом варианте осуществления эталонная информация (513) ARC может присутствовать в заголовке (514) группы тайлов или аналогичной структуре данных. Данная эталонная информация (513) может относиться к субнабору информации (515) ARC, доступному в наборе (516) параметров с объемом, выходящим за рамки одного изображения, например, наборе параметров последовательности или наборе параметров декодера.[101] In the same or another embodiment, ARC reference information (513) may be present in a tile group header (514) or similar data structure. This reference information (513) may refer to a subset of ARC information (515) available in a parameter set (516) with a scope beyond a single image, such as a sequence parameter set or a decoder parameter set.

[102] Дополнительный уровень косвенного обращения, подразумевающий активацию PPS из заголовка группы тайлов, PPS, SPS, который используется в JVET-M0135-v1, кажется ненужным, поскольку наборы параметров изображения, как и наборы параметров последовательности, могут использоваться (и используются в некоторых стандартах, таких как RFC3984) для согласования возможностей или объявлений. Однако если информация ARC должна быть применима к субизображению, представленному, например, также и группами тайлов, лучшим выбором может быть набор параметров с областью активации, ограниченной группой тайлов, такой как набор параметров адаптации или набор параметров заголовка. Также, если информация ARC имеет более чем незначительный размер - например, содержит информацию управления фильтром, такую как многочисленные коэффициенты фильтра, - тогда параметр может быть лучшим выбором, чем использование заголовка (508) непосредственно с точки зрения эффективности кодирования, поскольку эти настройки могут быть повторно использованы в будущих изображениях или субизображениях, ссылаясь на тот же набор параметров.[102] The additional level of indirection involving activation of PPS from the tile group header, PPS, SPS, which is used in JVET-M0135-v1, seems unnecessary since image parameter sets, like sequence parameter sets, can be used (and are used in some standards such as RFC3984) to negotiate capabilities or declarations. However, if the ARC information is to be applied to a sub-image represented, for example, by groups of tiles as well, a better choice may be a parameter set with an activation region limited to the group of tiles, such as an adaptation parameter set or a header parameter set. Also, if the ARC information is more than negligible in size - for example, containing filter control information such as multiple filter coefficients - then the parameter may be a better choice than using the header (508) directly in terms of encoding efficiency, since these settings may be reused in future images or subimages, referencing the same set of parameters.

[103] При использовании набора параметров последовательности или другого набора параметров более высокого уровня с областью действия, охватывающей множество изображений, могут применяться следующие определенные соображения.[103] When using a sequence parameter set or other higher level parameter set with a scope spanning multiple images, the following specific considerations may apply.

[104] 1. Набор параметров для хранения таблицы (516) информации ARC может в некоторых случаях быть набором параметров последовательности, но в других случаях предпочтительно набором параметров декодера. Набор параметров декодера может иметь область активации нескольких CVS, а именно кодированный видеопоток, т. е. все кодированные биты видео от начала до разрыва сессии. Такой объем может быть более подходящим, потому что возможные коэффициенты ARC могут быть функцией декодера, возможно, реализованной в аппаратном обеспечении, а аппаратные функции, как правило, не меняются с любой CVS (которая, по крайней мере, в некоторых развлекательных системах представляет собой группу изображений длиной одну секунду или меньше). Тем не менее, помещение таблицы в набор параметров последовательности явно включено в опции размещения, описанные здесь, в частности, в связи с пунктом 2 ниже.[104] 1. The set of parameters for storing the ARC information table (516) may in some cases be a set of sequence parameters, but in other cases preferably a set of decoder parameters. A set of decoder parameters may have an activation region of several CVS, namely the encoded video stream, i.e. all encoded bits of the video from the beginning to the end of the session. This scope may be more appropriate because the possible ARC coefficients may be a function of the decoder, perhaps implemented in hardware, and hardware functions generally do not change with any CVS (which, at least in some entertainment systems, is a group images one second or less in length). However, placing a table in the sequence options set is explicitly included in the placement options described here, particularly in relation to point 2 below.

[105] 2. Эталонная информация (513) ARC предпочтительно может быть помещена непосредственно в заголовок (514) изображения/слайса тайла/GOB/группы тайлов (далее заголовок группы тайлов), а не в набор параметров изображения, как в JVCET-M0135-v1. Причина в следующем: когда кодер хочет изменить одно значение в наборе параметров изображения, такое как, например, эталонная информация ARC, он должен создать новый PPS и ссылаться на этот новый PPS. Предположим, что изменяется только эталонная информация ARC, но другая информация, такая как, например, информация матрицы квантования в PPS, остается. Такая информация может быть значительного размера, и ее необходимо будет повторно передать, чтобы завершить новый PPS. Поскольку эталонная информация ARC может быть одним кодовым словом, таким как индекс в таблице (513), и это будет единственное значение, которое изменяется, было бы громоздко и расточительно повторно передавать, например, всю информацию матрицы квантования. В этом отношении может быть значительно лучше с точки зрения эффективности кодирования избежать косвенного обращения через PPS, как предлагается в JVET-M0135-v1. Точно так же размещение эталонной информации ARC в PPS имеет дополнительный недостаток, заключающийся в том, что информация ARC, на которую ссылается эталонная информация (513) ARC, обязательно должна применяться ко всему изображению, а не к субизображению, поскольку объем активации набора параметров изображения представляет собой изображение.[105] 2. The ARC reference information (513) may preferably be placed directly in the image/tile slice/GOB/tile group header (hereinafter referred to as the tile group header) (514), rather than in the image parameter set as in JVCET-M0135- v1. The reason is this: when the encoder wants to change one value in the picture parameter set, such as the ARC reference information, it must create a new PPS and reference that new PPS. Suppose that only the ARC reference information changes, but other information, such as, for example, the quantization matrix information in the PPS, remains. Such information may be of considerable size and will need to be retransmitted in order to complete the new PPS. Since the ARC reference information may be a single codeword, such as an index in the table (513), and it will be the only value that changes, it would be cumbersome and wasteful to retransmit, for example, all the quantization matrix information. In this regard, it may be significantly better in terms of coding efficiency to avoid indirection via PPS, as proposed in JVET-M0135-v1. Similarly, placing the ARC reference information in the PPS has the additional disadvantage that the ARC information referenced by the ARC reference information (513) must necessarily apply to the entire image and not to a sub-image, since the activation volume of the image parameter set represents is an image.

[106] В том же или другом варианте осуществления сигнализация параметров ARC может соответствовать подробному примеру, как показано на фиг.6. На фиг.6 показаны синтаксические диаграммы в представлении, используемом в стандартах кодирования видео по меньшей мере с 1993 года. Обозначения таких синтаксических диаграмм примерно соответствуют программированию в стиле C. Строки, выделенные жирным шрифтом, указывают на элементы синтаксиса, присутствующие в битовом потоке, строки без жирного шрифта часто указывают на поток управления или установку переменных.[106] In the same or another embodiment, ARC parameter signaling may follow a detailed example as shown in FIG. 6. 6 shows syntax diagrams in the representation used in video coding standards since at least 1993. The notation of such syntax diagrams roughly corresponds to C-style programming. Lines in bold indicate syntax elements present in the bitstream; lines without bold often indicate control flow or setting variables.

[107] Заголовок (601) группы тайлов в качестве примерной синтаксической структуры заголовка, применимого к (возможно, прямоугольной) части изображения, может условно содержать кодированный с помощью экспоненциального кода Голомба элемент синтаксиса переменной длины dec_pic_size_idx (602) (выделен жирным шрифтом). Наличие этого элемента синтаксиса в заголовке группы тайлов может быть ограничено использованием адаптивного разрешения (603) - здесь значение флага не выделено жирным шрифтом, что означает, что флаг присутствует в битовом потоке в той точке, где он встречается на синтаксической диаграмме. Тот факт, используется ли адаптивное разрешение для этого изображения или его частей, можно быть сигнализировано в любой синтаксической структуре высокого уровня внутри или вне битового потока. В показанном примере это сигнализируется в наборе параметров последовательности, как показано ниже.[107] The tile group header (601), as an exemplary syntactic structure of the header applied to the (possibly rectangular) portion of the image, may conventionally contain an exponential Golomb encoded variable length syntax element dec_pic_size_idx (602) (in bold). The presence of this syntax element in the tile group header can be limited by the use of adaptive resolution (603) - here the flag value is not in bold, meaning that the flag is present in the bitstream at the point where it occurs in the syntax diagram. The fact whether adaptive resolution is used for this image or parts thereof can be signaled in any high-level syntactic structure inside or outside the bitstream. In the example shown, this is signaled in the sequence parameter set as shown below.

[108] По-прежнему ссылаясь на фиг.6, показана также выборка набора (610) параметров последовательности. Первый показанный элемент синтаксиса - это adaptive_pic_resolution_change_flag (611). При значении истина (true), этот флаг может указывать на использование адаптивного разрешения, которое, в свою очередь, может требовать определенной управляющей информации. В примере такая управляющая информация присутствует условно на основе значения флага на основе оператора if() в наборе (612) параметров и заголовке (601) группы тайлов.[108] Still referring to FIG. 6, a sample of a set (610) of sequence parameters is also shown. The first syntax element shown is adaptive_pic_resolution_change_flag (611). When true, this flag may indicate the use of adaptive resolution, which in turn may require certain control information. In the example, such control information is present conditionally based on the value of a flag based on the if() statement in the parameter set (612) and the tile group header (601).

[109] Когда используется адаптивное разрешение, в этом примере кодировано выходное разрешение в единицах отсчетов (613). Номер позиции 613 относится как к output_pic_width_in_luma_samples, так и к output_pic_height_in_luma_samples, которые вместе могут определять разрешение выходного изображения. В другом месте технологии или стандарта кодирования видео могут быть определены определенные ограничения для любого значения. Например, определение уровня может ограничивать количество общих выходных отсчетов, которые могут быть произведением значений этих двух элементов синтаксиса. Также, определенные технологии или стандарты кодирования видео, или внешние технологии или стандарты, такие как, например, системные стандарты, могут ограничивать диапазон нумерации (например, одно или оба измерения должны делиться на степень 2) или соотношение ширины и высоты (например, ширина и высота должны быть в таком соотношении, как 4:3 или 16:9). Такие ограничения могут быть введены для облегчения аппаратных реализаций или по другим причинам, и они хорошо известны в данной области техники.[109] When adaptive resolution is used, this example encodes the output resolution in sample units (613). Item number 613 refers to both output_pic_width_in_luma_samples and output_pic_height_in_luma_samples, which together can determine the resolution of the output image. Elsewhere in the video encoding technology or standard, certain limits may be specified for any value. For example, the level definition may limit the number of total output samples that can be the product of the values of these two syntax elements. Also, certain video encoding technologies or standards, or external technologies or standards, such as system standards, may limit the numbering range (for example, one or both dimensions must be divisible by a power of 2) or the width-to-height ratio (for example, width and height should be in a ratio such as 4:3 or 16:9). Such restrictions may be introduced to facilitate hardware implementations or for other reasons, and are well known in the art.

[110] В некоторых приложениях может быть целесообразно, чтобы кодер инструктировал декодер использовать определенный размер опорного изображения вместо того, чтобы неявно предполагать, что этот размер является размером выходного изображения. В этом примере элемент синтаксиса reference_pic_size_present_flag (614) передает условное присутствие размеров (615) опорного изображения (опять же, номер позиции относится как к ширине, так и к высоте).[110] In some applications, it may be desirable for the encoder to instruct the decoder to use a certain reference image size, rather than implicitly assuming that this size is the output image size. In this example, the syntax element reference_pic_size_present_flag (614) conveys the conditional presence of the dimensions (615) of the reference picture (again, the position number refers to both width and height).

[111] Наконец, показана таблица возможной ширины и высоты изображения декодирования. Такая таблица может быть выражена, например, указанием таблицы (num_dec_pic_size_in_luma_samples_minus1) (616). «Minus1» может относиться к интерпретации значения этого элемента синтаксиса. Например, если кодированное значение равно нулю, присутствует одна запись в таблице. Если значение равно пяти, присутствуют шесть записей таблицы. Затем для каждой «строки» в таблице в синтаксис (617) включаются ширина и высота декодированного изображения.[111] Finally, a table of possible decoding image widths and heights is shown. Such a table can be expressed, for example, by specifying the table (num_dec_pic_size_in_luma_samples_minus1) (616). "Minus1" may refer to the interpretation of the meaning of this syntax element. For example, if the encoded value is zero, there is one entry in the table. If the value is five, there are six table entries. Then, for each "row" in the table, the width and height of the decoded image are included in the syntax (617).

[112] Представленные записи (617) таблицы могут быть проиндексированы с использованием элемента синтаксиса dec_pic_size_idx (602) в заголовке группы тайлов, тем самым разрешая различные декодированные размеры - в сущности, коэффициенты масштабирования - для каждой группы тайлов.[112] Presented table entries (617) may be indexed using the dec_pic_size_idx syntax element (602) in the tile group header, thereby allowing different decoded sizes—essentially, scaling factors—for each tile group.

[113] Некоторые технологии или стандарты кодирования видео, например VP9, поддерживают пространственную масштабируемость путем реализации определенных форм передискретизации опорного изображения (сигнализируемую совершенно иначе, чем в раскрытом объекте изобретения) в сочетании с временной масштабируемостью, чтобы обеспечить пространственную масштабируемость. В частности, некоторые опорные изображения могут подвергаться повышающей дискретизации с использованием технологий в стиле ARC до более высокого разрешения для формирования базы слоя пространственного улучшения. Эти изображения с повышенной дискретизацией можно улучшить, используя нормальные механизмы предсказания с высоким разрешением, чтобы добавить деталей.[113] Some video encoding technologies or standards, such as VP9, support spatial scalability by implementing certain forms of reference image resampling (signaled entirely differently than in the disclosed subject matter) in combination with temporal scalability to provide spatial scalability. In particular, some reference images may be upsampled using ARC-style techniques to a higher resolution to form the base of the spatial enhancement layer. These upsampled images can be enhanced by using normal high-resolution prediction engines to add detail.

[114] Раскрытый объект изобретения может использоваться в такой среде. В некоторых случаях, в том же или другом варианте осуществления, значение в заголовке единицы NAL, например поле временного идентификатора, может использоваться для указания не только временного, но и пространственного слоя. Это дает определенные преимущества для определенных конфигураций систем; например, существующая архитектура Selected Forwarding Units (SFU, селективно передающая единица), созданная и оптимизированная для выбранных временных слоев, пересылаемых на основе значения временного идентификатора заголовка единицы NAL, может использоваться без модификации для масштабируемых сред. Для того чтобы сделать это возможным, может существовать требование для сопоставления между размером кодированного изображения и временным слоем, указываемым полем временного идентификатора в заголовке единицы NAL.[114] The disclosed subject matter may be used in such an environment. In some cases, in the same or another embodiment, a value in the NAL unit header, such as a temporal identifier field, may be used to indicate not only a temporal layer, but also a spatial layer. This provides certain benefits for certain system configurations; for example, the existing Selected Forwarding Units (SFU) architecture, created and optimized for selected temporal layers forwarded based on the value of the NAL unit's temporary header identifier, can be used without modification for scale-out environments. To make this possible, there may be a requirement for a mapping between the encoded image size and the temporal layer indicated by the temporary identifier field in the NAL unit header.

[115] В некоторых технологиях кодирования видео единица доступа (AU) может относиться к кодированному изображению(ям), слайсу(ам), тайлу(ам), блоку(ам) NAL и так далее, которые были захвачены и скомпонованы в соответствующие изображение/слайс/тайл/битовый поток единицы NAL в данный момент времени. Таким моментом во времени может быть время компоновки.[115] In some video encoding technologies, an access unit (AU) may refer to the encoded image(s), slice(s), tile(s), NAL block(s), and so on, that have been captured and arranged into a corresponding image/ slice/tile/bitstream of a NAL unit at a given time. Such a point in time could be the time of composition.

[116] В HEVC и некоторых других технологиях кодирования видео значение счетчика порядка изображений (POC) может использоваться для указания выбранного опорного изображения среди множества опорных изображений, хранящихся в буфере декодированных изображений (DPB). Когда единица доступа (AU) содержит одно или более изображений, слайсов или тайлов, каждое изображение, слайс или тайл, принадлежащие одной и той же AU, могут нести одно и то же значение POC, из которого можно сделать вывод, что они были созданы из содержимого то же времени компоновки. Другими словами, в сценарии, где два изображения/слайса/тайла несут одно и то же заданное значение POC, это может указывать на то, что два изображения/слайса/тайла принадлежат одной и той же AU и имеют одинаковое время компоновки. И наоборот, два изображения/слайса/тайла, имеющие разные значения POC, могут указывать те изображения/слайсы/тайлы, которые принадлежат разным AU и имеют разное время компоновки.[116] In HEVC and some other video encoding technologies, a picture order counter (POC) value can be used to indicate a selected reference picture among a plurality of reference pictures stored in a decoded picture buffer (DPB). When an access unit (AU) contains one or more images, slices or tiles, each image, slice or tile belonging to the same AU may carry the same POC value, from which it can be inferred that it was created from content at the same layout time. In other words, in a scenario where two images/slices/tiles carry the same set POC value, it may indicate that the two images/slices/tiles belong to the same AU and have the same layout time. Conversely, two images/slices/tiles having different POC values may indicate those images/slices/tiles that belong to different AUs and have different composition times.

[117] В варианте осуществления раскрытого объекта изобретения вышеупомянутая жесткая взаимосвязь может быть ослаблена, поскольку единица доступа может содержать изображения, слайсы или тайлы с разными значениями POC. Допуская различные значения POC в AU, становится возможным использовать значение POC для идентификации потенциально независимо декодируемых изображений/слайсов/тайлов с идентичным временем представления. Это, в свою очередь, может обеспечить поддержку множества масштабируемых слоев без изменения сигнализации выбора опорного изображения (например, сигнализации набора опорных изображений или сигнализации списка опорных изображений), как более подробно описано ниже.[117] In an embodiment of the disclosed subject matter, the above-mentioned tight relationship may be relaxed since the access unit may contain images, slices, or tiles with different POC values. By allowing different POC values in the AU, it becomes possible to use the POC value to identify potentially independently decodable pictures/slices/tiles with identical presentation times. This, in turn, can support multiple scalable layers without changing reference picture selection signaling (eg, reference picture set signaling or reference picture list signaling), as described in more detail below.

[118] Однако все еще желательно иметь возможность идентифицировать AU, которой принадлежит изображение/слайс/тайл, по отношению к другому изображению/слайсу/тайлу, имеющему другие значения POC, только на основе значения POC. Этого можно добиться, как описано ниже.[118] However, it is still desirable to be able to identify the AU that owns an image/slice/tile with respect to another image/slice/tile having different POC values based only on the POC value. This can be achieved as described below.

[119] В тех же или других вариантах осуществления счетчик единиц доступа (AUC) может сигнализироваться в синтаксической структуре высокого уровня, такой как заголовок единицы NAL, заголовок слайса, заголовок группы тайлов, сообщение SEI, набор параметров или ограничитель AU. Значение AUC может использоваться, чтобы идентифицировать, какие единицы NAL, изображения, слайсы или тайлы принадлежат данной AU. Значение AUC может соответствовать отдельному моменту времени компоновки. Значение AUC может быть кратным значению POC. Путем деления значения POC на целочисленное значение можно вычислить значение AUC. В некоторых случаях операции деления могут накладывать определенную нагрузку на реализации декодеров. В таких случаях небольшие ограничения в пространстве нумерации значений AUC могут позволить заменить операцию деления операциями сдвига. Например, значение AUC может быть равно значению старшего значащего бита (MSB) диапазона значений POC.[119] In the same or other embodiments, an access unit counter (AUC) may be signaled in a high-level syntactic structure such as a NAL unit header, a slice header, a tile group header, an SEI message, a parameter set, or an AU delimiter. The AUC value can be used to identify which NAL units, images, slices or tiles belong to a given AU. The AUC value may correspond to a single point in time of the composition. The AUC value can be a multiple of the POC value. By dividing the POC value by an integer value, the AUC value can be calculated. In some cases, division operations may impose some overhead on decoder implementations. In such cases, slight restrictions in the numbering space of AUC values may allow the division operation to be replaced by shift operations. For example, the AUC value may be equal to the value of the most significant bit (MSB) of the POC value range.

[120] В том же варианте осуществления значение цикла POC на AU (poc_cycle_au) может сигнализироваться в синтаксической структуре высокого уровня, такой как заголовок единицы NAL, заголовок слайса, заголовок группы тайлов, сообщение SEI, набор параметров или ограничитель AU. Величина poc_cycle_au может указывать, сколько различных и последовательных значений POC может быть связано с одной и той же AU. Например, если значение poc_cycle_au равно 4, изображения, слайсы или тайлы со значением POC, равным 0-3 включительно, связаны с AU со значением AUC, равным 0, а изображения, слайсы или тайлы со значением POC, равным 4-7 включительно, связаны с AU со значением AUC, равным 1. Следовательно, значение AUC может быть выведено путем деления значения POC на значение poc_cycle_au.[120] In the same embodiment, the POC cycle value on the AU (poc_cycle_au) may be signaled in a high-level syntactic structure such as a NAL unit header, slice header, tile group header, SEI message, parameter set, or AU delimiter. The poc_cycle_au value can indicate how many different and consecutive POC values can be associated with the same AU. For example, if poc_cycle_au is 4, images, slices, or tiles with a POC value of 0-3 inclusive are associated with an AU with an AUC value of 0, and images, slices, or tiles with a POC value of 4-7, inclusive, are associated with an AU with an AUC value of 1. Therefore, the AUC value can be derived by dividing the POC value by the poc_cycle_au value.

[121] В том же или другом варианте осуществления значение poc_cyle_au может быть получено из информации, расположенной, например, в наборе параметров видео (VPS), которая идентифицирует количество пространственных слоев или слоев SNR в кодированной видеопоследовательности. Такая возможная взаимосвязь кратко описывается ниже. Хотя получение, как описано выше, может сэкономить несколько битов в VPS и, следовательно, может повысить эффективность кодирования, может быть предпочтительным явно кодировать poc_cycle_au в соответствующей синтаксической структуре высокого уровня иерархически ниже набора параметров видео, чтобы иметь возможность минимизировать poc_cycle_au для данной небольшой части битового потока, такого как изображение. Эта оптимизация может сэкономить больше битов, чем может быть сохранено посредством процесса получения, описанного выше, потому что значения POC (и/или значения элементов синтаксиса, косвенно относящиеся к POC) могут быть кодированы в синтаксических структурах низкого уровня.[121] In the same or another embodiment, the poc_cyle_au value may be derived from information located, for example, in a video parameter set (VPS) that identifies the number of spatial layers or SNR layers in the encoded video sequence. This possible relationship is briefly described below. Although obtaining as described above may save a few bits in the VPS and therefore may improve encoding efficiency, it may be preferable to explicitly encode poc_cycle_au in an appropriate high-level syntactic structure hierarchically below the video parameter set to be able to minimize poc_cycle_au for a given small portion of the bit stream such as an image. This optimization can save more bits than can be stored by the acquisition process described above because POC values (and/or syntax element values indirectly related to POC) can be encoded in low-level syntactic structures.

[122] Методы для сигнализации параметров адаптивного разрешения, описанные выше, могут быть реализованы в виде компьютерного программного обеспечения с использованием машиночитаемых инструкций и физически сохранены на одном или более машиночитаемых носителях. Например, на фиг.7 показана компьютерная система 700, подходящая для реализации определенных вариантов осуществления раскрытого объекта изобретения.[122] The methods for signaling adaptive resolution parameters described above may be implemented in computer software using computer-readable instructions and physically stored on one or more computer-readable media. For example, FIG. 7 illustrates a computer system 700 suitable for implementing certain embodiments of the disclosed subject matter.

[123] Компьютерное программное обеспечение может быть кодировано с использованием любого подходящего машинного кода или компьютерного языка, который может быть объектом сборки, компиляции, связывания или подобных механизмов для создания кода, содержащего инструкции, которые могут выполняться напрямую или посредством интерпретации, выполнения микрокода и т. п., центральными процессорами компьютера (ЦП), графическими процессорами (ГП) и т. п.[123] Computer software may be encoded using any suitable machine code or computer language that may be subject to assembly, compilation, linking or similar mechanisms to create code containing instructions that can be executed directly or through interpretation, execution of microcode, etc. etc., computer central processing units (CPU), graphic processing units (GPU), etc.

[124] Инструкции могут выполняться на компьютерах различных типов или их компонентах, включая, например, персональные компьютеры, планшетные компьютеры, серверы, смартфоны, игровые устройства, устройства Интернета вещей и т. п.[124] The instructions may be executed on various types of computers or components thereof, including, for example, personal computers, tablet computers, servers, smartphones, gaming devices, Internet of Things devices, and the like.

[125] Компоненты, показанные на фиг.7 для компьютерной системы 700, являются примерными по своей природе и не предназначены для предложения каких-либо ограничений в отношении объема использования или функциональных возможностей компьютерного программного обеспечения, реализующего варианты осуществления настоящего раскрытия. Конфигурация компонентов также не должна интерпретироваться как имеющая какую-либо зависимость или требование, относящееся к любому одному или комбинации компонентов, проиллюстрированных в примерном варианте осуществления компьютерной системы 700.[125] The components shown in FIG. 7 for computer system 700 are exemplary in nature and are not intended to suggest any limitations as to the scope of use or functionality of computer software implementing embodiments of the present disclosure. The configuration of components should also not be interpreted as having any dependency or requirement related to any one or combination of components illustrated in the exemplary embodiment of computer system 700.

[126] Компьютерная система 700 может включать в себя определенные устройства ввода с человеко-машинным интерфейсом. Такое устройство ввода с человеко-машинным интерфейсом может реагировать на ввод одним или более пользователями-людьми посредством, например, тактильного ввода (например, нажатия клавиш, смахивания, движения управляющей перчатки), звукового ввода (например, голоса, хлопков в ладоши), визуального ввода (например: жестов), обонятельного ввода (не изображен). Устройства с человеко-машинным интерфейсом также могут использоваться для захвата определенных носителей, не обязательно напрямую связанных с сознательным вводом человеком, таких как звук (например, речь, музыка, окружающий звук), изображения (например, сканированные изображения, фотографические изображения, полученные из камеры для неподвижных изображений), видео (например, двухмерное видео, трехмерное видео, включая стереоскопическое видео).[126] The computer system 700 may include certain human-machine interface input devices. Such a human-machine interface input device may respond to input from one or more human users through, for example, tactile input (e.g., keystrokes, swipes, control glove movement), audio input (e.g., voice, hand clapping), visual input (for example: gestures), olfactory input (not shown). Human-machine interface devices can also be used to capture certain media not necessarily directly related to conscious human input, such as sound (e.g. speech, music, ambient sound), images (e.g. scanned images, photographic images captured from a camera for still images), video (e.g. 2D video, 3D video, including stereoscopic video).

[127] Устройства ввода с человеческо-машинным интерфейсом могут включать в себя одно или более из (только одно из каждого изображенного): клавиатура 701, мышь 702, трекпад 703, сенсорный экран 710, управляющая перчатка 704, джойстик 705, микрофон 706, сканер 707, камера 708.[127] Human-machine interface input devices may include one or more of (only one of each illustrated): keyboard 701, mouse 702, trackpad 703, touch screen 710, control glove 704, joystick 705, microphone 706, scanner 707, camera 708.

[128] Компьютерная система 700 также может включать в себя определенные устройства вывода с человеко-машинным интерфейсом. Такие устройства вывода с человеко-машинным интерфейсом могут стимулировать чувства одного или более пользователей-людей посредством, например, тактильного вывода, звука, света и запаха/вкуса. Такие устройства вывода с человеко-машинным интерфейсом могут включать в себя тактильные устройства вывода (например, тактильную обратную связь от сенсорного экрана 710, управляющей перчатки 704 или джойстика 705, но также могут иметься устройства тактильной обратной связи, которые не служат в качестве устройств ввода), устройства вывода звука (например: динамики 709, наушники (не изображены)), устройства вывода изображения (например, экраны 710, включая ЭЛТ-экраны, ЖК-экраны, плазменные экраны, OLED-экраны, каждое из которых имеет или не имеет возможности ввода с сенсорного экрана, каждое с возможностью тактильной обратной связи или без нее - некоторые из которых могут быть способны выводить двухмерный визуальный вывод или более, чем трехмерный вывод с помощью таких средств, как стереографический вывод; очки виртуальной реальности (не изображены), голографические дисплеи и дымовые баки (не изображены)) и принтеры (не изображены).[128] The computer system 700 may also include certain human-machine interface output devices. Such human-machine interface output devices may stimulate the senses of one or more human users through, for example, tactile output, sound, light, and smell/taste. Such human-machine interface output devices may include haptic output devices (e.g., haptic feedback from touch screen 710, control glove 704, or joystick 705, but there may also be haptic feedback devices that do not serve as input devices) , audio output devices (eg, speakers 709, headphones (not shown)), image output devices (eg, screens 710, including CRT screens, LCD screens, plasma screens, OLED screens, each of which may or may not have touch screen input, each with or without haptic feedback capability - some of which may be capable of providing two-dimensional visual output or more than three-dimensional output through means such as stereographic output; virtual reality glasses (not shown), holographic displays and smoke tanks (not pictured)) and printers (not pictured).

[129] Компьютерная система 700 также может включать в себя доступные для человека устройства хранения и связанные с ними носители, такие как оптические носители, включая CD/DVD ROM/RW 720 с CD/DVD или подобными носителями 721, флэш-накопитель 722, съемный жесткий диск или твердотельный накопитель 723, ранее разработанные магнитные носители, такие как лента и дискета (не изображены), специализированные устройства на основе ROM/ASIC/PLD, такие как защитные ключи (не изображены) и т. п.[129] Computer system 700 may also include human accessible storage devices and associated media, such as optical media, including CD/DVD ROM/RW 720 with CD/DVD or similar media 721, flash drive 722, removable hard disk drive or solid state drive 723, previously developed magnetic media such as tape and floppy disk (not shown), specialized ROM/ASIC/PLD based devices such as dongles (not shown), etc.

[130] Специалисты в данной области также должны понимать, что термин «машиночитаемый носитель», используемый в связи с раскрытым в настоящем документе объектом изобретения, не охватывает среды передачи, несущие волны или другие временные сигналы.[130] Those skilled in the art will also understand that the term "machine readable medium" as used in connection with the subject matter disclosed herein does not cover transmission media, carrier waves, or other time signals.

[131] Компьютерная система 700 также может включать в себя интерфейс к одной или более коммуникационным сетям. Сети могут быть, например, беспроводными, проводными, оптическими. Кроме того, сети могут быть локальными, глобальными, городскими, автомобильными и промышленными, работающими в реальном времени, устойчивыми к задержкам и т. д. Примеры сетей включают в себя локальные сети, такие как Ethernet, беспроводные LAN, сотовые сети, включая GSM, 3G, 4G, 5G, LTE и т. п., проводные телевизионные или беспроводные глобальные цифровые сети, включая кабельное телевидение, спутниковое телевидение и наземное телевещание, автомобильное и промышленное оборудование, включая CAN-шину и т. д. Некоторым сетям обычно требуются внешние сетевые интерфейсные адаптеры, которые подключены к определенным портам данных общего назначения или периферийным шинам (749) (например, к портам USB компьютерной системы 700); другие обычно интегрированы в ядро компьютерной системы 700 путем присоединения к системной шине, как описано ниже (например, интерфейс Ethernet в компьютерную систему ПК или интерфейс сотовой сети в компьютерную систему смартфона). Используя любую из этих сетей, компьютерная система 700 может связываться с другими объектами. Такая связь может быть однонаправленной, только для приема (например, широковещательное телевидение), однонаправленной только для отправки (например, CAN-шина на определенные устройства с CAN-шиной) или двунаправленной, например, для других компьютерных систем, использующих локальную или глобальную цифровую сеть. В каждой из этих сетей и сетевых интерфейсов могут использоваться определенные протоколы и стеки протоколов, как описано выше.[131] Computer system 700 may also include an interface to one or more communications networks. Networks can be, for example, wireless, wired, optical. Additionally, networks can be LAN, WAN, metropolitan, automotive and industrial, real-time, latency tolerant, etc. Examples of networks include local area networks such as Ethernet, wireless LANs, cellular networks including GSM, 3G, 4G, 5G, LTE, etc., wired TV or wireless wide area digital networks, including cable TV, satellite TV and terrestrial TV, automotive and industrial equipment, including CAN bus, etc. Some networks usually require external network interface adapters that are connected to certain general purpose data ports or peripheral buses (749) (for example, to the USB ports of the computer system 700); others are typically integrated into the core of the computer system 700 by connecting to a system bus, as described below (for example, an Ethernet interface to a PC computer system or a cellular network interface to a smartphone computer system). Using any of these networks, computer system 700 can communicate with other entities. Such communication may be unidirectional, receive only (for example, broadcast television), unidirectional, send only (for example, CAN bus to certain CAN bus devices), or bidirectional, such as for other computer systems using a local or wide area digital network . Each of these networks and network interfaces may use specific protocols and protocol stacks, as described above.

[132] Вышеупомянутые устройства человеко-машинного интерфейса, доступные человеку устройства хранения и сетевые интерфейсы могут быть присоединены к ядру 740 компьютерной системы 700.[132] The aforementioned human-machine interface devices, human-accessible storage devices, and network interfaces may be attached to the core 740 of the computer system 700.

[133] Ядро 740 может включать в себя один или более центральных процессоров (ЦП) 741, графических процессоров (ГП) 742, специализированных программируемых процессоров в виде программируемых пользователем вентильных матриц (ППВМ) 743, аппаратных ускорителей для определенных задач 744 и т. д. Эти устройства, наряду с постоянным запоминающим устройством (ПЗУ) 745, оперативным запоминающим устройством 746, внутренним ЗУ большой емкости, таким как внутренние жесткие диски, недоступные пользователю, твердотельные накопители (SSD) и т. п. 747, могут быть подключены через системную шину 748. В некоторых компьютерных системах системная шина 748 может быть доступна в виде одного или более физических разъемов для обеспечения возможности расширения за счет дополнительных ЦП, ГП и т. п. Периферийные устройства могут быть подключены либо непосредственно к системной шине 748 ядра, либо через периферийную шину 749. Архитектура периферийной шины включает PCI, USB и т. п.[133] Core 740 may include one or more central processing units (CPUs) 741, graphics processing units (GPUs) 742, specialized programmable processors in the form of field programmable gate arrays (FPGAs) 743, task-specific hardware accelerators 744, etc. These devices, along with read-only memory (ROM) 745, random access memory 746, internal mass storage such as internal hard drives not accessible to the user, solid-state drives (SSD), etc. 747, can be connected through the system bus 748. On some computer systems, the system bus 748 may be available as one or more physical connectors to allow expansion with additional CPUs, GPUs, etc. Peripherals may be connected either directly to the kernel system bus 748 or through peripheral bus 749. Peripheral bus architecture includes PCI, USB, etc.

[134] ЦП 741, ГП 742, ППВМ 743 и ускорители 744 могут выполнять определенные инструкции, которые в комбинации могут составлять вышеупомянутый компьютерный код. Этот компьютерный код может храниться в ПЗУ 745 или ОЗУ 746. Переходные данные также могут храниться в ОЗУ 746, тогда как постоянные данные могут храниться, например, во внутреннем ЗУ большой емкости 747. Быстрое хранение и извлечение на любое из запоминающих устройств могут быть доступны посредством использования кэш-памяти, которая может быть тесно связана с одним или более ЦП 741, ГП 742, ЗУ 747 большой емкости, ПЗУ 745, ОЗУ 746 и т. п.[134] The CPU 741, GPU 742, FPGA 743, and accelerators 744 may execute certain instructions that, in combination, may constitute the aforementioned computer code. This computer code may be stored in ROM 745 or RAM 746. Transient data may also be stored in RAM 746, while persistent data may be stored, for example, in internal mass storage 747. Rapid storage and retrieval to either storage device may be accessible by using a cache memory that may be closely coupled to one or more of a CPU 741, a GPU 742, a mass storage device 747, a ROM 745, a RAM 746, or the like.

[135] Машиночитаемый носитель может содержать компьютерный код для выполнения различных операций, реализуемых компьютером. Носители и компьютерный код могут быть специально спроектированными и сконструированными для целей настоящего раскрытия, или они могут быть хорошо известными и доступными для специалистов в области компьютерного программного обеспечения.[135] A computer-readable medium may contain computer code for performing various computer-implemented operations. The media and computer code may be specifically designed and constructed for the purposes of the present disclosure, or they may be well known and available to those skilled in the art of computer software.

[136] В качестве примера, а не ограничения, компьютерная система, имеющая архитектуру 700 и, в частности, ядро 740, может обеспечивать функциональность в результате наличия процессора(ов) (включая ЦП, ГП, ППВМ, ускорители и т. п.), выполняющего программное обеспечение, воплощенное на одном или более материальных, машиночитаемых носителях. Такие машиночитаемые носители могут быть носителями, связанными с доступным для пользователя ЗУ большой емкости, как описано выше, а также определенными запоминающими устройствами ядра 740, которые имеют невременную природу, такими как внутреннее ЗУ 747 большой емкости или ПЗУ 745. Программное обеспечение, реализующее различные варианты осуществления настоящего раскрытия, может храниться в таких устройствах и выполняться ядром 740. Машиночитаемый носитель может включать в себя одно или более запоминающих устройств или микросхем в соответствии с конкретными потребностями. Программное обеспечение может побуждать ядро 740 и, в частности, процессоры в нем (включая ЦП, ГП, ППВМ и т. п.) выполнять определенные процессы или определенные части конкретных процессов, описанных в данном документе, включая определение структур данных, хранящихся в ОЗУ 746 и изменение таких структур данных в соответствии с процессами, определенными программным обеспечением. В дополнение или в качестве альтернативы, компьютерная система может обеспечивать функциональность в результате логики, встроенной в аппаратную схему или иным образом воплощенной в схеме (например, ускоритель 744), которая может работать вместо или вместе с программным обеспечением для выполнения определенных процессов или отдельных частей конкретных процессов, описанных в данном документе. Ссылка на программное обеспечение может включать в себя логику и наоборот, где это применимо. Ссылка на машиночитаемый носитель может включать в себя схему (например, интегральную схему (ИС)), хранящую программное обеспечение для выполнения, схему, воплощающую логику для выполнения, или и то, и другое, где это применимо. Настоящее раскрытие включает в себя любую подходящую комбинацию аппаратного и программного обеспечения.[136] By way of example, and not limitation, a computer system having architecture 700, and in particular core 740, may provide functionality as a result of having processor(s) (including CPUs, GPUs, FPGAs, accelerators, etc.) executing software embodied on one or more tangible, machine-readable media. Such computer-readable media may be media associated with user-accessible mass storage, as described above, as well as certain core 740 storage devices that are non-transitory in nature, such as internal mass storage 747 or ROM 745. Software implementing various embodiments implementation of the present disclosure, may be stored in such devices and executed by core 740. A computer-readable medium may include one or more storage devices or chips according to specific needs. Software may cause the core 740 and, in particular, processors therein (including CPUs, GPUs, FPGAs, and the like) to execute certain processes or certain portions of specific processes described herein, including defining data structures stored in RAM 746 and modifying such data structures according to processes defined by the software. In addition or alternatively, a computer system may provide functionality as a result of logic built into hardware circuitry or otherwise embodied in circuitry (e.g., accelerator 744), which may operate instead of or in conjunction with software to perform certain processes or portions of specific processes described in this document. A reference to software may include logic and vice versa where applicable. Reference to a computer-readable medium may include circuitry (eg, an integrated circuit (IC)) storing software for execution, circuitry embodying logic for execution, or both, where applicable. The present disclosure includes any suitable combination of hardware and software.

[137] На фиг.8 показан пример структуры видеопоследовательности с комбинацией значений temporal_id, layer_id, POC и AUC с адаптивным изменением разрешения. В этом примере изображение, слайс или тайл в первой AU с AUC = 0 может иметь temporal_id = 0 и layer_id = 0 или 1, в то время как изображение, слайс или тайл во второй AU с AUC = 1 может иметь temporal_id = 1 и layer_id = 0 или 1 соответственно. Значение POC увеличивается на 1 для каждого изображения независимо от значений temporal_id и layer_id. В этом примере значение poc_cycle_au может быть равно 2. Предпочтительно значение poc_cycle_au может быть установлено равным количеству слоев (пространственной масштабируемости). Следовательно, в этом примере значение POC увеличивается на 2, а значение AUC увеличивается на 1.[137] FIG. 8 shows an example of a video sequence structure with a combination of temporal_id, layer_id, POC and AUC values with adaptive resolution changing. In this example, an image, slice, or tile in the first AU with AUC = 0 may have temporal_id = 0 and layer_id = 0 or 1, while an image, slice, or tile in the second AU with AUC = 1 may have temporal_id = 1 and layer_id = 0 or 1 respectively. The POC value is incremented by 1 for each image, regardless of the temporal_id and layer_id values. In this example, the value of poc_cycle_au could be equal to 2. Preferably, the value of poc_cycle_au could be set equal to the number of layers (spatial scalability). Therefore, in this example, the POC value is increased by 2 and the AUC value is increased by 1.

[138] В вышеупомянутых вариантах осуществления все или субнабор структуры межкадрового или межслойного предсказания и индикация опорного изображения могут поддерживаться с использованием сигнализации существующего набора опорных изображений (RPS) в HEVC или сигнализации списка опорных изображений (RPL). В RPS или RPL выбранное опорное изображение указывается посредством сигнализации значения POC или значения дельты POC между текущим изображением и выбранным опорным изображением. Для раскрытого объекта изобретения RPS и RPL могут использоваться для указания структуры межкадрового или межслойного предсказания без изменения сигнализации, но со следующими ограничениями. Если значение temporal_id опорного изображения больше, чем значение temporal_id текущего изображения, текущее изображение может не использовать опорное изображение для компенсации движения или других предсказаний. Если значение layer_id опорного изображения больше, чем значение layer_id текущего изображения, текущее изображение может не использовать опорное изображение для компенсации движения или других предсказаний.[138] In the above embodiments, all or a subset of the inter-frame or inter-layer prediction structure and reference picture indication may be supported using existing HEVC Reference Picture Set (RPS) signaling or Reference Picture List (RPL) signaling. In RPS or RPL, the selected reference picture is indicated by signaling a POC value or a POC delta value between the current picture and the selected reference picture. For the disclosed subject matter, RPS and RPL can be used to indicate an inter-frame or inter-layer prediction structure without changing the signaling, but with the following limitations. If the temporal_id value of the reference picture is greater than the temporal_id value of the current picture, the current picture may not use the reference picture for motion compensation or other predictions. If the layer_id value of the reference image is greater than the layer_id value of the current image, the current image may not use the reference image for motion compensation or other predictions.

[139] В том же и других вариантах осуществления масштабирование вектора движения на основе разности POC для временного предсказания вектора движения может быть отключено для множества изображений в единице доступа. Следовательно, хотя каждое изображение может иметь различное значение POC в единице доступа, вектор движения не масштабируется и используется для временного предсказания вектора движения в единице доступа. Это связано с тем, что опорное изображение с другим POC в одной и той же AU считается опорным изображением, имеющим тот же момент времени. Следовательно, в варианте осуществления функция масштабирования вектора движения может возвращать 1, когда опорное изображение принадлежит AU, связанной с текущим изображением.[139] In the same and other embodiments, POC difference-based motion vector scaling for temporal motion vector prediction may be disabled for multiple images in an access unit. Therefore, although each image may have a different POC value in an access unit, the motion vector is not scaled and is used to temporally predict the motion vector in an access unit. This is because a reference picture with a different POC in the same AU is considered a reference picture having the same point in time. Therefore, in an embodiment, the motion vector scaling function may return 1 when the reference image belongs to an AU associated with the current image.

[140] В том же и других вариантах осуществления масштабирование вектора движения на основе разности POC для временного предсказания вектора движения может быть опционально отключено для множества изображений, когда пространственное разрешение опорного изображения отличается от пространственного разрешения текущего изображения. Когда масштабирование вектора движения разрешено, вектор движения масштабируется на основе как разности POC, так и отношения пространственного разрешения между текущим изображением и опорным изображением.[140] In the same and other embodiments, motion vector scaling based on the POC difference for temporal motion vector prediction can be optionally disabled for multiple images when the spatial resolution of the reference image differs from the spatial resolution of the current image. When motion vector scaling is enabled, the motion vector is scaled based on both the POC difference and the spatial resolution ratio between the current image and the reference image.

[141] В том же или другом варианте осуществления вектор движения может масштабироваться на основе разности AUC вместо разности POC для временного предсказания вектора движения, особенно когда poc_cycle_au имеет неоднородное значение (когда vps_contant_poc_cycle_per_au == 0). В противном случае (когда vps_contant_poc_cycle_per_au == 1) масштабирование вектора движения на основе разности AUC может быть идентично масштабированию вектора движения на основе разности POC.[141] In the same or another embodiment, the motion vector may be scaled based on the AUC difference instead of the POC difference to temporally predict the motion vector, especially when poc_cycle_au has a non-uniform value (when vps_contant_poc_cycle_per_au == 0). Otherwise (when vps_contant_poc_cycle_per_au == 1), scaling the motion vector based on the AUC difference may be identical to scaling the motion vector based on the POC difference.

[142] В том же или другом варианте осуществления, когда вектор движения масштабируется на основе разности AUC, опорный вектор движения в том же AU (с тем же значением AUC) с текущим изображением не масштабируется на основе разности AUC и используется для предсказания вектора движения без масштабирования или с масштабированием на основе отношения пространственного разрешения между текущим изображением и опорным изображением.[142] In the same or another embodiment, when the motion vector is scaled based on the AUC difference, the reference motion vector in the same AU (with the same AUC value) with the current image is not scaled based on the AUC difference and is used to predict the motion vector without scaling or scaling based on the spatial resolution ratio between the current image and the reference image.

[143] В том же и других вариантах осуществления значение AUC используется для идентификации границы AU и используется для операции гипотетического эталонного декодера (HRD), для которой требуется синхронизация ввода и вывода с детализацией AU. В большинстве случаев декодированное изображение с самым высоким уровнем в AU может выводиться для отображения. Значение AUC и значение layer_id могут использоваться для идентификации выходного изображения.[143] In the same and other embodiments, the AUC value is used to identify the boundary of the AU and is used for a hypothetical reference decoder (HRD) operation that requires input and output synchronization to the AU granularity. In most cases, the decoded image with the highest level in the AU can be output for display. The AUC value and layer_id value can be used to identify the output image.

[144] В варианте осуществления изображение может состоять из одного или более субизображений. Каждое субизображения может охватывать локальную область или всю область изображения. Область, поддерживаемая субизображением, может перекрываться или не перекрываться с областью, поддерживаемой другим субизображением. Область, составленная из одного или более субизображений, может покрывать или не покрывать всю область изображения. Если изображение состоит из субизображения, область, поддерживаемая субизображением, идентична области, поддерживаемой изображением.[144] In an embodiment, an image may consist of one or more sub-images. Each sub-image can cover a local area or the entire image area. The area supported by a sub-image may or may not overlap with the area supported by another sub-image. The area composed of one or more sub-images may or may not cover the entire image area. If an image consists of a sub-image, the area supported by the sub-image is identical to the area supported by the image.

[145] В том же варианте осуществления субизображение может быть закодировано способом кодирования, аналогичным способу кодирования, используемому для кодированного изображения. Субизображение может быть независимо закодировано или может быть закодировано в зависимости от другого субизображения или кодированного изображения. Субизображение может иметь или не иметь какую-либо зависимость парсинга от другого субизображения или кодированного изображения.[145] In the same embodiment, the sub-image may be encoded with an encoding method similar to the encoding method used for the encoded image. The sub-image may be independently encoded or may be encoded depending on another sub-image or encoded image. A sub-image may or may not have any parsing dependency on another sub-image or encoded image.

[146] В том же варианте осуществления кодированное субизображение может содержаться в одном или более слоев. Кодированное субизображение в слое может иметь другое пространственное разрешение. Исходное субизображение может подвергаться пространственной передискретизации (повышающей или понижающей дискретизации), кодироваться с различными параметрами пространственного разрешения и содержаться в битовом потоке, соответствующем слою.[146] In the same embodiment, the encoded sub-image may be contained in one or more layers. The encoded sub-image in a layer may have a different spatial resolution. The original sub-image may be spatially resampled (upsampled or downsampled), encoded at different spatial resolution parameters, and contained in a bitstream corresponding to the layer.

[147] В том же или другом варианте осуществления субизображение с (W, H), где W обозначает ширину субизображения, а H обозначает высоту субизображения, соответственно, может кодироваться и содержаться в кодированном битовом потоке, соответствующем слою 0, в то время как субизображение с повышающей (или понижающей) дискретизацией из субизображения с исходным пространственным разрешением, с (W*S w,k , H*S h,k ), может быть кодировано и содержаться в кодированном битовом потоке, соответствующем слою k, где S w,k , S h,k указывают коэффициенты передискретизации по горизонтали и вертикали. Если значения S w,k , S h,k больше 1, передискретизация равна повышающей дискретизации. В то время как, если значения S w,k, S h,k меньше 1, передискретизация равна понижающей дискретизации.[147] In the same or another embodiment, a sub-image with ( W , H ), where W denotes the width of the sub-image and H denotes the height of the sub-image, respectively, may be encoded and contained in the encoded bitstream corresponding to layer 0, while the sub-image upsampled (or downsampled) from a subimage with the original spatial resolution, c ( W*S w,k , H*S h,k ), may be encoded and contained in the encoded bitstream corresponding to layer k, where S w,k , S h,k indicate the horizontal and vertical oversampling coefficients. If the values of S w,k , S h,k are greater than 1, oversampling is equal to upsampling. Whereas, if the values of S w,k, S h,k are less than 1, oversampling is equal to downsampling.

[148] В том же или другом варианте осуществления кодированное субизображение в слое может иметь визуальное качество, отличное от качества кодированного субизображения в другом слое в том же субизображении или другом субизображении. Например, субизображение i в слое n кодируется параметром квантования Qi,n, тогда как субизображение j в слое m кодируется параметром квантования Qj,m.[148] In the same or another embodiment, an encoded sub-image in a layer may have a different visual quality than an encoded sub-image in another layer in the same sub-image or another sub-image. For example, sub-image i in layer n is encoded by the quantization parameter Q i,n, while sub-image j in layer m is encoded by the quantization parameter Q j,m .

[149] В том же или другом варианте осуществления кодированное субизображение в слое может быть декодировано независимо, без какой-либо зависимости от парсинга или декодирования, из кодированного субизображения в другом слое той же локальной области. Слой субизображения, который можно независимо декодировать без ссылки на другой слой субизображения той же локальной области, является независимым слоем субизображения. Кодированное субизображение в независимом слое субизображения может иметь или не иметь зависимость декодирования или парсинга от ранее кодированного субизображения в том же слое субизображения, но кодированное субизображение может не иметь никакой зависимости от кодированного изображения в другом слое субизображения.[149] In the same or another embodiment, an encoded sub-image in a layer can be decoded independently, without any dependence on parsing or decoding, from an encoded sub-image in another layer of the same local area. A sub-image layer that can be independently decoded without reference to another sub-image layer of the same local region is an independent sub-image layer. An encoded subimage in an independent subimage layer may or may not have a decoding or parsing dependency on a previously encoded subimage in the same subimage layer, but an encoded subimage may not have any dependency on an encoded image in another subimage layer.

[150] В том же или другом варианте осуществления кодированное субизображение в слое может быть декодировано зависимо, с любой зависимостью от парсинга или декодирования, из кодированного субизображения в другом слое той же локальной области. Слой субизображения, который можно зависимо декодировать со ссылкой на другой слой субизображения той же локальной области, является зависимым слоем субизображения. Кодированное субизображение в зависимом субизображении может ссылаться на кодированное субизображение, принадлежащее тому же субизображению, ранее кодированное субизображение в том же слое субизображения или на оба опорных субизображения.[150] In the same or another embodiment, an encoded sub-image in a layer may be decoded dependently, with any dependence on parsing or decoding, from an encoded sub-image in another layer of the same local area. A sub-image layer that can be dependently decoded with reference to another sub-image layer of the same local region is a dependent sub-image layer. An encoded subimage in a dependent subimage may reference an encoded subimage belonging to the same subimage, a previously encoded subimage in the same subimage layer, or both reference subimages.

[151] В том же или другом варианте осуществления кодированное субизображение состоит из одного или более независимых слоев субизображения и одного или более зависимых слоев субизображения. Однако по меньшей мере одно независимое субизображение может присутствовать для кодированного субизображения. Независимый слой субизображения может иметь значение идентификатора слоя (layer_id), который может присутствовать в заголовке единицы NAL или другой синтаксической структуре высокого уровня, равное 0. Слой субизображения с layer_id, равным 0, является базовым слоем субизображения.[151] In the same or another embodiment, the encoded sub-image consists of one or more independent sub-image layers and one or more dependent sub-image layers. However, at least one independent sub-picture may be present for the encoded sub-picture. An independent sub-image layer may have a layer identifier (layer_id) value, which may be present in the NAL unit header or other high-level syntax structure, equal to 0. A sub-image layer with a layer_id equal to 0 is the base sub-image layer.

[152] В том же или другом варианте осуществления изображение может состоять из одного или более субизображений переднего плана и одного субизображения заднего плана. Область, поддерживаемая субизображением заднего плана, может быть равна области изображения. Область, поддерживаемая субизображением переднего плана, может перекрываться с областью, поддерживаемой субизображением заднего плана. Субзображение заднего плана может быть базовым слоем субизображения, тогда как субизображение переднего плана может быть не-базовым (улучшающим) слоем субизображения. Один или более не-базовых слоев субизображения могут ссылаться на один и тот же базовый слой для декодирования. Каждый не-базовый слой субизображения с layer_id, равным a, может ссылаться на не-базовый слой субизображения с layer_id, равным b, где a больше b.[152] In the same or another embodiment, the image may consist of one or more foreground sub-images and one background sub-image. The area supported by the background subimage may be equal to the image area. The region supported by the foreground sub-image may overlap with the region supported by the background sub-image. The background subimage may be a base layer of the subimage, while the foreground subimage may be a non-baseline (enhancement) layer of the subimage. One or more non-base layers of a sub-image may reference the same base layer for decoding. Each non-base subimage layer with layer_id equal to a can reference a non-base subimage layer with layer_id equal to b , where a is greater than b .

[153] В том же или другом варианте осуществления изображение может состоять из одного или более субизображений переднего плана с субизображением заднего плана или без него. Каждое субизображение может иметь свой собственный базовый слой субизображения и один или более не-базовых (улучшающих) слоев. На каждый базовый слой субизображения может ссылаться один или более не-базовых слоев субизображения. Каждый не-базовый слой субизображения с layer_id, равным a, может ссылаться на не-базовый слой субизображения с layer_id, равным b, где a больше b.[153] In the same or another embodiment, the image may consist of one or more foreground sub-images with or without a background sub-image. Each sub-image may have its own base sub-image layer and one or more non-base (enhancement) layers. Each sub-image base layer may be referenced by one or more non-base sub-image layers. Each non-base subimage layer with layer_id equal to a can reference a non-base subimage layer with layer_id equal to b , where a is greater than b .

[154] В том же или другом варианте осуществления изображение может состоять из одного или более субизображений переднего плана с субизображением заднего плана или без него. На каждое кодированное субизображение в (базовом или не-базовом) слое субизображения может ссылаться одно или более субизображений не-базового слоя, принадлежащих одному и тому же субизображению, и одно или более субизображений не-базового слоя, которые не принадлежат одному и тому же субизображению.[154] In the same or another embodiment, the image may consist of one or more foreground sub-images with or without a background sub-image. Each encoded sub-image in a (base or non-base) sub-image layer may be referenced by one or more non-base layer sub-images that belong to the same sub-image, and one or more non-base layer sub-images that do not belong to the same sub-image. .

[155] В том же или другом варианте осуществления изображение может состоять из одного или более субизображений переднего плана с субизображением заднего плана или без него. Субизображение в слое a может быть дополнительно разделено на множество субизображений в одном и том же слое. Одно или более кодированных субизображений в слое b могут ссылаться на разделенные субизображения в слое a.[155] In the same or another embodiment, the image may consist of one or more foreground sub-images with or without a background sub-image. The sub-image in layer a can be further divided into multiple sub-images in the same layer. One or more encoded sub-pictures in layer b may reference divided sub-pictures in layer a .

[156] В том же или другом варианте осуществления кодированная видеопоследовательность (CVS) может быть группой кодированных изображений. CVS может состоять из одной или более последовательностей кодированных субизображений (CSPS), где CSPS может быть группой кодированных субизображений, покрывающих одну и ту же локальную область изображения. CSPS может иметь то же или другое временное разрешение, что и кодированная видеопоследовательность.[156] In the same or another embodiment, a coded video sequence (CVS) may be a group of coded pictures. A CVS may consist of one or more coded sub-picture sequences (CSPS), where a CSPS may be a group of coded sub-pictures covering the same local image region. CSPS may have the same or a different temporal resolution as the encoded video sequence.

[157] В том же или другом варианте осуществления CSPS может быть кодирована и содержаться в одном или более слоях. CSPS может состоять из одного или более слоев CSPS. Декодирование одного или более слоев CSPS, соответствующих CSPS, может восстанавливать последовательность субизображений, соответствующих одной и той же локальной области.[157] In the same or another embodiment, the CSPS may be encoded and contained in one or more layers. The CSPS may consist of one or more CSPS layers. Decoding one or more CSPS layers corresponding to the CSPS can reconstruct a sequence of sub-images corresponding to the same local region.

[158] В том же или другом варианте осуществления количество слоев CSPS, соответствующих CSPS, может быть идентичным или отличаться от количества слоев CSPS, соответствующих другой CSPS.[158] In the same or another embodiment, the number of CSPS layers corresponding to a CSPS may be identical to or different from the number of CSPS layers corresponding to another CSPS.

[159] В том же или другом варианте осуществления слой CSPS может иметь временное разрешение (например, частоту кадров), отличное от другого слоя CSPS. Исходная (несжатая) последовательность субизображений может подвергаться временной передискретизации (повышающей или понижающей дискретизации), кодироваться с различными параметрами временного разрешения и содержаться в битовом потоке, соответствующем слою.[159] In the same or another embodiment, a CSPS layer may have a different temporal resolution (eg, frame rate) than another CSPS layer. The original (uncompressed) subimage sequence may be temporally resampled (upsampled or downsampled), encoded at different temporal resolution parameters, and contained in a bitstream corresponding to the layer.

[160] В том же или другом варианте осуществления последовательность субизображений с частотой кадров F может быть кодирована и содержаться в кодированном битовом потоке, соответствующем слою 0, в то время как последовательность субизображений с временной повышающей (или понижающей) дискретизацией из исходной последовательности субизображений с F*S t,k может быть кодирована и содержаться в кодированном битовом потоке, соответствующем слою k , где S t,k указывает коэффициент временной дискретизации для слоя k. Если значение S t,k больше 1, процесс временной передискретизации равен преобразованию с повышением частоты кадров. Тогда как, если значение S t,k меньше 1, процесс временной передискретизации равен преобразованию с понижением частоты кадров.[160] In the same or another embodiment, the sub-image sequence at frame rate F may be encoded and contained in the encoded bitstream corresponding to layer 0, while the sub-image sequence is temporally upsampled (or down-sampled) from the original sub-image sequence at F *S t,k may be encoded and contained in a coded bitstream corresponding to layer k , where S t,k indicates the time sampling rate for layer k. If the value of S t,k is greater than 1, the temporal resampling process is equal to frame rate upconversion. Whereas, if the value of S t,k is less than 1, the temporal resampling process is equal to frame rate down-conversion.

[161] В том же или другом варианте осуществления, когда субизображение со слоем a CSPS является ссылкой субизображения со слоем b CSPS для компенсации движения или любого межслойного предсказания, если пространственное разрешение слоя a CSPS отличается от пространственного разрешения слоя b CSPS, декодированные пиксели в слое a CSPS подвергаются повторной дискретизации и используются для ссылки. Для процесса передискретизации может потребоваться фильтрация с повышающей или понижающей дискретизацией.[161] In the same or another embodiment, when the sub-image with CSPS layer a is a reference of the sub-image with CSPS layer b for motion compensation or any inter-layer prediction, if the spatial resolution of CSPS layer a is different from the spatial resolution of CSPS layer b , the decoded pixels in the layer a CSPS are resampled and used for reference. The resampling process may require upsampling or downsampling filtering.

[162] На фиг.9 показан пример таблиц синтаксиса для сигнализации элемента синтаксиса vps_poc_cycle_au в VPS (или SPS), который указывает poc_cycle_au, используемый для всех изображений/слайсов в кодированной видеопоследовательности, и элемента синтаксиса slice_poc_cycle_au, который указывает poc_cycle_au текущего слайса в заголовке слайса. Если значение POC увеличивается равномерно для каждой AU, vps_contant_poc_cycle_per_au в VPS устанавливается равным 1, и vps_poc_cycle_au сигнализируется в VPS. В этом случае slice_poc_cycle_au явно не сигнализируется, и значение AUC для каждой AU вычисляется путем деления значения POC на vps_poc_cycle_au. Если значение POC не увеличивается равномерно на AU, vps_contant_poc_cycle_per_au в VPS устанавливается равным 0. В этом случае vps _access_unit_cnt не сигнализируется, в то время как slice_access_unit_cnt сигнализируется в заголовке слайса для каждого слайса или изображения. Каждый слайс или изображение может иметь различное значение slice_access_unit_cnt. Значение AUC для каждой AU вычисляется путем деления значения POC на slice_poc_cycle_au. На фиг.10 показана блок-схема, иллюстрирующая соответствующий рабочий процесс.[162] FIG. 9 shows example syntax tables for signaling the vps_poc_cycle_au syntax element in a VPS (or SPS), which specifies the poc_cycle_au used for all pictures/slices in the encoded video sequence, and the slice_poc_cycle_au syntax element, which specifies the poc_cycle_au of the current slice in the slice header. . If the POC value increases uniformly for each AU, vps_contant_poc_cycle_per_au in the VPS is set to 1 and vps_poc_cycle_au is signaled in the VPS. In this case, slice_poc_cycle_au is not explicitly signaled and the AUC value for each AU is calculated by dividing the POC value by vps_poc_cycle_au. If the POC value does not increase uniformly per AU, vps_contant_poc_cycle_per_au in the VPS is set to 0. In this case, vps _access_unit_cnt is not signaled, while slice_access_unit_cnt is signaled in the slice header for each slice or image. Each slice or image can have a different slice_access_unit_cnt value. The AUC value for each AU is calculated by dividing the POC value by slice_poc_cycle_au. FIG. 10 is a flowchart illustrating a corresponding workflow.

[163] В тех же или других вариантах осуществления, даже если значение POC изображения, слайса или тайла может быть другим, изображение, слайс или тайл, соответствующие AU с одинаковым значением AUC, могут быть связаны с одним и тем же моментом времени декодирования или вывода. Следовательно, без какой-либо зависимости от интерпарсинга и/или декодирования между изображениями, слайсами или тайлами в одной и той же AU, все или субнабор изображений, слайсов или тайлов, связанных с одной и той же AU, могут быть декодированы параллельно и могут быть выведены в один и тот же момент времени.[163] In the same or other embodiments, even though the POC value of an image, slice, or tile may be different, an image, slice, or tile corresponding to an AU with the same AUC value may be associated with the same decoding or output timing . Therefore, without any dependency on interparsing and/or decoding between images, slices or tiles in the same AU, all or a subset of images, slices or tiles associated with the same AU can be decoded in parallel and can be released at the same point in time.

[164] В тех же или других вариантах осуществления, даже если значение POC изображения, слайса или тайла может быть другим, изображение, слайс или тайл, соответствующие AU с одинаковым значением AUC, могут быть связаны с одним и тем же моментом времени компоновки/отображения. Когда время компоновки содержится в формате контейнера, даже если изображения соответствуют разным AU, если изображения имеют одинаковое время компоновки, изображения могут отображаться в один и тот же момент времени.[164] In the same or other embodiments, even though the POC value of an image, slice, or tile may be different, an image, slice, or tile corresponding to an AU with the same AUC value may be associated with the same layout/display time . When the layout time is contained in the container format, even if the images correspond to different AUs, as long as the images have the same layout time, the images can be displayed at the same point in time.

[165] В тех же или других вариантах осуществления каждое изображение, слайс или тайл может иметь один и тот же временной идентификатор (temporal_id) в одной и той же AU. Все или субнабор изображений, слайсов или тайлов, соответствующих моменту времени, могут быть связаны с одним и тем же временным субслоем. В тех же или других вариантах осуществления каждое изображение, слайс или тайл может иметь одинаковый или другой идентификатор пространственного слоя (layer_id) в одной и той же AU. Все или субнабор изображений, слайсов или тайлов, соответствующих моменту времени, могут быть связаны с тем же или другим пространственным слоем.[165] In the same or other embodiments, each image, slice, or tile may have the same temporal identifier (temporal_id) in the same AU. All or a subset of images, slices or tiles corresponding to a point in time can be associated with the same time sublayer. In the same or other embodiments, each image, slice, or tile may have the same or a different spatial layer identifier (layer_id) in the same AU. All or a subset of images, slices, or tiles corresponding to a point in time can be associated with the same or a different spatial layer.

[166] На фиг.11 показан примерный видеопоток, включающий в себя CSPS видео заднего плана с layer_id, равным 0, и множество слоев CSPS переднего плана. Хотя кодированное субизображение может состоять из одного или более слоев CSPS, область заднего плана, которая не принадлежит какому-либо слою CSPS переднего плана, может состоять из базового слоя. Базовый слой может содержать область заднего плана и области переднего плана, в то время как слой CSPS улучшения содержит область переднего плана. Слой CSPS улучшения может иметь лучшее визуальное качество, чем базовый слой, в той же области. Слой CSPS улучшения может ссылаться на восстановленные пиксели и векторы движения базового слоя, соответствующие одной и той же области.[166] FIG. 11 shows an example video stream including a background CSPS video with a layer_id of 0 and a plurality of foreground CSPS layers. Although an encoded sub-image may be composed of one or more CSPS layers, a background region that does not belong to any foreground CSPS layer may be composed of a base layer. The base layer may contain a background region and a foreground region, while the CSPS enhancement layer contains a foreground region. The CSPS enhancement layer may have better visual quality than the base layer in the same area. The CSPS enhancement layer may reference the reconstructed pixels and motion vectors of the base layer corresponding to the same region.

[167] В том же или другом варианте осуществления битовый видеопоток, соответствующий базовому слою, содержится в дорожке, в то время как слои CSPS, соответствующие каждому субизображению, содержатся в отдельной дорожке в видеофайле.[167] In the same or another embodiment, the video bitstream corresponding to the base layer is contained in a track, while the CSPS layers corresponding to each sub-image are contained in a separate track in the video file.

[168] В том же или другом варианте осуществления битовый видеопоток, соответствующий базовому слою, содержится в дорожке, в то время как слои CSPS с тем же layer_id содержатся в отдельной дорожке. В этом примере дорожка, соответствующая уровню k , включает в себя только слои CSPS, соответствующие слою k.[168] In the same or another embodiment, the video bitstream corresponding to the base layer is contained in a track, while CSPS layers with the same layer_id are contained in a separate track. In this example, the track corresponding to layer k includes only the CSPS layers corresponding to layer k .

[169] В том же или другом варианте осуществления каждый слой CSPS каждого субизображения хранится в отдельной дорожке. Каждая дорожка может иметь или не иметь зависимость парсинга или декодирования от одной или более других дорожек.[169] In the same or another embodiment, each CSPS layer of each sub-image is stored in a separate track. Each track may or may not have a parsing or decoding dependency on one or more other tracks.

[170] В том же или другом варианте осуществления каждая дорожка может содержать битовые потоки, соответствующие от слоя i до слоя j слоев CSPS всех или субнабора субизображений, где 0 <i=j=k, k является слоем наибольшего уровня CSPS.[170] In the same or another embodiment, each track may contain bitstreams corresponding to layer i to layer j of the CSPS layers of all or a subset of sub-images, where 0 <i=j=k, k is the layer of the largest CSPS layer.

[171] В том же или другом варианте осуществления изображение состоит из одного или более связанных мультимедийных данных, включая карту глубины, альфа-карту, данные трехмерной геометрии, карту занятости и т. д. Такие связанные синхронизированные мультимедийные данные могут быть разделены на один или множество субпотоков данных, каждый из которых соответствует одному субизображению.[171] In the same or another embodiment, the image consists of one or more associated media data, including a depth map, alpha map, 3D geometry data, occupancy map, etc. Such associated synchronized media data may be divided into one or multiple sub-data streams, each corresponding to one sub-image.

[172] В том же или другом варианте осуществления на фиг.12 показан пример видеоконференции, основанной на способе многослойных субизображений. В видеопотоке содержатся один битовый поток видео базового слоя, соответствующий изображению заднего плана, и один или более битовых потоков видео уровня улучшения, соответствующих субизображениям переднего плана. Каждый битовый поток видео слоя улучшения соответствует слою CSPS. На дисплее по умолчанию отображается изображение, соответствующее базовому слою. Он содержит изображение одного или более пользователей в изображении (PIP). Когда конкретный пользователь выбирается управлением клиента, слой CSPS улучшения, соответствующий выбранному пользователю, декодируется и отображается с улучшенным качеством или пространственным разрешением. На фиг.13 показана блок-схема работы.[172] In the same or another embodiment, FIG. 12 shows an example of a video conference based on a multi-layer sub-image method. The video stream contains one base layer video bitstream corresponding to a background image and one or more enhancement layer video bitstreams corresponding to foreground sub-images. Each video bitstream of the enhancement layer corresponds to a CSPS layer. The default display shows the image corresponding to the base layer. It contains one or more users' picture in picture (PIP). When a particular user is selected by the client control, the CSPS enhancement layer corresponding to the selected user is decoded and displayed with improved quality or spatial resolution. Fig. 13 shows a flowchart of operation.

[173] В том же или другом варианте осуществления промежуточный блок сети (такой как маршрутизатор) может выбирать субнабор слоев для отправки пользователю в зависимости от своей полосы пропускания. Организация изображения/субизображения может использоваться для адаптации полосы пропускания. Например, если у пользователя нет полосы пропускания, маршрутизатор разделяет слои или выбирает некоторые субизображения из-за их важности или на основе используемых настроек, и это может делаться динамически для адаптации к полосе пропускания.[173] In the same or another embodiment, a network intermediate unit (such as a router) may select a subset of layers to send to the user depending on its bandwidth. The image/sub-image organization can be used to adapt the bandwidth. For example, if the user does not have the bandwidth, the router splits the layers or selects some sub-images based on their importance or based on the settings used, and this can be done dynamically to adapt to the bandwidth.

[174] На фиг.14 показан пример использования 360-градусного видео. Когда сферическое 360-градусное изображение проецируется на плоское изображение, изображение проекции 360 может быть разделено на множество субизображений в качестве базового слоя. Слой улучшения конкретного субизображения может быть кодирован и передан клиенту. Декодер может декодировать как базовый слой, включающий в себя все субизображения, так и слой улучшения выбранного субизображения. Когда текущее окно просмотра идентично выбранному субизображению, отображаемое изображение может иметь более высокое качество с декодированным субизображением со слоем улучшения. В противном случае декодированное изображение с базовым слоем может отображаться с низким качеством.[174] FIG. 14 shows an example of using 360-degree video. When a 360 degree spherical image is projected onto a flat image, the 360 projection image can be divided into many sub-images as a base layer. The enhancement layer of a particular sub-image may be encoded and transmitted to the client. The decoder can decode both a base layer including all sub-images and an enhancement layer of a selected sub-image. When the current viewport is identical to the selected sub-image, the displayed image may have a higher quality with the decoded sub-image with an enhancement layer. Otherwise, the decoded image with the base layer may be displayed in poor quality.

[175] В том же или другом варианте осуществления любая информация макета для отображения может присутствовать в файле в качестве дополнительной информации (например, сообщения SEI или метаданные). Одно или более декодированных субизображений могут быть перемещены и отображены в зависимости от сигнализированной информации макета. Информация макета может быть сигнализирована сервером потоковой передачи или вещательной компанией, или может быть восстановлена сетевым объектом или облачным сервером, или может быть определена индивидуальной настройкой пользователя.[175] In the same or another embodiment, any layout information for display may be present in the file as additional information (eg, SEI messages or metadata). One or more decoded sub-pictures may be moved and displayed depending on the signaled layout information. The layout information may be signaled by the streaming server or broadcaster, or may be reconstructed by the network entity or cloud server, or may be determined by the user's individual settings.

[176] В варианте осуществления, когда входное изображение делится на одну или более (прямоугольных) субобластей, каждая субобласть может кодироваться как независимый слой. Каждый независимый слой, соответствующий локальной области, может иметь уникальное значение layer_id. Для каждого независимого слоя может сигнализироваться информация о размере и местоположении субизображения. Например, размер изображения (ширина, высота), информация о смещении левого верхнего угла (x_offset, y_offset). На фиг.15 показан пример макета разделенных фрагментов изображения, информации о размере и положении его субизображений и его соответствующей структуры предсказания изображения. Информация макета, включая размер(ы) субизображения и положение(я) субизображения, может сигнализироваться в синтаксической структуре высокого уровня, такой как набор(ы) параметров, заголовок группы слайсов или тайлов или сообщение SEI.[176] In an embodiment, when the input image is divided into one or more (rectangular) sub-regions, each sub-region may be encoded as an independent layer. Each independent layer corresponding to a local area can have a unique layer_id value. For each independent layer, information about the size and location of the sub-image can be signaled. For example, image size (width, height), information about the offset of the upper left corner (x_offset, y_offset). FIG. 15 shows an example of a split image layout, size and position information of its sub-images, and its corresponding image prediction structure. Layout information, including sub-image size(s) and sub-image position(s), may be signaled in a high-level syntactic structure such as parameter set(s), a slice or tile group header, or an SEI message.

[177] В том же варианте осуществления каждое субизображение, соответствующее независимому слою, может иметь свое уникальное значение POC в пределах AU. Когда опорное изображение среди изображений, хранящихся в DPB, указывается с использованием элемента(ов) синтаксиса в структуре RPS или RPL, может использоваться значение(я) POC каждого субизображения, соответствующего слою.[177] In the same embodiment, each sub-image corresponding to an independent layer may have its own unique POC value within the AU. When a reference image among the images stored in the DPB is specified using syntax element(s) in an RPS or RPL structure, the POC value(s) of each sub-image corresponding to the layer may be used.

[178] В том же или другом варианте осуществления, чтобы указать структуру (межслойного) предсказания, layer_id может не использоваться, и может использоваться значение (дельты) POC.[178] In the same or another embodiment, to indicate the (inter-layer) prediction structure, the layer_id may not be used and the POC (delta) value may be used.

[179] В том же варианте осуществления субизображение со значением POC, равным N, соответствующее слою (или локальной области), может использоваться или не использоваться в качестве опорного изображения субизображения со значением POC, равным N+K, соответствующего тому же слою (или той же локальной области) для предсказания с компенсацией движения. В большинстве случаев значение числа K может быть равно максимальному количеству (независимых) слоев, которое может быть идентично количеству субобластей.[179] In the same embodiment, a sub-image with a POC value equal to N corresponding to a layer (or local region) may or may not be used as a reference image of a sub-image with a POC value equal to N+K corresponding to the same layer (or that same local area) for motion compensated prediction. In most cases, the value of the number K can be equal to the maximum number of (independent) layers, which can be identical to the number of subregions.

[180] В том же или другом варианте осуществления на фиг.16 показан расширенный пример с фиг.15. Когда входное изображение разделено на множество (например, четыре) субобластей, каждая локальная область может быть кодирована с одним или более слоями. В этом случае количество независимых слоев может быть равно количеству субобластей, и один или более слоев могут соответствовать субобласти. Таким образом, каждая субобласть может быть кодирована одним или более независимых слоев и нулем или более зависимых слоев.[180] In the same or another embodiment, FIG. 16 shows an expanded example of FIG. 15. When the input image is divided into multiple (eg, four) sub-regions, each local region may be encoded with one or more layers. In this case, the number of independent layers may be equal to the number of sub-regions, and one or more layers may correspond to a sub-region. Thus, each sub-region may be encoded by one or more independent layers and zero or more dependent layers.

[181] В том же варианте, показанном на фиг.16, входное изображение может быть разделено на четыре субобласти. Правая верхняя субобласть может быть кодирована как два слоя, которые являются слоем 1 и слоем 4, в то время как правая нижняя субобласть может быть кодирована как два слоя, которые являются слоем 3 и слоем 5. В этом случае слой 4 может ссылаться на слой 1 для предсказания с компенсацией движения, тогда как слой 5 может ссылаться на слой 3 для компенсации движения.[181] In the same embodiment shown in FIG. 16, the input image can be divided into four sub-regions. The top right sub-region can be encoded as two layers, which are layer 1 and layer 4, while the bottom right sub-region can be encoded as two layers, which are layer 3 and layer 5. In this case, layer 4 can refer to layer 1 for motion compensated prediction, while layer 5 can reference layer 3 for motion compensation.

[182] В том же или другом варианте осуществления внутрипетлевая фильтрация (например, деблокирующая фильтрация, адаптивная внутрипетлевая фильтрация, изменение формы, двусторонняя фильтрация или любая фильтрация на основе глубокого обучения) через границу слоя может быть (опционально) отключена.[182] In the same or another embodiment, intra-loop filtering (eg, deblocking filtering, adaptive intra-loop filtering, shapeshifting, two-way filtering, or any deep learning-based filtering) across a layer boundary can be (optionally) disabled.

[183] В том же или другом варианте осуществления предсказание с компенсацией движения или внутриблочное копирование через границу слоя может быть (опционально) отключено.[183] In the same or another embodiment, motion compensated prediction or intra-block copying across a layer boundary may be (optionally) disabled.

[184] В том же или другом варианте осуществления граничное заполнение для предсказания с компенсацией движения или внутрипетлевая фильтрация на границе субизображения может обрабатываться опционально. Флаг, указывающий, обрабатывается ли граничное заполнение или нет, может сигнализироваться в синтаксической структуре высокого уровня, такой как набор(ы) параметров (VPS, SPS, PPS или APS), заголовок группы слайсов или тайлов или сообщение SEI.[184] In the same or another embodiment, boundary padding for motion-compensated prediction or intra-loop filtering at the sub-image boundary may be processed optionally. A flag indicating whether boundary padding is processed or not may be signaled in a high-level syntactic structure, such as a parameter set(s) (VPS, SPS, PPS, or APS), a slice or tile group header, or an SEI message.

[185] В том же или другом варианте осуществления информация макета субобласти(ей) (или субизображения(й)) может сигнализироваться в VPS или SPS. На фиг.17 показан пример элементов синтаксиса в VPS и SPS. В этом примере vps_sub_picture_dividing_flag сигнализируется в VPS. Флаг может указывать, разделено ли входное(ые) изображение(я) на множество субобластей или нет. Когда значение vps _sub_picture_dividing_flag равно 0, входное изображение(я) в кодированной видеопоследовательности(ях), соответствующей текущей VPS, не может быть разделено на несколько субобластей. В этом случае размер входного изображения может быть равен размеру кодированного изображения (pic_width_in_luma_samples, pic_height_in_luma_samples), который сигнализируется в SPS. Когда значение vps _sub_picture_dividing_flag равно 1, входное изображение(я) может быть разделено на множество субобластей. В этом случае элементы синтаксиса vps_full_pic_width_in_luma_samples и vps_full_pic_height_in_luma_samples сигнализируются в VPS. Значения vps_full_pic_width_in_luma_samples и vps_full_pic_height_in_luma_samples могут быть равны ширине и высоте входного изображения(й) соответственно.[185] In the same or another embodiment, the layout information of the sub-area(s) (or sub-image(s)) may be signaled to the VPS or SPS. FIG. 17 shows an example of syntax elements in VPS and SPS. In this example, vps_sub_picture_dividing_flag is signaled to the VPS. The flag may indicate whether the input image(s) are divided into multiple subregions or not. When the value of vps_sub_picture_dividing_flag is 0, the input picture(s) in the encoded video sequence(s) corresponding to the current VPS cannot be divided into multiple sub-pictures. In this case, the size of the input image may be equal to the size of the encoded image (pic_width_in_luma_samples, pic_height_in_luma_samples) which is signaled in the SPS. When the value of vps_sub_picture_dividing_flag is 1, the input image(s) can be divided into multiple sub-pictures. In this case, the vps_full_pic_width_in_luma_samples and vps_full_pic_height_in_luma_samples syntax elements are signaled to the VPS. The values of vps_full_pic_width_in_luma_samples and vps_full_pic_height_in_luma_samples can be equal to the width and height of the input image(s), respectively.

[186] В том же варианте осуществления значения vps_full_pic_width_in_luma_samples и vps_full_pic_height_in_luma_samples не могут использоваться для декодирования, но могут использоваться для компоновки и отображения.[186] In the same embodiment, the values vps_full_pic_width_in_luma_samples and vps_full_pic_height_in_luma_samples cannot be used for decoding, but can be used for layout and display.

[187] В том же варианте осуществления, когда значение vps_sub_picture_dividing_flag равно 1, элементы синтаксиса pic_offset_x и pic_offset_y могут сигнализироваться в SPS, что соответствует (а) конкретному слою (слоям). В этом случае размер кодированного изображения (pic_width_in_luma_samples, pic_height_in_luma_samples), сигнализируемый в SPS, может быть равен ширине и высоте субобласти, соответствующей конкретному слою. Также, положение (pic_offset_x, pic_offset_y) левого верхнего угла субобласти может сигнализироваться в SPS.[187] In the same embodiment, when the value of vps_sub_picture_dividing_flag is 1, the pic_offset_x and pic_offset_y syntax elements may be signaled in the SPS that correspond to a particular layer(s). In this case, the encoded image size (pic_width_in_luma_samples, pic_height_in_luma_samples) signaled in the SPS may be equal to the width and height of the sub-region corresponding to a particular layer. Also, the position (pic_offset_x, pic_offset_y) of the upper left corner of the sub-region may be signaled to the SPS.

[188] В том же варианте осуществления информация о положении (pic_offset_x, pic_offset_y) левого верхнего угла субобласти не может использоваться для декодирования, но может использоваться для компоновки и отображения.[188] In the same embodiment, position information (pic_offset_x, pic_offset_y) of the upper left corner of the sub-region cannot be used for decoding, but can be used for layout and display.

[189] В том же или другом варианте осуществления информация макета (размер и положение) всех или субнабора субобластей входного изображения(й), информация о зависимости между слоем (слоями) может сигнализироваться в наборе параметров или сообщении SEI. На фиг.18 показан пример элементов синтаксиса для указания информации о макете субобластей, зависимости между слоями и отношения между субобластью и одним или более слоями. В этом примере элемент синтаксиса num_sub_region указывает количество (прямоугольных) субобластей в текущей кодированной видеопоследовательности; элемент синтаксиса num_layers указывает количество слоев в текущей кодированной видеопоследовательности. Значение num_layers может быть равно или больше значения num_sub_region. Когда любая субобласть кодируется как один слой, значение num_layers может быть равно значению num_sub_region. Когда одна или более субобластей кодируются как множество слоев, значение num_layers может быть больше, чем значение num_sub_region. Элемент синтаксиса direct_dependency_flag [i] [j] указывает зависимость от j-го уровня к i-му уровню; num_layers_for_region [i] указывает количество слоев, связанных с i-й субобластью; sub_region_layer_id [i] [j] указывает layer_id j-го слоя, связанного с i-й субобластью. Значения sub_region_offset_x [i] и sub_region_offset_y [i] указывают, соответственно, горизонтальное и вертикальное положение левого верхнего угла i-й субобласти. Значения sub_region_width [i] и sub_region_height [i] указывают, соответственно, ширину и высоту i-й субобласти.[189] In the same or another embodiment, the layout information (size and position) of all or a subset of subregions of the input image(s), dependency information between layer(s) may be signaled in a parameter set or SEI message. FIG. 18 shows an example of syntax elements for specifying layout information of sub-regions, dependencies between layers, and a relationship between a sub-region and one or more layers. In this example, the num_sub_region syntax element specifies the number of (rectangular) subregions in the current encoded video sequence; The num_layers syntax element specifies the number of layers in the current encoded video sequence. The value of num_layers can be equal to or greater than the value of num_sub_region. When any subregion is encoded as a single layer, the value of num_layers can be equal to the value of num_sub_region. When one or more subregions are encoded as multiple layers, the value of num_layers may be greater than the value of num_sub_region. The syntax element direct_dependency_flag[i][j] indicates a dependency from the jth layer to the ith layer; num_layers_for_region[i] specifies the number of layers associated with the i-th subregion; sub_region_layer_id[i][j] specifies the layer_id of the jth layer associated with the ith subregion. The values sub_region_offset_x [i] and sub_region_offset_y [i] indicate, respectively, the horizontal and vertical position of the upper left corner of the i-th subregion. The values sub_region_width[i] and sub_region_height[i] indicate the width and height of the i-th subregion, respectively.

[190] В одном варианте осуществления один или более элементов синтаксиса, которые задают набор выходных слоев для указания одного или более слоев, которые должны выводиться с информацией уровня яруса профиля или без нее, могут сигнализироваться в синтаксической структуре высокого уровня, например VPS, DPS, SPS, PPS APS или сообщение SEI. Обращаясь к фиг.19, элемент синтаксиса num_output_layer_sets, указывающий количество наборов выходных слоев (OLS) в кодированной видеопоследовательности, относящейся к VPS, может сигнализироваться в VPS. Для каждого набора выходных слоев output_layer_flag может сигнализироваться столько, сколько имеется выходных слоев.[190] In one embodiment, one or more syntax elements that define a set of output layers to indicate one or more layers to be output with or without profile tier level information may be signaled in a high-level syntax structure, such as VPS, DPS, SPS, PPS APS or SEI message. Referring to FIG. 19, a num_output_layer_sets syntax element indicating the number of output layer sets (OLS) in a coded video sequence related to the VPS may be signaled to the VPS. For each set of output layers, output_layer_flag can be signaled as many as there are output layers.

[191] В том же варианте осуществления output_layer_flag [i], равное 1, задает, что выводится i-й слой; vps_output_layer_flag [i], равное 0, задает, что i-й слой не выводится.[191] In the same embodiment, output_layer_flag[i] equal to 1 specifies that the i-th layer is output; vps_output_layer_flag [i] equal to 0 specifies that the i-th layer is not output.

[192] В том же или другом варианте осуществления один или более элементов синтаксиса, которые указывают информацию уровня яруса профиля для каждого набора выходных слоев, могут сигнализироваться в синтаксической структуре высокого уровня, например VPS, DPS, SPS, PPS, APS или сообщении SEI. По-прежнему обращаясь к фиг.19, элемент синтаксиса num_profile_tile_level, указывающий количество информации уровня яруса профиля на OLS в кодированной видеопоследовательности, относящейся к VPS, может сигнализироваться в VPS. Для каждого набора выходных слоев набор элементов синтаксиса для информации уровня яруса профиля или индекс, указывающий конкретную информацию уровня яруса профиля среди записей в информации уровня яруса профиля, может сигнализироваться столько, сколько имеется выходных слоев.[192] In the same or another embodiment, one or more syntax elements that indicate profile tier level information for each set of output layers may be signaled in a high-level syntax structure, such as a VPS, DPS, SPS, PPS, APS, or SEI message. Still referring to FIG. 19, a num_profile_tile_level syntax element indicating the amount of profile tier level information on the OLS in the encoded video sequence related to the VPS may be signaled to the VPS. For each set of output layers, a set of syntax elements for profile tier level information, or an index indicating specific profile tier level information among entries in the profile tier level information, may be signaled as many as there are output layers.

[193] В том же варианте осуществления profile_tier_level_idx [i] [j] указывает индекс в списке синтаксических структур profile_tier_level () в VPS синтаксической структуры profile_tier_level (), которая применяется к j-му слою i-го OLS.[193] In the same embodiment, profile_tier_level_idx[i][j] specifies the index in the profile_tier_level() syntax structure list in the VPS of the profile_tier_level() syntax structure that applies to the j-th layer of the i-th OLS.

[194] В том же или другом варианте осуществления, как показано на фиг.20, элементы синтаксиса num_profile_tile_level и/или num_output_layer_sets могут сигнализироваться, когда количество максимальных слоев больше 1 (vps_max_layers_minus1> 0).[194] In the same or another embodiment, as shown in FIG. 20, the num_profile_tile_level and/or num_output_layer_sets syntax elements may be signaled when the number of maximum layers is greater than 1 (vps_max_layers_minus1 > 0).

[195] В том же или другом варианте осуществления, как показано на фиг.20, элемент синтаксиса vps_output_layers_mode [i], указывающий режим сигнализации выходного слоя для i-го набора выходных слоев, может присутствовать в VPS.[195] In the same or another embodiment, as shown in FIG. 20, a syntax element vps_output_layers_mode [i] indicating the output layer signaling mode for the i-th set of output layers may be present in the VPS.

[196] В том же варианте осуществления vps_output_layers_mode [i], равное 0, указывает, что только самый верхний слой выводится с i-м набором выходных слоев; vps_output_layer_mode [i], равное 1, указывает, что все слои выводятся с i-м набором выходных слоев; vps_output_layer_mode [i], равное 2, указывает, что выводимые слои - это слои с vps_output_layer_flag [i] [j], равным 1, с i-м набором выходных слоев. Могут быть зарезервированы другие значения.[196] In the same embodiment, vps_output_layers_mode[i] equal to 0 indicates that only the topmost layer is output with the i-th set of output layers; vps_output_layer_mode[i] equal to 1 indicates that all layers are output with the i-th set of output layers; vps_output_layer_mode[i] equal to 2 indicates that the output layers are those with vps_output_layer_flag[i][j] equal to 1 with the i-th set of output layers. Other values may be reserved.

[197] В том же варианте осуществления output_layer_flag [i] [j] может сигнализироваться или не сигнализироваться в зависимости от значения vps_output_layers_mode [i] для i-го набора выходных слоев.[197] In the same embodiment, output_layer_flag[i][j] may or may not be signaled depending on the value of vps_output_layers_mode[i] for the i-th set of output layers.

[198] В том же или другом варианте осуществления, как показано на фиг.20, флаг vps_ptl_signal_flag [i] может присутствовать для i-го набора выходных слоев. В зависимости от значения vps_ptl_signal_flag [i] информация уровня яруса профиля для i-го набора выходных слоев может сигнализироваться или не сигнализироваться.[198] In the same or another embodiment, as shown in Fig. 20, the flag vps_ptl_signal_flag [i] may be present for the i-th set of output layers. Depending on the value of vps_ptl_signal_flag[i], the profile tier level information for the i-th set of output layers may or may not be signaled.

[199] В том же или другом варианте осуществления, как показано на фиг.21, номер субизображения, max_subpics_minus1, в текущем CVS может сигнализироваться в синтаксической структуре высокого уровня, например, в VPS, DPS, SPS, PPS, APS или сообщении SEI.[199] In the same or another embodiment, as shown in FIG. 21, the subpicture number, max_subpics_minus1, in the current CVS may be signaled in a high-level syntactic structure, such as a VPS, DPS, SPS, PPS, APS, or SEI message.

[200] В том же варианте осуществления, как показано на фиг.21, идентификатор субизображения, sub_pic_id [i], для i-го субизображения может сигнализироваться, когда количество субизображений больше 1 (max_subpics_minus1> 0).[200] In the same embodiment, as shown in FIG. 21, the subpicture identifier, sub_pic_id[i], for the i-th subpicture may be signaled when the number of subpictures is greater than 1 (max_subpics_minus1 > 0).

[201] В том же или другом варианте осуществления один или более элементов синтаксиса, указывающих идентификатор субизображения, принадлежащий каждому слою каждого набора выходных слоев, могут сигнализироваться в VPS. Обращаясь к фиг.22, sub_pic_id_layer [i] [j] [k], который указывает k-е субизображение, присутствующее в j-м слое i-го набора выходных слоев. С помощью этой информации декодер может определить, какое субизображение может быть декодировано и выведено для каждого слоя конкретного набора выходных слоев.[201] In the same or another embodiment, one or more syntax elements indicating a sub-image identifier belonging to each layer of each set of output layers may be signaled to the VPS. Referring to FIG. 22, sub_pic_id_layer[i][j][k], which indicates the k-th sub-image present in the j-th layer of the i-th set of output layers. With this information, the decoder can determine which sub-image can be decoded and output for each layer of a particular set of output layers.

[202] В варианте осуществления заголовок изображения (PH) представляет собой синтаксическую структуру, содержащую элементы синтаксиса, которые применяются ко всем слайсам кодированного изображения. Единица изображения (PU) - это набор единиц NAL, которые связаны друг с другом согласно заданному правилу классификации, являются последовательными в порядке декодирования и содержат ровно одно кодированное изображение. PU может содержать заголовок изображения (PH) и один или более единиц NAL VCL, составляющих кодированное изображение.[202] In an embodiment, a picture header (PH) is a syntax structure containing syntax elements that apply to all slices of the encoded picture. A picture unit (PU) is a set of NAL units that are related to each other according to a given classification rule, are sequential in decoding order, and contain exactly one encoded picture. The PU may contain a picture header (PH) and one or more NAL VCL units constituting the encoded picture.

[203] В варианте осуществления SPS (RBSP) может быть доступен процессу декодирования до того, как на него будет сделана ссылка, он будет включен по меньшей мере в одну AU с TemporalId, равным 0, или предоставлен через внешние средства.[203] In an embodiment, the SPS (RBSP) may be available to the decoding process before it is referenced, included in at least one AU with a TemporalId of 0, or provided through external means.

[204] В варианте осуществления SPS (RBSP) может быть доступен процессу декодирования до того, как на него будет сделана ссылка, он будет включен по крайней мере в одну AU с TemporalId, равным 0, в CVS, который содержит один или более PPS, относящихся к SPS, или предоставлен через внешние средства.[204] In an embodiment, an SPS (RBSP) may be available to the decoding process before it is referenced and included in at least one AU with a TemporalId of 0 in a CVS that contains one or more PPSs. related to SPS, or provided through external means.

[205] В варианте осуществления SPS (RBSP) может быть доступен процессу декодирования до того, как на него будет сделана ссылка одним или более PPS, он будет включен по меньшей мере в одну PU с nuh_layer_id, равным наименьшему значению nuh_layer_id единиц NAL PPS, которые относятся к единице NAL SPS в CVS, который содержит один или более PPS, относящихся к SPS, или предоставлен через внешние средства.[205] In an embodiment, an SPS (RBSP) may be available to the decoding process before it is referenced by one or more PPSs, it is included in at least one PU with a nuh_layer_id equal to the smallest nuh_layer_id value of the NAL PPS units that refer to an SPS NAL unit in CVS that contains one or more SPS-related PPS or is provided through external means.

[206] В варианте осуществления SPS (RBSP) может быть доступен процессу декодирования до того, как на него будет сделана ссылка одним или более PPS, он будет включен по меньшей мере в одну PU с TemporalId, равным 0, и nuh_layer_id, равным наименьшему значению nuh_layer_id единиц NAL PPS, которые относятся к единице NAL SPS или предоставлены через внешние средства.[206] In an embodiment, the SPS (RBSP) may be available to the decoding process before it is referenced by one or more PPSs, it is included in at least one PU with a TemporalId equal to 0 and nuh_layer_id equal to the smallest value nuh_layer_id of NAL PPS units that are assigned to a NAL SPS unit or provided through external means.

[207] В варианте осуществления SPS (RBSP) может быть доступен процессу декодирования до того, как на него будет сделана ссылка одним или более PPS, он будет включен по меньшей мере в одну PU с TemporalId, равным 0 и nuh_layer_id, равным наименьшему значению nuh_layer_id единиц NAL PPS, которые относятся к единице NAL SPS в CVS, который содержит один или более PPS, относящихся к SPS, или предоставлен через внешние средства.[207] In an embodiment, the SPS (RBSP) may be available to the decoding process before it is referenced by one or more PPSs, it is included in at least one PU with a TemporalId equal to 0 and nuh_layer_id equal to the smallest value of nuh_layer_id NAL PPS units that relate to a NAL SPS unit in a CVS that contains one or more PPS related to an SPS or is provided through external means.

[208] В том же или другом варианте осуществления pps_seq_parameter_set_id указывает значение sps_seq_parameter_set_id для SPS, на который делается ссылка. Значение pps_seq_parameter_set_id может быть одинаковым во всех PPS, на которые ссылаются кодированные изображения в CLVS.[208] In the same or another embodiment, pps_seq_parameter_set_id indicates the sps_seq_parameter_set_id value for the referenced SPS. The value of pps_seq_parameter_set_id may be the same in all PPSs referenced by encoded images in CLVS.

[209] В том же или другом варианте осуществления все единицы NAL SPS с конкретным значением sps_seq_parameter_set_id в CVS могут иметь одинаковое содержимое.[209] In the same or another embodiment, all SPS NAL units with a particular sps_seq_parameter_set_id value in CVS may have the same content.

[210] В том же или другом варианте осуществления, независимо от значений nuh_layer_id, единицы NAL SPS могут совместно использовать одно и то же пространство значений sps_seq_parameter_set_id.[210] In the same or another embodiment, regardless of the nuh_layer_id values, the SPS NAL units may share the same sps_seq_parameter_set_id value space.

[211] В том же или другом варианте осуществления значение nuh_layer_id единицы NAL SPS может быть равно наименьшему значению nuh_layer_id единиц NAL PPS, которые относятся к единице NAL SPS.[211] In the same or another embodiment, the nuh_layer_id value of the NAL SPS unit may be equal to the smallest nuh_layer_id value of the NAL PPS units that are related to the NAL SPS unit.

[212] В варианте осуществления, когда на SPS с nuh_layer_id, равным m, делается ссылка одним или более PPS с nuh_layer_id, равным n, слой с nuh_layer_id, равным m, может быть таким же, как слой с nuh_layer_id, равным n, или (прямым или косвенным) опорным слоем слоя с nuh_layer_id, равным m.[212] In an embodiment, when an SPS with nuh_layer_id equal to m is referenced by one or more PPS with nuh_layer_id equal to n , the layer with nuh_layer_id equal to m may be the same as the layer with nuh_layer_id equal to n , or ( direct or indirect) reference layer of a layer with nuh_layer_id equal to m .

[213] В варианте осуществления PPS (RBSP) должен быть доступен процессу декодирования до того, как на него будет сделана ссылка, он будет включен по меньшей мере в одну AU с TemporalId, равным TemporalId единицы NAL PPS, или предоставлен через внешние средства.[213] In an embodiment, the PPS (RBSP) must be available to the decoding process before it is referenced, included in at least one AU with a TemporalId equal to the TemporalId of the NAL PPS unit, or provided through external means.

[214] В варианте осуществления PPS (RBSP) может быть доступен процессу декодирования до того, как на него будет сделана ссылка, он будет включен по меньшей мере в одну AU с TemporalId, равным TemporalId единицы NAL PPS в CVS, который содержит один или более PH (или единиц NAL кодированного слайса), относящихся к PPS, или предоставлен через внешние средства.[214] In an embodiment, a PPS (RBSP) may be available to the decoding process before it is referenced, included in at least one AU with a TemporalId equal to the TemporalId of the PPS NAL unit in the CVS that contains one or more PH (or coded slice NAL units) related to the PPS, or provided through external means.

[215] В варианте осуществления PPS (RBSP) может быть доступен процессу декодирования до того, как на него будет сделана ссылка одним или более PH (или единиц NAL кодированного слайса), он будет включен по меньшей мере в одну PU с nuh_layer_id, равным наименьшему значению nuh_layer_id единиц NAL кодированного слайса, которые относятся к единице NAL PPS в CVS, который содержит один или более PH (или единиц NAL кодированных слайсов), относящихся к PPS, или предоставлен через внешние средства.[215] In an embodiment, a PPS (RBSP) may be available to the decoding process before it is referenced by one or more PHs (or encoded slice NAL units), it is included in at least one PU with nuh_layer_id equal to the smallest the nuh_layer_id value of the coded slice NAL units that refer to a PPS NAL unit in a CVS that contains one or more PHs (or coded slice NAL units) that relate to the PPS or are provided through external means.

[216] В варианте осуществления PPS (RBSP) может быть доступен процессу декодирования до того, как на него будет сделана ссылка одним или более PH (или единиц NAL кодированного слайса), он будет включен по меньшей мере в одну PU с TemporalId, равным TemporalId единицы NAL PPS и nuh_layer_id, равным наименьшему значению nuh_layer_id единиц NAL кодированного слайса, которые относятся к единице NAL PPS в CVS, который содержит один или более PH (или единиц NAL кодированных слайсов), относящихся к PPS, или предоставлен через внешние средства.[216] In an embodiment, a PPS (RBSP) may be available to the decoding process before it is referenced by one or more PHs (or encoded slice NAL units), it is included in at least one PU with a TemporalId equal to the TemporalId NAL PPS units and nuh_layer_id equal to the smallest value of the nuh_layer_id of coded slice NAL units that relate to a PPS NAL unit in a CVS that contains one or more PHs (or coded slice NAL units) that relate to a PPS or are provided through external means.

[217] В том же или другом варианте осуществления ph_pic_parameter_set_id в PH указывает значение pps_pic_parameter_set_id для используемого PPS, на который делается ссылка. Значение pps_seq_parameter_set_id может быть одинаковым во всех PPS, на которые ссылаются кодированные изображения в CLVS.[217] In the same or another embodiment, ph_pic_parameter_set_id in PH indicates the pps_pic_parameter_set_id value for the referenced PPS in use. The value of pps_seq_parameter_set_id may be the same in all PPSs referenced by encoded images in CLVS.

[218] В том же или другом варианте осуществления все единицы NAL PPS с конкретным значением pps_pic_parameter_set_id в PU должны иметь одно и то же содержимое.[218] In the same or another embodiment, all NAL PPS units with a particular pps_pic_parameter_set_id value in the PU must have the same content.

[219] В том же или другом варианте осуществления, независимо от значений nuh_layer_id, единицы NAL PPS могут совместно использовать одно и то же пространство значений pps_pic_parameter_set_id.[219] In the same or another embodiment, regardless of nuh_layer_id values, NAL PPS units may share the same pps_pic_parameter_set_id value space.

[220] В том же или другом варианте осуществления значение nuh_layer_id единицы NAL PPS может быть равно наименьшему значению nuh_layer_id единиц NAL кодированного слайса, которые ссылаются на единицу NAL PPS.[220] In the same or another embodiment, the nuh_layer_id value of the PPS NAL unit may be equal to the smallest nuh_layer_id value of the encoded slice NAL units that reference the PPS NAL unit.

[221] В варианте осуществления, когда на PPS с nuh_layer_id, равным m , делается ссылка одной или более единицами NAL кодированного слайса с nuh_layer_id, равным n, слой с nuh_layer_id, равным m, может быть таким же, как слой с nuh_layer_id, равным n, или (прямым или косвенным) опорным слоем слоя с nuh_layer_id, равным m.[221] In an embodiment, when a PPS with nuh_layer_id equal to m is referenced by one or more NAL units of an encoded slice with nuh_layer_id equal to n , the layer with nuh_layer_id equal to m may be the same as the layer with nuh_layer_id equal to n , or the (direct or indirect) reference layer of a layer with nuh_layer_id equal to m .

[222] В варианте осуществления PPS (RBSP) должен быть доступен процессу декодирования до того, как на него будет сделана ссылка, он будет включен по меньшей мере в одну AU с TemporalId, равным TemporalId единицы NAL PPS, или предоставлен через внешние средства.[222] In an embodiment, the PPS (RBSP) must be available to the decoding process before it is referenced, included in at least one AU with a TemporalId equal to the TemporalId of the NAL PPS unit, or provided through external means.

[223] В варианте осуществления PPS (RBSP) может быть доступен процессу декодирования до того, как на него будет сделана ссылка, он будет включен по меньшей мере в одну AU с TemporalId, равным TemporalId единицы NAL PPS в CVS, который содержит один или более PH (или единиц NAL кодированного слайса), относящихся к PPS, или предоставлен через внешние средства.[223] In an embodiment, a PPS (RBSP) may be available to the decoding process before it is referenced and included in at least one AU with a TemporalId equal to the TemporalId of the PPS NAL unit in the CVS that contains one or more PH (or coded slice NAL units) related to the PPS, or provided through external means.

[224] В варианте осуществления PPS (RBSP) может быть доступен процессу декодирования до того, как на него будет сделана ссылка одним или более PH (или единиц NAL кодированного слайса), он будет включен по меньшей мере в одну PU с nuh_layer_id, равным наименьшему значению nuh_layer_id единиц NAL кодированного слайса, которые относятся к единице NAL PPS в CVS, который содержит один или более PH (или единиц NAL кодированных слайсов), относящихся к PPS, или предоставлен через внешние средства.[224] In an embodiment, a PPS (RBSP) may be available to the decoding process before it is referenced by one or more PHs (or encoded slice NAL units), it is included in at least one PU with nuh_layer_id equal to the smallest the nuh_layer_id value of the coded slice NAL units that refer to a PPS NAL unit in a CVS that contains one or more PHs (or coded slice NAL units) that relate to the PPS or are provided through external means.

[225] В варианте осуществления PPS (RBSP) может быть доступен процессу декодирования до того, как на него будет сделана ссылка одним или более PH (или единиц NAL кодированного слайса), он будет включен по меньшей мере в одну PU с TemporalId, равным TemporalId единицы NAL PPS и nuh_layer_id, равным наименьшему значению nuh_layer_id единиц NAL кодированного слайса, которые относятся к единице NAL PPS в CVS, который содержит один или более PH (или единиц NAL кодированных слайсов), относящихся к PPS, или предоставлен через внешние средства.[225] In an embodiment, a PPS (RBSP) may be available to the decoding process before it is referenced by one or more PHs (or encoded slice NAL units), it is included in at least one PU with a TemporalId equal to the TemporalId NAL PPS units and nuh_layer_id equal to the smallest value of the nuh_layer_id of coded slice NAL units that relate to a PPS NAL unit in a CVS that contains one or more PHs (or coded slice NAL units) that relate to a PPS or are provided through external means.

[226] В том же или другом варианте осуществления ph_pic_parameter_set_id в PH указывает значение pps_pic_parameter_set_id для используемого PPS, на который делается ссылка. Значение pps_seq_parameter_set_id может быть одинаковым во всех PPS, на которые ссылаются кодированные изображения в CLVS.[226] In the same or another embodiment, ph_pic_parameter_set_id in PH indicates the pps_pic_parameter_set_id value for the referenced PPS in use. The value of pps_seq_parameter_set_id may be the same in all PPSs referenced by encoded images in CLVS.

[227] В том же или другом варианте осуществления все единицы NAL PPS с конкретным значением pps_pic_parameter_set_id в PU должны иметь одно и то же содержимое.[227] In the same or another embodiment, all NAL PPS units with a particular pps_pic_parameter_set_id value in the PU must have the same content.

[228] В том же или другом варианте осуществления, независимо от значений nuh_layer_id, единицы NAL PPS могут совместно использовать одно и то же пространство значений pps_pic_parameter_set_id.[228] In the same or another embodiment, regardless of nuh_layer_id values, NAL PPS units may share the same pps_pic_parameter_set_id value space.

[229] В том же или другом варианте осуществления значение nuh_layer_id единицы NAL PPS может быть равно наименьшему значению nuh_layer_id единиц NAL кодированного слайса, которые ссылаются на единицу NAL PPS.[229] In the same or another embodiment, the nuh_layer_id value of the PPS NAL unit may be equal to the smallest nuh_layer_id value of the encoded slice NAL units that reference the PPS NAL unit.

[230] В варианте осуществления, когда на PPS с nuh_layer_id, равным m, делается ссылка одной или более единицами NAL кодированного слайса с nuh_layer_id, равным n, слой с nuh_layer_id, равным m, может быть таким же, как слой с nuh_layer_id, равным n, или (прямым или косвенным) опорным слоем слоя с nuh_layer_id, равным m.[230] In an embodiment, when a PPS with nuh_layer_id equal to m is referenced by one or more NAL units of an encoded slice with nuh_layer_id equal to n, the layer with nuh_layer_id equal to m may be the same as the layer with nuh_layer_id equal to n , or the (direct or indirect) reference layer of a layer with nuh_layer_id equal to m.

[231] В варианте осуществления, показанном на фиг.22, pps_subpic_id [i] в наборе параметров изображения указывает ID субизображения i-го субизображения. Длина элемента синтаксиса pps_subpic_id [i] составляет pps_subpic_id_len_minus1 + 1 бит.[231] In the embodiment shown in FIG. 22, pps_subpic_id[i] in the image parameter set specifies the sub-image ID of the i-th sub-image. The length of the pps_subpic_id[i] syntax element is pps_subpic_id_len_minus1 + 1 bit.

[232] Переменную SubpicIdVal [i] для каждого значения i в диапазоне от 0 до sps_num_subpics_minus1 включительно получают следующим образом:[232] The variable SubpicIdVal[i] for each value of i in the range 0 to sps_num_subpics_minus1 inclusive is obtained as follows:

for( i = 0; i <= sps_num_subpics_minus1; i++ )for( i = 0; i <= sps_num_subpics_minus1; i++ )

if( subpic_id_mapping_explicitly_signalled_flag )if( subpic_id_mapping_explicitly_signalled_flag )

SubpicIdVal[ i ] = subpic_id_mapping_in_pps_flag ? pps_subpic_id[ i ] : sps_subpic_id[ i ](80)SubpicIdVal[ i ] = subpic_id_mapping_in_pps_flag ? pps_subpic_id[ i ] : sps_subpic_id[ i ](80)

elseelse

SubpicIdVal[ i ] = iSubpicIdVal[ i ] = i

[233] В том же или другом варианте осуществления для любых двух разных значений i и j в диапазоне от 0 до sps_num_subpics_minus1 включительно SubpicIdVal [i] может не быть равным SubpicIdVal [j].[233] In the same or another embodiment, for any two different values of i and j in the range from 0 to sps_num_subpics_minus1 inclusive, SubpicIdVal[i] may not be equal to SubpicIdVal[j].

[234] В том же или другом варианте осуществления, когда текущее изображение не является первым изображением CLVS, для каждого значения i в диапазоне от 0 до sps_num_subpics_minus1 включительно, если значение SubpicIdVal [i] не равно значению SubpicIdVal [i] предыдущего изображения в порядке декодирования в том же слое, nal_unit_type для всех кодированных единиц NAL слайса субизображения в текущем изображении с индексом субизображения i может быть равно конкретному значению в диапазоне от IDR_W_RADL до CRA_NUT, включительно.[234] In the same or another embodiment, when the current picture is not the first CLVS picture, for each value of i in the range 0 to sps_num_subpics_minus1 inclusive, if the SubpicIdVal[i] value is not equal to the SubpicIdVal[i] value of the previous picture in decoding order in the same layer, the nal_unit_type for all NAL encoded units of a sub-image slice in the current picture with sub-image index i may be equal to a specific value in the range IDR_W_RADL to CRA_NUT, inclusive.

[235] В том же или другом варианте осуществления, когда текущее изображение не является первым изображением CLVS, для каждого значения i в диапазоне от 0 до sps_num_subpics_minus1 включительно, если значение SubpicIdVal [i] не равно значению SubpicIdVal [i] предыдущего изображения в порядке декодирования в том же слое, sps_independent_subpics_flag может быть равно 1.[235] In the same or another embodiment, when the current picture is not the first CLVS picture, for each value of i in the range 0 to sps_num_subpics_minus1 inclusive, if the SubpicIdVal[i] value is not equal to the SubpicIdVal[i] value of the previous picture in decoding order in the same layer, sps_independent_subpics_flag can be equal to 1.

[236] В том же или другом варианте осуществления, когда текущее изображение не является первым изображением CLVS, для каждого значения i в диапазоне от 0 до sps_num_subpics_minus1 включительно, если значение SubpicIdVal [i] не равно значению SubpicIdVal [i] предыдущего изображения в порядке декодирования в том же слое, subpic_treated_as_pic_flag [i] и loop_filter_across_subpic_enabled_flag [i] могут быть равны 1.[236] In the same or another embodiment, when the current picture is not the first CLVS picture, for each value of i in the range 0 to sps_num_subpics_minus1 inclusive, if the SubpicIdVal[i] value is not equal to the SubpicIdVal[i] value of the previous picture in decoding order in the same layer, subpic_treated_as_pic_flag[i] and loop_filter_across_subpic_enabled_flag[i] can be set to 1.

[237] В том же или другом варианте осуществления, когда текущее изображение не является первым изображением CLVS, для каждого значения i в диапазоне от 0 до sps_num_subpics_minus1 включительно, если значение SubpicIdVal [i] не равно значению SubpicIdVal [i] предыдущего изображения в порядке декодирования в том же слое, sps_independent_subpics_flag должно быть равно 1 или subpic_treated_as_pic_flag [i] и loop_filter_across_subpic_enabled_flag [i] должны быть равны 1.[237] In the same or another embodiment, when the current picture is not the first CLVS picture, for each value of i in the range 0 to sps_num_subpics_minus1 inclusive, if the SubpicIdVal[i] value is not equal to the SubpicIdVal[i] value of the previous picture in decoding order in the same layer, sps_independent_subpics_flag should be equal to 1 or subpic_treated_as_pic_flag[i] and loop_filter_across_subpic_enabled_flag[i] should be equal to 1.

[238] В том же или другом варианте осуществления, когда субизображение кодируется независимо без какой-либо ссылки на другое субизображение, значение идентификатора субизображения области может быть изменено в кодированной видеопоследовательности.[238] In the same or another embodiment, when a sub-picture is encoded independently without any reference to another sub-picture, the region sub-picture identifier value may be changed in the encoded video sequence.

[239] Количество субизображений в изображении может сигнализироваться в SPS. Например, как показано на фиг.23, sps_num_subpics_minus1 плюс 1 указывает количество субизображений в каждом изображении в CLVS. Значение sps_num_subpics_minus1 должно быть в диапазоне от 0 до Ceil(pic_width_max_in_luma_samples ÷ CtbSizeY) * Ceil(pic_height_max_in_luma_samples ÷ CtbSizeY) - 1 включительно. При отсутствии, значение sps_num_subpics_minus1 выводится равным 0.[239] The number of sub-pictures in a picture may be signaled to the SPS. For example, as shown in FIG. 23, sps_num_subpics_minus1 plus 1 indicates the number of subpictures in each image in CLVS. The value of sps_num_subpics_minus1 must be in the range from 0 to Ceil(pic_width_max_in_luma_samples ÷ CtbSizeY) * Ceil(pic_height_max_in_luma_samples ÷ CtbSizeY) - 1 inclusive. If absent, the value of sps_num_subpics_minus1 is output equal to 0.

[240] В том же или другом варианте осуществления количество субизображений в изображении может сигнализироваться в PPS. Например, как показано на фиг.24, pps_num_subpics_minus1 указывает количество субизображений в каждом изображении и может быть равно sps_num_subpics_minus1.[240] In the same or another embodiment, the number of sub-pictures in a picture may be signaled in the PPS. For example, as shown in FIG. 24, pps_num_subpics_minus1 indicates the number of subpictures in each image and may be equal to sps_num_subpics_minus1.

[241] Количество слайсов в изображении может сигнализироваться в PPS. Например, как показано на фиг.24, num_slices_in_pic_minus1 плюс 1 указывает количество прямоугольных слайсов в каждом изображении, относящихся к PPS. Значение num_slices_in_pic_minus1 может быть в диапазоне от 0 до MaxSlicesPerPicture - 1 включительно, где MaxSlicesPerPicture указан в Приложении A. Когда no_pic_partition_flag равно 1, значение num_slices_in_pic_minus1 выводится равным 0. Когда single_slice_per_subpic_flag равен 1, значение num_slices_in_pic_minus1 выводится равным pps_num_subpics_minus1.[241] The number of slices in an image can be signaled in PPS. For example, as shown in FIG. 24, num_slices_in_pic_minus1 plus 1 indicates the number of rectangular slices in each picture related to the PPS. The value of num_slices_in_pic_minus1 can be in the range from 0 to MaxSlicesPerPicture - 1 inclusive, where MaxSlicesPerPicture is specified in Appendix A. When no_pic_partition_flag is 1, the value of num_slices_in_pic_minus1 is output as 0. When single_slice_per_subpic_flag is output as 1, the value of num_slices_in_pic_minus 1 is output equal to pps_num_subpics_minus1.

[242] Количество субизображений не может быть больше количества слайсов. Когда значение single_slice_per_subpic_flag в PPS, на которое ссылается изображение, равно 1, количество субизображений равно количеству слайсов в изображении.[242] The number of sub-images cannot be greater than the number of slices. When the value of single_slice_per_subpic_flag in the PPS referenced by the image is 1, the number of subpictures is equal to the number of slices in the image.

[243] В том же варианте осуществления значение переменной NumSlicesInPic, которая указывает количество слайсов в изображении, получают следующим образом: NumSlicesInPic = num_slices_in_pic_minus1 + 1.[243] In the same embodiment, the value of the variable NumSlicesInPic, which indicates the number of slices in the image, is obtained as follows: NumSlicesInPic = num_slices_in_pic_minus1 + 1.

[244] Значение разницы между количеством субизображений и количеством слайсов может быть сигнализировано в PPS, а количество слайсов в изображении получают из количества субизображений и сигнализированного значения разности между количеством субизображений и количеством слайсов.[244] The difference value between the number of sub-pictures and the number of slices may be signaled in the PPS, and the number of slices in an image is obtained from the number of sub-pictures and the signaled value of the difference between the number of sub-pictures and the number of slices.

[245] В варианте осуществления, показанном на фиг.25, num_slices_in_pic_minus_num_sub_pics плюс pps_num_subpics_minus1 + 1 указывает количество прямоугольных срезов в каждом изображении, относящихся к PPS. Значение num_slices_in_pic_minus_num_sub_pics должно быть в диапазоне от 0 до MaxSlicesPerPicture - pps_num_subpics_minus1 - 1 включительно, где MaxSlicesPerPicture указано в Приложении А. Когда single_slice_per_subpic_flag равно 1, то значение num_slices_in_pic_minus_num_sub_pics выводится равным 0.[245] In the embodiment shown in FIG. 25, num_slices_in_pic_minus_num_sub_pics plus pps_num_subpics_minus1 + 1 indicates the number of rectangular slices in each image related to the PPS. The value of num_slices_in_pic_minus_num_sub_pics must be in the range from 0 to MaxSlicesPerPicture - pps_num_subpics_minus1 - 1 inclusive, where MaxSlicesPerPicture is specified in Appendix A. When single_slice_per_subpic_flag is 1, then the value of num_slices_in_pic_minus_num_sub_pics is output as 0.

[246] В том же варианте осуществления значение переменной NumSlicesInPic, которая указывает количество слайсов в изображении, получают следующим образом:[246] In the same embodiment, the value of the NumSlicesInPic variable, which indicates the number of slices in the image, is obtained as follows:

if (no_pic_partition_flag == 1)if (no_pic_partition_flag == 1)

NumSlicesInPic = 1NumSlicesInPic = 1

elseelse

NumSlicesInPic = pps_num_subpics_minus1 + num_slices_in_pic_minus_num_sub_pics + 1NumSlicesInPic = pps_num_subpics_minus1 + num_slices_in_pic_minus_num_sub_pics + 1

[247] В варианте осуществления, как показано на фиг.25, num_slices_in_pic_minus_num_sub_pics_minus1 плюс pps_num_subpics_minus1 + 2 указывает количество прямоугольных срезов в каждом изображении, относящихся к PPS. Значение num_slices_in_pic_minus num_sub_pics_minus1 должно быть в диапазоне от 0 до MaxSlicesPerPicture - pps_num_subpics_minus1 - 2 включительно, где MaxSlicesPerPicture указано в Приложении А. Когда single_slice_per_subpic_flag равно 1, то значение num_slices_in_pic_minus_num_sub_pics_minus1 выводится равным 0.[247] In the embodiment, as shown in FIG. 25, num_slices_in_pic_minus_num_sub_pics_minus1 plus pps_num_subpics_minus1 + 2 indicates the number of rectangular slices in each image related to the PPS. The value of num_slices_in_pic_minus num_sub_pics_minus1 must be in the range from 0 to MaxSlicesPerPicture - pps_num_subpics_minus1 - 2 inclusive, where MaxSlicesPerPicture is specified in Appendix A. When single_slice_per_subpic_flag is 1, then the value of num_slices_in_pic_minus_num_sub_pics_minus1 you is set to 0.

[248] В том же варианте осуществления значение переменной NumSlicesInPic, которая указывает количество слайсов в изображении, выводится следующим образом:[248] In the same embodiment, the value of the NumSlicesInPic variable, which indicates the number of slices in the image, is output as follows:

if ( no_pic_partition_flag == 1 ) if (no_pic_partition_flag == 1)

NumSlicesInPic = 1NumSlicesInPic = 1

else if ( single_slice_per_subpic_flag == 1 )else if ( single_slice_per_subpic_flag == 1 )

NumSlicesInPic = pps_num_subpics_minus1 + 1 NumSlicesInPic = pps_num_subpics_minus1 + 1

else else

NumSlicesInPic = pps_num_subpics_minus1 + num_slices_in_pic_minus_num_sub_pics_minus1 + 2NumSlicesInPic = pps_num_subpics_minus1 + num_slices_in_pic_minus_num_sub_pics_minus1 + 2

[249] В том же или другом варианте осуществления, когда rect_slice_flag равно 1, список NumCtusInSlice [i] для i в диапазоне от 0 до NumSlicesInPic - 1 включительно, указывающий количество CTU в i-м слайсе, список SliceTopLeftTileIdx [i] для i в диапазоне от 0 до NumSlicesInPic - 1 включительно, указывающий индекс тайла для тайла, содержащего первую CTU в слайсе, и матрицу CtbAddrInSlice [i] [j] для i в диапазоне от 0 до NumSlicesInPic - 1 включительно, и j в диапазоне от 0 до NumCtusInSlice [i] - 1 включительно, указывающую адрес сканирования растра изображения j-го CTB в i-м слайсе, и переменную NumSlicesInTile [i], указывающую количество слайсов в тайле, содержащем i-й слайс, получают следующим образом:[249] In the same or another embodiment, when rect_slice_flag is 1, a list of NumCtusInSlice[i] for i in the range from 0 to NumSlicesInPic - 1 inclusive, indicating the number of CTUs in the i-th slice, a list of SliceTopLeftTileIdx[i] for i in range from 0 to NumSlicesInPic - 1 inclusive, indicating the tile index for the tile containing the first CTU in the slice, and the matrix CtbAddrInSlice[i][j] for i in the range from 0 to NumSlicesInPic - 1 inclusive, and j in the range from 0 to NumCtusInSlice [i] - 1 inclusive, indicating the scanning address of the image raster of the j-th CTB in the i-th slice, and the variable NumSlicesInTile [i], indicating the number of slices in the tile containing the i-th slice, are obtained as follows:

if( single_slice_per_subpic_flag ) {for( i = 0; i <= sps_num_subpics_minus1; i++ ) {NumCtusInSlice[ i ] = 0 if( subpicHeightLessThanOneTileFlag[ i ] ) /* Слайс состоит из определенного количества рядов CTU в тайле. */AddCtbsToSlice( i, subpic_ctu_top_left_x[ i ],subpic_ctu_top_left_x[ i ] + subpic_width_minus1[ i ] + 1, subpic_ctu_top_left_y[ i ],subpic_ctu_top_left_y[ i ] + subpic_height_minus1[ i ] + 1 )else { /* Слайс состоит из определенного количества полных тайлов, покрывающих прямоугольную область. */tileX = CtbToTileColBd[ subpic_ctu_top_left_x[ i ] ]tileY = CtbToTileRowBd[ subpic_ctu_top_left_y[ i ] ]for( j = 0; j < SubpicHeightInTiles[ i ]; j++ )for( k = 0; k < SubpicWidthInTiles[ i ]; k++ )AddCtbsToSlice( i, tileColBd[ tileX + k ], tileColBd[ tileX + k + 1 ], tileRowBd[ tileY + j ],tileRowBd[ tileY + j + 1 ] )}}} else {tileIdx = 0for( i = 0; i < NumSlicesInPic; i++ )NumCtusInSlice[ i ] = 0for( i = 0; i < NumSlicesInPic; i++ ) {SliceTopLeftTileIdx[ i ] = tileIdxtileX = tileIdx % NumTileColumnstileY = tileIdx / NumTileColumnsif( i < num_slices_in_pic_minus1 ) {sliceWidthInTiles[ i ] = slice_width_in_tiles_minus1[ i ] + 1sliceHeightInTiles[ i ] = slice_height_in_tiles_minus1[ i ] + 1} else {sliceWidthInTiles[ i ] = NumTileColumns − tileXsliceHeightInTiles[ i ] = NumTileRows − tileYNumSlicesInTile[ i ] = 1}if( slicWidthInTiles[ i ] = = 1 && sliceHeightInTiles[ i ] = = 1 ) {(30)if( num_exp_slices_in_tile[ i ] = = 0 ) {NumSlicesInTile[ i ] = 1sliceHeightInCtus[ i ] = RowHeight[ SliceTopLeftTileIdx[ i ] / NumTileColumns ]} else {remainingHeightInCtbsY = RowHeight[ SliceTopLeftTileIdx[ i ] / NumTileColumns ]for( j = 0; j < num_exp_slices_in_tile[ i ] − 1; j++ ) {sliceHeightInCtus[ i + j ] = exp_slice_height_in_ctus_minus1[ i ][ j ] + 1remainingHeightInCtbsY −= sliceHeightInCtus[ i + j ]}uniformSliceHeight = exp_slice_height_in_ctus_minus1[ i ][ j ] + 1while( remainingHeightInCtbsY >= uniformSliceHeight ) {sliceHeightInCtus[ i + j ] = uniformSliceHeightremainingHeightInCtbsY −= uniformSliceHeightj++}if( remainingHeightInCtbsY > 0 ) {sliceHeightInCtus[ i + j ] = remainingHeightInCtbsYj++}NumSlicesInTile[ i ] = j}ctbY = tileRowBd[ tileY ]for( j = 0; j < NumSlicesInTile[ i ]; j++ ) {AddCtbsToSlice( i + j, tileColBd[ tileX ], tileColBd[ tileX + 1 ],ctbY, ctbY + sliceHeightInCtus[ i + j ] )ctbY += sliceHeightInCtus[ i + j ]}i += NumSlicesInTile[ i ] − 1} elsefor( j = 0; j < sliceHeightInTiles[ i ]; j++ )for( k = 0; k < sliceWidthInTiles[ i ]; k++ )AddCtbsToSlice( i, tileColBd[ tileX + k ], tileColBd[ tileX + k + 1 ],tileRowBd[ tileY + j ], tileRowBd[ tileY + j + 1 ] )if( i < num_slices_in_pic_minus1 ) {if( tile_idx_delta_present_flag )tileIdx += tile_idx_delta[ i ]else {tileIdx += sliceWidthInTiles[ i ]if( tileIdx % NumTileColumns = = 0 )tileIdx += ( sliceHeightInTiles[ i ] − 1 ) * NumTileColumns}}}}if( single_slice_per_subpic_flag ) { for( i = 0; i <= sps_num_subpics_minus1; i++ ) { NumCtusInSlice[ i ] = 0 if( subpicHeightLessThanOneTileFlag[ i ] ) /* A slice consists of a certain number of CTU rows in a tile. */AddCtbsToSlice( i, subpic_ctu_top_left_x[ i ],subpic_ctu_top_left_x[ i ] + subpic_width_minus1[ i ] + 1, subpic_ctu_top_left_y[ i ],subpic_ctu_top_left_y[ i ] + subpic_height_minus1[ i ] + 1 )else { /* A slice consists of a certain number of complete tiles covering a rectangular area. */tileX = CtbToTileColBd[ subpic_ctu_top_left_x[ i ] ]tileY = CtbToTileRowBd[ subpic_ctu_top_left_y[ i ] ]for( j = 0; j < SubpicHeightInTiles[ i ]; j++ )for( k = 0; k < SubpicWidthInTiles[ i ]; k++ ) AddCtbsToSlice( i, tileColBd[ tileX + k ], tileColBd[ tileX + k + 1 ], tileRowBd[ tileY + j ],tileRowBd[ tileY + j + 1 ] )}}} else {tileIdx = 0for( i = 0; i < NumSlicesInPic; i++ )NumCtusInSlice[ i ] = 0for( i = 0; i < NumSlicesInPic; i++ ) {SliceTopLeftTileIdx[ i ] = tileIdxtileX = tileIdx % NumTileColumnstileY = tileIdx / NumTileColumnsif( i < num_slices_in_pic_minus1 ) {sliceWidthInTiles[ i ] = slice_width_in_tiles_minus1[ i ] + 1sliceHeightInTiles[ i ] = slice_height_in_tiles_minus1[ i ] + 1} else {sliceWidthInTiles[ i ] = NumTileColumns − tileXsliceHeightInTiles[ i ] = NumTileRows − tileYNumSlicesInTile[ i ] = 1}if( slicWidthInTiles[ i ] = = 1 & & sliceHeightInTiles[ i ] = = 1 ) {(30)if( num_exp_slices_in_tile[ i ] = = 0 ) {NumSlicesInTile[ i ] = 1sliceHeightInCtus[ i ] = RowHeight[ SliceTopLeftTileIdx[ i ] / NumTileColumns ]} else {remainingHeightInCtbsY = RowHeight[ SliceTopLeftTileIdx[ i ] / NumTileColumns ]for( j = 0; j < num_exp_slices_in_tile[ i ] − 1; j++ ) {sliceHeightInCtus[ i + j ] = exp_slice_height_in_ctus_minus1[ i ][ j ] + 1remainingHeightInCtbsY −= sliceHeightInCtus[ i + j ]}uniformSliceHeight = exp_slice_height_in_ctus_minus1[ i ][ j ] + 1while( remainingHeightInCtbsY >= uniformSliceHeight ) { sliceHeightInCtus[ i + j ] = uniformSliceHeightremainingHeightInCtbsY −= uniformSliceHeightj++}if( remainingHeightInCtbsY > 0 ) { sliceHeightInCtus[ i + j ] = remainingHeightInCtbsYj++}NumSlicesInTile[ i ] = j}ctbY = tileRowBd[ tileY ]for( j = 0; j < NumSlicesInTile[ i ]; j++ ) {AddCtbsToSlice( i + j, tileColBd[ tileX ], tileColBd[ tileX + 1 ],ctbY, ctbY + sliceHeightInCtus[ i + j ] )ctbY += sliceHeightInCtus[ i + j ]}i += NumSlicesInTile[ i ] − 1} elsefor( j = 0; j < sliceHeightInTiles[ i ]; j++ )for( k = 0; k < sliceWidthInTiles[ i ]; k++ )AddCtbsToSlice( i, tileColBd[ tileX + k ], tileColBd[ tileX + k + 1 ]. = = 0 )tileIdx += ( sliceHeightInTiles[ i ] − 1 ) * NumTileColumns}}}}

[250] Где функция AddCtbsToSlice (sliceIdx, startX, stopX, startY, stopY) указывается следующим образом: [250] Where the AddCtbsToSlice(sliceIdx, startX, stopX, startY, stopY) function is specified as follows:

for( ctbY = startY; ctbY < stopY; ctbY++ )for( ctbX = startX; ctbX < stopX; ctbX++ ) {CtbAddrInSlice[ sliceIdx ][ NumCtusInSlice[ sliceIdx ] ] = ctbY * PicWidthInCtbsY + ctbX(31)NumCtusInSlice[ sliceIdx ]++}for( ctbY = startY; ctbY < stopY; ctbY++ )for( ctbX = startX; ctbX < stopX; ctbX++ ) {CtbAddrInSlice[ sliceIdx ][ NumCtusInSlice[ sliceIdx ] ] = ctbY * PicWidthInCtbsY + ctbX(31)NumCtusInSlice[ sliceIdx ]++ }

[251] Для соответствия битового потока требуется, чтобы значения NumCtusInSlice [i] для i в диапазоне от 0 до num_slices_in_pic_minus1 включительно были больше 0. Кроме того, для соответствия битового потока требуется, чтобы матрица CtbAddrInSlice [i] [j] для i в диапазоне от 0 до num_slices_in_pic_minus1 включительно и j в диапазоне от 0 до NumCtusInSlice [i] - 1 включительно включала в себя все адреса CTB в диапазоне от 0 до PicSizeInCtbsY - 1 включительно, один раз и только один раз.[251] Bitstream matching requires that the NumCtusInSlice[i] values for i in the range 0 to num_slices_in_pic_minus1 inclusive be greater than 0. Additionally, bitstream matching requires that the CtbAddrInSlice[i][j] matrix for i in the range 0 to num_slices_in_pic_minus1 inclusive and j in the range 0 to NumCtusInSlice [i] - 1 inclusive included all CTB addresses in the range 0 to PicSizeInCtbsY - 1 inclusive, once and only once.

[252] Список NumSlicesInSubpic [i], указывающий количество прямоугольных слайсов в i-м субизображении, получают следующим образом:[252] The list NumSlicesInSubpic [i] indicating the number of rectangular slices in the i-th sub-image is obtained as follows:

for( i = 0; i <= sps_num_subpics_minus1; i++ ) {NumSlicesInSubpic[ i ] = 0for( j = 0; j < NumSlicesInPic; j++ ) {posX = CtbAddrInSlice[ j ][ 0 ] % PicWidthInCtbsYposY = CtbAddrInSlice[ j ][ 0 ] / PicWidthInCtbsYif( ( posX >= subpic_ctu_top_left_x[ i ] ) &&(32)( posX < subpic_ctu_top_left_x[ i ] + subpic_width_minus1[ i ] + 1 ) &&( posY >= subpic_ctu_top_left_y[ i ] ) &&( posY < subpic_ctu_top_left_y[ i ] + subpic_height_minus1[ i ] + 1 ) )NumSlicesInSubpic[ i ]++}for( i = 0; i <= sps_num_subpics_minus1; i++ ) {NumSlicesInSubpic[ i ] = 0for( j = 0; j < NumSlicesInPic; j++ ) {posX = CtbAddrInSlice[ j ][ 0 ] % PicWidthInCtbsYposY = CtbAddrInSlice[ j ][ 0 ] / Picwidthinctbsyif ((posx> = subpic_ctu_top_left_x [i]) && (32) (posx <subpic_ctu_top_left_x [i] + subpic_width_minus1 [i] + 1) && (psy Op_left_y [i]) && (Posy <subpic_ctu_top_left_y [i] + subpic_height_minus1[ i ] + 1 ) )NumSlicesInSubpic[ i ]++}

[253] Хотя это раскрытие описывает несколько примерных вариантов осуществления, существуют изменения, перестановки и различные заменяющие эквиваленты, которые попадают в объем раскрытия. Таким образом, будет принято во внимание, что специалисты в данной области техники смогут разработать многочисленные системы и способы, которые, хотя явно не показаны или не описаны здесь, воплощают принципы изобретения и, таким образом, находятся в рамках его сущности и объема.[253] Although this disclosure describes several exemplary embodiments, there are variations, permutations, and various substitute equivalents that fall within the scope of the disclosure. Thus, it will be appreciated that those skilled in the art will be able to develop numerous systems and methods that, although not expressly shown or described herein, embody the principles of the invention and are thus within the spirit and scope thereof.

Claims (34)

1. Способ кодирования видеоданных, осуществляемый процессором, содержащий:1. A method for encoding video data carried out by a processor, containing: - прием видеоданных, содержащих одно или более субизображений;- receiving video data containing one or more sub-images; - сигнализацию количества субизображений и значения дельты между количеством субизображений и количеством прямоугольных слайсов; и- signaling the number of sub-images and the delta value between the number of sub-images and the number of rectangular slices; And - получение количества прямоугольных слайсов на основе количества субизображений и значения дельты;- obtaining the number of rectangular slices based on the number of sub-images and the delta value; причем, когда текущее изображение не является первым изображением видеопоследовательности кодированного слоя (CLVS), для каждого значения i в диапазоне от 0 до элемента синтаксиса sps_num_subpics_minus1 включительно, если значение переменной SubpicIdVal[ i ] текущего изображения не равно значению SubpicIdVal[ i ] предыдущего изображения в порядке декодирования в том же слое, элемент синтаксиса subpic_treated_as_pic_flag[ i ] и элемент синтаксиса loop_filter_across_subpic_enabled_flag[ i ] равны 1, причем элемент синтаксиса sps_num_subpics_minus1 плюс 1 указывает количество субизображений в каждом изображении в CLVS.wherein, when the current picture is not the first picture of a coded layer video sequence (CLVS), for each value of i in the range from 0 to the syntax element sps_num_subpics_minus1 inclusive, if the value of the variable SubpicIdVal[ i ] of the current picture is not equal to the value of SubpicIdVal[ i ] of the previous picture in order decoding in the same layer, the syntax element subpic_treated_as_pic_flag[ i ] and the syntax element loop_filter_across_subpic_enabled_flag[ i ] are equal to 1, and the syntax element sps_num_subpics_minus1 plus 1 indicates the number of subpictures in each picture in CLVS. 2. Способ по п.1, в котором количество субизображений сигнализируют в наборе параметров изображения.2. The method of claim 1, wherein the number of sub-images is signaled in the image parameter set. 3. Способ по п.1, в котором количество прямоугольных слайсов сигнализируют в наборе параметров изображения.3. The method of claim 1, wherein the number of rectangular slices is signaled in the image parameter set. 4. Способ по п.3, в котором количество прямоугольных слайсов выводят равным единице на основе установленного флага, соответствующего изображению, не имеющему разделов.4. The method according to claim 3, wherein the number of rectangular slices is output to one based on the set flag corresponding to the image having no partitions. 5. Способ по п.1, в котором значение дельты между количеством субизображений и количеством прямоугольных слайсов сигнализируют в наборе параметров изображения.5. The method of claim 1, wherein the delta value between the number of sub-images and the number of rectangular slices is signaled in the image parameter set. 6. Способ по п.5, в котором на основе установленного флага, соответствующего одиночному слайсу для каждого субизображения, значение дельты между количеством субизображений и количеством прямоугольных слайсов выводят равным нулю.6. The method of claim 5, wherein based on the set flag corresponding to a single slice for each sub-image, a delta value between the number of sub-images and the number of rectangular slices is set to zero. 7. Способ по п.1, в котором количество субизображений меньше количества прямоугольных слайсов.7. The method according to claim 1, in which the number of sub-images is less than the number of rectangular slices. 8. Компьютерная система для кодирования видеоданных, содержащая:8. Computer system for encoding video data, containing: - один или более машиночитаемых невременных носителей информации, конфигурированных для хранения компьютерного программного кода; и- one or more computer-readable non-transitory storage media configured to store computer program code; And - один или более компьютерных процессоров, конфигурированных для доступа к указанному компьютерному программному коду и работы в соответствии с инструкциями указанного компьютерного программного кода, причем указанный компьютерный программный код включает в себя:- one or more computer processors configured to access said computer program code and operate in accordance with the instructions of said computer program code, wherein said computer program code includes: - код приема, конфигурированный для побуждения одного или более компьютерных процессоров принимать видеоданные, содержащие одно или более субизображений;- a reception code configured to cause one or more computer processors to receive video data containing one or more sub-pictures; - код сигнализации, конфигурированный для побуждения одного или более компьютерных процессоров сигнализировать количество субизображений и значение дельты между количеством субизображений и количеством прямоугольных слайсов; и- signaling code configured to cause one or more computer processors to signal the number of sub-pictures and the delta value between the number of sub-pictures and the number of rectangular slices; And - код получения, конфигурированный для побуждения одного или более компьютерных процессоров получать количество прямоугольных слайсов на основе количества субизображений и значения дельты;- obtaining code configured to cause one or more computer processors to obtain the number of rectangular slices based on the number of sub-pictures and the delta value; причем, когда текущее изображение не является первым изображением видеопоследовательности кодированного слоя (CLVS), для каждого значения i в диапазоне от 0 до элемента синтаксиса sps_num_subpics_minus1 включительно, если значение переменной SubpicIdVal[ i ] текущего изображения не равно значению SubpicIdVal[ i ] предыдущего изображения в порядке декодирования в том же слое, элемент синтаксиса subpic_treated_as_pic_flag[ i ] и элемент синтаксиса loop_filter_across_subpic_enabled_flag[ i ] равны 1, причем элемент синтаксиса sps_num_subpics_minus1 плюс 1 указывает количество субизображений в каждом изображении в CLVS.wherein, when the current picture is not the first picture of a coded layer video sequence (CLVS), for each value of i in the range from 0 to the syntax element sps_num_subpics_minus1 inclusive, if the value of the variable SubpicIdVal[ i ] of the current picture is not equal to the value of SubpicIdVal[ i ] of the previous picture in order decoding in the same layer, the syntax element subpic_treated_as_pic_flag[ i ] and the syntax element loop_filter_across_subpic_enabled_flag[ i ] are equal to 1, and the syntax element sps_num_subpics_minus1 plus 1 indicates the number of subpictures in each picture in CLVS. 9. Компьютерная система по п.8, в которой количество субизображений сигнализируется в наборе параметров изображения.9. The computer system of claim 8, wherein the number of sub-images is signaled in the image parameter set. 10. Компьютерная система по п.8, в которой количество прямоугольных слайсов сигнализируется в наборе параметров изображения.10. The computer system of claim 8, wherein the number of rectangular slices is signaled in the image parameter set. 11. Компьютерная система по п.10, в которой количество прямоугольных слайсов выводится равным единице на основе установленного флага, соответствующего изображению, не имеющему разделов.11. The computer system of claim 10, wherein the number of rectangular slices is output to one based on the flag set corresponding to the image having no partitions. 12. Компьютерная система по п.8, в которой значение дельты между количеством субизображений и количеством прямоугольных слайсов сигнализируется в наборе параметров изображения.12. The computer system of claim 8, wherein the delta value between the number of sub-images and the number of rectangular slices is signaled in the image parameter set. 13. Компьютерная система по п.12, в которой на основе установленного флага, соответствующего одиночному слайсу для каждого субизображения, значение дельты между количеством субизображений и количеством прямоугольных слайсов выводится равным нулю.13. The computer system of claim 12, wherein, based on the set flag corresponding to a single slice for each sub-image, a delta value between the number of sub-images and the number of rectangular slices is set to zero. 14. Компьютерная система по п.8, в которой количество субизображений меньше количества прямоугольных слайсов.14. The computer system according to claim 8, in which the number of sub-images is less than the number of rectangular slices. 15. Невременный машиночитаемый носитель, на котором хранится компьютерная программа для кодирования видеоданных, причем компьютерная программа конфигурирована для побуждения одного или более компьютерных процессоров:15. A non-transitory computer-readable medium on which a computer program for encoding video data is stored, wherein the computer program is configured to cause one or more computer processors to: - принимать видеоданные, содержащие одно или более субизображений;- receive video data containing one or more sub-images; - сигнализировать количество субизображений и значение дельты между количеством субизображений и количеством прямоугольных слайсов; и- signal the number of sub-images and the delta value between the number of sub-images and the number of rectangular slices; And - получать количество прямоугольных слайсов на основе количества субизображений и значения дельты;- get the number of rectangular slices based on the number of sub-images and the delta value; причем, когда текущее изображение не является первым изображением видеопоследовательности кодированного слоя (CLVS), для каждого значения i в диапазоне от 0 до элемента синтаксиса sps_num_subpics_minus1 включительно, если значение переменной SubpicIdVal[ i ] текущего изображения не равно значению SubpicIdVal[ i ] предыдущего изображения в порядке декодирования в том же слое, элемент синтаксиса subpic_treated_as_pic_flag[ i ] и элемент синтаксиса loop_filter_across_subpic_enabled_flag[ i ] равны 1, причем элемент синтаксиса sps_num_subpics_minus1 плюс 1 указывает количество субизображений в каждом изображении в CLVS.wherein, when the current picture is not the first picture of a coded layer video sequence (CLVS), for each value of i in the range from 0 to the syntax element sps_num_subpics_minus1 inclusive, if the value of the variable SubpicIdVal[ i ] of the current picture is not equal to the value of SubpicIdVal[ i ] of the previous picture in order decoding in the same layer, the syntax element subpic_treated_as_pic_flag[ i ] and the syntax element loop_filter_across_subpic_enabled_flag[ i ] are equal to 1, and the syntax element sps_num_subpics_minus1 plus 1 indicates the number of subpictures in each picture in CLVS. 16. Машиночитаемый носитель по п.15, в котором количество субизображений сигнализируется в наборе параметров изображения.16. The computer-readable medium of claim 15, wherein the number of sub-images is signaled in the image parameter set. 17. Машиночитаемый носитель по п.15, в котором количество прямоугольных слайсов сигнализируется в наборе параметров изображения.17. The computer-readable medium of claim 15, wherein the number of rectangular slices is signaled in the image parameter set. 18. Машиночитаемый носитель по п.17, в котором количество прямоугольных слайсов выводится равным единице на основе установленного флага, соответствующего изображению, не имеющему разделов.18. The computer-readable medium of claim 17, wherein the number of rectangular slices is output to one based on the set flag corresponding to the partitionless image. 19. Машиночитаемый носитель по п.15, в котором значение дельты между количеством субизображений и количеством прямоугольных слайсов сигнализируется в наборе параметров изображения.19. The computer-readable medium of claim 15, wherein the delta value between the number of sub-images and the number of rectangular slices is signaled in the image parameter set. 20. Машиночитаемый носитель по п.19, в котором на основе установленного флага, соответствующего одиночному слайсу для каждого субизображения, значение дельты между количеством субизображений и количеством прямоугольных слайсов выводится равным нулю.20. The computer-readable medium as set forth in claim 19, wherein based on the set flag corresponding to a single slice for each sub-image, a delta value between the number of sub-images and the number of rectangular slices is set to zero.
RU2021129537A 2020-03-31 2021-02-15 Method of signaling division of rectangular slice in encoded video stream RU2814858C1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US63/003,101 2020-03-31
US17/098,892 2020-11-16

Publications (1)

Publication Number Publication Date
RU2814858C1 true RU2814858C1 (en) 2024-03-05

Family

ID=

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7742524B2 (en) * 2006-11-17 2010-06-22 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal using inter-layer prediction
US20140267560A1 (en) * 2013-03-15 2014-09-18 Cisco Technology, Inc. Split Frame Multistream Encode
US8988531B2 (en) * 2010-07-08 2015-03-24 Texas Instruments Incorporated Method and apparatus for sub-picture based raster scanning coding order
US20150334407A1 (en) * 2012-04-24 2015-11-19 Telefonaktiebolaget L M Ericsson (Publ) Encoding and deriving parameters for coded multi-layer video sequences
US20160353113A1 (en) * 2015-05-29 2016-12-01 Qualcomm Incorporated Coding data using an enhanced context-adaptive binary arithmetic coding (cabac) design
US20170251216A1 (en) * 2012-07-03 2017-08-31 Sharp Kabushiki Kaisha Image encoding device and image encoding method
RU2633165C2 (en) * 2012-04-04 2017-10-11 Квэлкомм Инкорпорейтед Video buffering with low delay in video encoding
US20190174141A1 (en) * 2012-02-02 2019-06-06 Texas Instruments Incorporated Sub-pictures for pixel rate balancing on multi-core platforms
US20190238874A1 (en) * 2010-05-13 2019-08-01 Sharp Kabushiki Kaisha Image decoding device, image encoding device, and image decoding method
US20200021851A1 (en) * 2018-07-13 2020-01-16 Tencent America LLC Methods and apparatus for most probable mode derivation

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7742524B2 (en) * 2006-11-17 2010-06-22 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal using inter-layer prediction
US20190238874A1 (en) * 2010-05-13 2019-08-01 Sharp Kabushiki Kaisha Image decoding device, image encoding device, and image decoding method
US8988531B2 (en) * 2010-07-08 2015-03-24 Texas Instruments Incorporated Method and apparatus for sub-picture based raster scanning coding order
US20190174141A1 (en) * 2012-02-02 2019-06-06 Texas Instruments Incorporated Sub-pictures for pixel rate balancing on multi-core platforms
RU2633165C2 (en) * 2012-04-04 2017-10-11 Квэлкомм Инкорпорейтед Video buffering with low delay in video encoding
US20150334407A1 (en) * 2012-04-24 2015-11-19 Telefonaktiebolaget L M Ericsson (Publ) Encoding and deriving parameters for coded multi-layer video sequences
US20170251216A1 (en) * 2012-07-03 2017-08-31 Sharp Kabushiki Kaisha Image encoding device and image encoding method
US20140267560A1 (en) * 2013-03-15 2014-09-18 Cisco Technology, Inc. Split Frame Multistream Encode
US20160353113A1 (en) * 2015-05-29 2016-12-01 Qualcomm Incorporated Coding data using an enhanced context-adaptive binary arithmetic coding (cabac) design
US20200021851A1 (en) * 2018-07-13 2020-01-16 Tencent America LLC Methods and apparatus for most probable mode derivation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Yao-Jen Chang. et al., "AhG12: On the slice number signaling dependent on subpictures", Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 17th Meeting, Brussels, January 2020. *

Similar Documents

Publication Publication Date Title
AU2020350697B2 (en) Method for signaling output layer set with sub-picture
JP7472157B2 (en) Method, apparatus and computer program for video coding
AU2020437690B2 (en) Method for output layer set mode in multilayered video stream
AU2020416598B2 (en) Method for alignment across layers in coded video stream
CA3137350C (en) Method for indication of sublayer numbers in multilayered video stream
EP4005198A1 (en) Method for signaling virtual boundary signaling with subpictures in coded video stream
RU2814858C1 (en) Method of signaling division of rectangular slice in encoded video stream
RU2803890C1 (en) Layer alignment method in encoded video stream
RU2809562C1 (en) Induction method based on a set of output layers by sublayer
RU2806281C1 (en) Method for signaling sub-image separation in an encoded video stream
RU2810966C1 (en) Methods of signaling combination of reference image resampling and spatial scalability
RU2799572C1 (en) Method for signaling a set of output layers with a subimage
RU2807213C1 (en) Method for outputting a set of layers for multilayer video stream
RU2785687C1 (en) Method for signaling a mixed type of nal block and splitting into subimages in an encoded video stream
RU2804274C1 (en) Image output method with a set of output layers
RU2787579C1 (en) Allocation of a random access point and image display in an encoded video stream
RU2783961C1 (en) Method for indicating the number of sublevels in a multilevel video stream
AU2021246917B2 (en) Method for signaling rectangular slice partitioning in coded video stream
RU2787213C1 (en) Method for restricting referencing to a set of parameters in an encoded video stream
RU2777924C1 (en) Method for signaling a set of output levels with a subimage
AU2021249220B2 (en) Method for signaling mixed NAL unit type and subpicture partitioning in coded video stream
RU2791938C1 (en) Transmission of interlayer prediction in video bit stream
JP2024074922A (en) Method, apparatus and computer program for video coding
JP2023129535A (en) Method, apparatus, and computer program for coding video data
JPWO2021202001A5 (en)