RU2785364C1 - Method for cyclic motion compensation with oversampling of the reference image - Google Patents
Method for cyclic motion compensation with oversampling of the reference image Download PDFInfo
- Publication number
- RU2785364C1 RU2785364C1 RU2021132054A RU2021132054A RU2785364C1 RU 2785364 C1 RU2785364 C1 RU 2785364C1 RU 2021132054 A RU2021132054 A RU 2021132054A RU 2021132054 A RU2021132054 A RU 2021132054A RU 2785364 C1 RU2785364 C1 RU 2785364C1
- Authority
- RU
- Russia
- Prior art keywords
- determination
- current
- image
- compensation
- layer
- Prior art date
Links
- 125000004122 cyclic group Chemical group 0.000 title claims abstract description 32
- 238000000034 method Methods 0.000 claims description 12
- 238000005516 engineering process Methods 0.000 abstract description 19
- 230000000007 visual effect Effects 0.000 abstract description 5
- 230000000694 effects Effects 0.000 abstract description 3
- 238000003384 imaging method Methods 0.000 abstract 1
- 239000000126 substance Substances 0.000 abstract 1
- 238000007906 compression Methods 0.000 description 21
- 239000010410 layer Substances 0.000 description 21
- 230000003044 adaptive Effects 0.000 description 12
- 230000005540 biological transmission Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 229920000069 poly(p-phenylene sulfide) Polymers 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 239000000203 mixture Substances 0.000 description 8
- 230000011664 signaling Effects 0.000 description 8
- 230000002123 temporal effect Effects 0.000 description 7
- 101710022552 OPN1MW Proteins 0.000 description 6
- 101710008425 OPN1MW2 Proteins 0.000 description 6
- 102100001775 OPN1MW2 Human genes 0.000 description 6
- 101710008426 OPN1MW3 Proteins 0.000 description 6
- 230000002093 peripheral Effects 0.000 description 6
- 230000000875 corresponding Effects 0.000 description 5
- 229940040608 SPS Drugs 0.000 description 4
- 230000004913 activation Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 230000002457 bidirectional Effects 0.000 description 3
- 230000004301 light adaptation Effects 0.000 description 3
- 230000001131 transforming Effects 0.000 description 3
- 230000001702 transmitter Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000001413 cellular Effects 0.000 description 2
- 230000001419 dependent Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003287 optical Effects 0.000 description 2
- 241000023320 Luma <angiosperm> Species 0.000 description 1
- 210000002381 Plasma Anatomy 0.000 description 1
- 230000003213 activating Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002085 persistent Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000002441 reversible Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000009958 sewing Methods 0.000 description 1
- 230000035943 smell Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000153 supplemental Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001052 transient Effects 0.000 description 1
Images
Abstract
Description
Перекрестная ссылка на родственную заявкуCross-reference to related application
[1] По этой заявке испрашивается приоритет согласно предварительной заявке на выдачу патента США №62/955,520, поданной 31 декабря 2019 года, и заявке на выдачу патента США №17/064,172, поданной 6 октября 2020 года, содержание которых полностью включено в настоящее описание.[1] This application claims priority under U.S. Provisional Application No. 62/955,520, filed December 31, 2019, and U.S. Patent Application No. 17/064,172, filed October 6, 2020, the contents of which are incorporated herein in their entirety. .
Область техникиTechnical field
[2] Изобретение относится к кодированию и декодированию видеоданных и, в частности, к включению и отключению циклической компенсации движения.[2] The invention relates to encoding and decoding video data and, in particular, to enabling and disabling cyclic motion compensation.
Предпосылки создания изобретенияPrerequisites for the creation of the invention
[3] Кодирование и декодирование видеоданных может осуществляться с использованием внешнего предсказания изображения с компенсацией движения. Цифровое видео без сжатия может включать в себя последовательность изображений, каждое из которых имеет пространственный размер, например, 1920×1080 отсчетов яркости и связанных с ними отсчетов цветности. Последовательность изображений может иметь фиксированную или переменную частоту смены изображений (неформально также называемую частотой кадров), например, 60 изображений в секунду, или 60 Гц. Видео без сжатия предъявляет значительные требования к битовой скорости. Например, видео 1080р60 4:2:0 с 8 битами на отсчет (разрешение отсчетов яркости 1920×1080 при частоте кадров 60 Гц) требует полосы около 1,5 Гбит/с. Час такого видео требует объема памяти более 600 ГБ.[3] Encoding and decoding of video data may be performed using motion-compensated inter-picture prediction. Uncompressed digital video may include a sequence of images, each of which has a spatial size of, for example, 1920×1080 luma samples and their associated chrominance samples. The image sequence may have a fixed or variable image rate (informally also referred to as frame rate), such as 60 images per second, or 60 Hz. Uncompressed video has significant bitrate requirements. For example, 1080p60 4:2:0 video with 8 bits per sample (resolution of 1920x1080 luminance samples at 60Hz frame rate) requires about 1.5Gbps of bandwidth. An hour of such video requires more than 600 GB of storage.
[4] Одной из целей кодирования и декодирования видеоданных может являться снижение избыточности во входном видеосигнале путем сжатия. Сжатие может способствовать смягчению вышеупомянутых требований к полосе или объему памяти, в ряде случаев на два порядка величины или более. Можно использовать как сжатие без потерь, так и сжатие с потерями, а также их комбинацию. Сжатие без потерь относится к методам реконструкции точной копии исходного сигнала из сжатого исходного сигнала. При использовании сжатия с потерями реконструированный сигнал может быть не идентичен исходному сигналу, но расхождение между исходным и реконструированным сигналами достаточно мало, так что реконструированный сигнал можно использовать для намеченного применения. Сжатие с потерями широко применяется для видео. Допустимая степень искажения зависит от применения; например, пользователи некоторых заказных потоковых приложений могут мириться с большими искажениями по сравнению с пользователями телевещательных приложений. Более высокое разрешенное/допустимое искажение позволяет достичь более высокой степени сжатия.[4] One of the purposes of encoding and decoding video data may be to reduce redundancy in the input video signal by compressing. Compression can help to alleviate the aforementioned bandwidth or storage requirements, in some cases by two orders of magnitude or more. You can use both lossless and lossy compression, as well as a combination of both. Lossless compression refers to techniques for reconstructing an exact copy of the original signal from the compressed original signal. When lossy compression is used, the reconstructed signal may not be identical to the original signal, but the discrepancy between the original and reconstructed signals is small enough that the reconstructed signal can be used for the intended application. Lossy compression is widely used for video. The amount of distortion allowed depends on the application; for example, users of some custom streaming applications may tolerate more distortion than users of broadcast TV applications. Higher allowed/allowable distortion allows a higher compression ratio to be achieved.
[5] Кодер и декодер видеоданных могут использовать методы из нескольких широких категорий, включая, например, компенсацию движения, преобразование, квантование и энтропийное кодирование, некоторые из них будут представлены ниже.[5] The video encoder and decoder may use techniques from several broad categories including, for example, motion compensation, transformation, quantization, and entropy coding, some of which will be presented below.
[6] Исторически сложилось так, что видеокодеры и декодеры, как правило, работали с данным размером изображения, который в большинстве случаев был задан и оставался постоянным для кодированной видеопоследовательности (CVS, coded video sequence), группы изображений (GOP, Group of Pictures) или аналогичного временного интервала с несколькими изображениями. Например, в MPEG-2 известны системы, которые изменяют разрешение по горизонтали (и, следовательно, размер изображения) в зависимости от таких факторов, как активность в кадре, но только на I-изображениях, следовательно, обычно для GOP. Передискретизация опорных изображений для использования различных разрешений в CVS известна, например, из Рекомендации МСЭ-Т Н.263, Приложение Р. Однако здесь размер изображения не меняется, передискретизируются только опорные изображения, в результате чего потенциально могут использоваться только части изображения (в случае понижающей дискретизации) или только части снимаемого кадра (в случае повышающей дискретизации). Кроме того, приложение Q стандарта Н.263 позволяет производить передискретизацию отдельного макроблока с коэффициентом 2 (в каждом измерении) в направлении вверх или вниз. Опять же, размер изображения остается прежним. Размер макроблока в Н.263 фиксирован, и поэтому его не нужно сигнализировать.[6] Historically, video encoders and decoders have usually worked with a given image size, which in most cases was set and remained constant for a coded video sequence (CVS, coded video sequence), a group of pictures (GOP, Group of Pictures) or similar time frame with multiple images. For example, in MPEG-2, systems are known that change the horizontal resolution (and hence image size) depending on factors such as activity in the frame, but only in I-pictures, hence common for GOPs. Resampling of reference pictures to use different resolutions in CVS is known, for example, from ITU-T Rec. H.263, Annex P. However, here the image size does not change, only the reference pictures are resampled, with the result that only parts of the image can potentially be used (in the case of downsampling). sampling) or only parts of the captured frame (in the case of upsampling). In addition, H.263 Annex Q allows single macroblock resampling by a factor of 2 (in each dimension) in either the up or down direction. Again, the image size remains the same. The macroblock size in H.263 is fixed and therefore does not need to be signaled.
[7] Изменение размера изображения для предсказываемых изображений получило широко распространение в современном кодировании видеоданных. Например, VP9 позволяет выполнять передискретизацию опорного изображения и изменять разрешение для всего изображения. Аналогичным образом, некоторые предложения, сделанные в отношении VVC (в том числе, например, Hendry, et. al, "On adaptive resolution change (ARC) for VVC", документ JVET-M0135-vl, 9-19 января 2019 года, полностью включенный в настоящий документ), позволяют выполнять передискретизацию целых опорных изображений с различными - более высокими или более низкими - разрешениями. В настоящем документе предлагается кодировать различные возможные разрешения в наборе параметров последовательности и ссылаться на синтаксические элементы для каждого изображения в наборе параметров изображения.[7] Image resizing for predicted images has become widespread in modern video coding. For example, VP9 allows you to resample the reference image and change the resolution for the entire image. Likewise, some proposals made in relation to VVC (including, for example, Hendry, et. al, "On adaptive resolution change (ARC) for VVC", document JVET-M0135-vl, January 9-19, 2019, are in full included herein) allow entire reference pictures to be resampled at various higher or lower resolutions. This document proposes to encode the various possible resolutions in a sequence parameter set and refer to the syntax elements for each picture in the picture parameter set.
СУЩНОСТЬ ИЗОБРЕТЕНИЯSUMMARY OF THE INVENTION
[8] В варианте осуществления изобретения предоставляется способ формирования битового потока кодированных видеоданных с использованием по меньшей мере одного процессора, включающий выполнение первого определения в отношении того, является ли текущий уровень текущего изображения независимым уровнем; выполнение второго определения в отношении того, включена ли передискретизация опорного изображения для текущего уровня; на основе первого определения и второго определения, отключение циклической компенсации для текущего уровня и кодирование текущего уровня без циклической компенсации.[8] In an embodiment of the invention, there is provided a method for generating a bitstream of encoded video data using at least one processor, including making a first determination as to whether the current level of the current image is an independent level; making a second determination as to whether resampling of the reference picture is enabled for the current layer; based on the first determination and the second determination, disabling cyclic compensation for the current level and encoding the current level without cyclic compensation.
[9] В варианте осуществления изобретения предоставляется устройство для формирования битового потока кодированных видеоданных, содержащее по меньшей мере одну память, сконфигурированную для хранения программного кода, и по меньшей мере один процессор, сконфигурированный для считывания программного кода и работы в соответствии с инструкциями программного кода, при этом программный код включает: первый код определения, сконфигурированный для обеспечения, меньшей мере одним процессором, выполнения первого определения в отношении того, является ли текущий уровень текущего изображения независимым уровнем; второй код определения, сконфигурированный для обеспечения, меньшей мере одним процессором, выполнения второго определения в отношении того, включена ли передискретизация опорного изображения для текущего уровня; код отключения, сконфигурированный для обеспечения, меньшей мере одним процессором, на основе первого определения и второго определения, отключения циклической компенсации для текущего уровня, и код кодирования, сконфигурированный для обеспечения, меньшей мере одним процессором, кодирования текущего уровня без циклической компенсации.[9] In an embodiment of the invention, an apparatus is provided for generating an encoded video data bitstream, comprising at least one memory configured to store program code and at least one processor configured to read the program code and operate in accordance with instructions of the program code, wherein the program code includes: a first determination code configured to allow at least one processor to perform a first determination as to whether the current level of the current image is an independent level; a second determination code configured to cause the at least one processor to perform a second determination as to whether reference picture resampling is enabled for the current layer; a disable code configured to provide at least one processor, based on the first determination and the second determination, disabling cyclic compensation for the current level, and an encoding code configured to provide at least one processor encoding the current level without cyclic compensation.
[10] В одном варианте осуществления изобретения предоставляется машиночитаемый носитель, на котором хранятся инструкции, включающие одну или более инструкций, которые, при их исполнении одним или более процессорами устройства для формирования битового потока кодированных видеоданных, обеспечивают осуществление, одним или более процессорами, следующего: выполнения первого определения в отношении того, является ли текущий уровень текущего изображения независимым уровнем; выполнения второго определения в отношении того, включена ли передискретизация опорного изображения для текущего уровня; на основе первого определения и второго определения, отключения циклической компенсации для текущего уровня и кодирования текущего уровня без циклической компенсации.[10] In one embodiment of the invention, a computer-readable medium is provided on which instructions are stored, including one or more instructions, which, when executed by one or more processors of a device for generating an encoded video data bitstream, cause, by one or more processors, the following: making a first determination as to whether the current layer of the current image is an independent layer; making a second determination as to whether resampling of the reference picture is enabled for the current layer; based on the first determination and the second determination, disabling cyclic compensation for the current level, and encoding the current level without cyclic compensation.
Краткое описание чертежейBrief description of the drawings
[11] Дополнительные особенности, характер и различные преимущества настоящего изобретения будут понятны из последующего подробного описания и прилагаемых чертежей.[11] Additional features, nature and various advantages of the present invention will be apparent from the following detailed description and the accompanying drawings.
[12] Фиг. 1 представляет собой схематическую иллюстрацию упрощенной структурной схемы системы связи в соответствии с вариантом осуществления изобретения.[12] FIG. 1 is a schematic illustration of a simplified block diagram of a communication system in accordance with an embodiment of the invention.
[13] Фиг. 2 представляет собой схематическую иллюстрацию упрощенной структурной схемы системы связи в соответствии с вариантом осуществления изобретения.[13] FIG. 2 is a schematic illustration of a simplified block diagram of a communication system in accordance with an embodiment of the invention.
[14] Фиг. 3 представляет собой схематическую иллюстрацию упрощенной структурной схемы декодера в соответствии с вариантом осуществления изобретения.[14] FIG. 3 is a schematic illustration of a simplified block diagram of a decoder according to an embodiment of the invention.
[15] Фиг. 4 представляет собой схематическую иллюстрацию упрощенной структурной схемы кодера в соответствии с вариантом осуществления изобретения.[15] FIG. 4 is a schematic illustration of a simplified block diagram of an encoder in accordance with an embodiment of the invention.
[16] Фиг. 5А-5Е - схематические иллюстрации опций для сигнализации параметров ARC в соответствии с вариантом осуществления изобретения.[16] FIG. 5A-5E are schematic illustrations of options for ARC parameter signaling in accordance with an embodiment of the invention.
[17] Фиг. 6А-6В - схематические иллюстрации примеров таблиц синтаксиса в соответствии с вариантом осуществления изобретения.[17] FIG. 6A-6B are schematic illustrations of examples of syntax tables in accordance with an embodiment of the invention.
[18] Фиг. 7 - схематическая иллюстрация примера таблицы синтаксиса в соответствии с вариантом осуществления изобретения.[18] FIG. 7 is a schematic illustration of an example of a syntax table in accordance with an embodiment of the invention.
[19] Фиг. 8А-8С являются блок-схемами примеров способов формирования битового потока кодированных видеоданных в соответствии с вариантом осуществления изобретения.[19] FIG. 8A-8C are flowcharts of examples of methods for generating an encoded video data bitstream in accordance with an embodiment of the invention.
[20] Фиг. 9 - схематическая иллюстрация компьютерной системы в соответствии с вариантом осуществления изобретения.[20] FIG. 9 is a schematic illustration of a computer system in accordance with an embodiment of the invention.
Подробное описание изобретенияDetailed description of the invention
[21] На фиг. 1 показана упрощенная структурная схема системы связи (100) согласно варианту осуществления настоящего изобретения. Система (100) может включать по меньшей мере два терминала (110-120), соединенных между собой через сеть (150). Для однонаправленной передачи данных первый терминал (110) может кодировать видеоданные в локальном местоположении для передачи на другой терминал (120) через сеть (150). Второй терминал (120) может принимать кодированные видеоданные другого терминала из сети (150), декодировать кодированные данные и отображать восстановленные видеоданные. Однонаправленная передача данных может быть свойственна приложениям служб массовой информации и т.п.[21] FIG. 1 shows a simplified block diagram of a communication system (100) according to an embodiment of the present invention. The system (100) may include at least two terminals (110-120) interconnected via a network (150). For unidirectional data transmission, the first terminal (110) may encode video data at the local location for transmission to another terminal (120) via the network (150). The second terminal (120) may receive another terminal's encoded video data from the network (150), decode the encoded data, and display the recovered video data. One-way communication may be inherent in media service applications and the like.
[22] Фиг. 1 иллюстрирует вторую пару терминалов (130, 140), поддерживающих двунаправленную передачу кодированных видеоданных, которая может происходить, например, во время видеоконференций. Для двунаправленной передачи данных каждый терминал (130, 140) может кодировать видеоданные, снятые в локальном местоположении, для передачи другому терминалу по сети (150). Каждый терминал (130, 140) также может принимать кодированные видеоданные, передаваемые другим терминалом, декодировать кодированные данные и отображать восстановленные видеоданные на локальном устройстве отображения.[22] FIG. 1 illustrates a second pair of terminals (130, 140) supporting bidirectional transmission of coded video data, which may occur during video conferences, for example. For bi-directional data transmission, each terminal (130, 140) may encode video data captured at a local location for transmission to another terminal over a network (150). Each terminal (130, 140) can also receive the encoded video data transmitted by the other terminal, decode the encoded data, and display the recovered video data on a local display device.
[23] В примере, приведенном на фиг. 1, терминалы (110-140) могут быть проиллюстрированы как серверы, персональные компьютеры и смартфоны, но это не ограничивает принципы настоящего изобретения. Варианты осуществления настоящего изобретения находят применение для портативных компьютеров, планшетных компьютеров, медиаплееров и/или оборудования, используемого для видеоконференцсвязи. Сеть (150) представляет любое количество сетей, которые переносят кодированные видеоданные между терминалами (110-140), включая, например, проводные и/или беспроводные сети связи. Сеть (150) связи позволяет обмениваться данными в режиме канальной коммутации и/или пакетной коммутации. Примеры сетей включают телекоммуникационные сети, локальные сети, глобальные сети и/или интернет. В целях настоящего рассмотрения, архитектура и топология сети (150) могут не иметь отношения к настоящему изобретению, если конкретно не указаны ниже.[23] In the example shown in FIG. 1, terminals (110-140) can be illustrated as servers, personal computers, and smartphones, but this does not limit the principles of the present invention. Embodiments of the present invention find application in laptop computers, tablet computers, media players and/or equipment used for video conferencing. Network (150) represents any number of networks that carry encoded video data between terminals (110-140), including, for example, wired and/or wireless networks. The communication network (150) allows data to be exchanged in a circuit-switched and/or packet-switched mode. Examples of networks include telecommunications networks, local area networks, wide area networks and/or the Internet. For the purposes of this discussion, the architecture and topology of the network (150) may not be relevant to the present invention unless specifically noted below.
[24] На фиг. 2 показано, в порядке примера применения настоящего изобретения, размещение видеокодера и видеодекодера в окружении потоковой передачи. Настоящее изобретение может быть в равной степени применимо к другим применениям обработки видеоданных, включая, например, видеоконференцсвязь, цифровое телевидение, хранение сжатого видео на цифровых носителях, в том числе CD, DVD, карте памяти и т.п.[24] FIG. 2 shows, as an example of the application of the present invention, the placement of a video encoder and a video decoder in a streaming environment. The present invention may be equally applicable to other video processing applications including, for example, videoconferencing, digital television, storage of compressed video on digital media such as CD, DVD, memory card, and the like.
[25] Система потоковой передачи может включать подсистему (213) захвата, которая может включать источник (201) видеоданных, например цифровую камеру, создающую, например, несжатый поток (202) отсчетов видеоданных. Этот поток (202) отсчетов, изображенный жирной линией, чтобы подчеркнуть большой объем данных по сравнению с битовыми потоками кодированных видеоданных, может быть обработан кодером (203), соединенным с камерой (201). Кодер (203) может включать в себя оборудование, программное обеспечение или их комбинацию для обеспечения или реализации аспектов настоящего изобретения, как более подробно описано ниже. Битовый поток (204) кодированных видеоданных, изображенный в виде тонкой линии, чтобы подчеркнуть меньший объем данных по сравнению с потоком отсчетов, может быть сохранен на сервере (205) потоковой передачи для дальнейшего использования. Один или более клиентов (206, 208) потоковой передачи могут получить доступ к серверу (205) потоковой передачи для извлечения копий (207, 209) битового потока (204) кодированных видеоданных. Клиент (206) может включать в себя видеодекодер (210), декодирующий входящую копию битового потока (207) кодированных видеоданных и создающий исходящий поток (211) отсчетов видеоданных, который может быть отображен на дисплее (212) или другом устройстве визуализации (не показано). В некоторых системах потоковой передачи битовые потоки (204, 207, 209) видеоданных могут кодироваться в соответствии с определенными стандартами кодирования/сжатия видеоданных. Примеры этих стандартов включают Рекомендацию МСЭ-Т Н.265. В стадии разработки находится стандарт кодирования видеоданных, неофициально известный как Универсальное кодирование видеоданных или VVC (Versatile Video Coding). Настоящее изобретение может использоваться в контексте VVC.[25] The streaming system may include a capture subsystem (213), which may include a source (201) of video data, such as a digital camera, creating, for example, an uncompressed stream (202) of video data samples. This stream (202) of samples, depicted with a thick line to emphasize the large amount of data compared to the bitstreams of encoded video data, can be processed by an encoder (203) connected to a camera (201). The encoder (203) may include hardware, software, or a combination thereof to provide or implement aspects of the present invention, as described in more detail below. The encoded video data bitstream (204), depicted as a thin line to emphasize the smaller amount of data compared to the sample stream, may be stored on the streaming server (205) for later use. One or more streaming clients (206, 208) can access the streaming server (205) to extract copies (207, 209) of the encoded video bitstream (204). The client (206) may include a video decoder (210) that decodes an incoming copy of the encoded video bitstream (207) and produces an outgoing stream (211) of video samples that can be displayed on a display (212) or other visualization device (not shown) . In some streaming systems, bitstreams (204, 207, 209) of video data may be encoded according to certain video coding/compression standards. Examples of these standards include ITU-T Rec. H.265. A video coding standard is under development, informally known as Universal Video Coding or VVC (Versatile Video Coding). The present invention can be used in the context of VVC.
[26] На фиг. 3 показана функциональная схема видеодекодера (210) согласно варианту осуществления настоящего изобретения.[26] FIG. 3 shows a functional diagram of a video decoder (210) according to an embodiment of the present invention.
[27] Приемник (310) может принимать одну или более кодированных видеопоследовательностей для декодирования видеодекодером (210), в том же или другом варианте осуществления изобретения, по одной кодированной видеопоследовательности за раз, при этом декодирование каждой кодированной видеопоследовательности не зависит от других кодированных видеопоследовательностей. Кодированная видеопоследовательность может приниматься из канала (312), который может быть аппаратной/программной линией связи с запоминающим устройством, где хранятся кодированные видеоданные. Приемник (310) может принимать кодированные видеоданные с другими данными, например, кодированными аудиоданными и/или вспомогательными потоками данных, которые могут перенаправляться на соответствующие использующие их объекты (не показаны). Приемник (310) может отделять кодированную видеопоследовательность от других данных. Для борьбы с джиттером сети между приемником (310) и энтропийным декодером / анализатором (320) (далее "анализатором") может быть подключена буферная память (315). Когда приемник (310) принимает данные от устройства хранения/перенаправления с достаточной полосой и управляемостью или из изосинхронной сети, буферная память (315) может быть не нужна или может быть мала. Для использования в пакетных сетях наилучшей попытки, таких как интернет, может потребоваться буфер (315), который может быть сравнительно большим и может предпочтительно иметь адаптивный размер.[27] The receiver (310) may receive one or more encoded video sequences for decoding by video decoder (210), in the same or another embodiment of the invention, one encoded video sequence at a time, with the decoding of each encoded video sequence independent of other encoded video sequences. The encoded video sequence may be received from a channel (312), which may be a hardware/software link to a storage device where the encoded video data is stored. The receiver (310) may receive encoded video data with other data, such as encoded audio data and/or auxiliary data streams, which may be redirected to their respective utilizing entities (not shown). The receiver (310) may separate the encoded video sequence from other data. To combat network jitter, a buffer memory (315) can be connected between the receiver (310) and the entropy decoder/analyzer (320) (hereinafter "analyzer"). When the receiver (310) receives data from a storage/redirector with sufficient bandwidth and controllability, or from an isosynchronous network, the buffer memory (315) may not be needed or may be small. For use in best effort packet networks such as the Internet, a buffer (315) may be required, which may be relatively large and may preferably have an adaptive size.
[28] Видеодекодер (210) может включать анализатор (320) для реконструкции символов (321) из энтропийно-кодированной видеопоследовательности. Категории этих символов включают информацию, используемую для управления работой декодера (210), и, возможно, информацию для управления устройством визуализации, например дисплеем (212), который не является неотъемлемой частью декодера, но может быть подключен к нему, как показано на фиг. 3. Информация управления для устройств(а) визуализации может представлять собой сообщения информации дополнительного улучшения (SEI, Supplemental Enhancement Information) или фрагменты набора параметров информации о возможности использования видео (VUI, Video Usability Information) (не показаны). Анализатор (320) может анализировать / энтропийно декодировать принятую кодированную видеопоследовательность. Кодирование видеопоследовательности может осуществляться в соответствии с технологией или стандартом видеокодирования и может следовать принципам, известным специалисту в данной области техники, включая кодирование с переменной длиной серии, кодирование Хаффмана, арифметическое кодирование с контекстной чувствительностью или без нее и т.д. Анализатор (320) может извлекать из кодированной видеопоследовательности набор параметров подгруппы для по меньшей мере одной из подгрупп пикселей в видеодекодере на основе по меньшей мере одного параметра, соответствующего группе. Подгруппы могут включать группы изображений (GOP, Groups of Pictures), изображения, субизображения, тайлы, слайсы, модули, макроблоки, единицы дерева кодирования (CTU, Coding Tree Unit), единицы кодирования (CU, Coding Unit), блоки, единицы преобразования (TU, Transform Unit), единицы предсказания (PU, Prediction Unit) и т.д. Тайл может указывать на прямоугольную область CU/CTU в определенном столбце и строке тайла на изображении. Модуль может указывать на прямоугольную область строк CU/CTU внутри определенного тайла. Слайс может указывать на один или более модулей изображения, которые содержатся в блоке NAL. Субизображение может указывать на прямоугольную область одного или более слайсов на изображении. Энтропийный декодер / анализатор также может извлекать из кодированной видеопоследовательности информацию, например, коэффициенты преобразования, значения параметров квантователя, векторы движения и т.д.[28] The video decoder (210) may include an analyzer (320) for reconstructing the symbols (321) from the entropy coded video sequence. The categories of these symbols include information used to control the operation of the decoder (210) and possibly information to control a visualization device such as a display (212) that is not an integral part of the decoder but may be connected to it, as shown in FIG. 3. The control information for the rendering device(s) may be Supplemental Enhancement Information (SEI) messages or Video Usability Information (VUI) parameter set fragments (not shown). The analyzer (320) may analyze/entropy decode the received encoded video sequence. The encoding of the video sequence may be in accordance with a video coding technology or standard and may follow principles known to those skilled in the art, including variable run length coding, Huffman coding, arithmetic coding with or without context sensitivity, and so on. The analyzer (320) can extract from the encoded video sequence a set of subgroup parameters for at least one of the subgroups of pixels in the video decoder based on at least one parameter corresponding to the group. Subgroups may include groups of pictures (GOP, Groups of Pictures), pictures, sub-images, tiles, slices, modules, macroblocks, coding tree units (CTU, Coding Tree Unit), coding units (CU, Coding Unit), blocks, transformation units ( TU, Transform Unit), prediction units (PU, Prediction Unit), etc. A tile can point to a rectangular area of a CU/CTU in a specific column and row of a tile in an image. A module can point to a rectangular area of CU/CTU rows within a specific tile. A slice may point to one or more image units that are contained in a NAL unit. A sub-image may point to a rectangular area of one or more slices in an image. The entropy decoder/analyzer can also extract information from the encoded video sequence, such as transform coefficients, quantizer parameter values, motion vectors, etc.
[29] Анализатор (320) может выполнять операцию энтропийного декодирования / анализа видеопоследовательности, полученной из буфера (315), для создания символов (321).[29] The analyzer (320) may perform an entropy decoding/analysis operation of the video sequence obtained from the buffer (315) to create symbols (321).
[30] Для реконструкции символов (321) могут использоваться несколько различных модулей в зависимости от типа кодированного видеоизображения или его частей (например: изображения с внутренним и внешним кодированием, блоки с внутренним и внешним кодированием) и других факторов. Какие модули и как используются, может определяться информацией управления подгруппами, полученной из кодированной видеопоследовательности анализатором (320). Поток такой информации управления подгруппами между анализатором (320) и модулями для простоты в дальнейшем не показан.[30] Several different modules can be used for symbol reconstruction (321) depending on the type of encoded video image or parts thereof (eg, intra- and outer-coded pictures, intra- and outer-coded blocks) and other factors. Which modules are used and how can be determined by the subgroup management information obtained from the encoded video sequence by the analyzer (320). The flow of such subgroup control information between the analyzer (320) and the modules is not shown hereinafter for simplicity.
[31] Помимо ранее упомянутых функциональных блоков, видеодекодер 210 может принципиально разделяться на несколько функциональных модулей, как описано ниже. В практической реализации в условиях коммерческих ограничений многие из этих модулей тесно взаимодействуют друг с другом и могут, по меньшей мере частично, встраиваться один в другой. Однако в целях описания настоящего изобретения уместно принципиальное разделение на перечисленные ниже функциональные модули.[31] In addition to the previously mentioned functional blocks,
[32] Первым модулем является модуль (351) масштабирования / обратного преобразования. Модуль (351) масштабирования / обратного преобразования принимает квантованный коэффициент преобразования, а также информацию управления, включающую используемое преобразование, размер блока, коэффициент квантования, матрицы масштабирования квантования и т.д. в качестве символа(ов) (321) от анализатора (320). Он может выводить блоки, содержащие значения отсчетов, которые можно вводить в агрегатор (355).[32] The first module is the scaling/inverse transform module (351). The scaling/inverse transform module (351) receives the quantized transform coefficient as well as control information including the transform used, block size, quantization factor, quantization scaling matrices, etc. as character(s) (321) from the analyzer (320). It can output blocks containing sample values that can be entered into the aggregator (355).
[33] В ряде случаев выходные отсчеты модуля (351) масштабирования / обратного преобразования могут относиться к блоку с внутренним кодированием, то есть к блоку, который не использует предсказанную информацию из ранее реконструированных изображений, но может использовать предсказанную информацию из ранее реконструированных частей текущего изображения. Такая предсказанная информация может обеспечиваться модулем (352) внутреннего предсказания изображения. В ряде случаев модуль (352) внутреннего предсказания изображения формирует блок такого же размера и формы, как у блока, подлежащего реконструкции, с использованием информации уже реконструированного окружения, извлеченной из текущего (частично реконструированного) изображения (358). Агрегатор (355) в ряде случаев добавляет, для каждого отсчета, информацию предсказания, сформированную модулем (352) внутреннего предсказания, в информацию выходных отсчетов, предоставленную модулем (351) масштабирования / обратного преобразования.[33] In some cases, the output samples of the scaling / inverse transform module (351) may refer to an intra-coded block, that is, a block that does not use predicted information from previously reconstructed images, but can use predicted information from previously reconstructed parts of the current image . Such predicted information may be provided by the intra image prediction module (352). In some cases, the intra image prediction module (352) generates a block of the same size and shape as the block to be reconstructed using the already reconstructed environment information extracted from the current (partially reconstructed) image (358). The aggregator (355) in some cases adds, for each sample, the prediction information generated by the intra prediction module (352) to the output sample information provided by the scaling/inverse transform module (351).
[34] В других случаях выходные отсчеты модуля (351) масштабирования / обратного преобразования могут относиться к блоку с внутренним кодированием, возможно, с компенсацией движения. В таком случае модуль (353) предсказания с компенсацией движения может осуществлять доступ к памяти (357) опорных изображений для извлечения отсчетов, используемых для предсказания. После применения компенсации движения к извлеченным отсчетам в соответствии с символами (321), относящимися к блоку, эти отсчеты могут добавляться агрегатором (355) к выходному сигналу модуля масштабирования / обратного преобразования (в этом случае называемому отсчетами остатка или сигналом остатка) для формирования информации выходных отсчетов. Адреса в памяти опорных изображений, откуда модуль предсказания с компенсацией движения извлекает отсчеты для предсказания, могут управляться векторами движения, доступными модулю предсказания с компенсацией движения, в форме символов (321), которые могут иметь, например, компоненты X, Y и компоненты опорного изображения. Компенсация движения также может включать интерполяцию значений отсчетов, извлеченных из памяти опорных изображений, когда используются точные векторы движения подотсчетов, механизмы предсказания векторов движения и т.д.[34] In other cases, the output samples of the scaling/inverse transform module (351) may refer to an intra-coded block, possibly with motion compensation. In such a case, the motion compensation prediction module (353) may access the reference picture memory (357) to retrieve samples used for prediction. After motion compensation has been applied to the extracted samples according to the symbols (321) associated with the block, these samples can be added by an aggregator (355) to the output of the scaler/demap module (in this case referred to as residual samples or residual signal) to generate output information. counts. Reference picture memory addresses from where the motion-compensated prediction module retrieves prediction samples may be driven by motion vectors available to the motion-compensated prediction module in the form of symbols (321), which may have, for example, X, Y, and reference picture components. . Motion compensation may also include interpolation of sample values retrieved from reference picture memory when accurate subsample motion vectors, motion vector prediction mechanisms, and so on are used.
[35] К выходным отсчетам агрегатора (355) можно применять различные методы контурной фильтрации в модуле (356) контурного фильтра. Технологии сжатия видеоданных могут включать технологии контурного фильтра под управлением с помощью параметров, включенных в битовый поток кодированных видеоданных и доступных модулю (356) контурного фильтра в качестве символов (321) от анализатора (320), но также могут реагировать на метаинформацию, полученную в ходе декодирования предыдущих (в порядке декодирования) частей кодированного изображения или кодированной видеопоследовательности, а также реагировать на ранее реконструированные и подвергнутые контурной фильтрации значения отсчетов.[35] Various loop filtering methods can be applied to the aggregator (355) output samples in the loop filter module (356). The video data compression technologies may include loop filter technologies controlled by parameters included in the encoded video bitstream and available to the loop filter module (356) as symbols (321) from the analyzer (320), but may also be responsive to metainformation obtained during decoding previous (in decoding order) parts of the encoded image or encoded video sequence, as well as responding to previously reconstructed and contour filtered sample values.
[36] Модуль (356) контурного фильтра может выдавать поток отсчетов, который может поступать на устройство (212) визуализации, а также сохраняться в памяти 557 опорных изображений для использования в будущем внешнем предсказании изображения.[36] The loop filter module (356) can output a stream of samples that can be fed to the renderer (212) and also stored in the reference picture memory 557 for use in future inter-image prediction.
[37] Некоторые кодированные изображения, будучи полностью реконструированы, могут использоваться в качестве опорных изображений для будущего предсказания. Например, когда кодированное изображение полностью реконструировано и идентифицировано как опорное изображение (например, анализатором (320)), текущее опорное изображение (358) может становиться частью буферной памяти (357) опорных изображений, и может повторно выделяться свежая память для текущего изображения до начала реконструкции следующего кодированного изображения.[37] Some encoded pictures, when fully reconstructed, can be used as reference pictures for future prediction. For example, when an encoded picture is fully reconstructed and identified as a reference picture (e.g., by analyzer (320)), the current reference picture (358) may become part of the reference picture buffer memory (357), and fresh memory for the current picture may be re-allocated prior to reconstruction. next encoded picture.
[38] Видеодекодер 210 может осуществлять операции декодирования согласно заранее заданной технологии сжатия видеоданных, задокументированной в стандарте, таком как Рекомендация МСЭ-Т Н.265. Кодированная видеопоследовательность может соответствовать синтаксису, заданному используемой технологией или используемым стандартом сжатия видеоданных, в том смысле, что кодированная видеопоследовательность может придерживаться синтаксиса технологии или стандарта сжатия видеоданных, указанного в документе технологии сжатия видеоданных или в стандарте и, в частности, в документе, касающемся профилей. Также для согласованности может быть необходимо, чтобы сложность кодированной видеопоследовательности оставалась в границах, заданных уровнем технологии или стандарта сжатия видеоданных. В ряде случаев, уровни ограничивают максимальный размер изображения, максимальную частоту кадров, максимальную частоту отсчетов для реконструкции (измеряемую, например, в мегаотсчетах в секунду), максимальный размер опорного изображения и т.д. Пределы, установленные уровнями, в ряде случаев могут дополнительно ограничиваться спецификациями гипотетического эталонного декодера (HRD, Hypothetical Reference Decoder) и метаданными для управления буфером HRD, сигнализируемыми в кодированной видеопоследовательности.[38]
[39] Согласно варианту осуществления изобретения, приемник (310) может принимать дополнительные (избыточные) данные с кодированными видеоданными. Дополнительные данные могут быть включены как часть кодированной(ых) видеопоследовательности(ей). Дополнительные данные могут использоваться видеодекодером (210) для правильного декодирования данных и/или более точной реконструкции исходных видеоданных. Дополнительные данные могут представлять собой, например, временные уровни улучшения, пространственные уровни улучшения или уровни улучшения отношения "сигнал/шум" (SNR, signal noise ratio), избыточные слайсы, избыточные изображения, коды прямой коррекции ошибок и т.д.[39] According to an embodiment of the invention, the receiver (310) may receive additional (redundant) data with encoded video data. Additional data may be included as part of the encoded video sequence(s). The additional data may be used by the video decoder (210) to properly decode the data and/or more accurately reconstruct the original video data. The side data may be, for example, temporal enhancement levels, spatial enhancement levels or signal noise ratio (SNR) enhancement levels, redundant slices, redundant images, forward error correction codes, and so on.
[40] На фиг. 4 показана функциональная схема видеокодера (203) согласно варианту осуществления настоящего изобретения.[40] FIG. 4 is a functional diagram of a video encoder (203) according to an embodiment of the present invention.
[41] Кодер (203) может принимать отсчеты видеоданных от источника (201) видеоданных (который не входит в состав кодера), который может захватывать видеоизображение(я), подлежащее(ие) кодированию видеокодером (203).[41] The encoder (203) may receive video data samples from a video data source (201) (which is not part of the encoder) that may capture the video image(s) to be encoded by the video encoder (203).
[42] Источник (201) видеоданных может обеспечивать исходную видеопоследовательность, подлежащую кодированию видеокодером (203), в форме потока отсчетов цифровых видеоданных любой подходящей битовой глубины (например: 8 битов, 10 битов, 12 битов, …), любого цветового пространства (например, ВТ.601 Y CrCB, RGB, …) и любой подходящей структуры дискретизации (например, Y CrCb 4:2:0, Y CrCb 4:4:4). В системе службы массовой информации источником (201) видеоданных может быть запоминающее устройство, где хранится ранее подготовленное видео. В системе видеоконференцсвязи источником (203) видеоданных может быть камера, которая захватывает информацию локального изображения в виде видеопоследовательности. Видеоданные могут предоставляться как множество отдельных изображений, которые создают ощущение движения при наблюдении в последовательности. Сами изображения могут быть организованы как пространственный массив пикселей, где каждый пиксель может содержать один или более отсчетов в зависимости от используемой структуры дискретизации, цветового пространства и т.д. Специалисту в данной области техники нетрудно понять соотношение между пикселями и отсчетами. Последующее описание посвящено отсчетам.[42] The video source (201) may provide the source video sequence to be encoded by the video encoder (203) in the form of a digital video sample stream of any suitable bit depth (eg: 8 bits, 10 bits, 12 bits, ...), any color space (eg , VT.601 Y CrCB, RGB, …) and any suitable sampling structure (eg Y CrCb 4:2:0, Y CrCb 4:4:4). In a media service system, the source (201) of video data may be a storage device where previously prepared video is stored. In a videoconferencing system, the video data source (203) may be a camera that captures local image information as a video sequence. The video data may be provided as a plurality of individual images that give a sense of movement when viewed in sequence. The images themselves may be organized as a spatial array of pixels, where each pixel may contain one or more samples depending on the sampling structure used, color space, and so on. It is not difficult for a person skilled in the art to understand the relationship between pixels and samples. The following description is devoted to readings.
[43] Согласно варианту осуществления изобретения, кодер (203) может кодировать и сжимать изображения исходной видеопоследовательности в кодированную видеопоследовательность (443) в реальном времени или с учетом любых других временных ограничений, налагаемых применением. Установление надлежащей скорости кодирования является одной из функций контроллера (450). Контроллер управляет другими функциональными модулями, как описано ниже, и функционально подключен к ним. Подключение для простоты не показано. Параметры, установленные контроллером, могут включать параметры, связанные с регулировкой частоты (пропуск изображения, квантователь, значение лямбда, применяемое в методах оптимизации "скорость-искажения", и т.д.), размер изображения, организацию групп изображений (GOP, group of pictures), максимальную зону поиска вектора движения и т.д. Специалисту в данной области техники понятно, что контроллер (450) может иметь другие подходящие функции, относящиеся к видеокодеру (203), оптимизированному для конкретной конструкции системы.[43] According to an embodiment of the invention, the encoder (203) may encode and compress images of the source video sequence into the encoded video sequence (443) in real time or subject to any other time constraints imposed by the application. Setting the proper coding rate is one of the functions of the controller (450). The controller controls other functional modules as described below and is functionally connected to them. The connection is not shown for simplicity. The parameters set by the controller may include parameters related to frequency adjustment (picture skip, quantizer, lambda value used in rate-distortion optimization methods, etc.), image size, group of images (GOP, group of pictures), maximum motion vector search area, etc. One skilled in the art will appreciate that the controller (450) may have other suitable functions related to the video encoder (203) optimized for a particular system design.
[44] Некоторые видеокодеры могут работать в "контуре кодирования", как понятно специалисту в данной области техники. В качестве очень упрощенного описания, например, контур кодирования может включать кодирующую часть кодера (430) (называемую здесь "кодером источника") (отвечающую за создание символов, например, потока символов на основе входного изображения, подлежащего кодированию, и опорного(ых) изображения(ий)) и (локальный) декодер (433), встроенный в кодер (203), который реконструирует символы для создания данных отсчетов, как это делал бы (удаленный) декодер (поскольку любое сжатие символов в битовый поток кодированных видеоданных происходит без потерь в технологиях сжатия видеоданных, рассматриваемых в данном описании). Реконструированный поток отсчетов поступает в память (434) опорных изображений. Поскольку декодирование потока символов приводит к результатам, с точностью до бита, которые не зависят от положения (локального или удаленного) декодера, содержимое буфера опорных изображений также будет одинаковым с точностью до бита для локального кодера и удаленного кодера. Другими словами, часть предсказания кодера "видит" в качестве отсчетов опорного изображения точно такие же значения отсчетов, как "видел" бы декодер при использовании предсказания в ходе декодирования. Этот фундаментальный принцип синхронизма опорного изображения (и, в итоге, дрейф, если синхронизм не удается поддерживать, например, вследствие канальных ошибок) хорошо известен специалисту в данной области техники.[44] Some video encoders may operate in a "coding loop" as understood by one skilled in the art. As a very simplified description, for example, an encoding loop may include an encoder (430) encoding part (herein referred to as a "source encoder") (responsible for creating symbols, for example, a stream of symbols, based on the input image to be encoded and the reference image(s). (s)) and a (local) decoder (433) built into the encoder (203) that reconstructs the symbols to produce sample data as a (remote) decoder would (because any symbol compression into the encoded video bitstream is lossless in video compression technologies discussed in this description). The reconstructed stream of samples enters the memory (434) reference images. Since decoding a stream of symbols produces bit-accurate results that are independent of the position (local or remote) of the decoder, the contents of the reference picture buffer will also be the same bit-accuracy for the local encoder and the remote encoder. In other words, the prediction part of the encoder "sees" as reference picture samples exactly the same sample values as the decoder would "see" if using prediction during decoding. This fundamental principle of reference picture synchronism (and eventually drift if synchronism cannot be maintained due to, for example, channel errors) is well known to those skilled in the art.
[45] "Локальный" декодер (433) может действовать таким же образом, как "удаленный" декодер (210), подробно описанный выше со ссылкой на фиг. 3. Однако, опять же, согласно фиг. 4, поскольку символы доступны, и кодирование/декодирование символов в кодированную видеопоследовательность энтропийным кодером (445) и анализатором (320) может осуществляться без потерь, части энтропийного декодирования декодера (210), включающие канал (312), приемник (310), буфер (315) и анализатор (320), могут быть не полностью реализованы в локальном декодере (433).[45] The "local" decoder (433) may operate in the same manner as the "remote" decoder (210) detailed above with reference to FIG. 3. However, again, referring to FIG. 4, since the symbols are available and the entropy encoder (445) and parser (320) can be losslessly encoded/decoded into the encoded video sequence, the entropy decoding parts of the decoder (210) including channel (312), receiver (310), buffer ( 315) and analyzer (320) may not be fully implemented in the local decoder (433).
[46] При этом можно сделать вывод, что любая технология декодирования, присутствующая в декодере, за исключением анализа / энтропийного декодирования, также обязательно должна присутствовать по существу в идентичной функциональной форме в соответствующем кодере. По этой причине настоящее изобретение сконцентрировано на работе декодера. Описание технологий кодирования может быть сокращено, поскольку они являются обратными подробно описанным технологиям декодирования. Лишь в некоторых областях требуется более подробное описание, которое приведено ниже.[46] In doing so, it can be concluded that any decoding technology present in a decoder, with the exception of analysis/entropy decoding, must also necessarily be present in essentially identical functional form in the corresponding encoder. For this reason, the present invention is focused on the operation of the decoder. The description of the encoding technologies can be abbreviated as they are the inverse of the decoding technologies described in detail. Only in some areas a more detailed description is required, which is given below.
[47] В ходе работы кодер (430) источника может осуществлять кодирование с предсказанием и компенсацией движения, при котором входной кадр кодируется с предсказанием на основе одного или более ранее кодированных кадров из видеопоследовательности, указанных как "опорные кадры". Таким образом, механизм (432) кодирования кодирует разности между блоками пикселей входного кадра и блоками пикселей опорного кадра(ов), который(ые) может(ут) выбираться в качестве ссылки(ок) предсказания на входной кадр.[47] In operation, the source encoder (430) may perform motion-compensated predictive coding in which an input frame is predictively encoded based on one or more previously encoded frames from the video sequence, referred to as "reference frames". Thus, the coding engine (432) encodes the differences between the pixel blocks of the input frame and the pixel blocks of the reference frame(s) that can be selected as the prediction reference(s) to the input frame.
[48] Локальный видеодекодер (433) может декодировать кодированные видеоданные кадров, которые могут быть указаны как опорные кадры, на основе символов, созданных кодером (430) источника. Операции механизма (432) кодирования могут быть преимущественно способами с потерями. Когда кодированные видеоданные могут декодироваться в видеодекодере (не показан на фиг. 4), реконструированная видеопоследовательность обычно может представлять собой копию исходной видеопоследовательности с некоторыми ошибками. Локальный видеодекодер (433) дублирует процессы декодирования, которые могут осуществляться видеодекодером на опорных кадрах, и может обеспечивать сохранение реконструированных опорных кадров в кэш-памяти (434) опорных изображений. Таким образом, кодер (203) может локально сохранять копии реконструированных опорных кадров, имеющие такое же содержимое, как реконструированные опорные кадры, которые будут получены удаленным видеодекодером (в отсутствие ошибок передачи).[48] The local video decoder (433) may decode the encoded video data of the frames, which may be indicated as reference frames, based on the symbols generated by the source encoder (430). The operations of the encoding engine (432) may be predominantly lossy methods. When the encoded video data can be decoded in a video decoder (not shown in FIG. 4), the reconstructed video sequence can typically be a copy of the original video sequence with some errors. The local video decoder (433) duplicates the decoding processes that may be performed by the video decoder on the reference frames and may store the reconstructed reference frames in the reference picture cache (434). Thus, the encoder (203) can locally store copies of the reconstructed key frames having the same content as the reconstructed key frames that would be received by the remote video decoder (in the absence of transmission errors).
[49] Предсказатель (435) может осуществлять поиски предсказания для механизма (432) кодирования. Таким образом, для нового кадра, подлежащего кодированию, предсказатель (435) может искать в памяти (434) опорных изображений данные отсчетов (в качестве кандидатов на роль опорных блоков пикселей) или конкретные метаданные, например, векторы движения опорного изображения, формы блоков и т.д., которые могут служить надлежащей ссылкой для предсказания новых изображений. Предсказатель (435) может работать на основе "блоки отсчетов × блоки пикселей" для нахождения надлежащих ссылок для предсказания. В ряде случаев, согласно результатам поиска, полученным предсказателем (435), входное изображение может иметь ссылки для предсказания, извлеченные из множества опорных изображений, хранящихся в памяти (434) опорных изображений.[49] The predictor (435) may perform prediction searches for the encoding engine (432). Thus, for a new frame to be encoded, the predictor (435) may search the reference picture memory (434) for sample data (as pixel reference block candidates) or specific metadata such as reference picture motion vectors, block shapes, etc. .d., which can serve as a proper reference for predicting new images. The predictor (435) may operate on a "blocks of samples×blocks of pixels" basis to find appropriate references for prediction. In some cases, according to the search results obtained by the predictor (435), the input picture may have prediction references extracted from the plurality of reference pictures stored in the reference picture memory (434).
[50] Контроллер (450) может управлять операциями кодирования видеокодера (430), включая, например, установление параметров, а также параметров подгруппы, используемых для кодирования видеоданных.[50] The controller (450) may control the encoding operations of the video encoder (430), including, for example, setting parameters as well as subgroup parameters used to encode video data.
[51] Выходной сигнал всех вышеупомянутых функциональных модулей может подвергаться энтропийному кодированию в энтропийном кодере (445). Энтропийный кодер переводит символы, сформированные различными функциональными модулями, в кодированную видеопоследовательность путем сжатия символов без потерь согласно, например, технологиям, известным специалисту в данной области техники, например, согласно кодированию Хаффмана, кодированию с переменной длиной серии, арифметическому кодированию и т.д.[51] The output signal of all the above functional modules can be entropy encoded in an entropy encoder (445). The entropy encoder translates the symbols generated by the various functional units into an encoded video sequence by lossless symbol compression according to, for example, techniques known to one skilled in the art, such as Huffman coding, variable run length coding, arithmetic coding, and so on.
[52] Передатчик (440) может буферизовать кодированную(ые) видеопоследовательность(и), созданную(ые) энтропийным кодером (445), для подготовки к передаче через канал (460) связи, который может быть аппаратной/программной линией связи с запоминающим устройством, где хранятся кодированные видеоданные. Передатчик (440) может объединять кодированные видеоданные от видеокодера (430) с другими данными, подлежащими передаче, например, с кодированными аудиоданными и/или вспомогательными потоками данных (источники не показаны).[52] The transmitter (440) may buffer the encoded video sequence(s) created by the entropy encoder (445) in preparation for transmission over a communication channel (460), which may be a hardware/software memory link. where the encoded video data is stored. The transmitter (440) may combine the encoded video data from the video encoder (430) with other data to be transmitted, such as encoded audio data and/or auxiliary data streams (sources not shown).
[53] Контроллер (450) может управлять работой кодера (203). В ходе кодирования контроллер (450) может назначать каждому кодированному изображению тот или иной тип кодированного изображения, который может определять методы кодирования, применимые к соответствующему изображению. Например, изображениям часто могут назначаться следующие типы кадров.[53] The controller (450) may control the operation of the encoder (203). During encoding, the controller (450) may assign to each encoded picture one or another encoded picture type, which may determine the encoding methods applicable to the corresponding picture. For example, images can often be assigned the following types of frames.
[54] Изображение с внутренним кодированием (I-изображение), которое можно кодировать и декодировать без использования какого-либо другого кадра в последовательности в качестве источника для предсказания. Некоторые видеокодеки допускают разные типы изображений с внутренним кодированием, включая, например, изображения в формате независимого обновления декодера (IDR, Independent Decoder Refresh). Специалисту в данной области техники известны разновидности I-изображений и их соответствующие варианты применения и особенности.[54] An intra-coded picture (I-picture) that can be encoded and decoded without using any other frame in the sequence as a source for prediction. Some video codecs allow different types of intra-coded images, including, for example, images in the Independent Decoder Refresh (IDR) format. One skilled in the art will be aware of the I-image varieties and their respective applications and features.
[55] Изображение с предсказанием (Р-изображение), которое можно кодировать и декодировать с использованием внутреннего предсказания или внешнего предсказания с использованием не более одного вектора движения и опорного индекса для предсказания значений отсчетов каждого блока.[55] A predictive picture (P-picture) that can be encoded and decoded using intra prediction or inter prediction using at most one motion vector and a reference index to predict sample values of each block.
[56] Изображение с двунаправленным предсказанием (В-изображение), которое можно кодировать и декодировать с использованием внутреннего предсказания или внешнего предсказания с использованием не более двух векторов движения и опорных индексов для предсказания значений отсчетов каждого блока. Аналогично, изображения с множеством предсказаний могут использовать более двух опорных изображений и соответствующие метаданные для реконструкции одного блока.[56] A bidirectional predictive picture (B-picture) that can be encoded and decoded using intra prediction or inter prediction using no more than two motion vectors and reference indices to predict sample values of each block. Likewise, multi-prediction pictures may use more than two reference pictures and associated metadata to reconstruct a single block.
[57] Исходные изображения обычно допускают пространственное разделение на множество блоков отсчетов (например, блоки 4×4, 8×8, 4×8 или 16×16 отсчетов каждый) и кодирование на поблочной основе (блок за блоком). Блоки могут кодироваться с предсказанием со ссылкой на другие (ранее кодированные) блоки, определенные назначением кодирования, применяемым к соответствующим изображениям этих блоков. Например, блоки I-изображений могут кодироваться без предсказания или с предсказанием со ссылкой на ранее кодированные блоки того же изображения (с пространственным предсказанием или внутренним предсказанием). Блоки пикселей Р-изображений могут кодироваться без предсказания, посредством пространственного предсказания или временного предсказания со ссылкой на одно ранее кодированное опорное изображение. Блоки В-изображений могут кодироваться без предсказания, посредством пространственного предсказания или временного предсказания со ссылкой на одно или два ранее кодированных опорных изображения.[57] Source images typically allow for spatial division into multiple blocks of samples (eg, blocks of 4x4, 8x8, 4x8, or 16x16 samples each) and coding on a block-by-block basis. The blocks may be predictively encoded with reference to other (previously coded) blocks defined by the coding assignment applied to the respective images of those blocks. For example, blocks of I-pictures may be encoded without prediction or predictively with reference to previously encoded blocks of the same picture (with spatial prediction or intra prediction). The pixel blocks of P-pictures may be encoded without prediction, either by spatial prediction or temporal prediction with reference to one previously encoded reference picture. Blocks of B-pictures may be encoded without prediction, by spatial prediction or temporal prediction with reference to one or two previously encoded reference pictures.
[58] Видеокодер (203) может осуществлять операции кодирования согласно заранее заданной технологии или стандарту кодирования видеоданных, например, Рекомендации МСЭ-Т Н.265. В своей работе видеокодер (203) может осуществлять различные операции сжатия, в том числе операции кодирования с предсказанием, которые используют временную и пространственную избыточность во входной видеопоследовательности. Поэтому кодированные видеоданные могут соответствовать синтаксису, заданному используемой технологией или используемым стандартом кодирования видеоданных.[58] The video encoder (203) may perform encoding operations according to a predetermined video coding technology or standard, such as ITU-T Rec. H.265. In operation, the video encoder (203) may perform various compression operations, including predictive coding operations that exploit temporal and spatial redundancy in the input video sequence. Therefore, the encoded video data may follow the syntax given by the technology used or the video coding standard used.
[59] Согласно варианту осуществления изобретения, передатчик (440) может передавать дополнительные данные с кодированными видеоданными. Видеокодер (430) источника может включать такие данные как часть кодированной видеопоследовательности. Дополнительные данные могут содержать временные/пространственные/SNR уровни улучшения, другие формы избыточных данных, например, избыточные изображения и слайсы, сообщения дополнительной информации улучшения (SEI), фрагменты набора параметров информации о возможности использования видео (VUI) и т.д.[59] According to an embodiment of the invention, the transmitter (440) may transmit additional data with encoded video data. The source video encoder (430) may include such data as part of the encoded video sequence. The additional data may comprise temporal/spatial/SNR enhancement levels, other forms of redundant data such as redundant images and slices, enhancement additional information (SEI) messages, video usability information (VUI) parameter set fragments, and so on.
[60] В последнее время некоторое внимание привлекает объединение сжатых областей или извлечение нескольких семантически независимых частей изображения с формированием одного видеоизображения. В частности, в контексте, например, 360-градусного кодирования или определенных приложений наблюдения, несколько семантически независимых исходных изображений (например, поверхность из шести граней 360-градусного изображения, спроецированного на куб, или отдельные входы камеры в случае установки наблюдения с несколькими камерами) могут потребовать отдельных настроек адаптивного разрешения, чтобы учесть различную активность для каждого изображения в данный момент времени. Другими словами, кодеры в данный момент времени могут использовать различные коэффициенты передискретизации для различных семантически независимых изображений, составляющих все 360-градусное изображение или сцену наблюдения. При объединении в одно изображение это, в свою очередь, требует выполнения передискретизации опорного изображения и сигнализации кодирования с адаптивным разрешением для частей кодированного изображения.[60] Recently, some attention has been paid to combining compressed regions or extracting several semantically independent parts of an image to form a single video image. In particular, in the context of e.g. 360-degree encoding or certain surveillance applications, multiple semantically independent source images (e.g., a six-facet surface of a 360-degree image projected onto a cube, or separate camera inputs in the case of a multi-camera surveillance setup) may require separate adaptive resolution settings to account for different activity for each image at a given time. In other words, encoders at a given time may use different resampling factors for different semantically independent images that make up the entire 360-degree image or scene of observation. When combined into a single picture, this in turn requires performing reference picture resampling and adaptive resolution coding signaling for parts of the encoded picture.
[61] Ниже будет введено несколько терминов, которые будут использоваться в остальной части этого описания.[61] Several terms will be introduced below and will be used in the rest of this description.
[62] Субизображение может относиться, в некоторых случаях, к прямоугольной организации отсчетов, блоков, макроблоков, единиц кодирования или аналогичных объектов, которые семантически сгруппированы и могут независимо кодироваться в измененном разрешении. Одно или более субизображений могут образовывать изображение. Одно или более кодированных субизображений могут образовывать кодированное изображение. Одно или более субизображений могут быть собраны в изображение, и одно или более субизображений могут быть извлечены из изображения. В определенных средах одно или более кодированных субизображений могут быть собраны в кодированное изображение в области сжатия без перекодирования в уровень отсчетов, и в том же или других случаях одно или более кодированных субизображений могут быть извлечены из кодированного изображения в области сжатия.[62] A sub-image may refer, in some cases, to a rectangular organization of samples, blocks, macroblocks, coding units, or similar objects that are semantically grouped and can be independently encoded in a modified resolution. One or more sub-images may form an image. One or more encoded sub-images may form an encoded image. One or more sub-images may be assembled into an image, and one or more sub-images may be extracted from the image. In certain environments, one or more encoded sub-images may be assembled into an encoded image in the compression domain without being re-coded to a sample layer, and in the same or other cases, one or more encoded sub-images may be extracted from the encoded image in the compression domain.
[63] Адаптивное изменение разрешения (ARC, Adaptive Resolution Change) может относиться к механизмам, которые позволяют изменять разрешение изображения или субизображения в кодированной видеопоследовательности, например, посредством передискретизации опорного изображения. Параметры ARC в дальнейшем относятся к управляющей информации, которая необходима для выполнения адаптивного изменения разрешения и может включать, например, параметры фильтра, коэффициенты масштабирования, разрешения выходных и/или опорных изображений, различные флаги управления и т.д.[63] Adaptive Resolution Change (ARC) may refer to mechanisms that allow the resolution of an image or sub-images in an encoded video sequence to be changed, for example, by resampling a reference image. The ARC parameters hereinafter refer to control information that is necessary to perform adaptive resolution change and may include, for example, filter parameters, scaling factors, output and/or reference picture resolutions, various control flags, and so on.
[64] В вариантах осуществления изобретения кодирование и декодирование могут выполняться для одного семантически независимого кодированного видеоизображения. Перед описанием последствий кодирования/декодирования нескольких субизображений с независимыми параметрами ARC и их предполагаемой дополнительной сложностью должны быть описаны опции для сигнализации параметров ARC.[64] In embodiments of the invention, encoding and decoding may be performed on a single semantically independent encoded video image. Before describing the consequences of encoding/decoding multiple sub-pictures with independent ARC parameters and their expected additional complexity, options for signaling ARC parameters must be described.
[65] На фиг. 5А-5Е показаны несколько вариантов осуществления изобретения для сигнализации параметров ARC. Как было отмечено, в каждом из вариантов осуществления изобретения они могут иметь определенные преимущества и определенные недостатки с точки зрения эффективности кодирования, сложности и архитектуры. Стандарт или технология кодирования видеоданных может выбрать один или более из этих вариантов осуществления изобретения или опций, известных из уровня техники, для сигнализации параметров ARC. Варианты осуществления изобретения не могут быть взаимоисключающими и, возможно, могут быть взаимозаменяемыми в зависимости от требований в области применения, используемой технологии стандартов или выбора кодера.[65] FIG. 5A-5E show several embodiments of the invention for signaling ARC parameters. As noted, in each of the embodiments of the invention, they may have certain advantages and certain disadvantages in terms of coding efficiency, complexity and architecture. A video coding standard or technology may choose one or more of these embodiments or options known in the art for signaling the ARC parameters. Embodiments of the invention may not be mutually exclusive and may possibly be interchangeable depending on the requirements of the application, the standards technology used, or the choice of encoder.
[66] Классы параметров ARC могут включать:[66] ARC parameter classes may include:
[67] - коэффициенты повышающей/понижающей дискретизации, по отдельности или в комбинации в измерениях X и Y,[67] - upsampling/downsampling coefficients, singly or in combination in the X and Y dimensions,
[68] - коэффициенты повышающей/понижающей дискретизации с добавлением временного измерения, указывающие на увеличение/уменьшение масштаба с постоянной скоростью для данного количества изображений,[68] - upsampling/downsampling ratios with the addition of a temporal dimension, indicative of zooming in/out at a constant rate for a given number of images,
[69] - любой из вышеперечисленных двух классов может включать кодирование одного или более предположительно коротких синтаксических элементов, которые могут указывать на таблицу, содержащую коэффициент(ы),[69] - any of the above two classes may include the encoding of one or more supposedly short syntax elements, which may indicate a table containing coefficient(s),
[70] - разрешение, по оси X или Y, в единицах отсчетов, блоков, макроблоков, единиц кодирования (CU) или любой другой подходящей степени разбиения входного изображения, выходного изображения, опорного изображения, кодированного изображения, рассматриваемых в комбинации или по отдельности. Если существует более одного разрешения (например, одно для входного изображения, одно для опорного изображения), то в некоторых случаях один набор значений может быть получен из другого набора значений. Это может управляться, например, с помощью флагов. Более подробный пример описан ниже,[70] is the resolution, along the X or Y axis, in units of samples, blocks, macroblocks, coding units (CUs), or any other suitable granularity of the input picture, output picture, reference picture, encoded picture, considered in combination or separately. If there is more than one resolution (eg, one for the input image, one for the reference image), then in some cases one set of values may be derived from another set of values. This can be controlled, for example, with flags. A more detailed example is described below,
[71] - координаты "деформации" аналогичны координатам, используемым в Приложении Р стандарта Н.263, опять же с подходящей степенью разбиения, как упомянуто выше. В Приложении Р стандарта Н.263 определен эффективный способ кодирования таких координат деформации, но, возможно, могут быть разработаны и другие, потенциально более эффективные, способы. Например, обратимое кодирование переменной длины в стиле Хаффмана координат деформации из Приложения Р может быть заменено двоичным кодированием подходящей длины, где длина слова двоичного кода может быть, например, получена из максимального размера изображения, возможно, умноженного на определенный коэффициент и смещенного на определенное значение, чтобы сделать возможной "деформацию" за пределами границ максимального размера изображения,[71] - "warp" coordinates are similar to those used in Annex P of the H.263 standard, again with the appropriate degree of subdivision as mentioned above. Annex P of the H.263 standard defines an efficient way to encode such strain coordinates, but other, potentially more efficient ways may be devised. For example, the reversible Huffman-style variable-length encoding of warp coordinates from Annex P can be replaced by a suitable length binary encoding, where the length of the binary code word can be, for example, obtained from the maximum image size, perhaps multiplied by a certain factor and offset by a certain value, to allow "warping" beyond the bounds of the maximum image size,
[72] - параметры фильтра повышающей/понижающей дискретизации. В вариантах осуществления изобретения может присутствовать только один фильтр для повышающей/понижающей дискретизации. Однако в вариантах осуществления изобретения может быть желательно обеспечить большую гибкость в конструкции фильтра, и для этого может потребоваться сигнализация параметров фильтра. Такие параметры могут быть выбраны с помощью индекса в списке возможных конструкций фильтров, фильтр может быть полностью задан (например, с помощью списка коэффициентов фильтра, с использованием подходящих методов энтропийного кодирования), фильтр может быть неявно выбран с помощью коэффициентов повышающей/понижающей дискретизации, которые, в свою очередь, сигнализируются в соответствии с любым из механизмов, упомянутых выше, и т.д.[72] - upsampling/downsampling filter parameters. In embodiments of the invention, only one upsampling/downsampling filter may be present. However, in embodiments of the invention, it may be desirable to provide greater flexibility in filter design, and this may require filter parameter signaling. Such parameters may be selected by an index into a list of possible filter designs, the filter may be fully specified (e.g., by a list of filter coefficients, using suitable entropy coding techniques), the filter may be implicitly selected by upsampling/downsampling coefficients, which , in turn, are signaled according to any of the mechanisms mentioned above, and so on.
[73] Последующее описание предполагает кодирование конечного набора коэффициентов повышающей/понижающей дискретизации (один и тот же коэффициент используется как в измерении X, так и в измерении Y), которые указаны посредством кодового слова. Это кодовое слово может кодироваться кодами переменной длины, например, с использованием экспоненциального кода Голомба, принятого для определенных синтаксических элементов в спецификациях кодирования видеоданных, таких как Н.264 и Н.265. Подходящее преобразование значений в коэффициенты повышающей/понижающей дискретизации может, например, соответствовать таблице 1:[73] The following description assumes encoding a finite set of upsampling/downsampling coefficients (the same coefficient is used in both the X dimension and the Y dimension) that are indicated by a codeword. This codeword may be encoded with variable length codes, for example using the Exponential Golomb code adopted for certain syntax elements in video coding specifications such as H.264 and H.265. A suitable conversion of values to upsampling/downsampling coefficients can, for example, follow Table 1:
[74] Многие подобные преобразования могут быть получены в соответствии с потребностями приложения и возможностями механизмов увеличения и уменьшения масштаба, доступных в технологии или стандарте сжатия видеоданных. Таблицу можно было бы расширить до большего количества значений. Значения также могут быть представлены механизмами энтропийного кодирования, отличными от экспоненциальных кодов Голомба, например, с использованием двоичного кодирования. Это может иметь определенные преимущества, когда коэффициенты передискретизации представляют интерес за пределами самих механизмов обработки видеоданных (в первую очередь, кодера и декодера), например, MANE. Следует отметить, что в ситуациях, когда изменение разрешения не требуется, можно выбрать короткий экспоненциальный код Голомба; в приведенной выше таблице это только один бит. Это может иметь преимущество в эффективности кодирования по сравнению с использованием двоичных кодов в наиболее распространенном случае.[74] Many such transformations may be obtained according to the needs of the application and the capabilities of the upscaling and downscaling mechanisms available in the video compression technology or standard. The table could be expanded to more values. Values may also be represented by entropy encoding mechanisms other than Exponential Golomb codes, such as using binary encoding. This can have certain advantages when the oversampling factors are of interest outside of the video processing engines themselves (primarily the encoder and decoder), such as MANE. It should be noted that in situations where a change in resolution is not required, a short Exponential Golomb code can be chosen; in the above table, it is only one bit. This may have an advantage in coding efficiency over using binary codes in the most common case.
[75] Количество записей в таблице, а также их семантика могут быть полностью или частично настраиваемыми. Например, основные данные таблицы могут быть переданы в "высоком" наборе параметров, таком как набор параметров последовательности или декодера. В некоторых вариантах осуществления изобретения одна или более таких таблиц могут быть определены в технологии или стандарте кодирования видеоданных и могут быть выбраны, например, с помощью набора параметров декодера или последовательности.[75] The number of entries in the table, as well as their semantics, can be completely or partially customizable. For example, the underlying table data may be transmitted in a "high" parameter set, such as a sequence or decoder parameter set. In some embodiments of the invention, one or more such tables may be defined in a video coding technology or standard and may be selected, for example, by a set of decoder or sequence parameters.
[76] Ниже описано, как коэффициент повышающей/понижающей дискретизации (информация ARC), кодированный, как описано выше, может быть включен в синтаксис технологии или стандарта кодирования видеоданных. Аналогичное рассмотрение может быть применимо к одному или более кодовым словам, управляющим фильтрами повышающей/понижающей дискретизации. Ниже приведено обсуждение случая, когда для фильтра или других структур данных требуются сравнительно большие объемы данных.[76] The following describes how the upsampling/downsampling ratio (ARC information) encoded as described above can be included in the syntax of a video coding technology or standard. A similar consideration may be applied to one or more codewords driving the upsampling/downsampling filters. The following is a discussion of the case where a filter or other data structure requires relatively large amounts of data.
[77] Как показано на фиг. 5А, приложение Р стандарта Н.263 включает информацию ARC (502) в виде четырех координат деформации в заголовок (501) изображения, а именно в расширение заголовка Н.263 PLUSPTYPE (503). Это может быть разумным выбором при проектировании, если а) имеется заголовок изображения, и b) ожидается частая смена информации ARC. Однако накладные расходы при использовании сигнализации в соответствии с Н.263 могут быть довольно высокими, а коэффициенты масштабирования могут не относиться к границам изображения, поскольку заголовок изображения может иметь переходный характер.[77] As shown in FIG. 5A, H.263 Annex P includes ARC information (502) in the form of four warp coordinates in the image header (501), namely the H.263 PLUSPTYPE header extension (503). This may be a reasonable design choice if a) there is an image header, and b) the ARC information is expected to change frequently. However, the overhead of using H.263 signaling can be quite high, and the scaling factors may not apply to picture boundaries because the picture header may be transient.
[78] Как показано на фиг. 5В, JVCET-M135-v1 включает опорную информацию ARC (505) (индекс), расположенную в наборе (504) параметров изображения и указывающую на таблицу (506), включающую целевые разрешения, которая, в свою очередь, находится внутри набора (507) параметров последовательности. Размещение возможного разрешения в таблице (506) в наборе (507) параметров последовательности, в соответствии с заявлениями, сделанными авторами, может быть оправдано использованием SPS для обеспечения совместимости при обмене возможностями. Разрешение может изменяться от изображения к изображению в пределах, установленных значениями в таблице (506), путем обращения к соответствующему набору (504) параметров изображения.[78] As shown in FIG. 5B, JVCET-M135-v1 includes ARC reference information (505) (index) located in the set (504) of image parameters and pointing to a table (506) including target resolutions, which, in turn, is inside the set (507) sequence parameters. Placing a candidate resolution in a table (506) in a set (507) of sequence parameters, as claimed by the authors, may be justified by using the SPS for interoperability in capability exchange. The resolution can be changed from image to image within the limits set by the values in the table (506) by referring to the corresponding set (504) of image parameters.
[79] Как показано на фиг. 5С-5Е, следующие варианты осуществления изобретения могут предусматривать передачу информации ARC в битовом потоке видеоданных. Каждый из этих вариантов имеет определенные преимущества по сравнению с вариантами, описанными выше. Варианты осуществления изобретения могут одновременно использоваться в одной и той же технологии или одном и том же стандарте кодирования видеоданных.[79] As shown in FIG. 5C-5E, the following embodiments of the invention may involve the transmission of ARC information in a video bitstream. Each of these options has certain advantages over the options described above. Embodiments of the invention can be simultaneously used in the same technology or the same video coding standard.
[80] В вариантах осуществления изобретения, например, в варианте осуществления изобретения, показанном на фиг. 5С, информация ARC (509), такая как коэффициент передискретизации (масштабирования), может присутствовать в заголовке слайса, заголовке GOP, заголовке тайла или заголовке группы тайлов. Фиг. 5С иллюстрирует вариант осуществления изобретения, в котором используется заголовок (508) группы тайлов. Этого может быть достаточно, если информация ARC небольшая, например, представляет собой одиночное кодовое слово переменной длины ue(v) или кодовое слово фиксированной длины из небольшого числа битов, например, как показано выше. Наличие информации ARC непосредственно в заголовке группы тайлов имеет дополнительное преимущество, поскольку информация ARC может быть применима к субизображению, представленному, например, этой группой тайлов, а не ко всему изображению. См. также описание ниже. Кроме того, даже если технология или стандарт сжатия видеоданных предусматривает только адаптивное изменение разрешения всего изображения (в отличие, например, от адаптивного изменения разрешения на основе группы тайлов), размещение информации ARC в заголовке группы тайлов по сравнению с помещением ее в заголовок изображения в стиле Н.263 имеет определенные преимущества с точки зрения устойчивости к ошибкам.[80] In embodiments of the invention, for example, in the embodiment of the invention shown in FIG. 5C, ARC information (509) such as a resampling (scaling) factor may be present in a slice header, a GOP header, a tile header, or a tile group header. Fig. 5C illustrates an embodiment of the invention that uses a tile group header (508). This may be sufficient if the ARC information is small, such as a single variable length codeword ue(v) or a fixed length codeword of a small number of bits, such as shown above. Having the ARC information directly in the tile group header has the added benefit that the ARC information may be applicable to a sub-image represented by that tile group, for example, rather than to the entire image. See also the description below. In addition, even if a video compression technology or standard only provides for adaptive resizing of the entire image (as opposed to, for example, adaptive resizing based on a tile group), placing ARC information in the tile group header versus placing it in the image header in style H.263 has certain advantages in terms of error tolerance.
[81] В вариантах осуществления изобретения, например в варианте осуществления изобретения, показанном на фиг. 5D, сама информация (512) ARC может присутствовать в соответствующем наборе параметров, таком как, например, набор параметров изображения, набор параметров заголовка, набор параметров тайла, набор параметров адаптации и т.д. Фиг. 5D иллюстрирует вариант осуществления изобретения, в котором используется набор (511) параметров адаптации. Область действия этого набора параметров предпочтительно может быть не больше, чем изображение, например, может распространяться на группу тайлов. Информация ARC используется неявно путем активации соответствующего набора параметров. Например, когда технология или стандарт кодирования видеоданных рассматривают ARC только на основе изображения, тогда может быть подходящим набор параметров изображения или эквивалентный набор.[81] In embodiments of the invention, such as the embodiment shown in FIG. 5D, the ARC information (512) itself may be present in a corresponding parameter set such as, for example, a picture parameter set, a header parameter set, a tile parameter set, an adaptation parameter set, and so on. Fig. 5D illustrates an embodiment of the invention that uses a set (511) of adaptation parameters. The scope of this set of parameters may preferably be no larger than the image, for example, may extend over a group of tiles. The ARC information is used implicitly by activating the appropriate set of options. For example, when a video coding technology or standard considers ARC based on an image only, then a set of image parameters or an equivalent set may be appropriate.
[82] В вариантах осуществления изобретения, например, в варианте осуществления изобретения, показанном на фиг. 5Е, опорная информация (513) ARC может присутствовать в заголовке (514) группы тайлов или аналогичной структуре данных. Эта опорная информация (513) может относиться к подмножеству информации ARC (515), доступной в наборе (516) параметров, с областью действия, выходящей за пределы одного изображения, например, в наборе параметров последовательности или наборе параметров декодера.[82] In embodiments of the invention, for example, in the embodiment of the invention shown in FIG. 5E, the ARC reference information (513) may be present in a tile group header (514) or a similar data structure. This reference information (513) may refer to a subset of the ARC information (515) available in a parameter set (516) with a scope that extends beyond a single picture, such as in a sequence parameter set or a decoder parameter set.
[83] Дополнительный уровень косвенной активации PPS из заголовка группы тайлов, PPS, SPS, как используется в JVET-M0135-v1, кажется ненужным, поскольку наборы параметров изображения, как и наборы параметров последовательности, могут (и должны в определенных стандартах, таких как RFC3984) использоваться для согласования возможностей или объявлений. Если, однако, информация ARC должна быть применима к субизображению, представленному, например, также группами тайлов, набор параметров с областью активации, ограниченной группой тайлов, например набор параметров адаптации или набор параметров заголовка, может быть более подходящим выбором. Кроме того, если размер информации ARC не является незначительным, например, содержит информацию управления фильтром, такую как многочисленные коэффициенты фильтра, - тогда параметр может быть более подходящим выбором, чем непосредственное использование заголовка (508), с точки зрения эффективности кодирования, поскольку эти настройки могут быть повторно использованы для будущих изображений или субизображений со ссылкой на тот же набор параметров.[83] An extra layer of indirect PPS activation from a tile group header, PPS, SPS, as used in JVET-M0135-v1, seems unnecessary because image parameter sets, like sequence parameter sets, can (and should in certain standards such as RFC3984) be used to negotiate capabilities or declarations. If, however, the ARC information is to be applicable to a sub-image represented, for example, also by tile groups, a parameter set with an activation area limited by the tile group, such as an adaptation parameter set or a header parameter set, may be a more appropriate choice. Also, if the size of the ARC information is not small, such as containing filter control information such as multiple filter coefficients, then the parameter may be a better choice than using the (508) header directly from a coding efficiency point of view, since these settings can be reused for future images or subimages with reference to the same set of parameters.
[84] При использовании набора параметров последовательности или другого набора параметров более высокого уровня с областью действия, охватывающей несколько изображений, могут применяться определенные соображения:[84] When using a sequence parameter set or other higher-level parameter set with a scope spanning multiple images, certain considerations may apply:
[85] 1. Набор параметров для хранения таблицы (516) с информацией ARC в некоторых случаях может быть набором параметров последовательности, но в других случаях предпочтительно может быть набором параметров декодера. Набор параметров декодера может иметь область активации нескольких видеопоследовательностей CVS, а именно потока кодированных видеоданных, то есть всех кодированных битов видеоданных от начала сеанса до разрыва сеанса. Такой объем может быть более подходящим, потому что возможные коэффициенты ARC могут быть характеристикой декодера, возможно, реализованной в аппаратном обеспечении, а аппаратные функции, как правило, не зависят от видеопоследовательности CVS (которая по меньшей мере в некоторых развлекательных системах, представляет собой группу изображений длительностью в одну секунду или менее). Тем не менее, помещение таблицы в набор параметров последовательности явно включено в варианты размещения, описанные здесь, в частности, в связи с пунктом 2 ниже.[85] 1. A parameter set for storing a table 516 with ARC information may in some cases be a sequence parameter set, but in other cases may preferably be a decoder parameter set. The decoder parameter set may have an activation area of several CVS video sequences, namely the encoded video data stream, ie all encoded video data bits from session start to session break. Such a scope may be more appropriate because the possible ARC coefficients may be a characteristic of the decoder, possibly implemented in hardware, and hardware functions are generally independent of the CVS video sequence (which, in at least some entertainment systems, is a group of pictures duration of one second or less). However, placing a table in a sequence parameter set is explicitly included in the placement options described here, in particular in connection with point 2 below.
[86] 2. Опорная информация ARC (513) может быть предпочтительно помещена непосредственно в заголовок изображения/слайса тайла/GOP/группы тайлов, например, в заголовок (514) группы тайлов, а не в набор параметров изображения, как в JVCET-M0135-v1. Например, когда кодеру нужно изменить одно значение в наборе параметров изображения, такое как, например, опорная информация ARC, он должен создать новый набор PPS и ссылаться на этот новый набор PPS. Предположим, что изменяется только опорная информация ARC, но другая информация, такая как, например, информация матрицы квантования в PPS, остается неизменной. Такая информация может быть значительного размера, и ее необходимо будет повторно передать, чтобы сделать полным новый набор PPS. Поскольку опорная информация ARC (513) может быть единственным кодовым словом, например индексом в таблице, и это будет единственное значение, которое изменяется, было бы обременительно и расточительно повторно передавать, например, всю информацию матрицы квантования. В этом отношении может быть значительно лучше с точки зрения эффективности кодирования, избежать косвенного обращения через PPS, как предлагается в JVET-M0135-v1. Аналогично, размещение опорной информации ARC в PPS имеет дополнительный недостаток, заключающийся в том, что информация ARC, на которую ссылается опорная информация ARC (513), может применяться ко всему изображению, а не к субизображению, поскольку областью активации набора параметров изображения является изображение.[86] 2. The ARC reference information (513) may preferably be placed directly in the image/tile slice/GOP/tile group header, for example, in the tile group header (514), rather than in the picture parameter set as in JVCET-M0135 -v1. For example, when an encoder needs to change one value in a picture parameter set, such as the ARC reference information, for example, it must create a new PPS set and refer to this new PPS set. Assume that only the ARC reference information is changed, but other information, such as the quantization matrix information in PPS, for example, remains unchanged. Such information can be of considerable size and will need to be retransmitted to complete the new PPS set. Since the ARC reference information (513) may be a single codeword, such as an index in a table, and this will be the only value that changes, it would be cumbersome and wasteful to retransmit, for example, all of the quantization matrix information. In this regard, it may be significantly better, in terms of encoding efficiency, to avoid indirection via PPS, as proposed in JVET-M0135-v1. Likewise, placing the ARC reference information in the PPS has the additional disadvantage that the ARC information referred to by the ARC reference information (513) may apply to the entire image and not to a sub-image, since the activation area of the image parameter set is the image.
[87] В том же или другом варианте осуществления изобретения сигнализация параметров ARC может следовать подробному примеру, показанному на фиг. 6А-6В. На фиг. 6А-6В изображены синтаксические диаграммы в виде представления с использованием системы обозначений, которая примерно соответствует программированию в стиле С, используемому, например, в стандартах кодирования видеоданных по меньшей мере с 1993 года. Строки, выделенные жирным шрифтом, указывают на синтаксические элементы, присутствующие в битовом потоке, строки без жирного шрифта часто указывают на поток данных управления или установку переменных.[87] In the same or another embodiment of the invention, ARC parameter signaling may follow the detailed example shown in FIG. 6A-6B. In FIG. 6A-6B are representational syntax diagrams using a notation that roughly corresponds to C-style programming used, for example, in video coding standards since at least 1993. Lines in bold indicate syntax elements present in the bitstream, lines without bold often indicate a control data stream or variable setting.
[88] Как показано на фиг. 6А, заголовок (601) группы тайлов в качестве примера синтаксической структуры заголовка, применимого к (возможно, прямоугольной) части изображения, может условно содержать синтаксический элемент dec_pic_size_idx (602) (выделен жирным шрифтом) переменной длины, кодированный экспоненциальным кодом Голомба. Наличие этого синтаксического элемента в заголовке группы тайлов может быть обусловлено использованием адаптивного разрешения (603) - здесь значение флага не выделено жирным шрифтом, что означает, что флаг присутствует в битовом потоке в том месте, где он встречается в синтаксической диаграмме. О том, используется ли адаптивное разрешение для данного изображения или его части, может сигнализироваться в любой синтаксической структуре высокого уровня внутри или вне битового потока. В показанном примере это сигнализируется в наборе параметров последовательности, как описано ниже.[88] As shown in FIG. 6A, a tile group header (601), as an example of a header syntax structure applicable to a (possibly rectangular) part of an image, may conventionally contain a dec_pic_size_idx (602) (in bold) variable length syntax element encoded in Exponential Golomb code. The presence of this syntax element in the tile group header may be due to the use of adaptive resolution (603) - here the flag value is not in bold, which means that the flag is present in the bitstream where it occurs in the syntax diagram. Whether adaptive resolution is being used for a given image or part of it can be signaled in any high-level syntactic structure inside or outside the bitstream. In the example shown, this is signaled in the sequence parameter set, as described below.
[89] На фиг. 6В также показан фрагмент набора (610) параметров последовательности. Первый показанный синтаксический элемент - adaptive_pic_resolution_change_flag (611). В случае значения "истина" этот флаг может указывать на использование адаптивного разрешения, что, в свою очередь, может потребовать определенной управляющей информации. В примере такая управляющая информация условно присутствует на основе значения флага, основанного на конструкции if() в наборе (612) параметров и заголовке (601) группы тайлов.[89] FIG. 6B also shows a fragment of the set (610) of sequence parameters. The first syntax element shown is adaptive_pic_resolution_change_flag (611). If true, this flag may indicate the use of adaptive resolution, which in turn may require certain control information. In the example, such control information is conditionally present based on the value of the flag based on the if() construct in the parameter set (612) and the tile group header (601).
[90] При использовании адаптивного разрешения в данном примере кодируется выходное разрешение в единицах отсчетов (613). Цифра 613 относится как к output_pic_width_in_luma_samples, так и к output_pic_height_in_luma_samples, которые вместе могут задавать разрешение выходного изображения. В других местах технологии или стандарта кодирования видеоданных могут быть определены некоторые ограничения для любого из этих значений. Например, задание уровня может ограничить количество общих выходных отсчетов, которое может быть произведением значения этих двух синтаксических элементов. Кроме того, определенные технологии или стандарты кодирования видеоданных или внешние технологии или стандарты, такие как, например, стандарты, касающиеся систем, могут ограничивать диапазон нумерации (например, одно или оба измерения должны быть кратны степени числа 2) или соотношение сторон (например, соотношение ширины и высоты 4:3 или 16:9). Такие ограничения могут быть введены для облегчения аппаратных реализаций или по другим причинам и хорошо известны в данной области техники.[90] When using adaptive resolution, this example encodes the output resolution in units of samples (613). The
[91] В некоторых приложениях может быть целесообразно, чтобы кодер инструктировал декодер использовать определенный размер опорного изображения вместо неявного принятия этого размера в качестве размера выходного изображения. В этом примере синтаксический элемент reference_pic_size_present_flag (614) управляет условным наличием размеров опорного изображения (615) (опять же, цифра относится как к ширине, так и к высоте).[91] In some applications, it may be desirable for the encoder to instruct the decoder to use a specific reference picture size instead of implicitly accepting that size as the output picture size. In this example, the reference_pic_size_present_flag syntax element (614) controls the conditional presence of the reference picture dimensions (615) (again, the figure refers to both width and height).
[92] Наконец, показана таблица возможных значений ширины и высоты изображения при декодировании. Такая таблица может быть выражена, например, указанием таблицы (num_dec_pic_size_in_luma_samples_minus1) (616). Здесь "minusl" может относиться к интерпретации значения этого синтаксического элемента. Например, если кодированное значение равно нулю, то присутствует одна запись таблицы. Если значение равно пяти, то в таблице присутствует шесть записей. Для каждой "строки" в таблице ширина и высота декодированного изображения затем включаются в синтаксис (617).[92] Finally, a table of possible image width and height values during decoding is shown. Such a table may be expressed, for example, by specifying a table (num_dec_pic_size_in_luma_samples_minus1) (616). Here "minusl" may refer to the interpretation of the meaning of this syntax element. For example, if the encoded value is zero, then there is one table entry. If the value is five, then there are six records in the table. For each "row" in the table, the width and height of the decoded image are then included in the syntax (617).
[93] Представленные записи (617) таблицы могут быть проиндексированы с использованием синтаксического элемента dec_pic_size_idx (602) в заголовке группы тайлов, что позволяет использовать различные декодированные размеры - по сути, коэффициенты масштабирования - для каждой группы тайлов.[93] The rendered table entries (617) can be indexed using the dec_pic_size_idx (602) syntax element in the tile group header, which allows for different decoded sizes—essentially scaling factors—for each tile group.
[94] В реализациях VVC известного уровня техники может возникнуть проблема, заключающаяся в том, что циклическая компенсация движения не может работать правильно, когда ширина опорного изображения отличается от ширины текущего изображения. В вариантах осуществления изобретения циклическая компенсация движения может быть отключена в синтаксисе высокого уровня, когда уровень текущего изображения является зависимым уровнем или включена передискретизация RPR для текущего уровня. В вариантах осуществления изобретения циклическая обработка может быть отключена во время процесса интерполяции для компенсации движения, когда ширина опорного изображения отличается от ширины текущего изображения.[94] In prior art VVC implementations, a problem may arise in that circular motion compensation may not work correctly when the width of the reference image is different from the width of the current image. In embodiments of the invention, cyclic motion compensation may be disabled in the high-level syntax when the current picture level is a dependent level, or RPR resampling for the current level is enabled. In embodiments of the invention, looping may be disabled during the motion compensation interpolation process when the width of the reference image differs from the width of the current image.
[95] Циклическая компенсация движения может быть полезной функцией для кодирования, например, 360-градусного изображения, проецируемого в формате равнопрямоугольной проекции (ERP, equirectangular projection). Она может уменьшить некоторые визуальные артефакты на линии "сшивания", а также повысить эффективность кодирования. В текущем проекте спецификации VVC JVET-P2001 (новая редакция JVET-Q0041), параметр sps_ref_wraparound_offset_minusl в SPS указывает смещение, используемое для вычисления горизонтального положения циклического перехода.[95] Cyclic motion compensation can be a useful feature for encoding, for example, a 360-degree image projected in equirectangular projection (ERP) format. It can reduce some of the visual artifacts at the "sewing" line, and also improve coding efficiency. In the current draft VVC specification JVET-P2001 (new revision JVET-Q0041), the sps_ref_wraparound_offset_minusl parameter in SPS specifies the offset used to calculate the horizontal position of the wraparound.
[96] Может возникнуть проблема, связанная с тем, что значение смещения циклического перехода определяется в зависимости от ширины изображения. Если ширина изображения опорного изображения отличается от ширины текущего изображения, значение смещения циклического перехода должно быть изменено пропорционально коэффициенту масштабирования между текущим изображением и опорным изображением. На практике, однако, это может значительно увеличить сложность реализации и вычислений для регулировки значения смещения в соответствии с шириной изображения каждого опорного изображения по сравнению с преимуществом циклической компенсации движения. Межуровневое предсказание с разными размерами изображения и передискретизация опорного изображения (RPR) может привести к весьма различным комбинациям разных разрешений изображения по уровням и по временным изображениям.[96] There may be a problem that the wraparound offset value is determined depending on the width of the image. If the image width of the reference image is different from the width of the current image, the wraparound offset value must be changed in proportion to the scaling factor between the current image and the reference image. In practice, however, this can greatly increase the implementation and computational complexity for adjusting the offset value according to the image width of each reference image over the benefit of cyclic motion compensation. Inter-layer prediction with different picture sizes and reference picture resampling (RPR) can lead to very different combinations of different picture resolutions across levels and across temporal pictures.
[97] Варианты осуществления изобретения могут решить эту проблему. Например, в вариантах осуществления изобретения циклическая компенсация движения может быть отключена путем установки флага sps_ref_wraparound_enabled_flag равным 0, когда уровень текущего изображения является зависимым уровнем или включена передискретизация RPR для текущего уровня. Таким образом, циклическая компенсация движения может использоваться только тогда, когда текущий уровень является независимым уровнем и RPR отключена. При этом условии размер опорного изображения должен быть равен размеру текущего изображения. Кроме того, в вариантах осуществления изобретения процесс циклической компенсации движения может быть отключен во время процесса интерполяции для компенсации движения, когда ширина опорного изображения отличается от ширины текущего изображения.[97] Embodiments of the invention can solve this problem. For example, in embodiments of the invention, circular motion compensation can be disabled by setting the sps_ref_wraparound_enabled_flag flag to 0 when the current picture layer is layer dependent or RPR resampling is enabled for the current layer. Thus, cyclic motion compensation can only be used when the current level is level independent and RPR is disabled. Under this condition, the size of the reference image must be equal to the size of the current image. Furthermore, in embodiments of the invention, the cyclic motion compensation process may be disabled during the interpolation process for motion compensation when the width of the reference image is different from the width of the current image.
[98] Варианты осуществления изобретения можно использовать по отдельности или комбинировать в любом порядке. Кроме того, каждый из способов (или вариантов осуществления изобретения), кодера и декодера может быть реализован схемой обработки (например, одним или более процессорами или одной или более интегральными схемами). В одном примере один или более процессоров выполняют программу, которая хранится на машиночитаемом носителе.[98] Embodiments of the invention can be used individually or combined in any order. In addition, each of the encoder and decoder methods (or embodiments) may be implemented by a processing circuit (eg, one or more processors or one or more integrated circuits). In one example, one or more processors execute a program that is stored on a computer-readable medium.
[99] Фиг. 7 иллюстрирует пример таблицы синтаксиса согласно вариантам осуществления изобретения. В вариантах осуществления изобретения флаг sps_ref_wraparound_enabled_flag (701), равный 1, может указывать на то, что горизонтальная циклическая компенсация движения применяется во внешнем предсказании. Флаг sps_ref_wraparound_enabled_flag (701), равный 0, может указывать на то, что горизонтальная циклическая компенсация движения не применяется. Когда значение (CtbSizeY / MinCbSizeY+1) меньше или равно (pic_width_in_luma_samples / MinCbSize Y-1), где pic_width_in_luma_samples - это значение pic_width_in_luma_samples в любом PPS, который относится к SPS, значение sps_ref_wraparound_enabled_flag (701) может быть равно 0. Требование соответствия битового потока может заключаться в том, что, когда значение vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]] равно 0, значение sps_ref_wraparound_enabled_flag (701) должно быть равно 0. При его отсутствии, может быть сделан вывод, что значение sps_ref_wraparound_enabled_flag (701) равно 0.[99] FIG. 7 illustrates an example syntax table according to embodiments of the invention. In embodiments of the invention, the flag sps_ref_wraparound_enabled_flag (701) equal to 1 may indicate that horizontal cyclic motion compensation is applied in inter prediction. The sps_ref_wraparound_enabled_flag (701) flag of 0 may indicate that horizontal cyclic motion compensation is not applied. When the value of (CtbSizeY / MinCbSizeY+1) is less than or equal to (pic_width_in_luma_samples / MinCbSize Y-1), where pic_width_in_luma_samples is the value of pic_width_in_luma_samples in any PPS that relates to SPS, the value of sps_ref_wraparound_enabled_flag (701) may be 0. Bitstream conformance requirement may be that when the value of vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]] is 0, the value of sps_ref_wraparound_enabled_flag (701) should be 0. If it is absent, it may be inferred that the value of sps_ref_wraparound_enabled_flag (701) is 0.
[100] В вариантах осуществления изобретения значение refPicWidthInLumaSamples может быть значением pic_width_in_luma_samples текущего опорного изображения текущего изображения. В вариантах осуществления изобретения, если значение refPicWidthInLumaSamples равно значению pic_width_in_luma_samples текущего изображения, флаг refWraparoundEnabledFlag может быть установлен равным sps_ref_wraparound_enabled_flag. В противном случае флаг refWraparoundEnabledFlag может быть установлен равным 0.[100] In embodiments of the invention, the value of refPicWidthInLumaSamples may be the value of pic_width_in_luma_samples of the current reference picture of the current picture. In embodiments of the invention, if the value of refPicWidthInLumaSamples is equal to the value of pic_width_in_luma_samples of the current image, the refWraparoundEnabledFlag flag may be set to sps_ref_wraparound_enabled_flag. Otherwise, the refWraparoundEnabledFlag flag can be set to 0.
[101] Расположение яркости в единицах полных отсчетов (xIniti, yInti) может быть получено следующим образом для i=0…1:[101] The location of brightness in units of full samples (xIniti, yInti) can be obtained as follows for i=0…1:
[102] Если значение subpic_treated_as_pic_flag[SubPicIdx] равно 1, может применяться следующее:[102] If the value of subpic_treated_as_pic_flag[SubPicIdx] is 1, the following may apply:
[103] В противном случае (значение subpic_treated_as_pic_flag[SubPicIdx] равно 0) может применяться следующее:[103] Otherwise (subpic_treated_as_pic_flag[SubPicIdx] is 0), the following may apply:
[104] Расположение яркости в единицах полных отсчетов (xInt, yInt) может быть получено следующим образом:[104] The location of the brightness in units of full samples (xInt, yInt) can be obtained as follows:
[105] Если значение subpic_treated_as_pic_flag[SubPicIdx] равно 1, применяется следующее:[105] If the value of subpic_treated_as_pic_flag[SubPicIdx] is 1, the following applies:
[106] В противном случае может применяться следующее:[106] Otherwise, the following may apply:
[107] Предсказанное значение отсчета яркости predSampleLXL может быть получено следующим образом: predSampleLXL=refPicLXL[xInit][yInt] <<shift3.[107] The predicted luminance sample value predSampleLXL can be obtained as follows: predSampleLXL=refPicLXL[xInit][yInt] <<shift3.
[108] Положения цветности в единицах полных отсчетов (xIniti, yInti) могут быть получены следующим образом для i=0…3:[108] Chromaticity positions in units of full samples (xIniti, yInti) can be obtained as follows for i=0…3:
[109] Если значение subpic_treated_as_pic_flag[SubPicIdx] равно 1, может применяться следующее:[109] If the value of subpic_treated_as_pic_flag[SubPicIdx] is 1, the following may apply:
[110] В противном случае (значение subpic_treated_as_pic_flag[SubPicIdx] равно 0) может применяться следующее:[110] Otherwise (subpic_treated_as_pic_flag[SubPicIdx] is 0), the following may apply:
[111] Расположение цветности в единицах полных отсчетов (xIniti, yInti) может быть дополнительно изменено следующим образом для i=0…3:[111] The arrangement of chromaticity in units of full samples (xIniti, yInti) can be further changed as follows for i=0…3:
[112] Фиг. 8А-8С являются блок-схемами примеров способов 800А, 800В и 800С формирования битового потока кодированных видеоданных согласно вариантам осуществления изобретения. В вариантах осуществления изобретения любой из способов 800А, 800В и 800С или любые части способов 800А, 800В и 800С могут быть объединены в любой комбинации или перестановке и в любом порядке по желанию. В некоторых реализациях, один или более этапов способов на фиг. 8А-8С могут выполняться декодером 210. В некоторых реализациях один или более этапов способов на фиг. 8А-8С могут выполняться другим устройством или группой устройств, отдельных от декодера 210 или включающих его, например кодером 203.[112] FIG. 8A-8C are flowcharts of examples of
[113] Как показано на фиг. 8А, способ 800А может включать выполнение первого определения в отношении того, является ли текущий уровень текущего изображения независимым уровнем (этап 811).[113] As shown in FIG. 8A,
[114] Как показано на фиг. 8А, способ 800А может включать выполнение второго определения в отношении того, включена ли передискретизация опорного изображения для текущего уровня (этап 812).[114] As shown in FIG. 8A,
[115] Как показано на фиг. 8А, способ 800А может включать, на основе первого определения и второго определения, отключение циклической компенсации для текущего изображения (этап 813).[115] As shown in FIG. 8A,
[116] Как показано на фиг. 8А, способ 800А может включать кодирование текущего изображения без циклической компенсации (этап 814).[116] As shown in FIG. 8A,
[117] В варианте осуществления изобретения первое определение может быть выполнено на основе первого флага, сигнализированного в первой синтаксической структуре, а второе определение может быть выполнено на основе второго флага, сигнализированного во второй синтаксической структуре ниже первой синтаксической структуры.[117] In an embodiment, the first determination may be made based on the first flag signaled in the first syntax structure, and the second determination may be made based on the second flag signaled in the second syntax structure below the first syntax structure.
[118] В варианте осуществления изобретения первый флаг может сигнализироваться в наборе параметров видео, а второй флаг может сигнализироваться в наборе параметров последовательности.[118] In an embodiment of the invention, a first flag may be signaled in a video parameter set, and a second flag may be signaled in a sequence parameter set.
[119] В варианте осуществления изобретения циклическая компенсация может быть отключена на основе отсутствия второго флага в наборе параметров последовательности.[119] In an embodiment of the invention, cyclic compensation may be disabled based on the absence of a second flag in the sequence parameter set.
[120] Как показано на фиг. 8В, способ 800В может включать определение, является ли текущий уровень текущего изображения независимым уровнем (этап 821).[120] As shown in FIG. 8B,
[121] Как показано на фиг. 8В, если определено, что текущий уровень не является независимым уровнем ("Нет" на этапе 821), способ 800В может перейти к этапу 822, на котором циклическая компенсация движения может быть отключена.[121] As shown in FIG. 8B, if it is determined that the current layer is not an independent layer ("No" at 821),
[122] Как показано на фиг. 8В, если текущий уровень определен как независимый уровень ("Да" на этапе 821), способ 800В может перейти к этапу 823.[122] As shown in FIG. 8B, if the current layer is determined to be an independent layer ("Yes" at 821),
[123] Как далее показано на фиг. 8В, способ 800В может включать определение, включена ли передискретизация опорного изображения (этап 823).[123] As further shown in FIG. 8B,
[124] Как показано на фиг. 8В, если определено, что передискретизация опорного изображения включена ("Да" на этапе 823), способ 800В может перейти к этапу 822, на котором циклическая компенсация движения может быть отключена.[124] As shown in FIG. 8B, if it is determined that reference picture resampling is enabled ("Yes" in step 823),
[125] Как показано на фиг. 8В, если определено, что передискретизация опорного изображения не включена ("Нет" на этапе 823), способ 800В может перейти к этапу 824, на котором может быть включена циклическая компенсация движения.[125] As shown in FIG. 8B, if it is determined that reference picture resampling is not enabled ("No" at 823),
[126] Как показано на фиг. 8С, способ 800С может включать определение того, что текущий уровень текущего изображения является независимым уровнем (этап 831).[126] As shown in FIG. 8C,
[127] Как показано на фиг. 8С, способ 800С может включать определение того, что включена передискретизация опорного изображения (этап 832).[127] As shown in FIG. 8C,
[128] Как показано на фиг. 8С, способ 800С может включать определение, отличается ли ширина текущего изображения от ширины текущего опорного изображения (этап 833).[128] As shown in FIG. 8C,
[129] Как показано на фиг. 8С, если определено, что ширина текущего изображения отличается от ширины текущего опорного изображения ("Да" на этапе 833), способ 800С может перейти к этапу 834, на котором циклическая компенсация движения может быть отключена.[129] As shown in FIG. 8C, if it is determined that the width of the current picture is different from the width of the current reference picture ("Yes" in step 833),
[130] Как показано на фиг. 8С, если определено, что ширина текущего изображения равна ширине текущего опорного изображения ("Нет" на этапе 821), способ 800С может перейти к этапу 835, на котором может быть включена циклическая компенсация движения.[130] As shown in FIG. 8C, if it is determined that the width of the current picture is equal to the width of the current reference picture ("No" at step 821),
[131] В варианте осуществления изобретения этап 833 может выполняться во время процесса интерполяции для компенсации движения.[131] In an embodiment of the invention, step 833 may be performed during the interpolation process for motion compensation.
[132] Хотя на фиг. 8А-8С показаны примеры этапов способов 800А, 800В и 800С, в некоторых вариантах осуществления изобретения способы 800 могут включать дополнительные этапы, меньшее количество этапов, другие этапы или этапы, расположенные по-другому, чем показано на фиг. 8А-8С. Дополнительно или альтернативно два или более этапов способов 800А, 800В и 800С могут выполняться параллельно.[132] Although FIG. 8A-8C show examples of steps in
[133] Кроме того, предлагаемые способы могут быть реализованы с помощью схем обработки (например, одного или более процессоров или одной или более интегральных схем). В одном из примеров один или более процессоров выполняют программу, которая хранится на машиночитаемом носителе, для выполнения одного или более предлагаемых способов.[133] In addition, the proposed methods can be implemented using processing circuits (eg, one or more processors or one or more integrated circuits). In one example, one or more processors execute a program that is stored on a computer-readable medium to perform one or more of the proposed methods.
[134] Вышеописанные способы могут быть реализованы в виде компьютерного программного обеспечения, использующего машиночитаемые инструкции и физически хранящегося на одном или более машиночитаемых носителях. Например, на фиг. 9 показана компьютерная система 900, пригодная для осуществления некоторых вариантов осуществления изобретения.[134] The above methods may be implemented as computer software using computer-readable instructions and physically stored on one or more computer-readable media. For example, in FIG. 9 shows a computer system 900 suitable for practicing some embodiments of the invention.
[135] Компьютерное программное обеспечение может кодироваться с использованием любого подходящего машинного кода или компьютерного языка, который может подвергаться ассемблированию, компиляции, редактированию связей или аналогичной обработке для создания кода, содержащего инструкции, которые могут выполняться напрямую или посредством интерпретации, выполнения микрокода и т.п., компьютерными центральными процессорами (CPU, central processing units), графическими процессорами (GPU, Graphics Processing Units) и т.п.[135] Computer software may be coded using any suitable machine code or computer language, which may be assembled, compiled, linked, or similarly processed to produce code containing instructions that can be executed directly or through interpretation, execution of microcode, etc. etc., computer central processing units (CPU, central processing units), graphic processors (GPU, Graphics Processing Units), etc.
[136] Инструкции могут выполняться на компьютерах различных типов или их компонентах, включая, например, персональные компьютеры, планшетные компьютеры, серверы, смартфоны, игровые устройства, устройства интернета вещей и т.п.[136] The instructions may be executed on various types of computers or components thereof, including, for example, personal computers, tablet computers, servers, smartphones, gaming devices, IoT devices, and the like.
[137] Компоненты компьютерной системы 900, показанные на фиг. 9, носят иллюстративный характер и не призваны налагать какое-либо ограничение на объем применения или функциональные возможности компьютерного программного обеспечения, реализующего варианты осуществления настоящего изобретения. Конфигурацию компонентов также не следует интерпретировать как имеющую какую-либо зависимость или требование в связи с любым компонентом или комбинацией компонентов, показанных в примере осуществления компьютерной системы 900.[137] The components of the computer system 900 shown in FIG. 9 are illustrative in nature and are not intended to impose any limitation on the scope of application or functionality of computer software implementing embodiments of the present invention. The component configuration should also not be interpreted as having any dependency or requirement in connection with any component or combination of components shown in the exemplary computer system 900.
[138] Компьютерная система 900 может включать некоторые устройства ввода с человеко-машинным интерфейсом. Такое устройство ввода может отвечать за ввод одним или более пользователями посредством, например, тактильного ввода (например, нажатий на клавиши, махов, движений информационной перчатки), аудио-ввода (например, голосового, хлопков), визуального ввода (например, жестов), обонятельного ввода (не показан). Устройства интерфейса также могут использоваться для захвата некоторых информационных носителей, не обязательно напрямую связанных с осознанным вводом человеком, например звука (например, речи, музыки, внешнего звука), изображений (например, отсканированных изображений, фотографических изображений, полученных от камеры неподвижных изображений), видео (например, двумерного видео, трехмерного видео, включая стереоскопическое видео).[138] Computer system 900 may include some human-machine interface input devices. Such an input device may be responsible for input by one or more users through, for example, tactile input (e.g., keystrokes, waving, glove movements), audio input (e.g., voice, claps), visual input (e.g., gestures), olfactory input (not shown). Interface devices may also be used to capture certain media not necessarily directly related to conscious human input, such as sound (e.g. speech, music, external sound), images (e.g. scanned images, photographic images received from a still camera), video (eg 2D video, 3D video including stereoscopic video).
[139] Входной человеко-машинный интерфейс устройства может включать одно или более из следующего (показано по одному): клавиатура 901, мышь 902, сенсорная панель 903, сенсорный экран 910 и связанный с ним графический адаптер 950, информационная перчатка, джойстик 905, микрофон 906, сканер 907 и камера 908.[139] The input human-machine interface of the device may include one or more of the following (shown one at a time):
[140] Компьютерная система 900 также может включать в себя некоторые устройства вывода с человеко-машинным интерфейсом. Такие устройства вывода могут стимулировать органы чувств одного или более пользователей посредством, например, тактильного вывода, звука, света и запаха/вкуса. Такие устройства вывода могут включать устройства тактильного вывода (например, тактильной обратной связи посредством сенсорного экрана 910, информационной перчатки или джойстика 905, а также устройства тактильной обратной связи, которые не служат устройствами ввода), устройства вывода аудио (например: динамики 909, наушники (не показаны)), устройства визуального вывода (например, экраны 910, в том числе экраны на электронно-лучевых трубках (CRT, cathode ray tube), жидкокристаллические экраны (LCD, liquid-crystal display), плазменные экраны, экраны на органических светодиодах (OLED, organic light-emitting diode), каждый с возможностями сенсорного экранного ввода или без них, каждый с возможностями тактильной обратной связи или без них, некоторые из них способны к двумерному визуальному выводу или более чем трехмерному выводу посредством, например, стереографическому выводу, очки виртуальной реальности (не показаны), голо графические дисплеи, дымовые баки (не показаны) и принтеры (не показаны).[140] Computer system 900 may also include some human-machine interface output devices. Such output devices may stimulate the senses of one or more users through, for example, tactile output, sound, light, and smell/taste. Such output devices may include tactile output devices (for example, haptic feedback via the 910 touch screen, information glove, or 905 joystick, as well as haptic feedback devices that do not serve as input devices), audio output devices (for example:
[141] Компьютерная система 900 также может включать доступные человеку запоминающие устройства и связанные с ними носители, например, оптические носители, включающие CD/DVD ROM/RW 920 с носителями 921 CD/DVD и т.п., карты 922 флэш-памяти, сменный жесткий диск или твердотельный диск 923, традиционные магнитные носители, например, ленту и магнитный диск (не показан), специализированные устройства на основе ROM/ASIC/PLD, например, защитные аппаратные ключи (не показаны) и т.п.[141] The computer system 900 may also include human accessible storage devices and associated media, such as optical media including CD/DVD ROM/
[142] Специалисты в данной области техники также должны понимать, что термин "машиночитаемые носители", используемый в связи с настоящим изобретением, не охватывает среды передачи, несущие волны или другие временные сигналы.[142] Those skilled in the art should also understand that the term "computer-readable media" as used in connection with the present invention does not encompass transmission media, carrier waves, or other time signals.
[143] Компьютерная система 900 также может включать интерфейс(ы) к одной или более сетям (955) связи. Сети могут быть, например, беспроводными, проводными, оптическими. Сети могут быть также локальными, глобальными, городскими, транспортными и промышленными, реального времени, допускающими задержку и т.д. Примеры сетей включают локальные сети, например, Ethernet, беспроводные сети LAN, сотовые сети, в том числе глобальные системы мобильной связи (GSM, global systems for mobile communications), сети поколений 3G, 4G и 5G, сети технологии долгосрочного развития (LTE, Long-Term Evolution) и т.п., глобальные цифровые сети проводного или беспроводного телевидения, в том числе кабельное телевидение, спутниковое телевидение и наземное телевещание, транспортные и промышленные сети, включающие CANBus и т.д. Некоторые сети обычно требуют внешних адаптеров (954) сетевого интерфейса, которые подключены к некоторым портам данных общего назначения или периферийным шинам (949) (например, порты универсальной последовательной шины (USB, universal serial bus) компьютерной системы 900); другие обычно встраиваются в ядро компьютерной системы 900 путем подключения к системной шине, как описано ниже (например, интерфейс Ethernet в компьютерную систему PC или интерфейс сотовой сети в компьютерную систему смартфона). Например, сеть 955 может быть подключена к периферийной шине 949 с использованием сетевого интерфейса 954. Используя любую из этих сетей, компьютерная система 900 может осуществлять связь с другими объектами. Такая связь может быть однонаправленной с возможностью только приема (например, телевещания), однонаправленной с возможностью только передачи (например, CANbus к некоторым устройствам CANbus) или двунаправленной, например, к другим компьютерным системам с использованием локальной или глобальной цифровой сети. Некоторые протоколы и стеки протоколов могут использоваться в каждой из этих сетей и вышеописанных сетевых интерфейсов (954).[143] Computer system 900 may also include interface(s) to one or more communication networks (955). Networks can be, for example, wireless, wired, optical. Networks can also be local, global, urban, transport and industrial, real-time, latency, etc. Examples of networks include local area networks such as Ethernet, wireless LANs, cellular networks, including global systems for mobile communications (GSM), 3G, 4G, and 5G generation networks, Long Term Evolution (LTE, Long Term Evolution) -Term Evolution), etc., global digital networks of wired or wireless television, including cable television, satellite television and terrestrial television broadcasting, transport and industrial networks, including CANBus, etc. Some networks typically require external network interface adapters (954) that are connected to some general purpose data ports or peripheral buses (949) (for example, computer system 900's USB universal serial bus ports); others are typically built into the core of computer system 900 by connecting to a system bus as described below (eg, an Ethernet interface to a PC computer system or a cellular network interface to a smartphone computer system). For example,
[144] Вышеупомянутые устройства человеко-машинного интерфейса, доступные человеку запоминающие устройства и сетевые интерфейсы могут подключаться к ядру 940 компьютерной системы 900.[144] The aforementioned human-machine interface devices, human-accessible storage devices, and network interfaces can be connected to the
[145] Ядро 940 может включать один или более центральных процессоров (CPU) 941, графические процессоры (GPU) 942, специализированные программируемые модули обработки в форме вентильных матриц, программируемых пользователем (FPGA, Field Programmable Gate Arrays) 943, аппаратные ускорители 944 для некоторых задач и т.д. Эти устройства, совместно с постоянной памятью (ROM) 945, оперативной памятью 946 (RAM), внутренним хранилищем данных большой емкости, например, внутренними жесткими дисками, недоступными пользователю, твердотельными накопителями (SSD, solid-state drives) и т.п. 947, могут соединяться посредством системной шины 948. В некоторых компьютерных системах системная шина 948 может быть доступна в форме одного или более физических разъемов для обеспечения расширений за счет дополнительных процессоров CPU, GPU и т.п. Периферийные устройства могут подключаться либо напрямую к системной шине 948 ядра, либо через периферийную шину 949. Архитектуры периферийной шины включают шину соединения периферийных компонентов (PCI, peripheral component interconnect), USB и т.п.[145] The
[146] Устройства CPU 941, GPU 942, FPGA 943 и ускорители 944 могут выполнять некоторые инструкции, которые совместно могут составлять вышеупомянутый компьютерный код. Этот компьютерный код может храниться в памяти ROM 945 или RAM 946. Временные данные также могут храниться в памяти RAM 946, тогда как постоянные данные могут храниться, например, во внутреннем хранилище 947 данных большой емкости. Быстрое сохранение и извлечение из любого запоминающего устройства может обеспечиваться за счет использования кэш-памяти, которая может быть тесно связана с одним или более процессорами CPU 941, GPU 942, хранилищем 947 данных большой емкости, памятью ROM 945, RAM 946 и т.п.[146]
[147] На машиночитаемых носителях может храниться компьютерный код для осуществления различных выполняемых компьютером операций. Носители и компьютерный код могут быть специально созданы в целях настоящего изобретения или могут относиться к хорошо известным и доступным специалистам в области компьютерного программного обеспечения.[147] Computer-readable media may store computer code for performing various computer-executable operations. The media and computer code may be specially created for the purposes of the present invention or may be well known and available to those skilled in the art of computer software.
[148] В порядке примера, но не ограничения изобретения, компьютерная система, имеющая архитектуру 900, и, в частности, ядро 940 может обеспечивать функциональные возможности благодаря выполнению процессором(ами) (включающим(и) в себя CPU, GPU, FPGA, ускорители и т.п.) программного обеспечения, воплощенного в одном или более материальных машиночитаемых носителей. Такие машиночитаемые носители могут быть носителями, связанными с доступным пользователю хранилищем данных большой емкости, представленным выше, а также некоторым постоянным хранилищем ядра 940, например, внутренним хранилищем 947 данных большой емкости или ROM 945. Программное обеспечение, реализующее различные варианты осуществления настоящего изобретения, может храниться в таких устройствах и выполняться ядром 940. Машиночитаемый носитель может включать одно или более запоминающих устройств или микросхем, в соответствии с конкретными нуждами. Программное обеспечение может предписывать ядру 940 и, в частности, его процессорам (включая CPU, GPU, FPGA и т.п.) выполнять конкретные способы или конкретные части описанных здесь конкретных способов, включая задание структур данных, хранящихся в памяти RAM 946, и модификацию таких структур данных согласно способам, заданным программным обеспечением. Дополнительно или альтернативно, компьютерная система может обеспечивать функциональные возможности благодаря логике, зашитой или иным образом воплощенной в схеме (например, ускоритель 944), которая может действовать вместо программного обеспечения или совместно с программным обеспечением для выполнения конкретных способов или конкретных частей описанных здесь конкретных способов. Ссылка на программное обеспечение может охватывать логику, и наоборот, когда это уместно. Ссылка на машиночитаемые носители может охватывать схему (например, интегральную схему (IC, integrated circuit)), где хранится программное обеспечение для выполнения, схему, воплощающую логику для выполнения, или обе схемы, когда это уместно. Настоящее изобретение охватывает любую подходящую комбинацию аппаратного и программного обеспечения.[148] By way of example, and not limitation of the invention, a computer system having architecture 900, and in
[149] Хотя здесь были описаны некоторые варианты осуществления изобретения, возможны изменения, перестановки и различные эквивалентные замены в пределах объема изобретения. Таким образом, специалисты в данной области техники могут предложить многочисленные системы и способы, которые, хотя в явном виде здесь не показаны и не описаны, воплощают принципы изобретения и, таким образом, соответствуют его сущности и объему.[149] While some embodiments of the invention have been described herein, variations, permutations, and various equivalent substitutions are possible within the scope of the invention. Thus, those skilled in the art can provide numerous systems and methods that, although not explicitly shown or described herein, embody the principles of the invention and thus fall within its spirit and scope.
Claims (43)
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US62/955,520 | 2019-12-31 | ||
US17/064,172 | 2020-10-06 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2022131506A Division RU2022131506A (en) | 2019-12-31 | 2020-11-09 | Cyclic Motion Compensation Method with Reference Picture Resampling |
Publications (1)
Publication Number | Publication Date |
---|---|
RU2785364C1 true RU2785364C1 (en) | 2022-12-06 |
Family
ID=
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2639958C2 (en) * | 2013-04-17 | 2017-12-25 | Нокиа Текнолоджиз Ой | Device, method and computer program for coding and decoding videoinformation |
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2639958C2 (en) * | 2013-04-17 | 2017-12-25 | Нокиа Текнолоджиз Ой | Device, method and computer program for coding and decoding videoinformation |
Non-Patent Citations (1)
Title |
---|
CHIH-YAO CHIU et al, AHG9: On signalling of wrap-around motion compensation, Joint Video Experts Team (JVET) of ITU-T SG16 WP3 and ISO/IEC JTC 1/SC 29/WG11, JVET-Q0184-v1, 17th Meeting: Brussels, JVET-Q0184 (version 1 - date 2019-12-30 12:58:16) найдено на http://phenix.it-sudparis.eu/jvet/doc_end_user/current_document.php?id=9009. YONG HE еt al, On subpicture wraparound motion compensation, Joint Video Experts Team (JVET) of ITU-T SG16 WP3 and ISO/IEC JTC 1/SC 29/WG11, JVET-P0127, 16th Meeting: Geneva, 1-11 October 2019. * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2024220094A1 (en) | Signaling for reference picture resampling | |
CN110708558B (en) | Method and apparatus for representing transform type | |
AU2023201375B2 (en) | Signaling of adaptive picture size in video bitstream | |
CN112005549B (en) | Intra-frame and inter-frame prediction control method, device, equipment and storage medium | |
CN113424546A (en) | Method and apparatus for further improved context design of prediction modes and Coded Block Flags (CBFs) | |
AU2023202527B2 (en) | Method for wrap around motion compensation with reference picture resampling | |
US20240098288A1 (en) | Method for support of scalability with adaptive picture resolution | |
US11539957B2 (en) | Layered random access with reference picture resampling | |
AU2020412559B2 (en) | Method for parameter set reference in coded video stream | |
RU2785364C1 (en) | Method for cyclic motion compensation with oversampling of the reference image | |
RU2784414C1 (en) | Signalling the size of the output image for oversampling the reference image | |
RU2772795C1 (en) | Reference picture resampling method with offset in video bitstream | |
RU2783382C1 (en) | Signalling of inter-layer prediction in a video bitstream |