RU2786015C2 - Obtainment of sample for encoding of 360-degree video - Google Patents

Obtainment of sample for encoding of 360-degree video Download PDF

Info

Publication number
RU2786015C2
RU2786015C2 RU2021110578A RU2021110578A RU2786015C2 RU 2786015 C2 RU2786015 C2 RU 2786015C2 RU 2021110578 A RU2021110578 A RU 2021110578A RU 2021110578 A RU2021110578 A RU 2021110578A RU 2786015 C2 RU2786015 C2 RU 2786015C2
Authority
RU
Russia
Prior art keywords
image
reference sample
wrapping
location
sample
Prior art date
Application number
RU2021110578A
Other languages
Russian (ru)
Other versions
RU2021110578A (en
Inventor
Филипп ХАНХАРТ
Юйвэнь ХЭ
Янь Е
Original Assignee
Вид Скейл, Инк.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Вид Скейл, Инк. filed Critical Вид Скейл, Инк.
Publication of RU2021110578A publication Critical patent/RU2021110578A/en
Application granted granted Critical
Publication of RU2786015C2 publication Critical patent/RU2786015C2/en

Links

Images

Abstract

FIELD: video encoding.
SUBSTANCE: method is proposed for implementation of horizontal geometrical filling on the current sample based on reception of an indication with wrapping permission, which indicates , whether compensation of horizontal wrapping motion is allowed. If compensation of horizontal wrapping motion is allowed based on the indication with wrapping permission, a device for video signal encoding can determine displacement of wrapping of a reference sample for the current sample in an image. Displacement of wrapping of the reference sample can indicate a panorama width. The device for video signal encoding can determine a location of the reference sample relatively to the current sample based on displacement of wrapping of the reference sample, an image width, and a location of the current sample, as well as it can predict the current sample based on the location of the reference sample in a horizontal direction. Refilling or clipping can be used in a vertical direction.
EFFECT: provision of natural interaction of a user with objects in a virtual world with tactile feedback for the user.
27 cl, 24 dwg, 5 tbl

Description

Настоящая заявка испрашивает приоритет по предварительной заявке на патент США № 62/737,303, поданной 27 сентября 2018 г., содержание которой полностью включено в настоящий документ путем ссылки.This application claims priority over U.S. Provisional Application No. 62/737,303, filed September 27, 2018, the contents of which are incorporated herein by reference in their entirety.

Предпосылки создания изобретенияPrerequisites for the creation of the invention

Виртуальная реальность (ВР) все больше входит в нашу повседневную жизнь. ВР применяют во множестве областей, включая здравоохранение, образование, социальные сети, промышленное проектирование/обучение, игры, кино, совершение покупок, развлечения и т.д. ВР вызывает интерес как у предприятий, так и у потребителей, поскольку с ее помощью можно обеспечить впечатление полного эффекта присутствия при просмотре. ВР создает виртуальную среду, окружающую зрителя, и генерирует истинное ощущение присутствия для зрителя. Способ обеспечения ощущения полной реальности в среде ВР влияет на впечатление пользователя. Например, взаимодействие с системой ВР может быть обеспечено с помощью позы, жеста, взгляда, голоса и т.д. Для естественного взаимодействия пользователя с объектами в мире ВР в ВР может быть обеспечена тактильная обратная связь для пользователя.Virtual Reality (VR) is becoming more and more part of our daily lives. VR is used in many areas, including healthcare, education, social media, industrial design/education, gaming, cinema, shopping, entertainment, and more. VR is of interest to both businesses and consumers because it can provide a fully immersive viewing experience. VR creates a virtual environment surrounding the viewer and generates a true sense of presence for the viewer. The way in which the experience of full reality is provided in the VR environment affects the user experience. For example, interaction with a VR system can be achieved through posture, gesture, gaze, voice, and so on. For natural user interaction with objects in the VR world, haptic feedback for the user can be provided in VR.

Изложение сущности изобретенияStatement of the Invention

Описаны системы, способы и средства для выполнения горизонтального геометрического заполнения на текущем сэмпле на основании получения указания с разрешением заворачивания, которое указывает на то, что компенсация горизонтального движения заворачивания разрешена.Systems, methods, and means are described for performing horizontal geometric filling on the current sample based on receiving a wrapping permission indication that indicates that horizontal wrapping motion compensation is enabled.

Устройство кодирования видеосигналов может принимать изображение, связанное с видеосодержимым, в битовом потоке. Устройство кодирования видеосигналов, описанное в настоящем документе, может включать в себя кодер и/или декодер. Изображение может представлять собой или может включать в себя изображение с упакованными кадрами. Устройство кодирования видеосигналов может принимать указание с разрешением заворачивания. Например, устройство кодирования видеосигналов может принимать указание с разрешением заворачивания на уровне последовательности. Указание с разрешением заворачивания может указывать, разрешена или запрещена компенсация горизонтального движения заворачивания. Указание с разрешением заворачивания может представлять собой или может включать в себя флаг с разрешением заворачивания, который указывает, разрешена или запрещена компенсация горизонтального движения заворачивания.The video encoder may receive an image associated with the video content in a bitstream. The video encoding apparatus described herein may include an encoder and/or a decoder. The image may be or may include a packed frame image. The video encoder may receive an indication with permission to wrap. For example, the video encoder may receive an indication to permit wrapping at the sequence level. The tip with enable screwdriving can indicate whether compensation for the horizontal screwdriving movement is enabled or disabled. The wrap-enable indication may be or may include a wrap-enable flag that indicates whether horizontal wrap motion compensation is enabled or disabled.

На основании указания с разрешением заворачивания, указывающего, что компенсация горизонтального движения заворачивания разрешена, устройство кодирования видеосигналов может определять смещение заворачивания эталонного сэмпла для текущего сэмпла в изображении. В примерах устройство кодирования видеосигналов может принимать в битовом потоке указание смещения заворачивания эталонного сэмпла. Смещение заворачивания эталонного сэмпла может быть определено на основании указания смещения. Смещение заворачивания эталонного сэмпла может указывать на ширину панорамы. В примерах устройство кодирования видеосигналов может принимать указание размера, указывающее ширину панорамы изображения. Например, указание размера может представлять собой или может включать в себя ширину защитной полосы в выборках яркости. Устройство кодирования видеосигналов может вычислять ширину панорамы изображения на основании указания размера и может использовать вычисленную ширину в качестве смещения заворачивания эталонного сэмпла. В примерах защитная полоса может иметь одну и ту же ширину. В примерах защитная полоса может иметь разную ширину.Based on the wrapping permission indication indicating that the horizontal wrapping motion compensation is enabled, the video encoder may determine the reference sample wrapping offset for the current sample in the picture. In the examples, the video encoder may receive in the bitstream an indication of the wrapping offset of the reference sample. The wrapping offset of the reference sample may be determined based on the offset specification. The wrapping offset of the reference sample can indicate the width of the pan. In examples, the video encoder may receive a size indication indicating the width of an image panorama. For example, the size indication may be or may include the width of the guard band in luma samples. The video encoder may calculate the image panorama width based on the size indication, and may use the calculated width as a reference sample wrapping offset. In the examples, the guard strip may have the same width. In the examples, the guard strip may have different widths.

Устройство кодирования видеосигналов может определять местоположение эталонного сэмпла по отношению к текущему сэмплу на основании смещения заворачивания эталонного сэмпла, ширины изображения и местоположения текущего сэмпла. Устройство для кодирования видеосигналов может принимать смещение заворачивания эталонного сэмпла на уровне последовательности.The video encoder may determine the location of the reference sample with respect to the current sample based on the wrapping offset of the reference sample, the image width, and the location of the current sample. The video encoder may receive a wrapping offset of the reference sample at the sequence level.

В примерах устройство кодирования видеосигналов может определять, находится ли исходное местоположение эталонного сэмпла (например, первичное местоположение эталонного сэмпла), связанное с местоположением текущего сэмпла, за пределами изображения. Если исходное местоположение эталонного сэмпла находится за пределами изображения, устройство кодирования видеосигналов может рассчитывать местоположение эталонного сэмпла для горизонтального геометрического заполнения. Например, устройство кодирования видеосигналов может вычислять местоположение эталонного сэмпла путем применения смещения заворачивания эталонного сэмпла к горизонтальной координате сэмпла, связанной с исходным местоположением эталонного сэмпла.In the examples, the video encoder may determine if the original reference sample location (eg, the primary reference sample location) associated with the current sample location is outside the picture. If the original location of the reference sample is outside the picture, the video encoder can calculate the location of the reference sample for the horizontal geometric fill. For example, the video encoder may calculate the location of the reference sample by applying the wrap offset of the reference sample to the horizontal coordinate of the sample associated with the original location of the reference sample.

В примерах устройство кодирования видеосигналов может вычислять ширину панорамы изображения на основании смещения заворачивания эталонного сэмпла и ширины изображения. Устройство кодирования видеосигналов может идентифицировать местоположение текущего сэмпла в изображении. Устройство кодирования видеосигналов может определять, находится ли исходное местоположение эталонного сэмпла за пределами изображения. Если исходное местоположение эталонного сэмпла находится за пределами крайней левой горизонтальной границы изображения, устройство кодирования видеосигналов может определять местоположение эталонного сэмпла путем добавления смещения заворачивания эталонного сэмпла к горизонтальной координате сэмпла, связанной с исходным местоположением эталонного сэмпла. Если исходное местоположение эталонного сэмпла находится за пределами крайней правой горизонтальной границы изображения, устройство кодирования видеосигналов может определять местоположение эталонного сэмпла путем вычитания смещения заворачивания эталонного сэмпла из горизонтальной координаты сэмпла, связанной с исходным местоположением эталонного сэмпла.In examples, a video encoder may calculate an image pan width based on a reference sample wrap offset and image width. The video encoder can identify the location of the current sample in the image. The video encoder can determine if the reference sample's original location is outside the picture. If the reference sample home location is outside the leftmost horizontal border of the picture, the video encoder may determine the reference sample location by adding the reference sample wrap offset to the horizontal sample coordinate associated with the reference sample home location. If the reference sample home location is outside the rightmost horizontal edge of the picture, the video encoder may determine the reference sample location by subtracting the reference sample wrap offset from the horizontal sample coordinate associated with the reference sample home location.

Устройство кодирования видеосигналов может прогнозировать текущий сэмпл на основании местоположения эталонного сэмпла.The video encoder may predict the current sample based on the location of the reference sample.

Устройство кодирования видеосигналов может определять, разрешена ли компенсация горизонтального движения заворачивания, на основе указания с разрешением заворачивания. Если указание с разрешением заворачивания указывает на то, что компенсация горизонтального движения заворачивания запрещена, устройство кодирования видеосигналов может идентифицировать местоположение текущего сэмпла в изображении. Устройство кодирования видеосигналов может определять, находится ли местоположение текущего сэмпла на горизонтальной границе изображения. Устройство кодирования видеосигналов может определять, находится ли местоположение эталонного сэмпла за пределами горизонтальной границы изображения. Если устройство кодирования видеосигналов определяет, что местоположение эталонного сэмпла находится за пределами горизонтальной границы изображения, устройство кодирования видеосигналов может идентифицировать местоположение эталонного сэмпла на горизонтальной границе изображения. Устройство кодирования видеосигналов может прогнозировать текущий сэмпл на основании местоположения эталонного сэмпла.The video encoder may determine whether the compensation of the horizontal screw-in movement is allowed based on the indication with the screw-in permission. If the wrap-enable indication indicates that horizontal wrap motion compensation is disabled, the video encoder can identify the location of the current sample in the image. The video encoder can determine if the location of the current sample is on the horizontal edge of the image. The video encoder can determine if the location of the reference sample is outside the horizontal boundary of the image. If the video encoder determines that the location of the reference sample is outside the horizontal boundary of the picture, the video encoder may identify the location of the reference sample at the horizontal boundary of the picture. The video encoder may predict the current sample based on the location of the reference sample.

Изображение может представлять собой или может включать в себя формат равнопромежуточной проекции (ERP), формат равноплощадной проекции (EAP) или формат скорректированной равноплощадной проекции (AEP).The image may be or may include Equidistant Projection (ERP), Equal Area Projection (EAP), or Adjusted Equal Area Projection (AEP) format.

Устройство кодирования видеосигналов может определять, принимать ли указание смещения для смещения заворачивания эталонного сэмпла на основании указания с разрешением заворачивания. Если устройство кодирования видеосигналов определяет, что указание с разрешением заворачивания выдано, устройство кодирования видеосигналов может синтаксически анализировать битовый поток для приема указания смещения для смещения заворачивания эталонного сэмпла. Если устройство кодирования видеосигналов определяет, что указание с разрешением заворачивания не выдано, устройство кодирования видеосигналов может пропускать анализ битового потока и пропускать прием указания смещения для смещения заворачивания эталонного сэмпла.The video encoder may determine whether to receive an offset indication for the wrapping offset of the reference sample based on the wrapping-enabled indication. If the video encoder determines that a wrapping permission indication has been issued, the video encoding device may parse the bitstream to receive an offset indication for the wrapping offset of the reference sample. If the video encoder determines that the wrapping permission indication is not issued, the video encoding device may skip parsing the bitstream and skip receiving the offset indication for the wrapping offset of the reference sample.

Указание может быть передано посредством сигнализации (например, в битовом потоке), чтобы разрешить геометрическое заполнение. Может быть определено правильное положение одного или более соседей в сферической окрестности. Геометрическое заполнение может учитывать положение и/или размер защитных полос для вычисления правильного положения одного или более соседей в сферической окрестности. Положение и/или размер защитных полос могут быть добавлены при упаковке одной или более панорам в изображении (например, перед кодированием). Одно или более указаний, относящихся к геометрическому заполнению, могут быть переданы посредством сигнализации для указания того, применено ли геометрическое заполнение, и/или указания защитных полос.An indication may be signaled (eg, in a bitstream) to enable geometric filling. The correct position of one or more neighbors in a spherical neighborhood can be determined. The geometric filling may take into account the position and/or size of the guardbands to calculate the correct position of one or more neighbors in a spherical neighborhood. The position and/or size of the guard bands may be added when one or more panoramas are packaged in an image (eg, before encoding). One or more indications relating to geometric infill may be signaled to indicate whether geometric infill has been applied and/or to indicate guard bands.

Для геометрий проекции, включающих в себя панораму (например, одну панораму), такую как ERP, EAP, AEP и/или подобные форматы проекции, геометрическое заполнение можно выполнять в горизонтальном направлении. При выполнении геометрического заполнения в горизонтальном направлении можно использовать повторяющееся заполнение в вертикальном направлении. Положение сэмпла может быть определено как горизонтальная координата сэмпла, которая может быть завернута в кодированном изображении. Вертикальная координата сэмпла может быть обрезана по одной или более закодированных границ изображения, например, как при повторяющемся заполнении. Может быть определен процесс выведения целочисленных сэмплов и/или процесс интерполяции дробных сэмплов для внешнего прогнозирования (например, с использованием горизонтального геометрического заполнения), связанный с геометрией проекции, основанной на одной панораме.For projection geometries that include a panorama (eg, a single panorama), such as ERP, EAP, AEP, and/or similar projection formats, geometric filling can be performed in the horizontal direction. When performing geometric infill in the horizontal direction, you can use repeated infill in the vertical direction. The sample position can be defined as the horizontal coordinate of the sample, which can be wrapped in the encoded image. The vertical coordinate of the sample may be clipped at one or more encoded image boundaries, such as in a repeat fill. An integer sample derivation process and/or a fractional sample interpolation process for external prediction (eg, using horizontal geometric filling) associated with a projection geometry based on a single panorama can be defined.

Краткое описание графических материаловBrief description of graphic materials

На фиг. 1A представлен пример сферического сэмплирования в долготе и широте.In FIG. 1A shows an example of spherical sampling in longitude and latitude.

На фиг. 1B представлен пример двухмерной (2D) плоскости с равнопромежуточной проекцией.In FIG. 1B shows an example of a two-dimensional (2D) plane with an equirectangular projection.

На фиг. 2A представлен пример трехмерной (3D) геометрической структуры для проекции с кубической текстурой (CMP).In FIG. 2A shows an example of a three-dimensional (3D) geometry for Cube Mapped Projection (CMP).

На фиг. 2B представлен пример 2D-планера для шести панорам CMP.In FIG. 2B shows an example of a 2D glider for six CMP panoramas.

На фиг. 3A представлен пример изображения с заполненными границами с использованием равнопромежуточной проекции (ERP).In FIG. 3A is an example of an image with filled borders using Equidistant Projection (ERP).

На фиг. 3B представлен пример изображения с заполненными границами с использованием CMP.In FIG. 3B shows an example of an image with filled borders using CMP.

На фиг. 4A представлен пример геометрии заполнения для ERP.In FIG. 4A shows an example infill geometry for ERP.

На фиг. 4B представлен пример заполненного изображения ERP.In FIG. 4B shows an example of a completed ERP image.

На фиг. 5A представлен пример геометрии заполнения для CMP.In FIG. 5A shows an example infill geometry for CMP.

На фиг. 5B представлен пример заполненных панорам CMP.In FIG. 5B shows an example of filled CMP panoramas.

На фиг. 6 представлен пример рабочего процесса получения 360-градусного видео.In FIG. Figure 6 shows an example workflow for getting a 360-degree video.

На фиг. 7 представлен пример видеокодера.In FIG. 7 shows an example of a video encoder.

На фиг. 8 представлен пример видеодекодера.In FIG. 8 shows an example of a video decoder.

На фиг. 9 представлен пример эталонного сэмпла, используемого во внутреннем прогнозировании.In FIG. 9 shows an example of a reference sample used in intra prediction.

На фиг. 10 представлен пример указания направлений внутреннего прогнозирования.In FIG. 10 shows an example of specifying the directions of internal prediction.

На фиг. 11 представлен пример внешнего прогнозирования с вектором движения (например, унипрогнозирование).In FIG. 11 shows an example of external motion vector prediction (eg, uniprediction).

На фиг. 12 представлен пример заполнения эталонных сэмплов за пределами границы изображения.In FIG. 12 shows an example of filling reference samples outside the image boundary.

На фиг. 13 представлен пример пространственных соседей, используемых при определении кандидатов на пространственное объединение.In FIG. 13 shows an example of spatial neighbors used in determining candidates for a spatial union.

На фиг. 14 представлен пример кэширования восстановленных сэмплов для внешнего прогнозирования при использовании горизонтального геометрического заполнения.In FIG. 14 shows an example of caching recovered samples for external prediction using horizontal geometric filling.

На фиг. 15 представлен пример положений целочисленного сэмпла (например, заштрихованный блок с прописными буквами) и дробного сэмпла (например, незаштрихованные блоки со строчными буквами) для интерполяции яркости сэмпла с точностью в четверть пиксела.In FIG. 15 shows an example of the positions of an integer sample (eg, a shaded block with uppercase letters) and a fractional sample (eg, unshaded blocks with lowercase letters) to interpolate sample brightness with quarter-pixel precision.

На фиг. 16A представлена системная схема примера системы связи, в которой может быть реализован один или более описанных вариантов осуществления.In FIG. 16A is a system diagram of an exemplary communications system in which one or more of the described embodiments may be implemented.

На фиг. 16B представлена системная схема примера модуля беспроводной передачи/приема (WTRU), который может использоваться в системе связи, представленной на фиг. 16A.In FIG. 16B is a system diagram of an example of a wireless transmit/receive unit (WTRU) that may be used in the communication system shown in FIG. 16A.

Фиг. 16C представлена системная схема примера сети радиодоступа (RAN) и примера опорной сети (CN), которые могут использоваться в системе связи, представленной на фиг. 16A.Fig. 16C is a system diagram of an example radio access network (RAN) and an example core network (CN) that may be used in the communication system shown in FIG. 16A.

На фиг. 16D представлена системная схема еще одного примера RAN и дополнительного примера сети CN, которые могут использоваться в системе связи, представленной на фиг. 16A.In FIG. 16D is a system diagram of another example of a RAN and an additional example of a CN network that may be used in the communication system shown in FIG. 16A.

Подробное описаниеDetailed description

Далее приведено подробное описание иллюстративных вариантов осуществления со ссылкой на различные фигуры. Хотя в настоящем описании приведены подробные примеры возможных вариантов реализации, следует отметить, что данное подробное описание приведено в качестве примера и ни в коей мере не ограничивает объем заявки.The following is a detailed description of illustrative embodiments with reference to various figures. Although the present description provides detailed examples of possible implementation options, it should be noted that this detailed description is given as an example and in no way limits the scope of the application.

360-градусные видео, описанные в настоящем документе, могут включать в себя или могут представлять собой сферические видео, всенаправленные видео, видео виртуальной реальности (ВР), панорамные видео, видео, создающие эффект присутствия (например, видео в световом поле, которые могут включать в себя 6 степеней свободы), видео в облаке точек и/или т.п.The 360-degree videos described herein may include or may be spherical videos, omnidirectional videos, virtual reality (VR) videos, panoramic videos, immersive videos (e.g., light field videos, which may include into itself 6 degrees of freedom), video in a cloud of points and / or the like.

В системах ВР 360-градусные видео можно использовать для обеспечения пользователя возможностью просмотра сцены под углами до 360 градусов в горизонтальном направлении и под углами до 180 градусов в вертикальном направлении. ВР и 360-градусные видео могут рассматриваться как направление для использования мультимедиа за пределами возможностей услуги вывода изображений сверхвысокой четкости (UHD). Для улучшения качества 360-градусных видео в системах ВР и/или для стандартизации последовательности обработки информации для взаимодействия с клиентом могут быть выработаны требования и потенциальные технологии для формата применения всенаправленного мультимедиа. Согласно технологии Free view TV (FTV) можно проверять характеристики одного или более из следующего: (1) система на основе 360-градусного видео (например, всенаправленного видео); (2) многовидовая система.In VR systems, 360-degree videos can be used to provide the user with the ability to view the scene at angles up to 360 degrees in the horizontal direction and at angles up to 180 degrees in the vertical direction. VR and 360-degree videos can be seen as a direction for using multimedia beyond the capabilities of an ultra-high-definition (UHD) display service. To improve the quality of 360-degree videos in VR systems and/or to standardize the information processing sequence for customer interaction, requirements and potential technologies for an omnidirectional multimedia application format can be developed. According to Free view TV (FTV) technology, one or more of the following can be tested: (1) a 360-degree video system (eg, omnidirectional video); (2) multi-species system.

Система ВР может включать в себя цепь обработки. Цепь обработки может представлять собой или включать в себя захват, обработку, отображение и/или применения. В отношении захвата система ВР может использовать одну или более камер для захвата сцен с разных противоположных ракурсов (например, от 6 до 12 ракурсов). Ракурсы могут быть сшиты вместе с образованием 360-градусного видео в высоком разрешении (например, 4K или 8K). На стороне клиента и/или на стороне пользователя система виртуальной реальности (ВР) может включать в себя вычислительную платформу, наголовный дисплей (HMD) и/или один или более датчиков слежения за положением головы пользователя. Вычислительная платформа может принимать и/или декодировать 360-градусное видео и/или генерировать окно просмотра для отображения. Для окна просмотра могут отображаться два изображения, по одному для каждого глаза. В HMD могут отображаться два изображения (например, для стереопросмотра). Для увеличения изображения, отображаемого в HMD, можно использовать линзу для более удобного просмотра. Датчик слежения за положением головы пользователя может сохранять (например, постоянно сохранять) данные слежения за ориентацией головы зрителя и/или может передавать информацию об ориентации в систему для отображения изображения окна просмотра для этой ориентации.The VR system may include a processing chain. The processing chain may be or include capturing, processing, displaying and/or applying. In terms of capture, the VR system may use one or more cameras to capture scenes from different opposite angles (eg, 6 to 12 angles). Views can be stitched together to form 360-degree video in high definition (eg 4K or 8K). On the client side and/or on the user side, a virtual reality (VR) system may include a computing platform, a head-mounted display (HMD), and/or one or more sensors for tracking the position of the user's head. The computing platform may receive and/or decode the 360-degree video and/or generate a viewport for display. Two images can be displayed for the viewport, one for each eye. The HMD can display two images (eg for stereo viewing). You can use a lens to magnify the image displayed on the HMD for easier viewing. The user's head tracking sensor may store (eg, permanently store) the viewer's head orientation tracking data and/or may send orientation information to the system to display a viewport image for that orientation.

Система ВР может включать в себя сенсорное устройство для зрителя, например, для взаимодействия с объектами в виртуальном мире. Управление системой ВР может работать под управлением рабочей станции с поддержкой графического процессора (GPU). Система ВР может использовать смартфон в качестве вычислительной платформы, HMD-дисплей и/или датчик слежения за положением головы. Пространственное разрешение HMD может составлять 2160 x 1200, частота обновления может составлять 90 Гц и/или поле зрения (FOV) может составлять 110 градусов. Плотность выборки для датчика слежения за положением головы пользователя может составлять 1000 Гц, что позволяет захватывать изображение при быстром перемещении. Система ВР может включать в себя линзу и/или плату и/или может работать под управлением смартфона.The VR system may include a sensory device for the viewer, for example, to interact with objects in the virtual world. System Control VR can be controlled by a graphics processing unit (GPU)-enabled workstation. The VR system may use a smartphone as a computing platform, an HMD display and/or a head-tracking sensor. The spatial resolution of the HMD may be 2160 x 1200, the refresh rate may be 90 Hz, and/or the field of view (FOV) may be 110 degrees. The sampling density for the user's head tracking sensor can be as high as 1000 Hz, which can capture an image while moving quickly. The VR system may include a lens and/or a board and/or may be controlled by a smartphone.

360-градусное видео могут сжиматься и/или доставляться, например, путем динамической адаптивной потоковой передачи через методики потоковой передачи видео с организацией потоковой передачи видео на основании HTTP (DASH). Доставка 360-градусного видео может быть реализована, например, с использованием сферической геометрической структуры для представления 360-градусной информации. Например, множество синхронизированных ракурсов, захватываемых множеством камер, можно сшивать на сфере (например, как единую структуру). Сферическую информацию можно проецировать на плоскую 2D поверхность посредством преобразования геометрической формы (например, в форме равнопромежуточной проекции и/или проекции с кубической текстурой).360-degree video can be compressed and/or delivered, for example, by dynamic adaptive streaming via HTTP-based video streaming (DASH) video streaming techniques. Delivery of 360-degree video can be implemented, for example, using a spherical geometric structure to represent 360-degree information. For example, a plurality of synchronized views captured by multiple cameras may be stitched onto a sphere (eg, as a single structure). Spherical information can be projected onto a flat 2D surface by a geometric shape transformation (eg, in the form of an equidistant projection and/or a cube textured projection).

Может быть выполнена равнопромежуточная проекция. На фиг. 1A представлен пример сферической выборки в долготах (ϕ) и широтах (θ). На фиг. 1B представлен пример сферы, проецированной на 2D плоскость с использованием равнопромежуточной проекции (ERP). Долгота ϕ в диапазоне [-π, π] может быть поворотом относительно вертикальной оси, а широта θ в диапазоне [-π/2, π/2] может быть поворотом относительно поперечной оси в авиации. Величина π может представлять собой отношение длины окружности к ее диаметру. Координаты (x, y, z) могут представлять собой координаты точки в 3D пространстве. Координаты (ue, ve) могут представлять собой координаты точки в 2D плоскости после ERP. Проекция ERP может быть представлена математически, например, как показано в уравнениях (1) и (2).Equidistant projection can be performed. In FIG. 1A shows an example of a spherical sample in longitudes (ϕ) and latitudes (θ). In FIG. 1B is an example of a sphere projected onto a 2D plane using Equidistant Projection (ERP). Longitude ϕ in the range [-π, π] may be yaw, and latitude θ in the range [-π/2, π/2] may be yaw in aviation. The value of π can be the ratio of the circumference of a circle to its diameter. The (x, y, z) coordinates can represent the coordinates of a point in 3D space. The coordinates (ue, ve) may represent the coordinates of a point in the 2D plane after the ERP. The ERP projection can be represented mathematically, for example, as shown in equations (1) and (2).

ue = (ϕ / (2 * π) + 0,5) * Wue = (ϕ / (2 * π) + 0.5) * W (1)(one) ve = (0,5 - θ / π) * Hve = (0.5 - θ / π) * H (2)(2)

где W и H могут быть шириной и высотой 2D плоского изображения. Как показано на фиг. 1A, точка P, точка пересечения между долготой L4 и широтой A1 на сфере может картироваться в уникальную точку q на фиг. 1B на 2D плоскости с использованием уравнений (1) и/или (2). Точка q на 2D плоскости, показанная на фиг. 1B, может быть спроецирована обратно в точку P на сфере, показанной на фиг. 1A, например, посредством поперечного проецирования. Поле зрения (FOV) на фиг. 1B представляет пример сопоставления FOV на сфере с 2D плоскостью, например, под углом зрения вдоль оси X, составляющим около 110 градусов.where W and H can be the width and height of the 2D flat image. As shown in FIG. 1A, point P, the intersection point between longitude L4 and latitude A1 on the sphere can be mapped to a unique point q in FIG. 1B on a 2D plane using equations (1) and/or (2). Point q on the 2D plane shown in FIG. 1B can be projected back to point P on the sphere shown in FIG. 1A, for example, by transverse projection. The field of view (FOV) in FIG. 1B is an example of FOV mapping on a sphere to a 2D plane, for example, at an X-axis view angle of about 110 degrees.

Одно или более 360-градусных видео могут быть сопоставлены с 2D видео. Сопоставленное видео может быть закодировано с помощью видеокодека (например, H.264, HEVC и/или т.п.) и/или может быть доставлено клиенту. На стороне клиента равнопромежуточное видео может быть декодировано и/или отображено на основе окна просмотра пользователя (например, путем проецирования и/или отображения части, принадлежащей FOV, на равнопромежуточное изображение на HMD). Сферическое видео может быть преобразовано в 2D плоское изображение для кодирования с помощью ERP. Характеристика равнопромежуточного 2D изображения может отличаться от неравнопромежуточного 2D изображения (например, прямолинейного видео). Верхнюю часть изображения, которая может соответствовать северному полюсу, и нижнюю часть изображения, которая может соответствовать южному полюсу, можно растягивать (например, при сравнении со средней частью изображения, которая может соответствовать экватору). Растяжение может указывать на то, что равнопромежуточная выборка в пространственной области 2D может быть неравномерной. Поле движения в 2D равнопромежуточном изображении может быть сложным и осуществляться вдоль временного направления.One or more 360-degree videos can be mapped to 2D videos. The associated video may be encoded with a video codec (eg, H.264, HEVC, and/or the like) and/or delivered to the client. On the client side, the equidistant video may be decoded and/or displayed based on the user's viewport (eg, by projecting and/or displaying a portion belonging to the FOV onto the equidistant image on the HMD). The spherical video can be converted to a 2D flat image for encoding with ERP. The performance of an equidistant 2D image may differ from that of an unequally spaced 2D image (eg, straight-line video). The top of the image, which may correspond to the north pole, and the bottom of the image, which may correspond to the south pole, can be stretched (for example, when compared with the middle part of the image, which may correspond to the equator). Stretching may indicate that equidistant sampling in the 2D spatial domain may be uneven. The field of motion in a 2D equidistant image can be complex and occur along the time direction.

Левая и/или правая границы изображения ERP могут быть закодированы (например, закодированы независимо). Нежелательные визуальные артефакты в виде швов панорам на восстановленном видео могут создаваться, например, когда восстановленное видео используют для отображения области просмотра, которая затем отображается пользователю посредством HMD или посредством 2D экрана. Заполнение N (например, 8) выборок яркости может быть применено с левой и/или правой сторон изображения. Может быть закодировано заполненное изображение ERP, включающее в себя сэмплы заполнения. Восстановленная ERP с заполнением может быть преобразована обратно. Например, восстановленная ERP с заполнением может быть преобразована обратно путем смешивания дублированных сэмплов и/или обрезания заполненных областей (например, после декодирования).The left and/or right borders of the ERP image may be encoded (eg independently encoded). Unwanted visual artifacts in the form of panorama seams on the reconstructed video may be created, for example, when the reconstructed video is used to display a viewport, which is then displayed to the user via an HMD or via a 2D screen. Filling N (eg, 8) brightness samples may be applied to the left and/or right sides of the image. An ERP filled image including fill samples may be encoded. Refurbished ERP with infill can be converted back. For example, the recovered ERP with padding can be converted back by mixing duplicated samples and/or trimming the padded areas (eg, after decoding).

Для цилиндрической равноплощадной проекции (EAP) Ламберта можно использовать ту же выборку в долготе, что и для ERP. Цилиндрическая EAP Ламберта может компенсировать повышение плотности выборки вблизи полюсов путем уменьшения вертикальной плотности выборки. В EAP вертикальная плотность выборки может быть установлена равной cos(φ), а комбинированная плотность выборки может быть постоянной по всей сфере. Скорректированная равноплощадная проекция (AEP) может представлять собой обобщение EAP. AEP может вводить параметр, который может контролировать частоту повторной выборки в проекции.The Lambert Cylindrical Equal Area Projection (EAP) can use the same longitude sampling as ERP. Cylindrical Lambert EAP can compensate for the increase in sample density near the poles by decreasing the vertical sample density. In EAP, the vertical sample density can be set equal to cos(φ) and the combined sample density can be constant over the entire sphere. Adjusted Equal Area Projection (AEP) may be a generalization of EAP. AEP can introduce a parameter that can control the resampling rate in the projection.

Может быть выполнена проекция с кубической текстурой. Верхний и/или нижний участки изображения ERP, например те, которые могут соответствовать северному полюсу и южному полюсу соответственно, могут быть растянуты (по сравнению, например, со средним участком изображения). Это может указывать на то, что сферическая плотность выборки изображения может быть неравномерной. Поле движения, которое может описывать временную корреляцию между соседними изображениями ERP, может оказаться сложным. Некоторые видеокодеки (например, MPEG-2, H.264 и/или HEVC) могут использовать трансляционную модель для описания поля движения и могут не иметь возможности представлять перемещения с изменением формы на плоских изображениях ERP.A projection with a cubic texture can be performed. The top and/or bottom portions of the ERP image, such as those that may correspond to the north pole and south pole, respectively, may be stretched (compared to, for example, the middle portion of the image). This may indicate that the spherical density of the image sample may be non-uniform. The motion field, which can describe the temporal correlation between adjacent ERP images, can be complex. Some video codecs (eg, MPEG-2, H.264 and/or HEVC) may use a translational model to describe the motion field and may not be able to represent reshaping motions in ERP flat images.

Форматы геометрической проекции могут использоваться для сопоставления 360-градусного видео множеству панорам. Например, можно использовать проекцию с кубической текстурой (CMP). На фиг. 2 A представлен пример геометрической проекции CMP. Как показано на фиг. 2A, проекция CMP может включать в себя шесть квадратных панорам, которые могут быть обозначены как PX, PY, PZ, NX, NY и/или NZ. P может означать положительное, а N может означать отрицательное. X, Y и Z могут означать оси. Панорамы могут быть обозначены с помощью чисел 0–5. Например, панорамы могут быть обозначены как PX (0), NX (1), PY (2), NY (3), PZ (4), NZ (5). Если радиус касательной сферы равен 1, длина стороны каждой панорамы может быть равна 2. Шесть панорам формата CMP могут быть упакованы вместе (например, в виде упакованных вместе кадров) в изображение (например, одно изображение). Панораму можно поворачивать на некоторый угол (например, на определенный угол), который может влиять (например, максимально влиять) на непрерывность между соседними панорамами. На фиг. 2B представлен пример упаковки, в которой шесть панорам помещены в равнопромежуточное изображение. Индекс панорамы может быть размещен в направлении, совпадающем с соответствующим поворотом панорамы. Например, панораму № 3 и панораму № 1 можно повернуть против часовой стрелки на 180 и 270 градусов соответственно. Другие панорамы могут быть не повернуты. В примерах способ упаковки кадров может включать компоновку 3х2 (например, как показано на фиг. 2B). Как показано на фиг. 2B, верхний ряд из 3 панорам может представлять собой пространственно соседние панорамы в 3D геометрической структуре и может иметь непрерывную текстуру. Как показано на фиг. 2B, нижний ряд из 3 панорам может представлять собой пространственно соседние панорамы в 3D геометрической структуре и может иметь непрерывную текстуру. Верхний ряд панорам и нижний ряд панорам могут не быть пространственно непрерывными в 3D геометрической структуре, и между двумя рядами панорам может существовать шов, например прерывистая граница.Geometric projection formats can be used to map a 360-degree video to multiple panoramas. For example, you can use Cube Mapped Projection (CMP). In FIG. 2A shows an example of a CMP geometric projection. As shown in FIG. 2A, the CMP projection may include six square panoramas, which may be labeled PX, PY, PZ, NX, NY, and/or NZ. P can mean positive and N can mean negative. X, Y and Z can mean axes. Panoramas can be labeled with numbers 0–5. For example, panoramas can be labeled as PX (0), NX (1), PY (2), NY (3), PZ (4), NZ (5). If the radius of the tangent sphere is 1, the side length of each panorama can be 2. Six CMP format panoramas can be packed together (eg, as packed together frames) into an image (eg, one image). The panorama can be rotated by some angle (eg, by a certain angle), which can influence (eg, maximally influence) the continuity between adjacent panoramas. In FIG. 2B shows an example of a packaging in which six panoramas are placed in an equidistant image. The pan index can be placed in the same direction as the corresponding pan rotation. For example, Panorama #3 and Panorama #1 can be rotated counterclockwise by 180 and 270 degrees, respectively. Other panoramas may not be rotated. In examples, the frame packing method may include a 3x2 layout (eg, as shown in FIG. 2B). As shown in FIG. 2B, the top row of 3 panoramas may be spatially adjacent panoramas in a 3D geometry and may have a continuous texture. As shown in FIG. 2B, the bottom row of 3 panoramas may be spatially adjacent panoramas in a 3D geometric structure and may have a continuous texture. The top row of panoramas and the bottom row of panoramas may not be spatially continuous in the 3D geometry, and there may be a seam, such as a broken border, between the two rows of panoramas.

В проекции CMP если в центре панорамы плотность выборки составляет 1, к краям плотность выборки может увеличиваться. Текстура вокруг краев может быть растянута по сравнению с текстурой в центре. Проекции с кубической текстурой (например, равноугольная проекция с кубической текстурой (EAC), скорректированная проекция с кубической текстурой (ACP) и/или т.п.) могут корректировать панораму (например, каждую панораму) с использованием нелинейной функции деформации в вертикальном и/или горизонтальном направлениях. Например, в проекции EAC корректировки могут быть выполнены с применением функции тангенса. В проекции ACP корректировка может быть выполнена с использованием полиномиальной функции второго порядка.In the CMP projection, if the sample density is 1 in the center of the panorama, the sample density may increase towards the edges. The texture around the edges may be stretched compared to the texture in the center. Cube textured projections (e.g., Conformal Cube Texture Projection (EAC), Corrected Cube Texture Projection (ACP), and/or the like) can correct a panorama (e.g., each panorama) using a non-linear warp function in the vertical and/or or horizontal directions. For example, in an EAC projection, adjustments can be made using the tangent function. In the ACP projection, the adjustment can be made using a second order polynomial function.

Может быть выполнена гибридная проекция с кубической текстурой (CMP). В HCP функция коррекции и ее параметры могут быть настроены для панорамы в целом и/или отдельного направления. Формат проекции с кубической текстурой может включать в себя формат гибридной равноугольной проекции с кубической текстурой (HEC). Проекции с кубической текстурой могут быть упакованы. Например, проекции с кубической текстурой могут быть упакованы аналогично CMP. Разрыв панорамы в изображении с упакованными кадрами может происходить в проекции с кубической текстурой.A hybrid cube texture projection (CMP) can be performed. In the HCP, the correction function and its parameters can be configured for the panorama as a whole and/or for a specific direction. The cube texture projection format may include a hybrid conformal cube texture (HEC) format. Cubic texture projections can be packed. For example, projections with a cubic texture can be packaged similarly to CMP. Panorama tearing in a packed frame image can occur in a cube textured projection.

Может быть выполнено геометрическое заполнение для 360-градусного кодирования видеосигналов.Geometric filling can be performed for 360-degree video encoding.

Видеокодеки могут быть разработаны с учетом 2D видео, захватываемого на плоскости. Когда прогнозирование с компенсацией движения использует сэмпл за границами эталонного изображения, заполнение может быть выполнено посредством копирования значений сэмплов с границ изображения. Этот тип заполнения может быть известен как повторяющееся заполнение. На фиг. 3A и 3B проиллюстрированы примеры расширения исходного изображения (например, ограниченного пунктирной рамкой) с использованием повторяющегося заполнения для ERP и CMP соответственно.Video codecs can be designed with 2D video captured on the plane. When motion-compensated prediction uses a sample outside the boundaries of the reference image, padding can be performed by copying sample values from the boundaries of the image. This type of padding may be known as repetitive padding. In FIG. 3A and 3B illustrate examples of original image enhancement (eg, bounded by a dotted box) using repeated padding for ERP and CMP, respectively.

360-градусное видео может охватывать видеоинформацию на сфере (например, всей сфере) и/или может иметь свойство цикличности. Эталонное изображение 360-градусного видео может не иметь границ. Например, эталонное изображение 360-градусного видео может быть завернуто вокруг сферы (например, и может не иметь границ). Свойство цикличности может существовать при представлении 360-градусного видео на 2D плоскости. Свойство цикличности может существовать независимо от того, какой формат проекции и/или какой вариант реализации упаковки кадров используется. Геометрическое заполнение может быть выполнено для кодирования 360-градусного видео путем заполнения сэмпла с учетом 3D геометрии.A 360-degree video may cover video information on a sphere (eg, the entire sphere) and/or may have a cyclic property. The reference image of a 360-degree video may not have borders. For example, the reference image of a 360-degree video may be wrapped around a sphere (eg, and may not have borders). A cyclic property may exist when presenting 360-degree video on a 2D plane. The cyclic property can exist regardless of which projection format and/or which frame packing implementation is used. Geometric filling can be performed for 360-degree video encoding by filling a sample with 3D geometry.

Может быть выполнено геометрическое заполнение для ERP. ERP может быть определена на сфере с некоторыми долготой и широтой. Если точка (u, v), подлежит заполнению (например, вне изображения ERP), точку (u', v') можно использовать для выведения сэмпла заполнения. Это можно определять следующим образом:Geometric filling for ERP can be performed. ERP can be defined on a sphere with some longitude and latitude. If the point (u, v) is to be filled (for example, outside the ERP image), the point (u', v') can be used to output the fill sample. This can be defined as follows:

Figure 00000001
Figure 00000001

где W и H могут быть шириной и высотой изображения ERP.where W and H can be the width and height of the ERP image.

На фиг. 4A представлен пример процесса геометрического заполнения для ERP. Заполнение может быть выполнено за пределами левой границы изображения. Например, как показано на фиг. 4A, сэмплы A, B и C, которые находятся за пределами левой границы изображения, могут заполняться сэмплами A’, B’ и C’, которые могут находиться в пределах правой границы изображения. Заполнение может быть выполнено за пределами правой границы изображения. Например, как показано на фиг. 4A, сэмплы D, E и F могут заполняться сэмплами D’, E’ и F’, которые могут находиться в пределах левой границы изображения. Заполнение может быть выполнено за пределами верхней границы изображения. Например, как показано на фиг. 4A, сэмплы G, H, I и J могут заполняться сэмплами G’, H’, I’ и J’, которые могут находиться в пределах верхней границы изображения со смещением на половину ширины. Заполнение может быть выполнено за пределами нижней границы изображения. Например, как показано на фиг. 4A, сэмплы K, L, M и N могут заполняться сэмплами K’, L’, M’ и N’, которые могут находиться в пределах нижней границы изображения со смещением на половину ширины. На фиг. 4B представлен пример расширенного изображения ERP с использованием геометрического заполнения. Как показано на фиг. 4B, геометрическое заполнение может обеспечивать непрерывность между соседними сэмплами для областей, находящихся за пределами границ изображения ERP. Геометрическое заполнение для ERP может быть упрощено. Например, левая и/или правая границы изображения могут быть заполнены с использованием геометрического заполнения, а верхняя и нижняя границы изображения могут быть заполнены с использованием повторяющегося заполнения. Геометрическое заполнение левой и/или правой границ изображения и повторяющееся заполнение верхней и нижней границ изображения может быть желательным, например, поскольку области вокруг экватора, такие как левая и/или правая границы, могут включать в себя более интересное видеосодержимое и/или могут просматриваться пользователями чаще по сравнению с областями, расположенными у полюсов, такими как верхняя и нижняя границы.In FIG. 4A shows an example of a geometric filling process for ERP. Padding can be done outside the left border of the image. For example, as shown in FIG. 4A, samples A, B, and C that are outside the left edge of the image may be filled with samples A', B', and C', which may be within the right edge of the image. Padding can be done outside the right border of the image. For example, as shown in FIG. 4A, samples D, E, and F may be filled with samples D', E', and F', which may be within the left border of the image. Padding can be done beyond the top border of the image. For example, as shown in FIG. 4A, samples G, H, I, and J may be filled with samples G', H', I', and J', which may be within the upper border of the image offset by half the width. Padding can be done beyond the bottom of the image. For example, as shown in FIG. 4A, samples K, L, M, and N may be filled with samples K', L', M', and N', which may be within the lower border of the image offset by half the width. In FIG. 4B shows an example of an enhanced ERP display using geometric filling. As shown in FIG. 4B, the geometric filling may provide continuity between adjacent samples for areas outside the boundaries of the ERP image. Geometric filling for ERP can be simplified. For example, the left and/or right borders of an image may be filled using geometric fill, and the top and bottom borders of an image may be filled using repeat fill. Geometric padding of the left and/or right borders of the image and repeated padding of the top and bottom borders of the image may be desirable, for example, since areas around the equator, such as the left and/or right borders, may include more interesting video content and/or may be viewed by users more often compared to areas near the poles, such as the upper and lower boundaries.

Если закодированное изображение находится в формате CMP, одна или более панорам CMP могут заполняться с использованием геометрического заполнения. На фиг. 5A представлен пример геометрического заполнения, выполненного на заданной панораме в 3D геометрической структуре. На фиг. 5A, точка P может находиться на панораме F1, но может находиться и за границами панорамы F1. Точка P может быть заполнена. Как показано на фиг. 5A, точка O может находиться в центре сферы. Как показано на фиг. 5A, точка R может представлять собой точку на левой границе, которая может быть ближайшей к P и находиться внутри панорамы F1. Как показано на фиг. 5A, точка Q может представлять собой точку проекции точки P на панораме F2 из центральной точки O. Геометрическое заполнение может быть выполнено с использованием значения сэмпла в точке Q для заполнения значения сэмпла в точке P. На фиг. 5B представлен пример расширенных панорам с использованием геометрического заполнения для изображения CMP 3x2. Как показано на фиг. 5B, заполнение может быть выполнено на каждой панораме по отдельности. Геометрическое заполнение может обеспечивать сэмплы для областей за границей панорамы CMP.If the encoded image is in CMP format, one or more CMP panoramas may be filled using geometric filling. In FIG. 5A shows an example of a geometric infill performed on a given panorama in a 3D geometric structure. In FIG. 5A, point P may be on the F1 panorama, but may also be outside the F1 panorama. Point P can be filled. As shown in FIG. 5A, the point O may be at the center of the sphere. As shown in FIG. 5A, point R may be a point on the left border that may be closest to P and within panorama F1. As shown in FIG. 5A, point Q may be a projection point of point P on panorama F2 from center point O. Geometric filling may be performed using the sample value at point Q to fill the sample value at point P. In FIG. 5B shows an example of enhanced panoramas using geometric fill for a CMP 3x2 image. As shown in FIG. 5B, padding can be performed on each panorama individually. Geometric fill can provide samples for areas outside the CMP panorama boundary.

Может быть выполнено гибридное видеокодирование. Пример реализации доставки 360-градусного видео показан на фиг. 6. Как показано на фиг. 6, пример реализации доставки 360-градусного видео может включать в себя захват 360-градусного видео, для которого можно использовать множество камер для захвата видео, охватывающих сферическое пространство (например, все сферическое пространство). Отдельные видео можно сшивать друг с другом (например, сшивать друг с другом в собственной геометрической структуре). Например, отдельные видео можно сшивать друг с другом в формате ERP. Собственная геометрическая структура может быть преобразована в один или более форматов проекции для кодирования, например, на основе видеокодеков. В приемнике видео может быть декодировано, и/или распакованное видео может преобразовываться в геометрию для отображения. Видео может быть использовано для отображения путем проецирования в окно просмотра в соответствии с углом зрения пользователя.Hybrid video coding may be performed. An example implementation of 360 video delivery is shown in FIG. 6. As shown in FIG. 6, an example implementation of 360 video delivery may include capturing 360 video, which can use a plurality of cameras to capture video covering a spherical space (eg, the entire spherical space). Individual videos can be stitched together (for example, stitched together in their own geometric structure). For example, individual videos can be stitched together in ERP format. The native geometry may be converted to one or more projection formats for encoding, eg based on video codecs. At the receiver, the video may be decoded and/or the decompressed video may be converted to geometry for display. The video can be used for display by projecting into the viewport according to the user's viewing angle.

На фиг. 7 представлен пример гибридной системы 600 видеокодирования на основе блоков. Входной видеосигнал 602 может быть обработан поблочно. Расширенные размеры блоков (например, называемые единицей кодирования (CU)) могут быть использованы (например, использованы в HEVC) для сжатия видеосигналов высокого разрешения (например, 1080 пкс. и/или более). Единица CU может иметь до 64x64 пикселей (например, в HEVC). CU может быть разделен на элементы прогнозирования (PU), для которых можно применять отдельные прогнозы. Для входного видеоблока (например, макроблока (MB) или CU) может быть выполнено пространственное прогнозирование 660 или прогнозирование 662 движения. Пространственное прогнозирование (например, или внешнее прогнозирование) может использовать пиксели из уже закодированных соседних блоков в одном и том же видеоизображении и/или фрагменте для прогнозирования текущего видеоблока. Пространственное прогнозирование может уменьшать пространственную избыточность, характерную для видеосигнала. Прогнозирование движения (например, называемое внешним прогнозированием или временным прогнозированием) может использовать пиксели из уже закодированных видеоизображений для прогнозирования текущего видеоблока. Прогнозирование движения может снизить временную избыточность, характерную для видеосигнала. Сигнал прогнозирования движения для данного видеоблока может передаваться посредством сигнализации с помощью вектора движения, который указывает величину и/или направление движения между текущим блоком и соответствующим ему эталонным блоком. Если поддерживается множество эталонных изображений (например, в H.264/AVC, HEVC и/или т.п.), индекс эталонного изображения видеоблока может передаваться посредством сигнализации на декодер. Эталонный индекс может быть использован для идентификации того, от какого эталонного изображения в хранилище 664 эталонных изображений может поступать сигнал временного прогнозирования.In FIG. 7 shows an example of a hybrid block-based video coding system 600. The input video signal 602 may be processed block by block. Extended block sizes (eg, referred to as a coding unit (CU)) can be used (eg, used in HEVC) to compress high definition video signals (eg, 1080 pixels and/or more). A CU unit can have up to 64x64 pixels (eg in HEVC). The CU may be divided into Prediction Elements (PU) for which separate predictions may be applied. For an input video block (eg, a macroblock (MB) or CU), spatial prediction 660 or motion prediction 662 may be performed. Spatial prediction (eg, or inter-prediction) may use pixels from already encoded adjacent blocks in the same video image and/or tile to predict the current video block. Spatial prediction can reduce the spatial redundancy inherent in the video signal. Motion prediction (eg, called extrinsic prediction or temporal prediction) may use pixels from already encoded video images to predict the current video block. Motion prediction can reduce the temporal redundancy inherent in the video signal. The motion prediction signal for a given video block may be signaled with a motion vector that indicates the amount and/or direction of motion between the current block and its corresponding reference block. If multiple reference pictures are supported (eg, in H.264/AVC, HEVC, and/or the like), the video block reference picture index may be signaled to a decoder. The reference index may be used to identify which reference image in the reference image store 664 may receive a temporal prediction signal.

После пространственного прогнозирования и/или прогнозирования движения средство 680 принятия решения о режиме в кодере может выбирать режим прогнозирования, например, на основании оптимизации зависимости искажений от скорости передачи. Блок прогнозирования может быть вычтен из текущего видеоблока на 616. Остаточные значения прогнозирования могут быть декоррелированы с использованием модуля 604 преобразования и модуля 606 квантования для достижения целевой скорости передачи в битах. Квантованные остаточные коэффициенты могут быть обратно квантованы на 610 и обратно преобразованы на 612 для формирования воссозданных остаточных значений. Воссозданные остаточные значения могут быть добавлены обратно в блок прогнозирования на 626 для формирования воссозданного видеоблока. Внутрипетлевой фильтр, такой как фильтр деблокирования и/или адаптивный петлевой фильтр, может быть применен к воссозданному видеоблоку на 666, прежде чем он будет помещен в хранилище 664 эталонных изображений. Эталонные изображения в хранилище 664 эталонных изображений могут быть использованы для кодирования будущих видеоблоков. Может быть сформирован выходной битовый видеопоток 620. Режим кодирования (например, режим внешнего или внутреннего кодирования), информация о режиме прогнозирования, информация о движении и/или квантованные остаточные коэффициенты могут быть отправлены в единицу 608 энтропийного кодирования для сжатия и упаковки для формирования битового потока 620.After spatial prediction and/or motion prediction, a mode decision means 680 in the encoder can select a prediction mode, for example, based on the optimization of the distortion versus bit rate. The prediction block may be subtracted from the current video block at 616. The residual prediction values may be de-correlated using transform module 604 and quantizer 606 to achieve the target bit rate. The quantized residual coefficients may be inversely quantized at 610 and inversely transformed at 612 to form reconstructed residuals. The reconstructed residuals may be added back to the prediction block at 626 to form a reconstructed video block. An intra-loop filter, such as a deblocking filter and/or an adaptive loop filter, may be applied to the reconstructed video block at 666 before it is placed in the reference image store 664. The reference pictures in the reference picture store 664 may be used to encode future video blocks. An output video bitstream 620 may be generated. The coding mode (eg, inter- or intra-coding mode), prediction mode information, motion information, and/or quantized residual coefficients may be sent to entropy coding unit 608 for compression and packing to form a bitstream. 620.

На фиг. 8 представлен пример гибридного видеодекодера на основе блоков. Битовый видеопоток 202 может быть принят, распакован и/или энтропийно декодирован в узле 208 энтропийного декодирования. Информация о режиме кодирования и/или прогнозирования может быть отправлена в блок 260 пространственного прогнозирования (например, если было выполнено внутреннее кодирование) и/или в блок 262 временного прогнозирования (например, если было выполнено внешнее кодирование). Блок прогнозирования может быть сформирован с использованием блока 260 пространственного прогнозирования и/или блока 262 временного прогнозирования. Остаточные коэффициенты преобразования могут быть отправлены в блок 210 обратного квантования и в блок 212 обратного преобразования для восстановления остаточного блока. Блок прогнозирования и остаточный блок могут быть добавлены на 226. Восстановленный блок может проходить через внутрипетлевое средство 266 фильтрации и может быть сохранен в хранилище 264 эталонных изображений. Восстановленное видео в хранилище 264 эталонных изображений может быть использовано для приведения в действие устройства отображения и/или для прогнозирования будущих видеоблоков.In FIG. 8 shows an example of a block-based hybrid video decoder. The video bit stream 202 may be received, decompressed, and/or entropy decoded at entropy decoding node 208 . The encoding and/or prediction mode information may be sent to the spatial predictor 260 (eg, if intra coding has been performed) and/or to the temporal predictor 262 (eg, if inter coding has been performed). A prediction block may be generated using a spatial predictor 260 and/or a temporal predictor 262 . The residual transform coefficients may be sent to inverse quantizer 210 and to inverse transform 212 to recover the residual block. A prediction block and a residual block may be added at 226. The reconstructed block may pass through the in-loop filter means 266 and may be stored in the reference image store 264. The reconstructed video in the reference image store 264 may be used to drive a display device and/or to predict future video blocks.

Для кодирования 2D плоского прямолинейного видео можно использовать видеокодек, такой как H.264 и/или HEVC. Кодирование видеосигналов может использовать пространственную и/или временную корреляцию, например, для удаления избыточной информации. Во время кодирования видеосигналов может быть применен один или более способов прогнозирования, таких как внутреннее прогнозирование и/или внешнее прогнозирование. Внутреннее прогнозирование может прогнозировать значение сэмпла с помощью соседних по отношению к нему восстановленных сэмплов. На фиг. 9 представлен пример эталонных сэмплов, которые могут быть использованы для внутреннего прогнозирования текущего блока преобразования (TU). Эталонные сэмплы могут представлять собой или включать в себя восстановленные сэмплы, расположенные выше и/или слева от текущего TU. Эталонные сэмплы могут представлять собой или включать в себя левый и/или верхний соседние восстановленные сэмплы.A video codec such as H.264 and/or HEVC can be used to encode 2D flat lay video. Video coding may use spatial and/or temporal correlation, for example, to remove redundant information. During encoding of video signals, one or more prediction methods such as intra prediction and/or inter prediction may be applied. Intra-prediction can predict the value of a sample using reconstructed samples adjacent to it. In FIG. 9 shows an example of reference samples that can be used for intra-prediction of the current transform unit (TU). The reference samples may be or include recovered samples located above and/or to the left of the current TU. The reference samples may be or include the left and/or top adjacent recovered samples.

На фиг. 10 представлен пример указания направлений внутреннего прогнозирования в HEVC. Например, HEVC может указывать 35 режимов внутреннего прогнозирования, которые включают в себя плоское (0), DC (1) и/или угловое прогнозирования (2 ~ 34), как показано на фиг. 10. Можно выбирать соответствующий режим внутреннего прогнозирования. Например, на стороне кодера можно выбирать соответствующий режим внутреннего прогнозирования. Можно сравнивать прогнозы, сгенерированные множеством потенциальных режимов внутреннего прогнозирования. Можно выбирать потенциальный режим внутреннего прогнозирования, который создает наименьшее искажение между сэмплами прогнозирования и исходными сэмплами. Выбранный режим внутреннего прогнозирования можно закодировать в битовом потоке.In FIG. 10 shows an example of specifying directions for intra-prediction in HEVC. For example, HEVC may indicate 35 intra prediction modes, which include flat (0), DC (1), and/or angle prediction (2 ~ 34), as shown in FIG. 10. You can select the appropriate intra prediction mode. For example, on the encoder side, an appropriate intra prediction mode can be selected. It is possible to compare the predictions generated by multiple potential intra prediction modes. It is possible to select a potential intra-prediction mode that creates the least distortion between the prediction samples and the original samples. The selected intra prediction mode may be encoded in the bitstream.

Угловые прогнозирования можно использовать для прогнозирования направленных текстур. На фиг. 11 показан пример внешнего прогнозирования с вектором движения (MV). Блоки B0’ и B1' в эталонном изображении могут представлять собой соответствующие эталонные блоки для блоков B0 и B1 текущего изображения. Эталонный блок B0‘ может частично находиться за пределами границы эталонного изображения. Заполнение может быть использовано для заполнения неизвестных сэмплов за пределами границ изображения. На фиг. 12 представлен пример заполнения эталонных сэмплов за пределами границы изображения. Например, примеры заполнения для блока B0‘ могут содержать четыре части: P0, P1, P2 и P3. Части P0, P1 и P2 могут находиться за пределами границы изображения и могут быть заполнены, например, посредством заполнения. Часть P0 может быть заполнена верхним левым сэмплом эталонного изображения. Часть Р1 может быть заполнена посредством вертикального заполнения с использованием крайнего верхнего ряда эталонного изображения. Часть Р2 может быть заполнена посредством горизонтального заполнения с использованием крайнего левого столбца изображения.Angular predictions can be used to predict directional textures. In FIG. 11 shows an example of motion vector (MV) inter prediction. Blocks B0' and B1' in the reference image may be the corresponding reference blocks for blocks B0 and B1 of the current image. The reference block B0' may be partly outside the boundary of the reference image. Padding can be used to pad unknown samples outside of the image boundaries. In FIG. 12 shows an example of filling reference samples outside the image boundary. For example, padding examples for block B0‘ might contain four parts: P0, P1, P2, and P3. Parts P0, P1 and P2 may be outside the border of the image and may be filled, for example, by padding. Part P0 may be filled with the upper left sample of the reference image. Part P1 may be filled by vertical padding using the topmost row of the reference image. Part P2 can be filled by horizontal filling using the leftmost column of the image.

В режиме объединения можно использовать (например, повторно использовать) информацию MV из пространственных и/или временных соседних PU. Векторы движения для PU (например, текущего PU) могут не кодироваться. Кодер и/или декодер может формировать список кандидатов для объединения векторов движения. Например, список может быть создан с использованием информации MV из пространственных и/или временных соседних PU. На фиг. 13 представлен пример пространственных соседей (например, левого нижнего, левого, правого верхнего, верхнего и/или левого верхнего), используемых для выведения кандидата на объединение. Индекс выбранного кандидата на объединение может быть закодирован и/или передан посредством сигнализации. Список кандидатов на объединение может быть создан декодером. Создание списка декодером может осуществляться аналогично (например, аналогично) созданию списка кодером. Запись индекса кандидата на объединение, переданного посредством сигнализации, может быть использована в качестве MV для PU (например, текущего PU).In the merge mode, MV information from spatial and/or temporal neighbor PUs can be used (eg, reused). Motion vectors for a PU (eg, the current PU) may not be encoded. The encoder and/or decoder may generate a list of candidates for combining motion vectors. For example, a list may be created using MV information from spatial and/or temporal neighbor PUs. In FIG. 13 shows an example of spatial neighbors (eg, bottom left, left, top right, top, and/or top left) used to derive a merge candidate. The index of the selected merge candidate may be encoded and/or signaled. The merge candidate list may be generated by the decoder. The creation of the list by the decoder may be similar (eg, similar) to the creation of the list by the encoder. The merge candidate index entry signaled can be used as the MV for the PU (eg, the current PU).

Можно реализовать геометрическое заполнение для 360-градусного кодирования видеосигналов. Например, геометрическое заполнение для 360-градусного кодирования видеосигналов можно реализовать на основании функций сопоставления 2D с 3D, а также 3D с 2D. Функции сопоставления 2D с 3D, а также 3D с 2D могут использовать функции деления и/или тригонометрические функции, такие как синус, косинус, тангенс и/или т.п. При реализации геометрического заполнения могут быть использованы вычислительные ресурсы, такие как ЦП и/или запоминающее устройство. Геометрическое заполнение может быть реализовано аппаратно. Можно реализовать операции деления с постоянным знаменателем. Например, операции деления с постоянным знаменателем можно реализовать с использованием операций битового сдвига. Операции деления с переменным знаменателем могут быть сложными для реализации. Одна или более функций могут быть реализованы с использованием таблиц перекодировки (LUT). Таблицы LUT могут быть недоступны для платформы декодирования. Кодер и/или декодер может хранить таблицы LUT в запоминающем устройстве.It is possible to implement geometric filling for 360-degree video encoding. For example, geometric filling for 360-degree video coding can be implemented based on 2D to 3D and 3D to 2D mapping functions. The 2D to 3D and 3D to 2D mapping functions may use division and/or trigonometric functions such as sine, cosine, tangent, and/or the like. When implementing geometric filling, computing resources such as a CPU and/or a storage device may be used. Geometric filling can be implemented in hardware. It is possible to implement division operations with a constant denominator. For example, constant denominator division operations can be implemented using bit shift operations. Variable denominator division operations can be tricky to implement. One or more functions may be implemented using lookup tables (LUTs). LUTs may not be available for the decoding platform. The encoder and/or decoder may store the LUTs in a storage device.

Геометрическое заполнение может быть реализовано путем создания эталонного изображения. Количество сэмплов в эталонном изображении может быть предварительно заполнено вокруг границ изображения. Один или более предварительно заполненных сэмплов могут не использоваться. Например, один или более предварительно заполненных сэмплов могут отсутствовать и могут не использоваться, если ни один вектор движения в битовом потоке не относится к заполненным сэмплам. Эталонное изображение и/или предварительно заполненные сэмплы могут быть сохранены. Например, эталонное изображение и/или предварительно заполненные сэмплы могут быть сохранены в запоминающем устройстве.Geometric filling can be implemented by creating a reference image. The number of samples in the reference image may be pre-filled around the edges of the image. One or more prefilled samples may not be used. For example, one or more pre-filled samples may be missing and may not be used if no motion vector in the bitstream belongs to the filled samples. The reference image and/or pre-filled samples may be saved. For example, the reference image and/or pre-populated samples may be stored in a storage device.

В примерах геометрическое заполнение может быть реализовано на основании выведения одного или более сэмплов при получении сферических соседей, например, как описано в настоящем документе. Например, один или более сэмплов могут быть выведены из геометрии проекции на основании одной панорамы, такой как ERP, EAP, AEP и/или т.п. форматы, при использовании горизонтального геометрического заполнения. Операцию обрезки можно использовать для ограничения сэмпла в декодированном изображении.In the examples, geometric filling may be implemented based on the derivation of one or more samples when obtaining spherical neighbors, for example, as described herein. For example, one or more samples may be derived from a projection geometry based on a single panorama, such as ERP, EAP, AEP, and/or the like. formats, when using horizontal geometric filling. The cropping operation can be used to limit a sample in a decoded image.

Например, текущий блок можно разделять на один или более подблоков. Например, блок можно разделять на один или более подблоков на основании его векторов движения. Можно получать прогнозирование для подблока из различных частей проецируемого видео. Например, если вектор движения принимает левую часть блока за пределами левого края изображения ERP, этот блок можно разделять на множество частей, например на две части. Эти части могут находиться внутри и/или за пределами края изображения ERP. Часть, находящаяся за пределами левой границы, может быть получена с правой стороны изображения ERP, а часть, находящаяся в пределах левой границы, может быть получена с левой стороны от изображения ERP.For example, the current block may be divided into one or more subblocks. For example, a block may be divided into one or more sub-blocks based on its motion vectors. It is possible to obtain prediction for a sub-block from different parts of the projected video. For example, if the motion vector takes the left side of the block outside the left edge of the ERP image, this block can be divided into multiple parts, such as two parts. These parts may be inside and/or outside the edge of the ERP image. The part outside the left border can be obtained on the right side of the ERP image, and the part inside the left border can be obtained on the left side of the ERP image.

Устройство кодирования видеосигналов может выполнять геометрическое заполнение. Устройство кодирования видеосигналов, описанное в настоящем документе, может включать в себя кодер и/или декодер. Например, устройство кодирования видеосигналов может выполнять геометрическое заполнение на основании выведения одного или более сэмплов при получении одного или более сферических соседей.The video encoder may perform geometric filling. The video encoding apparatus described herein may include an encoder and/or a decoder. For example, a video encoder may perform geometric filling based on deriving one or more samples upon receiving one or more spherical neighbors.

Указание для разрешения геометрического заполнения, такого как горизонтальное геометрическое заполнение, может быть передано посредством сигнализации. Например, посредством сигнализации может быть передано указание с разрешением заворачивания для указания того, что геометрическое заполнение разрешено. Указание с разрешением заворачивания может указывать, разрешена ли компенсация горизонтального движения заворачивания. Указание с разрешением заворачивания может представлять собой или может включать в себя флаг с разрешением заворачивания, который может указывать, разрешена ли компенсация горизонтального движения заворачивания. Указание, такое как указание с разрешением заворачивания, может быть передано посредством сигнализации в битовом потоке.An indication to allow geometric infill, such as horizontal geometric infill, may be signaled. For example, a wrapping permission indication may be signaled to indicate that geometric filling is permitted. The indication with screw-in permission can indicate whether the compensation of the horizontal screw-in movement is enabled. The wrap-enable indication may be or may include a wrap-enable flag that may indicate whether the horizontal wrap motion compensation is enabled. An indication, such as a wrapper permission indication, may be conveyed by bitstream signaling.

Может быть определено правильное положение одного или более соседей в сферической окрестности. Например, устройство кодирования видеосигналов может определять правильное положение одного или более сферических соседей, связанных с текущим сэмплом, на основании смещения заворачивания эталонного сэмпла относительно текущего сэмпла. Устройство кодирования видеосигналов может учитывать смещение, такое как смещение заворачивания эталонного сэмпла, посредством геометрического заполнения и может вычислять правильное положение одного или более сферических соседей. Например, смещение заворачивания эталонного сэмпла может представлять собой или может включать в себя информацию, которая указывает ширину панорамы изображения, такого как изображение с упакованными кадрами, связанное с видеосодержимым. Устройство кодирования видеосигналов может вычислять правильное положение одного или более сферических соседей на основании указания размера, указывающего ширину панорамы изображения с упакованными кадрами. Указание размера может представлять собой или может включать в себя размер защитной полосы, например ширину защитной полосы в выборках яркости. На основании указания размера, который может представлять собой или может включать в себя ширину защитной полосы, устройство кодирования видеосигналов может вычислять правильное положение одного или более сферических соседей, связанных с текущим сэмплом. Положение и/или размер защитных полос могут быть добавлены (например, могли быть добавлены) при упаковке одной или более панорам в изображении. При упаковке одной или более панорам в изображении, таком как изображение с упакованными кадрами, могут быть добавлены защитные полосы. Например, при упаковке одной или более панорам в изображении перед кодированием могут быть добавлены защитные полосы. Как описано в настоящем документе, одно или более указаний, относящихся к геометрическому заполнению, могут быть переданы посредством сигнализации для указания, применено ли горизонтальное геометрическое заполнение, и/или указания защитных полос.The correct position of one or more neighbors in a spherical neighborhood can be determined. For example, the video encoder may determine the correct position of one or more spherical neighbors associated with the current sample based on the reference sample's wrapping offset relative to the current sample. The video encoder may account for an offset, such as a wrapping offset of a reference sample, through geometric filling, and may calculate the correct position of one or more spherical neighbors. For example, the reference sample wrap offset may be or may include information that indicates the panorama width of an image, such as a frame packed image, associated with video content. The video encoder may calculate the correct position of one or more spherical neighbors based on a size indication indicating the panorama width of the packed frame image. The size indication may be or may include the size of the guard band, such as the width of the guard band in luminance samples. Based on the indication of the size, which may be or may include the guard band width, the video encoder may calculate the correct position of one or more spherical neighbors associated with the current sample. The position and/or size of the guard bands may be (eg, could be) added by packaging one or more panoramas in an image. When packing one or more panoramas in an image, such as a packed image, guard bands may be added. For example, when packaging one or more panoramas in an image, guards may be added before encoding. As described herein, one or more indications relating to geometric infill may be signaled to indicate whether horizontal infill has been applied and/or to indicate guard bands.

Для геометрий проекции, включающих в себя панораму, например формат проекции на основании одной панорамы, такой как ERP, EAP, AEP и/или подобные форматы проекции, геометрическое заполнение можно выполнять в горизонтальном направлении. При выполнении геометрического заполнения в горизонтальном направлении можно использовать повторяющееся заполнение в вертикальном направлении. Положение сэмпла может быть определено как горизонтальная координата сэмпла, которая может быть завернута в кодированном изображении (например, см. ур. (3)). Вертикальная координата сэмпла может быть обрезана по одной или более закодированных границ изображения, например, как при повторяющемся заполнении. Может быть определен процесс выведения целочисленных сэмплов и/или процесс интерполяции дробных сэмплов для внешнего прогнозирования (например, с использованием горизонтального геометрического заполнения) для геометрий проекции на основании панорамы (например, одной панорамы).For projection geometries that include a panorama, such as a projection format based on a single panorama, such as ERP, EAP, AEP, and/or similar projection formats, geometric filling can be performed in the horizontal direction. When performing geometric infill in the horizontal direction, you can use repeated infill in the vertical direction. The sample position may be defined as the horizontal coordinate of the sample, which may be wrapped in the encoded image (eg, see eq. (3)). The vertical coordinate of the sample may be clipped at one or more encoded image boundaries, such as in a repeat fill. An integer sample derivation process and/or a fractional sample interpolation process for external prediction (eg, using horizontal geometric fill) for projection geometries based on a panorama (eg, a single panorama) may be defined.

Одно или более указаний, относящихся к геометрическому заполнению, могут быть могут быть переданы посредством сигнализации. Как описано в настоящем документе, указание с разрешением заворачивания может быть передано посредством сигнализации. Указание с разрешением заворачивания может указывать, разрешена ли компенсация горизонтального движения заворачивания. Указание с разрешением заворачивания может быть передано посредством сигнализации на уровне последовательности и/или изображения. Например, указание с разрешением заворачивания, которое указывает геометрическое заполнение, может быть передано посредством сигнализации на уровне последовательности, например набора параметров последовательности (SPS).One or more indications relating to geometric filling may be signaled. As described herein, a wrapping permission instruction may be signaled. The indication with screwdriving permission can indicate whether the compensation of the horizontal screwdriving movement is enabled. The wrapping permission indication may be signaled at the sequence and/or image level. For example, a wrap-enabled indication that indicates geometric fill may be conveyed by sequence-level signaling, such as a sequence parameter set (SPS).

Один или более параметров упаковки кадров могут быть переданы посредством сигнализации в битовом потоке. Например, один или более параметров упаковки кадров могут быть переданы посредством сигнализации на уровне последовательности и/или изображения с использованием элементов синтаксиса высокого уровня (HLS). Положение и/или ориентация панорамы изображения с упакованными кадрами, могут быть переданы посредством сигнализации в битовом потоке. Указание, указывающее ширину панорамы, которая связана с изображением с упакованными кадрами, может быть передано посредством сигнализации в битовом потоке. Указание для одного или более смещений, где такое указание размера указывает ширину защитной полосы и/или наличие одной или более защитных полос, может быть передано посредством сигнализации в битовом потоке. Например, указание размера и/или наличия защитной полосы для одного или более пикселей (например, дополнительных пикселей) на границах панорамы могут быть переданы посредством сигнализации в битовом потоке. Положение защитных полос, такое как смещения, может быть основано на формате проекции. Например, при геометриях проекции на основании одной панорамы защитные полосы могут располагаться на левой и/или правой границах панорам. В примерах защитные полосы, расположенные на левой и правой границах панорам, могут иметь одинаковый размер. В примерах защитные полосы, расположенные на левой и правой границах панорам, могут иметь разный размер. Указание размера, указывающее ширину защитной полосы, может включать в себя ширины защитных полос, таких как левая и правая защитные полосы. Для формата проекции на основании множественных панорам, такого как формат CMP, защитные полосы могут располагаться вокруг группы непрерывных панорам и/или ряда панорам. Если в формате проекции на основании множественных панорам размеры защитных полос отличаются, указание размера может включать в себя ширины каждой защитной полосы.One or more frame packing parameters may be signaled in the bitstream. For example, one or more frame packing parameters may be signaled at the sequence and/or picture level using High Level Syntax (HLS) elements. The position and/or orientation of the panorama of the packed frame image may be signaled in the bitstream. An indication indicating the width of a panorama that is associated with a packed frame image may be transmitted by bitstream signaling. An indication for one or more offsets, where such a size indication indicates the width of the guard band and/or the presence of one or more guard bands, may be signaled in the bitstream. For example, an indication of the size and/or presence of a guard band for one or more pixels (eg, additional pixels) at the boundaries of a panorama may be signaled in the bitstream. The position of the guard bands, such as offsets, may be based on the projection format. For example, for projection geometries based on a single panorama, guardbands can be located on the left and/or right borders of the panoramas. In the examples, the guard strips located on the left and right borders of the panoramas may have the same size. In the examples, the guard bars located on the left and right borders of the panoramas may have different sizes. The dimension indication indicating the guard band width may include guard band widths such as left and right guard bands. For a projection format based on multiple panoramas, such as the CMP format, guardbands may be arranged around a group of continuous panoramas and/or a series of panoramas. If the sizes of the guard strips differ in the projection format based on multiple panoramas, the size indication may include the width of each guard strip.

Одна или более защитных полос и/или элементы синтаксиса геометрического заполнения, описанные в настоящем документе, могут быть переданы посредством сигнализации. Например, посредством сигнализации может быть передано указание с разрешением заворачивания, в котором указано, разрешена ли компенсация горизонтального движения заворачивания. Указание может представлять собой или может включать в себя флаг разрешения заворачивания. Указание может включать в себя указание размера, указывающее ширину панорамы изображения с упакованными кадрами, и может быть передано посредством сигнализации. Как описано в настоящем документе, указание размера (например, указывающее ширину панорамы) может представлять собой или может включать в себя некоторый параметр, такой как guard_bands_param_present_flag, указывающий ширину защитной полосы. В таблице 1 показан пример геометрического заполнения и элементов синтаксиса защитной полосы. Геометрическое заполнение и/или элементы синтаксиса защитной полосы могут быть переданы посредством сигнализации на уровне последовательности и/или уровне изображения.One or more guard bands and/or geometric padding syntax elements described herein may be signaled. For example, a wrapping permission indication indicating whether compensation for the horizontal wrapping movement is allowed is signaled, for example. The indication may be or may include a wrapping permission flag. The indication may include a size indication indicating the panorama width of the packed frame image, and may be signaled. As described herein, the size indication (eg, indicating the width of the panorama) may be or may include some parameter, such as guard_bands_param_present_flag, indicating the width of the guard band. Table 1 shows an example of geometric padding and guardband syntax elements. Geometric padding and/or guardband syntax elements may be signaled at the sequence level and/or picture level.

Таблица 1. Геометрическое заполнение и синтаксис защитных полосTable 1. Geometric filling and guardband syntax

Figure 00000002
Figure 00000002

В примерах параметры таблицы 1 могут иметь следующую семантику.In the examples, table 1 parameters may have the following semantics.

Элемент синтаксиса projection_geometry может представлять собой или может включать в себя индекс сопоставления (например, как показано в таблице 2) используемой геометрии проекции.The projection_geometry syntax element may be, or may include, a mapping index (eg, as shown in Table 2) of the projection geometry used.

Элемент синтаксиса guard_bands_param_present_flag может указывать на наличие элемента синтаксиса guard_bands_size_in_luma_samples. Если элемент синтаксиса guard_bands_size_in_luma_samples отсутствует, значение элемента синтаксиса guard_bands_param_present_flag может быть выведено как равное 0.The guard_bands_param_present_flag syntax element may indicate the presence of the guard_bands_size_in_luma_samples syntax element. If the guard_bands_size_in_luma_samples syntax element is not present, the value of the guard_bands_param_present_flag syntax element may be output as 0.

Указание наличия смещения, такое как указание того, присутствует ли смещение, может включать в себя информацию о смещении. Например, указание наличия смещения, такое как guard_bands_param_present_flag, может быть применено для определения того, присутствует ли смещение в битовом потоке. Если указание наличия смещения указывает на наличие смещения в битовом потоке, устройство кодирования видеосигналов, такое как декодер, может синтаксически анализировать битовый поток для приема смещения. Если указание наличия смещения указывает на то, что в битовом потоке смещение отсутствует, устройство кодирования видеосигналов может пропускать синтаксический анализ битового потока для приема смещения. Например, если указание наличия смещения, такое как guard_bands_param_presnt_flag, указывает на то, что смещение отсутствует, устройство кодирования видеосигналов может пропускать использование защитной полосы. Крайняя левая и крайняя правая границы проецируемой панорамы могут быть соединены в сфере, при этом границы могут не соединяться в изображении с упакованными кадрами. Заполненные/расширенные сэмплы в защитной полосе могут быть закодированы в битовом потоке. Например, информация о левой защитной полосе может быть получена из крайней правой области внутри панорамы, а информация о правой защитной полосе может быть получена из крайней левой области внутри панорамы. Восстановленные сэмплы на крайней левой и крайней правой границах могут быть непрерывными (например, восстановленные сэмплы на крайней левой и крайней правой границах при кодировании рассматриваются как соседние сэмплы). Сэмплы в защитной полосе могут быть отброшены при отображении (например, поскольку сэмплы физически не существуют).An indication of the presence of an offset, such as an indication of whether an offset is present, may include information about the offset. For example, an indication of the presence of an offset, such as guard_bands_param_present_flag, may be used to determine if an offset is present in the bitstream. If the indication of the presence of an offset indicates the presence of an offset in the bitstream, a video encoder such as a decoder may parse the bitstream to receive the offset. If the indication of the presence of an offset indicates that there is no offset in the bitstream, the video encoder may skip parsing the bitstream to receive the offset. For example, if an indication of the presence of an offset, such as guard_bands_param_presnt_flag, indicates that there is no offset, the video encoder may skip using the guard band. The leftmost and rightmost edges of the projected panorama may be connected in a sphere, while the edges may not be connected in a packed frame image. The padded/spread samples in the guardband can be encoded in the bitstream. For example, the left guard band information may be obtained from the rightmost region within the panorama, and the right guardband information may be obtained from the leftmost region within the panorama. Recovered samples at the leftmost and rightmost boundaries may be contiguous (eg, recovered samples at the leftmost and rightmost boundaries are treated as adjacent samples when encoding). Samples in the guardband may be discarded when displayed (for example, because the samples do not physically exist).

Может быть принято указание размера, указывающее ширину панорамы изображения (например, изображения с упакованными кадрами). Например, указание размера может включать в себя элемент синтаксиса, такой как guard_bands_size_in_luma_samples. Ширина панорамы изображения с упакованными кадрами может быть вычислена на основании указания размера. Вычисленная ширина панорамы может быть использована в качестве смещения заворачивания эталонного сэмпла. Например, элемент синтаксиса guard_bands_size_in_luma_samples может представлять размер в одной или более выборках яркости защитных полос, используемых в изображении с упакованными кадрами. Местоположение защитных полос (например, смещений) может быть определено для формата проекции. Например, для геометрии проекции на основании одной панорамы, такой как ERP, EAP, AEP и/или т.п. форматы, одна или более защитных полос могут быть определены на левой и/или правой границах панорамы. В примерах защитные полосы на левой и правой границах панорамы могут иметь одинаковую ширину. В примерах защитные полосы на левой и правой границах панорамы могут иметь разную ширину. Для геометрии проекции на основании множественных панорам, такой как формат CMP, одна или более защитных полос могут определяться вокруг группы панорам (например, каждой группы непрерывных панорам или каждого ряда панорам). Элемент синтаксиса guard_bands_size_in_luma_samples может не быть равен 0. Элемент синтаксиса guard_bands_size_in_luma_samples может быть целым числом, кратным MinCbSizeY.A size indication indicating the width of an image panorama (eg, images with packed frames) may be received. For example, the size indication may include a syntax element such as guard_bands_size_in_luma_samples. The panorama width of a packed frame image can be calculated based on the specified size. The calculated pan width can be used as a wrapping offset for the reference sample. For example, the syntax element guard_bands_size_in_luma_samples may represent the size in one or more luminance samples of the guard bands used in a packed frame image. The location of the guard bands (eg offsets) can be defined for the projection format. For example, for projection geometry based on a single panorama, such as ERP, EAP, AEP, and/or the like. formats, one or more guard bands can be defined on the left and/or right borders of the panorama. In the examples, the guard bars on the left and right borders of the panorama may have the same width. In the examples, the guard bars on the left and right borders of the panorama may have different widths. For projection geometry based on multiple panoramas, such as the CMP format, one or more guardbands may be defined around a group of panoramas (eg, each group of continuous panoramas or each row of panoramas). The guard_bands_size_in_luma_samples syntax element may not be 0. The guard_bands_size_in_luma_samples syntax element MAY be an integer multiple of MinCbSizeY.

Если элемент синтаксиса geometry_padding_enabled_flag равен 1, элемент синтаксиса geometry_padding_enabled_flag может указывать на то, что геометрическое заполнение эталонных изображений применяют для одного или более сэмплов, расположенных за пределами границы изображения. Если элемент синтаксиса geometry_padding_enabled_flag равен 0, элемент синтаксиса geometry_padding_enabled_flag может указывать на то, что геометрическое заполнение пропущено (например, не применяется). Если элемент синтаксиса geometry_padding_enabled_flag отсутствует, значение элемента синтаксиса geometry_padding_enabled_flag может быть выведено как равное 0.If the geometry_padding_enabled_flag syntax element is equal to 1, the geometry_padding_enabled_flag syntax element may indicate that reference image geometry padding is applied to one or more samples located outside the image boundary. If the geometry_padding_enabled_flag syntax element is 0, the geometry_padding_enabled_flag syntax element may indicate that geometry padding is omitted (eg, not applied). If the geometry_padding_enabled_flag syntax element is absent, the value of the geometry_padding_enabled_flag syntax element may be output as 0.

В таблице 2 представлены примеры индексов геометрии проекции.Table 2 provides examples of projection geometry indexes.

Таблица 2. Индексы геометрии проекцииTable 2. Indices of projection geometry

ИндексIndex Геометрия проекцииProjection geometry 00 Равнопромежуточная проекцияEquidistant projection 1one Проекция с кубической текстуройProjection with cube texture 22 Равноплощадная проекцияEqual area projection 33 Скорректированная равноплощадная проекцияCorrected Equal Area Projection

Фактический размер панорамы, такой как ширина панорамы без защитных полос, может быть вычислена на основе информации, переданной посредством сигнализации, в таблице 1 и/или размера закодированного изображения. Например, для геометрии проекции на основании одной панорамы, такой как ERP, EAP, AEP и/или подобные форматы, с защитными полосами на левой и/или правой сторонах кодированного изображения фактическая ширина панорамы может быть вычислена, например, с использованием ур. (6). Параметр, такой как указание размера, который указывает ширину панорамы изображения с упакованными кадрами, может представлять собой или может включать в себя элемент pic_width_in_luma_samples, как описано в настоящем документе. Указание размера или такой параметр, как pic_width_in_luma_samples, может представлять ширину декодированного изображения в единицах выборок яркости. Параметр pic_width_in_luma_samples может быть передан посредством сигнализации на уровне последовательности. Высота панорамы может быть выведена из кодированной высоты изображения, например, при отсутствии защитных полос на верхней и/или нижней сторонах.The actual size of the panorama, such as the panorama width without guardbands, may be calculated based on the signaling information in Table 1 and/or the size of the encoded picture. For example, for projection geometry based on a single panorama, such as ERP, EAP, AEP, and/or similar formats, with guard bands on the left and/or right sides of the encoded image, the actual panorama width can be calculated, for example, using Eq. (6). A parameter, such as specifying a size that specifies the panorama width of a packed frame image, may be or may include a pic_width_in_luma_samples element as described herein. A size indication or a parameter such as pic_width_in_luma_samples may represent the width of the decoded image in units of luma samples. The pic_width_in_luma_samples parameter may be passed through signaling at the sequence level. The height of the panorama can be derived from the encoded image height, for example, in the absence of guard bands on the top and/or bottom sides.

face_width_in_luma_samples = pic_width_in_luma_samples – 2 * guard_bands_size_in_luma_samples (6)face_width_in_luma_samples = pic_width_in_luma_samples - 2 * guard_bands_size_in_luma_samples (6)

В примерах левая и правая защитные полосы могут иметь одинаковый размер. В примерах левая и правая защитные полосы могут иметь разные размеры. Если левая и правая защитные полосы имеют разные размеры, размер (например, индивидуальный размер) защитной полосы может быть передан посредством сигнализации, например, в соответствии с таблицей 3. В таблице 3 показан пример геометрического заполнения и синтаксиса защитных полос.In the examples, the left and right guard strips may be the same size. In the examples, the left and right guard strips may have different sizes. If the left and right guardbands have different sizes, the size (eg, individual size) of the guardband may be signaled, eg, according to Table 3. Table 3 shows an example of the geometric padding and syntax of the guardbands.

Таблица 3. Геометрическое заполнение и синтаксис защитных полосTable 3. Geometric filling and guardband syntax

Figure 00000003
Figure 00000003

Элемент синтаксиса guard_bands_param_present_flag может указывать на то, присутствует ли по меньшей мере один из элементов синтаксиса left_guard_band_width_in_luma_samples, right_guard_band_width_in_luma_samples или guard_bands_size_in_luma_samples. Если по меньшей мере один из элементов синтаксиса, такой как left_guard_band_width_in_luma_samples, right_guard_band_width_in_luma_samples или guard_bands_size_in_luma_samples, отсутствует, значение элемента синтаксиса guard_bands_param_present_flag может быть выведено как равное 0.The guard_bands_param_present_flag syntax element may indicate whether at least one of the left_guard_band_width_in_luma_samples, right_guard_band_width_in_luma_samples, or guard_bands_size_in_luma_samples syntax elements is present. If at least one of the syntax elements, such as left_guard_band_width_in_luma_samples, right_guard_band_width_in_luma_samples, or guard_bands_size_in_luma_samples, is missing, the value of the guard_bands_param_present_flag syntax element may be output as 0.

Элемент синтаксиса left_guard_band_width_in_luma_samples может представлять ширину в выборках яркости защитной полосы, используемой в изображении с упакованными кадрами на левой границе панорамы изображения, связанного с проекцией на основании одной панорамы (например, изображения ERP, EAP и/или AEP). Элемент синтаксиса left_guard_band_width_in_luma_samples может быть целым числом, кратным MinCbSizeY.The left_guard_band_width_in_luma_samples syntax element may represent the width in luma samples of a guard band used in a frame packed image at the left panorama border of an image associated with a single panorama projection (eg, ERP, EAP and/or AEP images). The left_guard_band_width_in_luma_samples syntax element can be an integer multiple of MinCbSizeY.

Элемент синтаксиса right_guard_band_width_in_luma_samples может представлять ширину в выборках яркости защитной полосы, используемой в изображении с упакованными кадрами на правой границе панорамы изображения, связанного с проекцией на основании одной панорамы (например, изображения ERP, EAP и/или AEP). Элемент синтаксиса right_guard_band_width_in_luma_samples может быть целым числом, кратным MinCbSizeY.The right_guard_band_width_in_luma_samples syntax element may represent the width in luminance samples of a guard band used in a frame packed image at the right panorama border of an image associated with a single panorama projection (eg, ERP, EAP and/or AEP images). The right_guard_band_width_in_luma_samples syntax element can be an integer multiple of MinCbSizeY.

Как описано в настоящем документе, ширина панорамы изображения с упакованными кадрами может быть вычислена на основании указания размера, которое указывает ширину панорамы изображения с упакованными кадрами, такого как left_guard_band_width_in_luma_samples и/или right_guard_band_width_in_luma_samples. Например, используя представление, описанное в настоящем документе, ширину панорамы может быть вычислена, например, на основании ур. (7).As described herein, a panorama width of a packed frame image may be calculated based on a size indication that indicates the panorama width of a packed frame image, such as left_guard_band_width_in_luma_samples and/or right_guard_band_width_in_luma_samples. For example, using the representation described herein, the width of a panorama can be calculated, for example, based on Eq. (7).

face_width_in_luma_samples = pic_width_in_luma_samples – (left_guard_band_width_in_luma_samples + right_guard_band_width_in_luma_samples) (7)face_width_in_luma_samples = pic_width_in_luma_samples - (left_guard_band_width_in_luma_samples + right_guard_band_width_in_luma_samples) (7)

В примерах значения ширины защитной полосы могут быть кратными MinCbSizeY. Если значения ширины защитной полосы кратны MinCbSizeY, элементы синтаксиса могут быть указаны в единицах MinCbSizeY, например, вместо или в дополнение к указанию в единицах выборок яркости. In the examples, the guardband width values may be multiples of MinCbSizeY. If guardband widths are multiples of MinCbSizeY, the syntax elements may be specified in units of MinCbSizeY, for example, instead of or in addition to being specified in units of luma samples.

Геометрия проекции на основании одной панорамы может быть заполнена геометрией на основании одного или более сэмплов. При внешнем прогнозировании текущий блок в текущем изображении может быть спрогнозирован из эталонного блока в эталонном изображении. Например, текущий блок в текущем изображении может быть спрогнозирован из эталонного блока в эталонном изображении с использованием MV, соответствующего перемещению из положения текущего блока в положение эталонного блока. Для положения сэмпла (x, y) в текущем блоке сигнал прогнозирования Ipred (x, y) может быть получен из эталонного изображения Iref и MV (∆x, ∆y), например с использованием ур. (8).The projection geometry based on one panorama can be filled with geometry based on one or more samples. In inter prediction, the current block in the current picture may be predicted from a reference block in the reference picture. For example, the current block in the current picture may be predicted from the reference block in the reference picture using the MV corresponding to the movement from the current block position to the reference block position. For the position of the sample (x, y) in the current block, the prediction signal I pred (x, y) can be obtained from the reference image I ref and MV (∆x, ∆y), for example, using eq. (eight).

Figure 00000004
… (8)
Figure 00000004
… (eight)

MV может использовать дробную погрешность p. Например, MV может использовать погрешность 1/2, 1/4, 1/8 или 1/16 пикселей. Дробная погрешность может использовать интерполяцию из одного или более доступных положений целочисленных сэмплов. Положение сэмпла в эталонном изображении может быть представлено в виде целой части и дробной части, например, с использованием ур. (9)–(12).

Figure 00000005
,
Figure 00000006
и
Figure 00000007
могут представлять собой арифметические сдвиги вправо и влево соответственно. & может представлять собой побитовый оператор «и».MV can use fractional error p. For example, an MV might use 1/2, 1/4, 1/8, or 1/16 pixel tolerance. The fractional error may use interpolation from one or more available integer sample positions. The position of the sample in the reference image can be represented as an integer part and a fractional part, for example, using eq. (9)–(12).
Figure 00000005
,
Figure 00000006
and
Figure 00000007
can be arithmetic shifts to the right and left, respectively. & can be a bitwise "and" operator.

Figure 00000008
…(9)
Figure 00000009
…(10)
Figure 00000008
…(nine)
Figure 00000009
…(10)

Figure 00000010
…(11)
Figure 00000011
…(12)
Figure 00000010
…(eleven)
Figure 00000011
…(12)

Сигнал прогнозирования может быть получен посредством интерполяции одного или более соседних сэмплов на целочисленные положения. Сигнал прогнозирования может быть получен для определения значения в дробном положении. Если сэмпл в целочисленном положении

Figure 00000012
находится за пределами границы эталонного изображения, например за пределами изображения с упакованными кадрами, можно применять операцию обрезки для ограничения положения сэмпла в пределах границы кодированного изображения. Это может быть аналогично (например, эквивалентно) выполнению повторяющегося заполнения. Для выборок яркости координаты xInt и yInt могут быть обрезаны, например, с использованием ур. (13) и (14) соответственно.The prediction signal may be obtained by interpolating one or more adjacent samples to integer positions. A prediction signal may be obtained to determine a value in a fractional position. If the sample is in integer position
Figure 00000012
is outside the boundary of the reference image, such as outside the packed frame image, a cropping operation can be applied to constrain the position of the sample within the encoded image boundary. This can be analogous (eg, equivalent) to performing repeated padding. For brightness samples, the x Int and y Int coordinates can be clipped, for example, using eq. (13) and (14) respectively.

Figure 00000013
(13)
Figure 00000013
(13)

Figure 00000014
(14)
Figure 00000014
(fourteen)

Например, если указание с разрешением заворачивания указывает на то, что компенсация горизонтального движения заворачивания не разрешена, может быть выполнена операция обрезки и/или повторяющееся заполнение. Может быть идентифицировано местоположение текущего сэмпла в изображении с упакованными кадрами. Устройство кодирования видеосигналов может определять, находится ли местоположение текущего сэмпла на горизонтальной границе изображения с упакованными кадрами. Устройство кодирования видеосигналов может определять, находится ли местоположение эталонного сэмпла за пределами горизонтальной границы изображения с упакованными кадрами. Может быть идентифицировано местоположение эталонного сэмпла на горизонтальной границе изображения с упакованными кадрами. Например, как описано в настоящем документе, местоположение эталонного сэмпла на горизонтальной границе изображения с упакованными кадрами может быть идентифицировано на основании обрезки. Текущий сэмпл может быть спрогнозирован на основании местоположения эталонного сэмпла.For example, if an indication with wrapping permission indicates that horizontal wrapping motion compensation is not allowed, a cropping operation and/or repeated filling may be performed. The location of the current sample in the packed frame image can be identified. The video encoder may determine if the location of the current sample is on the horizontal boundary of the packed frame image. The video encoder may determine if the location of the reference sample is outside the horizontal boundary of the packed frame image. The location of the reference sample on the horizontal boundary of the packed frame image can be identified. For example, as described herein, the location of a reference sample at the horizontal boundary of a packed frame image can be identified based on cropping. The current sample can be predicted based on the location of the reference sample.

В случае компонента яркости при использовании горизонтального геометрического заполнения координата

Figure 00000015
в кодированном изображении может быть завернута, например, с использованием ур. (15), где
Figure 00000016
,
Figure 00000017
и
Figure 00000018
, чтобы учесть циклическое свойство 360-градусного видео. Как описано в настоящем документе, указание, такое как указание с разрешением заворачивания, может предоставлять информацию о том, что использовано горизонтальное геометрическое заполнение.In the case of the luminance component, when using horizontal geometric filling, the coordinate
Figure 00000015
in the encoded image can be wrapped, for example, using eq. (15), where
Figure 00000016
,
Figure 00000017
and
Figure 00000018
to account for the cyclic property of 360-degree video. As described herein, an indication, such as a wrapping permission indication, may provide information that horizontal geometric infill has been used.

Figure 00000019
(15)
Figure 00000019
(fifteen)

Как описано в настоящем документе, устройство кодирования видеосигналов может определять, находится ли исходное местоположение эталонного сэмпла (например, первичное местоположение эталонного сэмпла) за пределами изображения с упакованными кадрами. Если исходное местоположение эталонного сэмпла находится за пределами изображения с упакованными кадрами, местоположение эталонного сэмпла может быть вычислено путем применения смещения заворачивания эталонного сэмпла к горизонтальной координате сэмпла, связанной с исходным местоположением эталонного сэмпла.As described herein, a video encoder can determine if a reference sample's original location (eg, the reference sample's primary location) is outside of a packed frame image. If the reference sample home location is outside the packed frame image, the reference sample location can be calculated by applying the reference sample wrap offset to the horizontal sample coordinate associated with the reference sample home location.

В примерах ширина панорамы изображения с упакованными кадрами может быть определена на основании смещения заворачивания эталонного сэмпла. Может быть идентифицировано местоположение текущего сэмпла в изображении с упакованными кадрами. Устройство кодирования видеосигналов может определять, находится ли исходное местоположение эталонного сэмпла (например, первичное местоположение эталонного сэмпла) за пределами изображения с упакованными кадрами. Если исходное местоположение эталонного сэмпла находится за пределами крайней левой горизонтальной границы изображения с упакованными кадрами, местоположение эталонного сэмпла может быть определено путем добавления смещения заворачивания эталонного сэмпла к горизонтальной координате сэмпла (например, координате

Figure 00000015
), связанной с исходным местоположением эталонного сэмпла (например, как показано в уравнении 15). Если исходное местоположение эталонного сэмпла находится за пределами крайней правой горизонтальной границы изображения с упакованными кадрами, местоположение эталонного сэмпла может быть определено путем вычитания смещения заворачивания эталонного сэмпла из горизонтальной координаты сэмпла, связанной с исходным местоположением эталонного сэмпла (например, как показано в уравнении 15).In the examples, the width of the panorama of a packed frame image may be determined based on the wrapping offset of the reference sample. The location of the current sample in the packed frame image can be identified. The video encoder may determine if the original location of the reference sample (eg, the primary location of the reference sample) is outside the packed frame image. If the reference sample's original location is outside the leftmost horizontal boundary of the packed frame image, the location of the reference sample can be determined by adding the reference sample's wrap offset to the sample's horizontal coordinate (e.g., coordinate
Figure 00000015
) associated with the original location of the reference sample (for example, as shown in equation 15). If the reference sample origin location is outside the rightmost horizontal boundary of the packed frame image, the reference sample location can be determined by subtracting the reference sample wrap offset from the horizontal sample coordinate associated with the reference sample origin location (e.g., as shown in Equation 15).

Для геометрии проекции на основании одной панорамы (например, ERP, EAP, AEP и/или т.п. форматы) может быть получено положение выборки яркости, например, как показано в таблице 4. В таблице 4 представлен пример подхода к получению положения выборки яркости. Например, в таблице 4 представлен пример процесса выведения целочисленных величин и/или процесса интерполяции дробных сэмплов для внешнего прогнозирования.For projection geometry, based on a single panorama (eg, ERP, EAP, AEP, and/or the like formats), the luminance sample position can be obtained, for example, as shown in Table 4. Table 4 provides an example approach for obtaining the luminance sample position . For example, Table 4 provides an example of an integer derivation process and/or a fractional sample interpolation process for external prediction.

Таблица 4. Пример подхода к выведению положения выборки яркостиTable 4. An example approach to deriving the position of the luminance sample

Figure 00000020
Figure 00000020

Для одной или более выборок цветности при использовании повторяющегося заполнения координаты

Figure 00000015
и
Figure 00000021
могут быть обрезаны, например с помощью ур. (16) и (17) соответственно.For one or more chrominance samples when using repeated coordinate padding
Figure 00000015
and
Figure 00000021
can be cut, for example with the help of ur. (16) and (17) respectively.

Figure 00000022
(16)
Figure 00000022
(16)

Figure 00000023
… (17)
Figure 00000023
… (17)

В случае компонента цветности при использовании горизонтального геометрического заполнения координата

Figure 00000015
в кодированном изображении может быть завернута, например с помощью ур. (18), где
Figure 00000024
и In the case of the chrominance component, when using horizontal geometric filling, the coordinate
Figure 00000015
in the encoded image can be wrapped, for example using ur. (18), where
Figure 00000024
and

Figure 00000025
, для учета циклического свойства 360-градусного видео.
Figure 00000025
, to account for the cyclic property of 360-degree video.

Figure 00000026
(18)
Figure 00000026
(eighteen)

Для геометрии проекции на основании одной панорамы (например, ERP, EAP, AEP и/или т.п. форматы) может быть получено положение выборки цветности, например, как показано в таблице 5. В таблице 5 представлен пример подхода к получению положения выборки цветности. Например, в таблице 5 представлен пример процесса выведения целочисленных величин и/или процесса интерполяции дробных сэмплов для внешнего прогнозирования.For projection geometry, based on a single panorama (eg, ERP, EAP, AEP, and/or the like formats), a chroma sample position can be obtained, for example, as shown in Table 5. Table 5 provides an example approach for obtaining a chrominance sample position . For example, Table 5 provides an example of an integer derivation process and/or a fractional sample interpolation process for external prediction.

Таблица 5. Пример подхода к выведению положения выборки цветностиTable 5. An example approach to deriving the position of a chrominance sample

Figure 00000027
Figure 00000027

Заворачивание местоположений сэмплов, описанное в настоящем документе, с использованием операции по модулю можно применять к горизонтальному геометрическому заполнению, если формат проекции, используемый для представления 360-градусного видео, представляет собой формат проекции на основании одной панорамы (например, ERP, EAP, AEP и/или т.п. формат проекции). Для других форматов проекции, таких как формат проекции на основании множественных панорам (например, CMP и/или формат проекции на основании CMP), могут быть реализованы функции сопоставления 2D с 3D, а также 3D с 2D. Операция по модулю, описанная в настоящем документе, может быть применена к формату проекции на основании множественных панорам (например, CMP и/или формату проекции на основании CMP) в качестве приближения.The sample location wrapping described herein using a modulo operation can be applied to horizontal geometric fill if the projection format used to represent the 360-degree video is a projection format based on a single panorama (e.g., ERP, EAP, AEP, and /or similar projection format). For other projection formats, such as the multi-panoramic projection format (eg, CMP and/or CMP-based projection format), 2D to 3D as well as 3D to 2D matching functions can be implemented. The modulo operation described herein can be applied to a projection format based on multiple panoramas (eg, CMP and/or projection format based on CMP) as an approximation.

Устройство кодирования видеосигналов может определять положение сэмпла в текущей CU и/или может выполнять компенсацию движения на уровне сэмпла. Для видео со стандартным динамическим диапазоном (SDR) и/или т.п. компенсация движения может быть выполнена на уровне блока (например, блоком может быть CU или под-CU). CU может разделяться на множество частей (например, две части) и/или может выполнять компенсацию движения с использованием геометрического заполнения для каждой из множества частей (например, двух частей).The video encoder may determine the position of the sample in the current CU and/or may perform motion compensation at the sample level. For standard dynamic range (SDR) video and/or the like. motion compensation may be performed at the block level (eg, the block may be a CU or a sub-CU). The CU may be divided into multiple parts (eg, two parts) and/or may perform motion compensation using geometric filling for each of the multiple parts (eg, two parts).

На фиг. 14 представлен пример кэширования восстановленных сэмплов для внешнего прогнозирования при использовании горизонтального геометрического заполнения. При внешнем прогнозировании доступ к сэмплу в эталонном изображении может осуществляться более одного раза, поскольку на одну и ту же область может ссылаться несколько блоков, процессов интерполяции и/или процессов уточнения. При доступе к буферу декодированного изображения часть эталонного изображения может быть сохранена в запоминающем устройстве (например, локальном запоминающем устройстве) для быстрого доступа при выполнении внешнего прогнозирования, как показано на фиг. 14. Сохраненная область может представлять собой соседний участок с центром в положении текущего блока и/или положении текущего CTU. Размер сохраненной области может быть ограниченным. Если используется геометрическое заполнение и текущий блок находится на границе первой панорамы и/или вблизи нее, сохраненная область может быть разделена на две подобласти: первую подобласть, расположенную вокруг положения текущего блока в первой панораме; и вторую подобласть, расположенную с другой стороны от границы первой панорамы, например на второй панораме, соседней с первой панорамой. Например, если рассматривать ERP-изображение, показанное на фиг. 12, в эталонном изображении сохраненные данные могут включать в себя две подобласти: первую область, расположенную вокруг положения текущего блока (например, для прогнозирования областей двух подчастей Р1 и Р3 на фиг. 12); и вторую область (например, для прогнозирования областей двух подчастей P0 и P2 на фиг. 12), соответствующую данным заворачивания, например, учитывающим свойства цикличности 360-градусного видео.In FIG. 14 shows an example of caching recovered samples for external prediction using horizontal geometric filling. In inter-prediction, a sample in a reference image may be accessed more than once because the same area may be referenced by multiple blocks, interpolation processes, and/or refinement processes. When accessing the decoded picture buffer, a portion of the reference picture may be stored in a storage device (eg, local storage) for quick access when performing external prediction, as shown in FIG. 14. The saved area may be a neighboring area centered on the position of the current block and/or the position of the current CTU. The size of the saved area can be limited. If geometric filling is used and the current block is located on the border of the first panorama and/or near it, the saved area can be divided into two sub-regions: the first sub-region, located around the position of the current block in the first panorama; and a second subregion located on the other side of the border of the first panorama, for example on the second panorama adjacent to the first panorama. For example, considering the ERP image shown in FIG. 12, in the reference image, the stored data may include two sub-regions: a first region located around the position of the current block (for example, to predict regions of the two sub-portions P1 and P3 in FIG. 12); and a second region (eg, for predicting the regions of the two sub-parts P0 and P2 in FIG. 12) corresponding to the wrapping data, eg taking into account the cyclic properties of 360-degree video.

Для прогнозирования части, которая соответствует областям Р1 и Р3, показанным на фиг. 12, один или более сэмплов прогнозирования могут находиться с левой стороны изображения. Если вектор движения содержит дробную погрешность сэмпла, может быть осуществлена интерполяция, и/или с помощью интерполяции могут быть изменены соседи с правой стороны изображения (например, области, соответствующие областям P0 и P2, показанным на фиг. 12). Повторяющееся заполнение может быть применено для получения одного или более значений сэмплов, используемых в интерполяции для прогнозирования областей P1 и P3, показанных на фиг. 12.In order to predict the part that corresponds to the regions P1 and P3 shown in FIG. 12, one or more prediction samples may be on the left side of the image. If the motion vector contains a fractional sample error, interpolation can be performed and/or neighbors on the right side of the image (eg, regions corresponding to regions P0 and P2 shown in FIG. 12) can be changed by interpolation. Repeated filling may be applied to obtain one or more sample values used in interpolation to predict the regions P1 and P3 shown in FIG. 12.

При необходимости интерполяции для прогнозирования части, которая соответствует областям P0 и P2, один или более соседних сэмплов могут быть получены путем повторяющегося заполнения (например, путем повторения одного или более сэмплов на правой границе изображения с использованием свойства цикличности 360-градусного видео). Получение одного или более сэмплов с левой границы изображения может быть пропущено. При получении двух векторов движения для каждой из двух частей для первой части, которая соответствует областям Р1 и Р3, вектор движения может оставаться без изменения. Для второй части, которая соответствует областям P0 и P2, операция по модулю может быть применена к горизонтальному компоненту вектора движения, например, для достижения эффекта заворачивания, как описано в настоящем документе.If interpolation is needed to predict the portion that corresponds to the regions P0 and P2, one or more neighboring samples can be obtained by repeating filling (eg, by repeating one or more samples at the right edge of the image using the 360-degree video looping property). Getting one or more samples from the left border of the image can be skipped. By obtaining two motion vectors for each of the two parts for the first part, which corresponds to the regions P1 and P3, the motion vector may remain unchanged. For the second part, which corresponds to the regions P0 and P2, a modulo operation can be applied to the horizontal component of the motion vector, for example, to achieve a wrapping effect, as described herein.

Доступ к данным может осуществляться извне кэш-памяти. Для горизонтального геометрического заполнения операция заворачивания может быть ограничена пропуском получения одного или более сэмплов, расположенных за пределами сохраненных данных. Например, горизонтальное геометрическое заполнение может быть выполнено в пределах заданного диапазона SL (SL ≤ face_width_in_luma_samples, SC = SL / SubWidthC), который может быть связан с размером кэш-памяти. Для одного или более сэмплов, расположенных вне сохраненных данных, можно применять повторяющееся заполнение, выходящее за пределы этого диапазона. Ур. (15) и (18) могут быть заменены ур. (19) и (20) соответственно.Data can be accessed from outside the cache. For horizontal geometric filling, the wrapping operation can be limited to skipping getting one or more samples located outside of the stored data. For example, horizontal geometric filling may be performed within a given range S L (S L ≤ face_width_in_luma_samples, S C = S L / SubWidthC), which may be related to the cache size. For one or more samples located outside the saved data, you can apply repeated filling that goes beyond this range. Lv. (15) and (18) can be replaced by eq. (19) and (20) respectively.

Figure 00000028
(19)
Figure 00000028
(nineteen)

Figure 00000029
(20)
Figure 00000029
(twenty)

При интерполяции одного или более сэмплов в местоположениях дробных сэмплов может быть выведен один или более сэмплов в местоположениях полных сэмплов, используемых интерполяционным фильтром, например, как показано в таблице 4 и/или таблице 5 для компонентов яркости и цветности соответственно. Например, с учетом ситуации, показанной на фиг. 15, выборки a0, 0–r0, 0 яркости в положениях дробных сэмплов могут быть интерполированы с использованием выборок Ai, j яркости в местоположениях (xAi, j, yAi, j) полных сэмплов. Для выборки Ai, j яркости в местоположениях полных сэмплов координаты xAi, j и yAi, j могут быть выведены, как показано в таблице 4 и/или таблице 5 для компонентов яркости и цветности соответственно.When interpolating one or more samples at the fractional sample locations, one or more samples at the full sample locations used by the interpolation filter may be output, for example, as shown in Table 4 and/or Table 5 for the luma and chrominance components, respectively. For example, considering the situation shown in FIG. 15, the brightness samples a 0, 0 -r 0, 0 at the fractional sample positions may be interpolated using the brightness samples A i, j at the full sample locations (xA i, j , yA i, j ). For the luma sample A i, j at the full sample locations, xA i, j and yA i, j coordinates can be derived as shown in Table 4 and/or Table 5 for the luma and chrominance components, respectively.

На фиг. 16A представлена схема, иллюстрирующая пример системы 100 связи, в которой могут быть реализованы один или более описанных вариантов осуществления. Система 100 связи может представлять собой систему множественного доступа, от которой множество пользователей беспроводной связи получают содержимое, такое как голосовая информация, данные, видео, обмен сообщениями, широковещание и т.д. Система 100 связи может быть выполнена с возможностью предоставления множеству пользователей беспроводной связи доступа к такому содержимому посредством совместного использования системных ресурсов, включая ширину полосы пропускания беспроводного соединения. Например, в системах 100 связи может быть использован один или более способов доступа к каналу, таких как множественный доступ с кодовым разделением каналов (CDMA), множественный доступ с временным разделением каналов (TDMA), множественный доступ с частотным разделением каналов (FDMA), множественный доступ с ортогональным частотным разделением каналов (OFDMA), FDMA с одной несущей (SC-FDMA), расширенное OFDM с безызбыточным расширенным дискретным преобразованием Фурье (DFT) с синхропакетом (ZT UW DTS-s OFDM), OFDM с синхропакетом (UW-OFDM), OFDM с фильтрацией ресурсного блока, блок фильтров с множеством несущих (FBMC) и т.п.In FIG. 16A is a diagram illustrating an example of a communications system 100 in which one or more of the described embodiments may be implemented. Communication system 100 may be a multiple access system from which multiple wireless users receive content such as voice, data, video, messaging, broadcast, and so on. Communication system 100 may be configured to provide multiple wireless users with access to such content by sharing system resources, including wireless connection bandwidth. For example, communication systems 100 may use one or more channel access techniques such as code division multiple access (CDMA), time division multiple access (TDMA), frequency division multiple access (FDMA), multiple Orthogonal Frequency Division Access (OFDMA), Single Carrier FDMA (SC-FDMA), Non-Redundant Extended Discrete Fourier Transform (DFT) Extended OFDM with Sync Burst (ZT UW DTS-s OFDM), Sync Burst OFDM (UW-OFDM) , OFDM with resource block filtering, multi-carrier filter bank (FBMC), and the like.

Как показано на фиг. 16A, система 100 связи может включать в себя модули 102a, 102b, 102c, 102d беспроводной передачи/приема (WTRU), RAN 104/113, CN 106/115, коммутируемую телефонную сеть 108 общего пользования (PSTN), сеть Интернет 110 и другие сети 112, хотя следует понимать, что в описанных вариантах осуществления предполагается возможность применения любого количества WTRU, базовых станций, сетей и/или элементов сети. Каждый из WTRU 102a, 102b, 102c, 102d может представлять собой устройство любого типа, выполненное с возможностью функционирования и/или взаимодействия в среде беспроводной связи. Например, WTRU 102a, 102b, 102c, 102d, любой из которых может называться станцией и/или STA, могут быть выполнены с возможностью передачи и/или приема радиосигналов и могут включать в себя оборудование пользователя (UE), мобильную станцию, стационарный или мобильный абонентский модуль, абонентский модуль, пейджер, сотовый телефон, карманный персональный компьютер (PDA), смартфон, ноутбук, нетбук, персональный компьютер, беспроводной датчик, точку доступа или устройство Mi-Fi, устройство Интернета физических объектов (IoT), часы или другие носимые устройства, наголовный дисплей (HMD), транспортное средство, беспилотный радиоуправляемый летательный аппарат, медицинское устройство и приложения (например, применяемые в дистанционной хирургии), промышленное устройство и приложения (например, робот и/или другие беспроводные устройства, работающие в условиях промышленной и/или автоматизированной технологической цепочки), устройство, относящееся к бытовой электронике, устройство, работающее в коммерческой и/или промышленной беспроводной сети, и т.п. Любой из WTRU 102a, 102b, 102c и 102d можно взаимозаменяемо называть UE.As shown in FIG. 16A, communication system 100 may include wireless transmit/receive (WTRU) modules 102a, 102b, 102c, 102d, RAN 104/113, CN 106/115, public switched telephone network (PSTN) 108, Internet 110, and others. network 112, although it should be understood that any number of WTRUs, base stations, networks, and/or network elements are contemplated in the described embodiments. Each of the WTRUs 102a, 102b, 102c, 102d may be any type of device capable of operating and/or interacting in a wireless communication environment. For example, WTRUs 102a, 102b, 102c, 102d, any of which may be referred to as a station and/or STA, may be configured to transmit and/or receive radio signals and may include a user equipment (UE), a mobile station, a fixed or mobile indoor unit, indoor unit, pager, cell phone, personal digital assistant (PDA), smartphone, laptop, netbook, personal computer, wireless sensor, Mi-Fi hotspot or device, Internet of Things (IoT) device, watch, or other wearable devices, head-mounted display (HMD), vehicle, radio controlled unmanned aerial vehicle, medical device and applications (e.g. used in remote surgery), industrial device and applications (e.g. robot and/or other wireless devices operating in industrial and/or or automated technological chain), a device related to consumer electronics, a device operating in commercial and/or industrial wireless network, etc. Any of the WTRUs 102a, 102b, 102c, and 102d may be referred to interchangeably as a UE.

Системы 100 связи могут также включать в себя базовую станцию 114a и/или базовую станцию 114b. Каждая из базовых станций 114a, 114b может представлять собой устройство любого типа, выполненное с возможностью беспроводного взаимодействия с по меньшей мере одним из WTRU 102a, 102b, 102c, 102d для облегчения доступа к одной или более сетям связи, таким как CN 106/115, сеть Интернет 110 и/или другие сети 112. В качестве примера базовые станции 114a, 114b могут представлять собой базовые приемопередающие станции (BTS), станции Node-B, станции eNode B, станции Home Node B, станции Home eNode B, базовую станцию следующего поколения (gNB), NodeB на основании NR, контроллер пункта связи, точку доступа (AP), беспроводной маршрутизатор и т.п. Хотя каждая из базовых станций 114a, 114b показана как отдельный элемент, следует понимать, что базовые станции 114a, 114b могут включать в себя любое количество взаимно соединенных базовых станций и/или элементов сети.Communication systems 100 may also include base station 114a and/or base station 114b. Each of the base stations 114a, 114b may be any type of device configured to wirelessly communicate with at least one of the WTRUs 102a, 102b, 102c, 102d to facilitate access to one or more communication networks, such as CN 106/115, Internet 110 and/or other networks 112. By way of example, base stations 114a, 114b may be base transceiver stations (BTS), Node-Bs, eNode Bs, Home Node Bs, Home eNode Bs, base stations of the next generation (gNB), NodeB based on NR, site controller, access point (AP), wireless router, etc. Although each of the base stations 114a, 114b is shown as a separate element, it should be understood that the base stations 114a, 114b may include any number of interconnected base stations and/or network elements.

Базовая станция 114a может быть частью RAN 104/113, которая может также включать в себя другие базовые станции и/или элементы сети (не показаны), такие как контроллер базовой станции (BSC), контроллер радиосети (RNC), ретрансляционные узлы и т.п. Базовая станция 114a и/или базовая станция 114b могут быть выполнены с возможностью передачи и/или приема радиосигналов на одной или более несущих частотах, которые могут называться сотой (не показана). Эти частоты могут относиться к лицензированному спектру, нелицензированному спектру или к сочетанию лицензированного и нелицензированного спектров. Сота может обеспечивать покрытие для беспроводного сервиса в конкретной географической зоне, которая может быть относительно фиксированной или которая может изменяться со временем. Сота может быть дополнительно разделена на сектора соты. Например, сота, связанная с базовой станцией 114a, может быть разделена на три сектора. Таким образом, в одном варианте осуществления базовая станция 114a может включать в себя три приемопередатчика, например один для каждого сектора соты. В варианте осуществления в базовой станции 114a может быть использована технология «множественный вход — множественный выход» (MIMO), и может быть задействовано множество приемопередатчиков для каждого сектора соты. Например, для передачи и/или приема сигналов в требуемых пространственных направлениях можно использовать формирование лучей.Base station 114a may be part of RAN 104/113, which may also include other base stations and/or network elements (not shown), such as a base station controller (BSC), a radio network controller (RNC), relay nodes, etc. P. Base station 114a and/or base station 114b may be configured to transmit and/or receive radio signals on one or more carrier frequencies, which may be referred to as a cell (not shown). These frequencies may be licensed spectrum, unlicensed spectrum, or a combination of licensed and unlicensed spectrum. A cell may provide coverage for a wireless service in a particular geographic area, which may be relatively fixed or which may change over time. The cell may be further divided into cell sectors. For example, a cell associated with base station 114a may be divided into three sectors. Thus, in one embodiment, base station 114a may include three transceivers, such as one for each cell sector. In an embodiment, multiple input multiple output (MIMO) technology may be used at base station 114a and multiple transceivers may be used for each cell sector. For example, beamforming can be used to transmit and/or receive signals in the desired spatial directions.

Базовые станции 114a, 114b могут обмениваться данными с одним или более из WTRU 102a, 102b, 102c, 102d посредством радиоинтерфейса 116, который может представлять собой любую подходящую систему беспроводной связи (например, для передачи сигналов в радиочастотном (РЧ), микроволновом спектре, спектре сантиметровых волн, спектре микрометровых волн, инфракрасном (ИК), ультрафиолетовом (УФ) спектре, спектре видимого света и т.д.). Радиоинтерфейс 116 может быть установлен с использованием любой подходящей технологии радиодоступа (RAT).Base stations 114a, 114b may communicate with one or more of the WTRUs 102a, 102b, 102c, 102d over an air interface 116, which may be any suitable wireless communication system (e.g., for signaling in the radio frequency (RF), microwave spectrum, spectrum centimeter wave, micrometer wave spectrum, infrared (IR), ultraviolet (UV) spectrum, visible light spectrum, etc.). The air interface 116 may be established using any suitable radio access technology (RAT).

Более конкретно, как указано выше, система 100 связи может представлять собой систему множественного доступа, и в ней можно использовать одну или более схем доступа к каналу, например CDMA, TDMA, FDMA, OFDMA, SC-FDMA и т.п. Например, в базовой станции 114a в RAN 104/113 и WTRU 102a, 102b, 102c может быть реализована технология радиосвязи, такая как универсальный наземный доступ (UTRA) для универсальной системы мобильной связи (UMTS), в которой может быть установлен радиоинтерфейс 115/116/117 с использованием широкополосного CDMA (WCDMA). WCDMA может включать в себя протоколы связи, такие как высокоскоростной пакетный доступ (HSPA) и/или усовершенствованный HSPA (HSPA+). Протокол HSPA может включать в себя высокоскоростной пакетный доступ по нисходящей (DL) линии связи (HSDPA) и/или высокоскоростной пакетный доступ по восходящей (UL) линии связи (HSUPA).More specifically, as noted above, communication system 100 may be a multiple access system and may use one or more channel access schemes such as CDMA, TDMA, FDMA, OFDMA, SC-FDMA, and the like. For example, base station 114a in RANs 104/113 and WTRUs 102a, 102b, 102c may implement a radio technology such as Universal Terrestrial Access (UTRA) for Universal Mobile Telecommunications System (UMTS) in which a radio interface 115/116 may be established. /117 using wideband CDMA (WCDMA). WCDMA may include communication protocols such as High Speed Packet Access (HSPA) and/or Enhanced HSPA (HSPA+). The HSPA protocol may include High Speed Downlink (DL) Packet Access (HSDPA) and/or High Speed Uplink (UL) Packet Access (HSUPA).

В варианте осуществления в базовой станции 114a и WTRU 102a, 102b, 102c может быть реализована такая технология радиосвязи, как усовершенствованная сеть наземного радиодоступа UMTS (E-UTRA), которая может устанавливать радиоинтерфейс 116 с использованием стандарта долгосрочного развития сетей связи (LTE), и/или LTE-Advanced (LTE-A), и/или LTE-Advanced Pro (LTE-A Pro).In an embodiment, base station 114a and WTRUs 102a, 102b, 102c may implement a radio technology such as UMTS Evolved Terrestrial Radio Access (E-UTRA), which may establish a radio interface 116 using a Long Term Evolution (LTE) standard, and /or LTE-Advanced (LTE-A), and/or LTE-Advanced Pro (LTE-A Pro).

В одном варианте осуществления базовая станция 114a и WTRU 102a, 102b, 102c могут реализовывать такую технологию радиосвязи, как новая технология радиодоступа (NR Radio Access), которая может устанавливать радиоинтерфейс 116 с использованием технологии New Radio (NR).In one embodiment, base station 114a and WTRUs 102a, 102b, 102c may implement a radio technology such as New Radio Access Technology (NR Radio Access), which may establish a radio interface 116 using New Radio (NR) technology.

В варианте осуществления в базовой станции 114a и WTRU 102a, 102b, 102c может быть реализовано множество технологий радиодоступа. Например, в совокупности в базовой станции 114a и WTRU 102a, 102b, 102c может быть реализован радиодоступ LTE и радиодоступ NR, например, с использованием принципов двойного подключения (DC). Таким образом, радиоинтерфейс, используемый WTRU 102a, 102b, 102c, может характеризоваться применением множества типов технологий радиодоступа и/или передачами, направляемыми на базовые станции / с базовых станций, относящихся к множеству типов (например, eNB и gNB).In an embodiment, multiple radio access technologies may be implemented in base station 114a and WTRUs 102a, 102b, 102c. For example, together, base station 114a and WTRUs 102a, 102b, 102c can implement LTE radio access and NR radio access, eg, using dual connectivity (DC) principles. Thus, the air interface used by WTRUs 102a, 102b, 102c may be characterized by the use of multiple types of radio access technologies and/or transmissions directed to/from base stations of multiple types (eg, eNBs and gNBs).

В других вариантах осуществления базовая станция 114a и WTRU 102a, 102b, 102c могут реализовывать технологии радиосвязи, такие как IEEE 802.11 (например, Wireless Fidelity (WiFi)), IEEE 802.16 (например, глобальная совместимость для микроволнового доступа (WiMAX)), CDMA2000, CDMA2000 1X, CDMA2000 EV-DO, временный стандарт 2000 (IS-2000), временный стандарт 95 (IS-95), временный стандарт 856 (IS-856), глобальная система мобильной связи (GSM), усовершенствованные скорости передачи данных для сетей GSM Evolution (EDGE), GSM EDGE (GERAN) и т.п.In other embodiments, base station 114a and WTRUs 102a, 102b, 102c may implement radio technologies such as IEEE 802.11 (eg, Wireless Fidelity (WiFi)), IEEE 802.16 (eg, global interoperability for microwave access (WiMAX)), CDMA2000, CDMA2000 1X, CDMA2000 EV-DO, Interim Standard 2000 (IS-2000), Interim Standard 95 (IS-95), Interim Standard 856 (IS-856), Global System for Mobile Communications (GSM), Enhanced Data Rates for GSM Networks Evolution (EDGE), GSM EDGE (GERAN), etc.

Базовая станция 114b, показанная на фиг. 16A, может представлять собой, например, беспроводной маршрутизатор, станцию Home Node B, станцию Home eNode B или точку доступа, и в ней может быть использована любая подходящая RAT для облегчения обеспечения беспроводной связи в локализованной зоне, такой как коммерческое предприятие, жилое помещение, транспортное средство, учебное заведение, промышленный объект, воздушный коридор (например, для использования беспилотными радиоуправляемыми летательными аппаратами), проезжая часть и т.п. В одном варианте осуществления в базовой станции 114b и WTRU 102c, 102d может быть реализована технология радиосвязи, такая как IEEE 802.11, для создания беспроводной локальной сети (WLAN). В варианте осуществления в базовой станции 114b и WTRU 102c, 102d может быть реализована технология радиосвязи, такая как IEEE 802.15, для создания беспроводной персональной сети (WPAN). В еще одном варианте осуществления базовая станция 114b и WTRU 102c, 102d могут использовать RAT на основе сот (например, WCDMA, CDMA2000, GSM, LTE, LTE-A, LTE-A Pro, NR и т.д.) для создания пикосоты или фемтосоты. Как показано на фиг. 16A, базовая станция 114b может иметь прямое соединение с сетью Интернет 110. Таким образом, для базовой станции 114b может не требоваться доступ к сети Интернет 110 посредством CN 106/115.Base station 114b shown in FIG. 16A may be, for example, a wireless router, Home Node B, Home eNode B, or access point, and any suitable RAT may be used to facilitate wireless communication in a localized area such as a business, residential, vehicle, educational institution, industrial facility, air corridor (for example, for use by RC unmanned aerial vehicles), roadway, etc. In one embodiment, a radio technology such as IEEE 802.11 may be implemented in base station 114b and WTRU 102c, 102d to create a wireless local area network (WLAN). In an embodiment, a radio technology such as IEEE 802.15 may be implemented in base station 114b and WTRU 102c, 102d to create a wireless personal area network (WPAN). In yet another embodiment, base station 114b and WTRUs 102c, 102d may use cell-based RATs (eg, WCDMA, CDMA2000, GSM, LTE, LTE-A, LTE-A Pro, NR, etc.) to create a pico cell, or femtocells. As shown in FIG. 16A, base station 114b may have a direct connection to Internet 110. Thus, base station 114b may not need to access Internet 110 via CN 106/115.

RAN 104/113 может обмениваться данными с CN 106/115, которая может представлять собой сеть любого типа, выполненную с возможностью предоставления услуг передачи голосовой информации, данных, приложений и/или голосовой связи по протоколу (VoIP) Интернета одному или более из WTRU 102a, 102b, 102c, 102d. К данным могут предъявляться различные требования по качеству обслуживания (QoS), например различные требования по производительности, требования к задержке, требования к отказоустойчивости, требования к надежности, требования к скорости передачи данных, требования к мобильности и т.п. Сеть CN 106/115 может предоставлять управление вызовами, услуги биллинга, услуги мобильной связи на основании местоположения, предварительно оплаченные вызовы, возможность связи с сетью Интернет, распределение видеосигналов и т.п. и/или выполнять функции высокоуровневой защиты, такие как аутентификация пользователей. Хотя на ФИГ. 16A это не показано, следует понимать, что RAN 104/113 и/или CN 106/115 могут прямо или косвенно обмениваться данными с другими RAN, в которых использована такая же RAT, что и в RAN 104/113, или другая RAT. Например, в дополнение к соединению с RAN 104/113, в которой может быть использована технология радиосвязи NR, CN 106/115 может также обмениваться данными с другой RAN (не показана), использующей технологию радиосвязи GSM, UMTS, CDMA 2000, WiMAX, E-UTRA или WiFi.The RAN 104/113 may communicate with the CN 106/115, which may be any type of network configured to provide voice, data, applications, and/or Voice over Internet Protocol (VoIP) services to one or more of the WTRUs 102a , 102b, 102c, 102d. Data may have different quality of service (QoS) requirements, such as different performance requirements, latency requirements, fault tolerance requirements, reliability requirements, data rate requirements, mobility requirements, and the like. The CN 106/115 may provide call control, billing services, location-based mobile communication services, prepaid calls, Internet connectivity, video distribution, and the like. and/or perform high-level security functions such as user authentication. Although in FIG. 16A is not shown, it should be understood that RAN 104/113 and/or CN 106/115 may directly or indirectly communicate with other RANs that use the same RAT as RAN 104/113 or a different RAT. For example, in addition to communicating with RAN 104/113 that may use NR radio technology, CN 106/115 may also communicate with another RAN (not shown) using GSM, UMTS, CDMA 2000, WiMAX, E radio technology. -UTRA or WiFi.

CN 106/115 может также выступать в качестве шлюза для WTRU 102a, 102b, 102c, 102d, чтобы обеспечивать доступ к сети PSTN 108, сети Интернет 110 и/или другим сетям 112. PSTN 108 может включать в себя телефонные сети с коммутацией каналов, которые предоставляют традиционные услуги телефонной связи (POTS). Интернет 110 может включать в себя глобальную систему взаимно соединенных компьютерных сетей и устройств, которые используют распространенные протоколы связи, такие как протокол управления передачей (TCP), протокол пользовательских дейтаграмм (UDP) и/или протокол Интернета (IP) в наборе протоколов Интернета TCP/IP. Сети 112 могут включать в себя проводные и/или беспроводные сети связи, которые принадлежат другим поставщикам услуг и/или предоставлены ими для использования. Например, сети 112 могут включать в себя другую CN, соединенную с одной или более RAN, в которых может быть использована такая же RAT, как и в RAN 104/113, или другая RAT.CN 106/115 may also act as a gateway for WTRUs 102a, 102b, 102c, 102d to provide access to PSTN 108, Internet 110, and/or other networks 112. PSTN 108 may include circuit switched telephone networks, that provide traditional telephone services (POTS). Internet 110 may include a global system of interconnected computer networks and devices that use common communication protocols such as Transmission Control Protocol (TCP), User Datagram Protocol (UDP), and/or Internet Protocol (IP) in the TCP/Internet protocol suite. IP. Networks 112 may include wired and/or wireless communications networks that are owned and/or provided for use by other service providers. For example, networks 112 may include another CN connected to one or more RANs that may use the same RAT as RAN 104/113 or a different RAT.

Некоторые или все из WTRU 102a, 102b, 102c, 102d в системе 100 связи могут включать в себя многорежимные возможности (например, WTRU 102a, 102b, 102c, 102d могут включать в себя множество приемопередатчиков для связи с разными беспроводными сетями по разным беспроводным линиям связи). Например, WTRU 102c, показанный на фиг. 16A, может быть выполнен с возможностью обмена данными с базовой станцией 114a, которая может использовать технологию радиосвязи на основе сот, а также с базовой станцией 114b, которая может использовать технологию радиосвязи IEEE 802.Some or all of the WTRUs 102a, 102b, 102c, 102d in communication system 100 may include multi-mode capabilities (e.g., WTRUs 102a, 102b, 102c, 102d may include multiple transceivers for communicating with different wireless networks over different wireless links ). For example, WTRU 102c shown in FIG. 16A may be configured to communicate with base station 114a, which may use cell-based radio technology, as well as with base station 114b, which may use IEEE 802 radio technology.

На фиг. 16B представлена схема системы, иллюстрирующая пример WTRU 102. Как показано на фиг. 16B, WTRU 102 может включать в себя, помимо прочего, процессор 118, приемопередатчик 120, передающий/приемный элемент 122, динамик/микрофон 124, клавиатуру 126, дисплей / сенсорную панель 128, несъемное запоминающее устройство 130, съемное запоминающее устройство 132, источник 134 питания, набор 136 микросхем глобальной системы определения местоположения (GPS) и/или другие периферийные устройства 138. Следует понимать, что WTRU 102 может включать в себя любую подкомбинацию вышеперечисленных элементов и при этом соответствовать варианту осуществления.In FIG. 16B is a system diagram illustrating an example of WTRU 102. As shown in FIG. 16B, WTRU 102 may include, but is not limited to, processor 118, transceiver 120, transmitter/receiver 122, speaker/microphone 124, keyboard 126, display/touchpad 128, non-removable storage 130, removable storage 132, source 134 power supply, global positioning system (GPS) chipset 136, and/or other peripheral devices 138. It should be understood that WTRU 102 may include any subcombination of the above elements and still conform to the embodiment.

Процессор 118 может представлять собой процессор общего назначения, процессор специального назначения, традиционный процессор, цифровой сигнальный процессор (DSP), множество микропроцессоров, один или более микропроцессоров, связанных с ядром DSP, контроллер, микроконтроллер, специализированные интегральные схемы (ASIC), схемы программируемых пользователем вентильных матриц (FPGA), интегральную микросхему (IC) любого другого типа, конечный автомат и т.п. Процессор 118 может выполнять кодирование сигналов, обработку данных, управление мощностью, обработку ввода/вывода и/или иметь любые другие функциональные возможности, с помощью которых WTRU 102 работает в среде беспроводной связи. Процессор 118 может быть соединен с приемопередатчиком 120, который может быть соединен с передающим/приемным элементом 122. Хотя на фиг. 16B процессор 118 и приемопередатчик 120 показаны в виде отдельных компонентов, следует понимать, что процессор 118 и приемопередатчик 120 могут быть выполнены за единое целое и встроены в электронный блок или микросхему.Processor 118 may be a general purpose processor, a special purpose processor, a conventional processor, a digital signal processor (DSP), a plurality of microprocessors, one or more microprocessors associated with a DSP core, a controller, a microcontroller, application specific integrated circuits (ASICs), user programmable circuits gate arrays (FPGA), integrated circuit (IC) of any other type, state machine, etc. Processor 118 may perform signal coding, data processing, power control, input/output processing, and/or any other functionality by which WTRU 102 operates in a wireless communication environment. Processor 118 may be coupled to transceiver 120, which may be coupled to transmitter/receiver element 122. Although FIG. 16B, processor 118 and transceiver 120 are shown as separate components, it should be understood that processor 118 and transceiver 120 may be integral and incorporated into an electronic unit or chip.

Передающий/приемный элемент 122 может быть выполнен с возможностью передачи сигналов на базовую станцию (например, базовую станцию 114a) по радиоинтерфейсу 116 или приема от нее сигналов. Например, в одном варианте осуществления передающий/приемный элемент 122 может представлять собой антенну, выполненную с возможностью передачи и/или приема РЧ-сигналов. В варианте осуществления передающий/приемный элемент 122 может представлять собой излучатель/детектор, выполненный с возможностью передачи и/или приема, например, сигналов в ИК-, УФ- или спектре видимого света. В еще одном варианте осуществления передающий/приемный элемент 122 может быть выполнен с возможностью передачи и/или приема сигналов как в РЧ-спектре, так и в спектре видимого света. Следует понимать, что передающий/приемный элемент 122 может быть выполнен с возможностью передачи и/или приема любой комбинации беспроводных сигналов.Transmitting/receiving element 122 may be configured to transmit signals to or receive signals from a base station (eg, base station 114a) over air interface 116. For example, in one embodiment, transmitter/receiver element 122 may be an antenna configured to transmit and/or receive RF signals. In an embodiment, transmitter/receiver element 122 may be an emitter/detector capable of transmitting and/or receiving, for example, IR, UV, or visible light signals. In yet another embodiment, transmitter/receiver element 122 may be configured to transmit and/or receive signals in both the RF spectrum and the visible light spectrum. It should be understood that transmitter/receiver element 122 may be configured to transmit and/or receive any combination of wireless signals.

Хотя на фиг. 16B передающий/приемный элемент 122 показан в виде единственного элемента, WTRU 102 может включать в себя любое количество передающих/приемных элементов 122. Более конкретно, в WTRU 102 может быть использована технология MIMO. Таким образом, в одном варианте осуществления WTRU 102 может включать в себя два или более передающих/приемных элементов 122 (например, множество антенн) для передачи и приема беспроводных сигналов по радиоинтерфейсу 116.Although in FIG. 16B, transmit/receive element 122 is shown as a single element, WTRU 102 may include any number of transmit/receive elements 122. More specifically, MIMO technology may be used in WTRU 102. Thus, in one embodiment, WTRU 102 may include two or more transmit/receive elements 122 (e.g., multiple antennas) for transmitting and receiving wireless signals over air interface 116.

Приемопередатчик 120 может быть выполнен с возможностью модуляции сигналов, которые подлежат передаче посредством передающего/приемного элемента 122, а также демодуляции сигналов, принятых посредством передающего/приемного элемента 122. Как указано выше, WTRU 102 может иметь многорежимные возможности. Таким образом, приемопередатчик 120 может включать в себя множество приемопередатчиков, с помощью которых WTRU 102 получает возможность взаимодействия посредством множества RAT, таких как, например, NR и IEEE 802.11.Transceiver 120 may be configured to modulate signals to be transmitted by transmitter/receiver element 122 as well as demodulate signals received by transmitter/receiver element 122. As noted above, WTRU 102 may have multi-mode capabilities. Thus, the transceiver 120 may include a plurality of transceivers by which the WTRU 102 is enabled to interact via a plurality of RATs, such as NR and IEEE 802.11, for example.

Процессор 118 WTRU 102 может быть соединен с динамиком/микрофоном 124, клавиатурой 126 и/или дисплеем / сенсорной панелью 128 (например, жидкокристаллическим дисплеем (LCD) или дисплеем на органических светодиодах (OLED)) и может принимать от них данные, вводимые пользователем. Процессор 118 может также выводить пользовательские данные на динамик/микрофон 124, клавиатуру 126 и/или дисплей / сенсорную панель 128. Кроме того, процессор 118 может иметь доступ к информации с подходящего запоминающего устройства любого типа, такого как несъемное запоминающее устройство 130 и/или съемное запоминающее устройство 132, и хранить на нем данные. Несъемное запоминающее устройство 130 может включать в себя оперативное запоминающее устройство (ОЗУ), постоянное запоминающее устройство (ПЗУ), жесткий диск или запоминающее устройство любого другого типа. Съемное запоминающее устройство 132 может включать в себя карту модуля идентификации абонента (SIM), карту памяти, безопасную цифровую карту памяти (SD) и т.п. В других вариантах осуществления процессор 118 может осуществлять доступ к информации с запоминающего устройства, которое физически размещено не в WTRU 102, а, например, на сервере или домашнем компьютере (не показан), и хранить на нем данные.The processor 118 of the WTRU 102 may be coupled to a speaker/microphone 124, a keyboard 126, and/or a display/touch panel 128 (eg, a liquid crystal display (LCD) or an organic light emitting diode (OLED) display) and may receive user input from them. Processor 118 may also output user data to speaker/microphone 124, keyboard 126, and/or display/touchpad 128. In addition, processor 118 may access information from any type of suitable storage device, such as non-removable storage device 130 and/or removable storage device 132 and store data thereon. The non-removable storage device 130 may include random access memory (RAM), read only memory (ROM), a hard drive, or any other type of storage device. The removable storage device 132 may include a Subscriber Identity Module (SIM) card, a memory card, a secure digital memory (SD) card, and the like. In other embodiments, the processor 118 may access and store information from a storage device that is not physically located in the WTRU 102 but, for example, on a server or home computer (not shown).

Процессор 118 может принимать питание от источника 134 питания и может быть выполнен с возможностью управления питанием и/или распределения питания на другие компоненты в WTRU 102. Источник 134 питания может представлять собой любое подходящее устройство для подачи питания на WTRU 102. Например, источник 134 питания может включать одну или более сухих батарей (например, никель-кадмиевых (NiCd), никель-цинковых (NiZn), никель-металл-гидридных (NiMH), литий-ионных (Li-ion) и т.д.), солнечных элементов, топливных элементов и т.п.Processor 118 may receive power from power supply 134 and may be configured to manage power and/or distribute power to other components in WTRU 102. Power supply 134 may be any suitable device for supplying power to WTRU 102. For example, power supply 134 may include one or more dry batteries (e.g. nickel cadmium (NiCd), nickel zinc (NiZn), nickel metal hydride (NiMH), lithium ion (Li-ion), etc.), solar cells , fuel cells, etc.

Процессор 118 также может быть соединен с набором 136 микросхем GPS, который может быть выполнен с возможностью предоставления информации о местоположении (например, долготы и широты) относительно текущего местоположения WTRU 102. Дополнительно или вместо информации от набора 136 микросхем GPS WTRU 102 может принимать информацию о местоположении по радиоинтерфейсу 116 от базовой станции (например, от базовых станций 114a, 114b) и/или определять местоположение на основе синхронизации сигналов, принимаемых от двух или более соседних базовых станций. Следует понимать, что WTRU 102 может получать информацию о местоположении посредством любого подходящего способа определения местоположения и при этом соответствовать варианту осуществления.Processor 118 may also be coupled to GPS chipset 136, which may be configured to provide location information (eg, longitude and latitude) relative to WTRU 102's current location. location over the air interface 116 from a base station (eg, from base stations 114a, 114b) and/or determine the location based on the timing of signals received from two or more adjacent base stations. It should be understood that the WTRU 102 may acquire location information by any suitable location method and still comply with the embodiment.

Процессор 118 может быть дополнительно соединен с другими периферийными устройствами 138, которые могут включать в себя один или более программных и/или аппаратных модулей, в которых предусмотрены дополнительные признаки, функциональные возможности и/или возможности по установлению проводной или беспроводной связи. Например, периферийные устройства 138 могут включать в себя акселерометр, электронный компас, спутниковый приемопередатчик, цифровую камеру (для фото- и видеосъемки), порт универсальной последовательной шины (USB), вибрационное устройство, телевизионный приемопередатчик, беспроводную гарнитуру, модуль Bluetooth®, радиомодуль с частотной модуляцией (FM), цифровой музыкальный проигрыватель, мультимедийный проигрыватель, модуль устройства для воспроизведения видеоигр, Интернет-браузер, устройство виртуальной реальности и/или дополненной реальности (VR/AR), трекер активности и т.п. Периферийные устройства 138 могут содержать один или более датчиков, причем датчики могут представлять собой один или более из гироскопа, акселерометра, датчика Холла, магнитометра, датчика ориентации, датчика приближения, датчика температуры, датчика времени; датчика географического положения; высотомера, датчика освещенности, датчика касания, магнитометра, барометра, датчика жеста, биометрического датчика и/или датчика влажности.Processor 118 may be further coupled to other peripheral devices 138, which may include one or more software and/or hardware modules that provide additional features, functionality, and/or wired or wireless communication capabilities. For example, peripheral devices 138 may include an accelerometer, an electronic compass, a satellite transceiver, a digital camera (for photography and video), a universal serial bus (USB) port, a vibration device, a television transceiver, a wireless headset, a Bluetooth® module, a radio module with frequency modulation (FM), digital music player, multimedia player, video game playback device module, Internet browser, virtual reality and/or augmented reality (VR/AR) device, activity tracker, etc. Peripheral devices 138 may include one or more sensors, and the sensors may be one or more of a gyroscope, an accelerometer, a Hall sensor, a magnetometer, an attitude sensor, a proximity sensor, a temperature sensor, a time sensor; geographic location sensor; altimeter, ambient light sensor, touch sensor, magnetometer, barometer, gesture sensor, biometric sensor and/or humidity sensor.

WTRU 102 может включать в себя полнодуплексное радиоустройство, для которого передача и прием некоторых или всех сигналов, например, связанных с конкретными подкадрами как для UL (например, для передачи), так и для нисходящей линии связи (например, для приема), могут быть осуществлены совместно и/или одновременно. Полнодуплексное радиоустройство может включать в себя блок управления помехами для снижения уровня и/или по существу устранения собственных помех с помощью либо аппаратного обеспечения (например, дросселя), либо обработки сигнала с помощью процессора (например, отдельного процессора (не показан) или процессора 118). В одном варианте осуществления WRTU 102 может включать в себя полудуплексное радиоустройство для передачи и приема некоторых или всех сигналов (например, связанных с конкретными подкадрами либо для UL (например, для передачи), либо для нисходящей линии связи (например, для приема)).The WTRU 102 may include a full duplex radio for which the transmission and reception of some or all of the signals, e.g., associated with particular subframes, for both UL (e.g., for transmitting) and downlink (e.g., for receiving), may be carried out jointly and/or simultaneously. A full duplex radio may include an interference control unit to reduce and/or substantially eliminate its own interference using either hardware (e.g., a choke) or signal processing by a processor (e.g., a separate processor (not shown) or processor 118) . In one embodiment, WRTU 102 may include a half-duplex radio for transmitting and receiving some or all of the signals (eg, associated with specific subframes for either UL (eg, transmit) or downlink (eg, receive)).

На фиг. 16C представлена схема системы, иллюстрирующая RAN 104 и CN 106 в соответствии с одним вариантом осуществления. Как отмечено выше, RAN 104 может использовать технологию радиосвязи E-UTRA для обмена данными с WTRU 102a, 102b, 102c по радиоинтерфейсу 116. RAN 104 может также обмениваться данными с CN 106.In FIG. 16C is a system diagram illustrating RAN 104 and CN 106 in accordance with one embodiment. As noted above, RAN 104 may use E-UTRA radio technology to communicate with WTRUs 102a, 102b, 102c over air interface 116. RAN 104 may also communicate with CN 106.

RAN 104 может включать в себя eNode-B 160a, 160b, 160c, хотя следует понимать, что сеть RAN 104 может включать в себя любое количество eNode-B и при этом соответствовать варианту осуществления. Каждая eNode-B 160a, 160b, 160c может включать в себя один или более приемопередатчиков для обмена данными с WTRU 102a, 102b, 102c по радиоинтерфейсу 116. В одном варианте осуществления в eNode B 160a, 160b, 160c может быть реализована технология MIMO. Таким образом, в eNode-B 160a может, например, использоваться множество антенн для передачи беспроводных на WTRU 102a и/или приема беспроводных сигналов от него.RAN 104 may include eNode-Bs 160a, 160b, 160c, although it should be understood that RAN 104 may include any number of eNode-Bs and still conform to the embodiment. Each eNode-B 160a, 160b, 160c may include one or more transceivers for communicating with WTRU 102a, 102b, 102c over air interface 116. In one embodiment, MIMO technology may be implemented in eNode B 160a, 160b, 160c. Thus, eNode-B 160a may, for example, use a plurality of antennas to transmit wirelessly to and/or receive wireless signals from WTRU 102a.

Каждая eNode-B 160a, 160b, 160c может быть связана с конкретной сотой (не показана) и может быть выполнена с возможностью принятия решений по управлению радиоресурсами, решений по передаче обслуживания, диспетчеризации пользователей в UL и/или DL и т.п. Как показано на фиг. 16C, eNode-B 160a, 160b, 160c могут обмениваться данными друг с другом по интерфейсу X2.Each eNode-B 160a, 160b, 160c may be associated with a specific cell (not shown) and may be configured to make radio resource management decisions, handover decisions, UL and/or DL user scheduling, and the like. As shown in FIG. 16C, eNode-Bs 160a, 160b, 160c can communicate with each other over the X2 interface.

CN 106, показанная на фиг. 16C, может включать в себя объект 162 управления мобильностью (MME), обслуживающий шлюз 164 (SGW) и шлюз 166 (или PGW) сети с пакетной передачей данных (PDN). Хотя каждый из вышеперечисленных элементов показан как часть CN 106, следует понимать, что любой из этих элементов может принадлежать субъекту, отличному от оператора CN, и/или может быть предоставлен им для использования.CN 106 shown in FIG. 16C may include a mobility management entity (MME) 162, a serving gateway 164 (SGW), and a packet data network (PDN) gateway 166 (or PGW). While each of the above elements is shown as part of CN 106, it should be understood that any of these elements may be owned by and/or provided to an entity other than the CN operator for use.

MME 162 может быть подключен к каждой eNode-B 162a, 162b, 162c в RAN 104 по интерфейсу S1 и может выступать в качестве узла управления. Например, MME 162 может отвечать за аутентификацию пользователей WTRU 102a, 102b, 102c, активацию/деактивацию канала, выбор конкретного обслуживающего шлюза во время начального соединения WTRU 102a, 102b, 102c и т.п. MME 162 может обеспечивать функцию плоскости управления для переключения между RAN 104 и другими RAN (не показаны), которые используют другие технологии радиосвязи, такие как GSM и/или WCDMA.MME 162 may be connected to each eNode-B 162a, 162b, 162c in RAN 104 over an S1 interface and may act as a control node. For example, MME 162 may be responsible for user authentication of WTRUs 102a, 102b, 102c, channel activation/deactivation, selection of a particular serving gateway during initial WTRU connection 102a, 102b, 102c, and the like. MME 162 may provide a control plane function for switching between RAN 104 and other RANs (not shown) that use other radio technologies such as GSM and/or WCDMA.

SGW 164 может быть подключен к каждой eNode B 160a, 160b, 160c в RAN 104 по интерфейсу S1. SGW 164 может по существу направлять и пересылать пакеты пользовательских данных на WTRU 102a, 102b, 102c и от них. SGW 164 может выполнять другие функции, например привязку плоскостей пользователя во время передачи обслуживания между базовыми станциями eNode B, инициирование пейджинга, когда данные DL доступны для WTRU 102a, 102b, 102c, управление и хранение контекста WTRU 102a, 102b, 102c и т.п.SGW 164 may be connected to each eNode B 160a, 160b, 160c in RAN 104 over an S1 interface. SGW 164 may essentially direct and forward user data packets to and from WTRUs 102a, 102b, 102c. SGW 164 may perform other functions such as user plane binding during handover between eNode Bs, initiating paging when DL data is available to WTRUs 102a, 102b, 102c, managing and storing WTRU context 102a, 102b, 102c, etc. .

SGW 164 может быть подключен к PGW 166, который может предоставлять WTRU 102a, 102b, 102c доступ к сетям с коммутацией пакетов, таким как сеть Интернет 110, для облегчения обмена данными между WTRU 102a, 102b, 102c и устройствами с поддержкой протокола IP.SGW 164 may be connected to PGW 166, which may provide WTRUs 102a, 102b, 102c with access to packet-switched networks such as the Internet 110 to facilitate data exchange between WTRUs 102a, 102b, 102c and IP-enabled devices.

CN 106 может облегчать обмен данными с другими сетями. Например, CN 106 может предоставлять WTRU 102a, 102b, 102c доступ к сетям с коммутацией каналов, таким как PSTN 108, для облегчения обмена данными между WTRU 102a, 102b, 102c и традиционными устройствами связи наземной линии связи. Например, CN 106 может включать в себя IP-шлюз (например, сервер мультимедийной IP-подсистемы (IMS)), который выступает в качестве интерфейса между CN 106 и PSTN 108, либо может обмениваться данными с ним. Кроме того, CN 106 может предоставлять WTRU 102a, 102b, 102c доступ к другим сетям 112, которые могут включать в себя другие проводные и/или беспроводные сети, которые принадлежат другим поставщикам услуг и/или предоставлены ими для использования.CN 106 may facilitate data exchange with other networks. For example, CN 106 may provide WTRUs 102a, 102b, 102c access to circuit switched networks such as PSTN 108 to facilitate data exchange between WTRUs 102a, 102b, 102c and traditional landline communication devices. For example, CN 106 may include an IP gateway (eg, an IP Multimedia Subsystem (IMS) server) that acts as an interface between CN 106 and PSTN 108 or may communicate with it. In addition, CN 106 may provide WTRU 102a, 102b, 102c with access to other networks 112, which may include other wired and/or wireless networks that are owned and/or provided for use by other service providers.

Хотя WTRU описан на фиг. 16A–16D как беспроводной терминал, предполагается, что в определенных типовых вариантах осуществления с таким терминалом можно использовать (например, временно или постоянно) проводные интерфейсы связи с сетью связи.Although the WTRU is described in FIG. 16A-16D as a wireless terminal, it is contemplated that, in certain exemplary embodiments, such a terminal may use (eg, temporarily or permanently) wired communication interfaces with a communications network.

В типовых вариантах осуществления другая сеть 112 может представлять собой WLAN.In exemplary embodiments, the other network 112 may be a WLAN.

WLAN в режиме базового набора служб (BSS) инфраструктуры может иметь точку доступа (АР) для BSS и одну или более станций (STA), связанных с АР. АР может иметь доступ к системе распределения (DS) или интерфейс с ней или осуществлять связь по проводной/беспроводной сети другого типа, которая переносит трафик в BSS и/или вне BSS. Трафик на STA, образованный вне BSS, может поступать через AP и может быть доставлен на STA. Трафик, исходящий от STA к получателям вне BSS, может быть отправлен на АР для доставки соответствующим получателям. Трафик между STA в пределах BSS может быть отправлен через АР, например, если STA-источник может отправлять трафик на АР, а АР может доставлять трафик STA-получателю. Трафик между STA в пределах BSS может рассматриваться и/или называться одноранговым трафиком. Одноранговый трафик может быть передан между (например, непосредственно между) STA-источником и STA-получателем при установлении прямой линии связи (DLS). В определенных типовых вариантах осуществления DLS может использовать DLS 802.11e или туннелированное DLS 802.11z (TDLS). WLAN с использованием независимого BSS (IBSS) режима может не иметь АР, а STA (например, все из STA) в пределах или с использованием IBSS могут осуществлять связь непосредственно друг с другом. В настоящем документе режим IBSS иногда может упоминаться как режим связи с прямым соединением.A WLAN in infrastructure basic service set (BSS) mode may have an access point (AP) for the BSS and one or more stations (STA) associated with the AP. The AP may access or interface with a Distribution System (DS) or communicate over another type of wired/wireless network that carries traffic into and/or out of the BSS. Traffic to the STA generated outside the BSS may arrive via the AP and may be delivered to the STA. Traffic originating from the STA to recipients outside the BSS may be sent to the AP for delivery to the appropriate recipients. Traffic between STAs within a BSS can be sent via an AP, for example, if a source STA can send traffic to an AP and an AP can deliver traffic to a destination STA. Traffic between STAs within a BSS may be considered and/or referred to as peer-to-peer traffic. Peer-to-peer traffic may be transferred between (eg, directly between) a source STA and a sink STA in a forward link (DLS) setup. In certain exemplary embodiments, the DLS may use 802.11e DLS or 802.11z Tunneled DLS (TDLS). A WLAN using independent BSS (IBSS) mode may not have an AP, and STAs (eg, all of STAs) within or using IBSS may communicate directly with each other. In this document, the IBSS mode may sometimes be referred to as the direct connection communication mode.

При использовании режима работы инфраструктуры 802.11ac или аналогичного режима работы AP может передавать маяк по фиксированному каналу, такому как первичный канал. Первичный канал может иметь фиксированную ширину (например, ширину полосы пропускания 20 МГц) или ширину, динамически установленную с помощью сигнализации. Первичный канал может представлять собой рабочий канал BSS и может использоваться STA для установления соединения с АР. В определенных типовых вариантах осуществления может быть реализован множественный доступ с контролем несущей и предотвращением коллизий (CSMA/CA), например, в системах 802.11. STA (например, каждая STA), включая АР, могут обнаруживать первичный канал для CSMA/CA. При распознавании/обнаружении и/или определении занятости первичного канала конкретной STA эта конкретная STA может отключаться. Одна STA (например, только одна станция) может осуществлять передачу в любой конкретный момент времени в данном BSS.When using the 802.11ac infrastructure mode of operation or a similar mode of operation, the AP may transmit a beacon on a fixed channel, such as a primary channel. The primary channel may have a fixed width (eg, 20 MHz bandwidth) or a dynamically set signaling width. The primary channel may be a working channel of the BSS and may be used by the STA to establish a connection with the AP. In certain exemplary embodiments, Carrier Sense Multiple Access with Collision Avoidance (CSMA/CA) may be implemented, such as in 802.11 systems. STAs (eg, each STA), including the AP, can discover the primary channel for CSMA/CA. Upon recognizing/detecting and/or determining whether a particular STA's primary channel is busy, that particular STA may turn off. One STA (eg, only one station) can transmit at any given time in a given BSS.

Для осуществления связи STA с высокой пропускной способностью (HT) может быть использован канал шириной 40 МГц, например, путем объединения первичного канала 20 МГц со смежным или несмежным каналом 20 МГц с образованием канала шириной 40 МГц.For high throughput (HT) STA communication, a 40 MHz channel can be used, for example, by combining a 20 MHz primary channel with an adjacent or non-adjacent 20 MHz channel to form a 40 MHz channel.

STA со сверхвысокой пропускной способностью (VHT) могут поддерживать каналы шириной 20 МГц, 40 МГц, 80 МГц и/или 160 МГц. Каналы 40 МГц и/или 80 МГц могут быть образованы путем объединения сплошных каналов 20 МГц. Канал 160 МГц может быть образован путем объединения 8 сплошных каналов 20 МГц или путем объединения двух несплошных каналов 80 МГц, которые могут называться конфигурацией 80 + 80. Для конфигурации 80 + 80 данные после кодирования канала могут проходить через анализатор сегментов, который может разделять данные на два потока. Обработку в виде обратного быстрого преобразования Фурье (IFFT) и обработку во временной области можно выполнять отдельно для каждого потока. Потоки могут быть сопоставлены с двумя каналами 80 МГц, а данные могут быть переданы передающей STA. В приемнике принимающей STA вышеописанная операция для конфигурации 80 + 80 может быть инвертирована, а объединенные данные могут быть отправлены на устройство управления доступом к среде передачи данных (MAC).Very High Throughput (VHT) STAs may support 20 MHz, 40 MHz, 80 MHz, and/or 160 MHz channels. The 40 MHz and/or 80 MHz channels may be formed by combining continuous 20 MHz channels. A 160 MHz channel can be formed by combining 8 continuous 20 MHz channels, or by combining two non-continuous 80 MHz channels, which may be referred to as an 80+80 configuration. two streams. Inverse Fast Fourier Transform (IFFT) processing and time domain processing may be performed separately for each stream. The streams may be mapped to two 80 MHz channels and the data may be transmitted by the transmitting STA. At the receiver of the receiving STA, the above operation for the 80 + 80 configuration may be inverted, and the combined data may be sent to a media access control (MAC) device.

802.11af и 802.11ah поддерживают подрежимы работы 1 ГГц. Значения ширины полосы пропускания канала и несущие уменьшены в 802.11af и 802.11ah по отношению к используемым в 802.11n и 802.11ac. 802.11af поддерживает значения ширины полосы пропускания 5 МГц, 10 МГц и 20 МГц в неиспользуемом частотном спектре телевидения (TVWS), а 802.11ah поддерживает значения ширины полосы пропускания 1 МГц, 2 МГц, 4 МГц, 8 МГц и 16 МГц с использованием спектра, отличного от TVWS. Согласно типовому варианту осуществления 802.11ah может поддерживать управление с измерением/межмашинные связи, например устройства MTC в макрозоне покрытия. Устройства MTC могут обладать определенными возможностями, например ограниченными возможностями, включая поддержку (например, поддержку только) определенных и/или ограниченных значений ширины полосы пропускания. Устройства МТС могут включать в себя батарею, имеющую срок службы батареи, превышающий пороговое значение (например, для обеспечения очень длительного срока службы батареи).802.11af and 802.11ah support 1GHz sub-modes of operation. Channel bandwidths and carriers are reduced in 802.11af and 802.11ah from those used in 802.11n and 802.11ac. 802.11af supports 5 MHz, 10 MHz, and 20 MHz bandwidths in the unused television frequency spectrum (TVWS), while 802.11ah supports 1 MHz, 2 MHz, 4 MHz, 8 MHz, and 16 MHz bandwidths using spectrum other than TVWS. According to the exemplary embodiment, 802.11ah can support metering/machine-to-machine communications, such as MTC devices in a macro coverage area. MTC devices may have certain capabilities, such as limited capabilities, including support (eg, support only) certain and/or limited bandwidths. The MTC devices may include a battery having a battery life exceeding a threshold value (eg, to provide a very long battery life).

Системы WLAN, которые могут поддерживать множество каналов и значений ширины полосы пропускания канала, такие как 802.11n, 802.11ac, 802.11af и 802.11ah, включают в себя канал, который может быть назначен в качестве первичного канала. Первичный канал может иметь ширину полосы пропускания, равную наибольшей общей рабочей ширине полосы пропускания, поддерживаемой всеми STA в BSS. Ширина полосы пропускания первичного канала может быть установлена и/или ограничена STA из числа всех STA, работающих в BSS, которая поддерживает режим работы с наименьшей шириной полосы пропускания. В примере 802.11ah первичный канал может иметь ширину 1 МГц для STA (например, устройств типа MTC), которые поддерживают (например, поддерживают только) режим 1 МГц, даже если AP и другие STA в BSS поддерживают 2 МГц, 4 МГц, 8 МГц, 16 МГц и/или режимы работы с другими значениями ширины полосы пропускания канала. Параметры обнаружения несущей и/или вектора выделения сети (NAV) могут зависеть от состояния первичного канала. Если первичный канал занят, например, из-за STA (в которой поддерживается только режим работы 1 МГц), осуществляющей передачу на AP, все доступные полосы частот могут считаться занятыми, даже если большинство полос частот все еще не заняты и могут быть доступными.WLAN systems that can support multiple channels and channel bandwidths, such as 802.11n, 802.11ac, 802.11af, and 802.11ah, include a channel that can be designated as a primary channel. The primary channel may have a bandwidth equal to the largest total operating bandwidth supported by all STAs in the BSS. The primary channel bandwidth may be set and/or limited by the STA of all STAs operating in the BSS that supports the lowest bandwidth mode of operation. In the 802.11ah example, the primary channel may be 1 MHz wide for STAs (e.g., MTC type devices) that support (e.g., only support) 1 MHz mode, even if the APs and other STAs in the BSS support 2 MHz, 4 MHz, 8 MHz , 16 MHz and/or modes of operation with other channel bandwidths. The carrier detection and/or network allocation vector (NAV) parameters may depend on the state of the primary link. If the primary channel is busy, for example, due to a STA (which only supports 1 MHz mode of operation) transmitting to an AP, all available bands may be considered busy even though most bands are still unoccupied and may be available.

В Соединенных Штатах Америки доступные полосы частот, которые могут быть использованы 802.11ah, находятся в диапазоне от 902 МГц до 928 МГц. Доступные полосы частот в Корее — от 917,5 МГц до 923,5 МГц. Доступные полосы частот в Японии — от 916,5 МГц до 927,5 МГц. Общая ширина полосы пропускания, доступная для 802.11ah, составляет от 6 МГц до 26 МГц в зависимости от кода страны.In the United States of America, the available frequency bands that can be used by 802.11ah are between 902 MHz and 928 MHz. The available frequency bands in Korea are from 917.5 MHz to 923.5 MHz. The available frequency bands in Japan are from 916.5 MHz to 927.5 MHz. The total bandwidth available for 802.11ah is between 6 MHz and 26 MHz depending on the country code.

На фиг. 16D представлена схема системы, иллюстрирующая RAN 113 и CN 115 в соответствии с вариантом осуществления. Как отмечено выше, RAN 113 может использовать технологию радиосвязи NR для обмена данными с WTRU 102a, 102b, 102c по радиоинтерфейсу 116. RAN 113 может также обмениваться данными с CN 115.In FIG. 16D is a system diagram illustrating RAN 113 and CN 115 according to an embodiment. As noted above, RAN 113 may use NR radio technology to communicate with WTRUs 102a, 102b, 102c over air interface 116. RAN 113 may also communicate with CN 115.

RAN 113 может включать в себя gNB 180a, 180b, 180c, хотя следует понимать, что RAN 113 может включать в себя любое количество gNB и при этом соответствовать варианту осуществления. Каждая gNB 180a, 180b, 180c может включать в себя один или более приемопередатчиков для обмена данными с WTRU 102a, 102b, 102c по радиоинтерфейсу 116. В одном варианте осуществления gNB 180a, 180b, 180c могут реализовывать технологию MIMO. Например, gNB 180a, 108b могут использовать формирование лучей для передачи сигналов на и/или приема сигналов от gNB 180a, 180b, 180c. Таким образом, gNB 180a, например, может использовать множество антенн для передачи радиосигналов на WTRU 102a и/или приема от него радиосигналов. В варианте осуществления gNB 180a, 180b, 180c могут реализовывать технологию агрегирования несущих. Например, gNB 180a может передавать на WTRU 102a множество несущих составляющих (не показаны). Подмножество этих несущих составляющих может относиться к нелицензированному спектру, тогда как остальные несущие составляющие могут относиться к лицензированному спектру. В варианте осуществления gNB 180a, 180b, 180c могут реализовывать технологию многоточечного согласования (CoMP). Например, WTRU 102a может принимать согласованные передачи от gNB 180a и gNB 180b (и/или gNB 180c).RAN 113 may include gNBs 180a, 180b, 180c, although it should be understood that RAN 113 may include any number of gNBs and still comply with the embodiment. Each gNB 180a, 180b, 180c may include one or more transceivers for communicating with WTRUs 102a, 102b, 102c over air interface 116. In one embodiment, gNBs 180a, 180b, 180c may implement MIMO technology. For example, gNBs 180a, 108b may use beamforming to transmit signals to and/or receive signals from gNBs 180a, 180b, 180c. Thus, gNB 180a, for example, can use a plurality of antennas to transmit radio signals to and/or receive radio signals from WTRU 102a. In an embodiment, gNBs 180a, 180b, 180c may implement carrier aggregation technology. For example, gNB 180a may transmit multiple carrier components (not shown) to WTRU 102a. A subset of these carriers may be in unlicensed spectrum, while the remaining carriers may be in licensed spectrum. In an embodiment, gNBs 180a, 180b, 180c may implement Point to Point Negotiation (CoMP) technology. For example, WTRU 102a may receive negotiated transmissions from gNB 180a and gNB 180b (and/or gNB 180c).

WTRU 102a, 102b, 102c могут обмениваться данными с gNB 180a, 180b, 180c с использованием передач, связанных с масштабируемой численной величиной. Например, разнос символов OFDM и/или разнос поднесущих OFDM может различаться для разных передач, разных сот и/или разных участков спектра беспроводной передачи. WTRU 102a, 102b, 102c могут осуществлять связь с gNB 180a, 180b, 180c с использованием подкадра или временных интервалов передачи (TTI) с различной или масштабируемой длительностью (например, содержащих различное количество символов OFDM и/или имеющих постоянные различные длительности абсолютного значения времени).WTRUs 102a, 102b, 102c may communicate with gNBs 180a, 180b, 180c using scaled-value transmissions. For example, the OFDM symbol spacing and/or OFDM subcarrier spacing may differ for different transmissions, different cells, and/or different portions of the wireless transmission spectrum. WTRUs 102a, 102b, 102c may communicate with gNBs 180a, 180b, 180c using subframes or transmission time intervals (TTIs) of varying or scalable duration (e.g., containing varying numbers of OFDM symbols and/or having constant different absolute time durations) .

gNB 180a, 180b, 180c могут быть выполнены с возможностью обмена данными с WTRU 102a, 102b, 102c в автономной конфигурации и/или в неавтономной конфигурации. В автономной конфигурации WTRU 102a, 102b, 102c могут обмениваться данными с gNB 180a, 180b, 180c без одновременного доступа к другим RAN (например, таким как eNode-B 160a, 160b, 160c). В автономной конфигурации WTRU 102a, 102b, 102c могут использовать одну или более gNB 180a, 180b, 180c в качестве якорной точки для мобильности. В автономной конфигурации WTRU 102a, 102b, 102c могут обмениваться данными с gNB 180a, 180b, 180c с использованием сигналов в нелицензированной полосе. В неавтономной конфигурации WTRU 102a, 102b, 102c могут обмениваться данными / устанавливать соединение с gNB 180a, 180b, 180c, одновременно обмениваясь данными / устанавливая соединение с другой RAN, такой как eNode-B 160a, 160b, 160c. Например, WTRU 102a, 102b, 102c могут реализовывать принципы DC для по существу одновременного обмена данными с одной или более gNB 180a, 180b, 180c и одной или более eNode-B 160a, 160b, 160c. В неавтономной конфигурации eNode-B 160a, 160b, 160c могут выступать в качестве якорной точки для мобильности для WTRU 102a, 102b, 102c, а gNB 180a, 180b, 180c могут обеспечивать дополнительное покрытие и/или пропускную способность для обслуживания WTRU 102a, 102b, 102с.gNBs 180a, 180b, 180c may be configured to communicate with WTRUs 102a, 102b, 102c in a standalone configuration and/or a non-standalone configuration. In a standalone configuration, WTRUs 102a, 102b, 102c can communicate with gNBs 180a, 180b, 180c without concurrent access to other RANs (eg, such as eNode-Bs 160a, 160b, 160c). In a standalone configuration, WTRUs 102a, 102b, 102c may use one or more gNBs 180a, 180b, 180c as an anchor point for mobility. In a standalone configuration, WTRUs 102a, 102b, 102c can communicate with gNBs 180a, 180b, 180c using unlicensed band signals. In a non-autonomous configuration, WTRUs 102a, 102b, 102c can communicate/connect with gNBs 180a, 180b, 180c while simultaneously communicating/connecting with another RAN such as eNode-B 160a, 160b, 160c. For example, WTRUs 102a, 102b, 102c may implement DC principles to communicate substantially simultaneously with one or more gNBs 180a, 180b, 180c and one or more eNode-Bs 160a, 160b, 160c. In a non-standalone configuration, eNode-Bs 160a, 160b, 160c may act as a mobility anchor point for WTRUs 102a, 102b, 102c, and gNBs 180a, 180b, 180c may provide additional coverage and/or capacity to serve WTRUs 102a, 102b, 102s.

Каждая из gNB 180a, 180b, 180c может быть связана с конкретной сотой (не показано) и может быть выполнена с возможностью принятия решений относительно управления радиоресурсом, решений относительно передачи обслуживания, планирования пользователей в UL и/или DL, поддержки сегментирования сети, двойного подключения, взаимодействия между NR и E-UTRA, маршрутизации данных плоскости пользователя в функциональный блок 184a, 184b плоскости пользователя (UPF), маршрутизации информации плоскости управления в функциональный блок 182a, 182b управления доступом и мобильностью (AMF) и т.п. Как показано на фиг. 16D, станции gNB 180a, 180b, 180c могут обмениваться данными друг с другом по интерфейсу Xn.Each of the gNBs 180a, 180b, 180c may be associated with a particular cell (not shown) and may be configured to make radio resource management decisions, handover decisions, UL and/or DL user scheduling, network segmentation support, dual connectivity , interaction between NR and E-UTRA, routing of user plane data to the user plane functional block (UPF) 184a, 184b, routing of control plane information to the access and mobility management function (AMF) 182a, 182b, and the like. As shown in FIG. 16D, gNBs 180a, 180b, 180c can communicate with each other over an Xn interface.

CN 115, показанная на фиг. 16D, может включать в себя по меньшей мере один AMF 182a, 182b, по меньшей мере один UPF 184a, 184b, по меньшей мере один функциональный блок 183a, 183b управления сеансом (SMF) и, возможно, сеть 185a, 185b передачи данных (DN). Хотя каждый из вышеперечисленных элементов показан как часть CN 115, следует понимать, что любой из этих элементов может принадлежать субъекту, отличному от оператора CN, и/или может быть предоставлен им для использования.CN 115 shown in FIG. 16D may include at least one AMF 182a, 182b, at least one UPF 184a, 184b, at least one session management function (SMF) 183a, 183b, and possibly a data communication network (DN) 185a, 185b. ). While each of the above elements is shown as part of CN 115, it should be understood that any of these elements may be owned by and/or made available to an entity other than the CN operator.

AMF 182a, 182b могут быть подключены к одной или более из gNB 180a, 180b, 180c в RAN 113 по интерфейсу N2 и могут выступать в качестве узла управления. Например, AMF 182a, 182b может отвечать за аутентификацию пользователей WTRU 102a, 102b, 102c, поддержку сегментирования сети (например, обработку различных сеансов PDU с различными требованиями), выбор конкретного SMF 183a, 183b, управление зоной регистрации, прекращение сигнализации NAS, управление мобильностью и т.п. Сегментирование сети может быть использовано в AMF 182a, 182b для настройки поддержки CN для WTRU 102a, 102b, 102c на основе типов сервисов, используемых WTRU 102a, 102b, 102c. Например, различные сетевые срезы могут быть установлены для разных вариантов использования, например службы, основанные на связи повышенной надежности с низкой задержкой (URLLC), службы, основанные на доступе к расширенной широкополосной сети мобильной связи (eMBB), службы для доступа к межмашинной связи (MTC) и/или т.п. AMF 162 может предоставлять функцию плоскости управления для переключения между RAN 113 и другими RAN (не показаны), которые используют другие технологии радиосвязи, такие как LTE, LTE-A, LTE-A Pro, и/или технологии доступа, отличные от 3GPP, например WiFi.AMFs 182a, 182b may be connected to one or more of the gNBs 180a, 180b, 180c in RAN 113 over the N2 interface and may act as a control node. For example, AMF 182a, 182b may be responsible for user authentication of WTRUs 102a, 102b, 102c, network segmentation support (e.g., handling different PDU sessions with different requirements), specific SMF selection 183a, 183b, registration area management, NAS signaling termination, mobility management etc. Network segmentation may be used in AMFs 182a, 182b to configure CN support for WTRUs 102a, 102b, 102c based on the service types used by WTRUs 102a, 102b, 102c. For example, different network slices can be set up for different use cases, such as services based on high reliability low latency communication (URLLC), services based on access to Enhanced Mobile Broadband (eMBB), services for access to machine-to-machine communications ( MTC) and/or the like. AMF 162 may provide a control plane function for switching between RAN 113 and other RANs (not shown) that use other radio technologies such as LTE, LTE-A, LTE-A Pro, and/or non-3GPP access technologies, e.g. WiFi.

SMF 183a, 183b может быть подключен к AMF 182a, 182b в CN 115 по интерфейсу N11. SMF 183a, 183b также может быть подключен к UPF 184a, 184b в CN 115 по интерфейсу N4. SMF 183a, 183b может выбирать UPF 184a, 184b и управлять им, а также конфигурировать маршрутизацию трафика с помощью UPF 184a, 184b. SMF 183a, 183b может выполнять другие функции, такие как управление IP-адресом UE и его выделение, управление сеансами PDU, управление реализацией политики и QoS, предоставление уведомлений о данных нисходящей линии связи и т.п. Тип сеанса PDU может быть основан на IP, не основан на IP, основан на Ethernet и т.п.SMF 183a, 183b can be connected to AMF 182a, 182b in CN 115 via N11 interface. SMF 183a, 183b can also be connected to UPF 184a, 184b in CN 115 via N4 interface. SMF 183a, 183b can select and control UPF 184a, 184b, and configure traffic routing with UPF 184a, 184b. The SMF 183a, 183b may perform other functions such as UE IP address management and allocation, PDU session management, policy enforcement and QoS management, downlink data notification provision, and the like. The session type of the PDU may be IP based, non-IP based, Ethernet based, and so on.

UPF 184a, 184b могут быть подключены к одной или более gNB 180a, 180b, 180c в RAN 113 по интерфейсу N3, который может предоставлять WTRU 102a, 102b, 102c доступ к сетям с коммутацией пакетов, таким как сеть Интернет 110, для облегчения обмена данными между WTRU 102a, 102b, 102c и устройствами с поддержкой протокола IP. UPF 184, 184b могут выполнять другие функции, такие как маршрутизация и передача пакетов, применение политик в плоскости пользователя, поддержка многоканальных сеансов PDU, обработка QoS в плоскости пользователя, буферизация пакетов нисходящей линии связи, привязка для поддержки мобильности и т.п.UPFs 184a, 184b may be connected to one or more gNBs 180a, 180b, 180c in RAN 113 over an N3 interface, which may provide WTRUs 102a, 102b, 102c with access to packet-switched networks, such as the Internet 110, to facilitate data exchange. between WTRUs 102a, 102b, 102c and IP devices. The UPFs 184, 184b may perform other functions such as packet routing and forwarding, user plane policing, support for multipath PDU sessions, user plane QoS processing, downlink packet buffering, anchoring to support mobility, and the like.

CN 115 может облегчать обмен данными с другими сетями. Например, CN 115 может включать в себя IP-шлюз (например, сервер мультимедийной IP-подсистемы (IMS)), который выступает в качестве интерфейса между CN 115 и PSTN 108, либо может обмениваться данными с ним. Кроме того, CN 115 может предоставлять WTRU 102a, 102b, 102c доступ к другим сетям 112, которые могут включать в себя другие проводные и/или беспроводные сети, которые принадлежат другим поставщикам услуг и/или предоставлены ими для использования. В одном варианте осуществления WTRU 102a, 102b, 102c могут быть подключены к локальной сети передачи данных (DN) 185a, 185b через UPF 184a, 184b по интерфейсу N3 к UPF 184a, 184b и интерфейсу N6 между UPF 184a, 184b и DN 185a, 185b.CN 115 can facilitate data exchange with other networks. For example, CN 115 may include an IP gateway (eg, an IP Multimedia Subsystem (IMS) server) that acts as an interface between CN 115 and PSTN 108 or may communicate with it. In addition, CN 115 may provide WTRU 102a, 102b, 102c access to other networks 112, which may include other wired and/or wireless networks that are owned and/or provided for use by other service providers. In one embodiment, WTRUs 102a, 102b, 102c may be connected to a local area network (DN) 185a, 185b via UPF 184a, 184b over an N3 interface to UPF 184a, 184b and an N6 interface between UPF 184a, 184b and DN 185a, 185b .

С учетом фиг. 16A–16D и соответствующих описаний фиг. 16A–16D одна или более или все из функций, описанных в настоящем документе в связи с одним или более из: WTRU 102a–d, базовой станции 114а–b, eNode-B 160a–c, MME 162, SGW 164, PGW 166, gNB 180a–c, AMF 182a–b, UPF 184a–b, SMF 183a–b, DN 185a–b и/или любого (-ых) другого (-их) устройства (устройств), описанного (-ых) в настоящем документе, могут быть реализованы одним или более устройствами эмуляции (не показаны). Устройства эмуляции могут представлять собой одно или более устройств, выполненных с возможностью эмуляции одной или более или всех функций, описанных в настоящем документе. Например, устройства эмуляции можно применять для испытания других устройств и/или для моделирования функций сети и/или WTRU.Taking into account FIG. 16A-16D and the corresponding descriptions of FIG. 16A-16D one or more or all of the functions described herein in connection with one or more of: WTRU 102a-d, base station 114a-b, eNode-B 160a-c, MME 162, SGW 164, PGW 166, gNB 180a–c, AMF 182a–b, UPF 184a–b, SMF 183a–b, DN 185a–b and/or any other device(s) described herein , may be implemented by one or more emulation devices (not shown). Emulation devices may be one or more devices configured to emulate one or more or all of the functions described herein. For example, emulation devices can be used to test other devices and/or to simulate network and/or WTRU functions.

Устройства эмуляции могут быть выполнены с возможностью выполнения одного или более испытаний других устройств в лабораторной среде и/или в сетевой среде оператора. Например, одно или более устройств эмуляции могут выполнять одну или более функций или все функции, при этом они полностью или частично реализованы и/или развернуты в качестве части проводной и/или беспроводной сети связи, для испытания других устройств в сети связи. Одно или более устройств эмуляции могут выполнять одну или более функций или все функции, при этом они временно реализованы/развернуты в качестве части проводной и/или беспроводной сети связи. Устройство эмуляции может быть непосредственно соединено с другим устройством для испытания и/или выполнения испытания с использованием беспроводной связи посредством канала беспроводной связи.The emulation devices may be configured to perform one or more tests on other devices in a lab environment and/or in an operator's network environment. For example, one or more emulation devices may perform one or more functions, or all of the functions, while they are fully or partially implemented and / or deployed as part of a wired and / or wireless communication network, to test other devices in the communication network. One or more emulation devices may perform one or more functions, or all functions, while they are temporarily implemented/deployed as part of a wired and/or wireless communication network. The emulation device may be directly connected to another device for testing and/or performing testing using wireless communication via a wireless communication channel.

Одно или более устройств эмуляции могут выполнять одну или более функций, включая все функции, и при этом не быть реализованными/развернутыми в качестве части проводной и/или беспроводной сети связи. Например, устройства эмуляции можно использовать в сценарии испытания в испытательной лаборатории и/или в неразвернутой (например, испытательной) проводной и/или беспроводной сети связи для проведения испытания одного или более компонентов. Одно или более устройств эмуляции могут представлять собой испытательное оборудование. Для передачи и/или приема данных в устройствах эмуляции можно использовать прямое РЧ-соединение и/или беспроводные связи посредством РЧ-схемы (которая может, например, содержать одну или более антенн).One or more emulation devices may perform one or more functions, including all functions, and yet not be implemented/deployed as part of a wired and/or wireless communication network. For example, emulation devices can be used in a test lab scenario and/or in a non-deployed (eg, test) wired and/or wireless communications network to test one or more components. One or more emulation devices may be test equipment. Emulation devices can use a direct RF connection and/or wireless communications via an RF circuit (which may, for example, include one or more antennas) to transmit and/or receive data.

Описанные в настоящем документе процессы и/или способы могут быть реализованы в компьютерной программе, программном обеспечении и/или микропрограммном обеспечении, записанном в машиночитаемый носитель для исполнения с помощью компьютера и/или процессора. Примеры машиночитаемого носителя включают в себя, без ограничений, электронные сигналы (передаваемые посредством проводных и/или беспроводных соединений) и/или машиночитаемые носители данных. Примеры машиночитаемого носителя данных включают в себя, без ограничений, постоянное запоминающее устройство (ПЗУ), оперативное запоминающее устройство (ОЗУ), реестр, быстродействующую буферную память, полупроводниковые устройства хранения данных, магнитные носители, такие как, без ограничений, внутренние жесткие диски и съемные диски, магнитооптические носители и/или оптические носители, такие как диски CD-ROM и/или цифровые универсальные диски (DVD). Процессор в сочетании с программным обеспечением можно применять для реализации радиочастотного приемопередатчика, предназначенного для применения в WTRU, терминале, базовой станции, RNC и/или любом главном компьютере.The processes and/or methods described herein may be implemented in a computer program, software, and/or firmware recorded on a computer-readable medium for execution by a computer and/or processor. Examples of computer-readable media include, without limitation, electronic signals (transmitted over wired and/or wireless connections) and/or computer-readable storage media. Examples of computer-readable storage media include, without limitation, read-only memory (ROM), random access memory (RAM), registry, high-speed buffer memory, semiconductor storage devices, magnetic media such as, but not limited to, internal hard drives, and removable discs, magneto-optical media and/or optical media such as CD-ROMs and/or digital versatile discs (DVDs). The processor, in combination with software, may be used to implement an RF transceiver for use in a WTRU, terminal, base station, RNC, and/or any host computer.

Claims (81)

1. Способ декодирования видеосодержимого, включающий:1. Method for decoding video content, including: получение изображения, связанного с видеосодержимым, в видеоданных;obtaining an image associated with the video content in the video data; получение указания с разрешением заворачивания, указывающего, разрешена ли компенсация горизонтального движения заворачивания;obtaining a wrapping permission indication indicating whether compensation for the horizontal wrapping movement is allowed; на основании указания с разрешением заворачивания, определение того, что компенсация горизонтального движения заворачивания разрешена;based on the indication with the screw-in permission, determining that the compensation of the horizontal screw-in movement is allowed; на основании определения того, что компенсация горизонтального движения заворачивания разрешена, анализ видеоданных для получения указания смещения смещения заворачивания эталонного сэмпла;based on determining that compensation for the horizontal motion of the wrapping is enabled, analyzing the video data to obtain an indication of the offset of the wrapping offset of the reference sample; определение смещения заворачивания для текущего сэмпла в изображении;determining a wrapping offset for the current sample in the image; определение местоположения эталонного сэмпла по отношению к текущему сэмплу на основании смещения заворачивания эталонного сэмпла, ширины изображения и местоположения текущего сэмпла; иdetermining a location of the reference sample with respect to the current sample based on the wrapping offset of the reference sample, the image width, and the location of the current sample; and прогнозирование текущего сэмпла на основании местоположения эталонного сэмпла.predicting the current sample based on the location of the reference sample. 2. Способ по п. 1, дополнительно включающий:2. The method of claim 1, further comprising: на основании определения того, что компенсация горизонтального движения заворачивания не разрешена, пропуск анализа видеоданных для получения указания смещения для смещения заворачивания эталонного сэмпла.based on the determination that compensation for the horizontal movement of the wrapping is not allowed, skipping the analysis of the video data to obtain an offset indication for the wrapping offset of the reference sample. 3. Способ по п. 1, в котором указание с разрешением заворачивания представляет собой флаг с разрешением заворачивания, который указывает, разрешена ли компенсация горизонтального движения заворачивания.3. The method of claim 1, wherein the wrapping enable indication is a wrapping enabled flag that indicates whether compensation for the horizontal wrapping motion is enabled. 4. Способ по п. 1, в котором смещение заворачивания эталонного сэмпла определяют на основании указания смещения и в котором смещение заворачивания эталонного сэмпла указывает ширину панорамы изображения.4. The method of claim 1, wherein the reference sample's wrapping offset is determined based on the indication of the offset, and wherein the reference sample's wrapping offset indicates the image pan width. 5. Способ по п. 1, в котором определение смещения заворачивания эталонного сэмпла для текущего сэмпла в изображении включает:5. The method of claim 1, wherein determining the reference sample wrap offset for the current sample in the image includes: получение указания размера, которое выполнено с возможностью указывать ширину защитной полосы в изображении; иobtaining a size indication that is configured to indicate the width of the guard band in the image; and получение ширины панорамы изображения на основе указания размера, причем указание размера выполнено с возможностью указывать ширину защитной полосы в выборках яркости.obtaining an image panorama width based on the size indication, wherein the size indication is configured to indicate the guard band width in the brightness samples. 6. Способ по п. 5, в котором ширина защитной полосы представляет собой первую ширину защитной полосы в выборках яркости, причем указание размера выполнено с возможностью указывать вторую ширину защитной полосы в выборках яркости, причем ширину панорамы изображения получают на основании первой ширины защитной полосы в выборках яркости и второй ширины защитной полосы в выборках яркости.6. The method of claim 5, wherein the guard band width is a first guard band width in luminance samples, wherein the size indication is configured to indicate a second guard band width in luminance samples, the image pan width being obtained based on the first guard band width in luminance samples. luminance samples and a second guardband width in luminance samples. 7. Способ по п. 1, в котором указание с разрешением заворачивания и смещение заворачивания эталонного сэмпла получают на уровне последовательности.7. The method of claim 1, wherein the wrapping resolution indication and the wrapping offset of the reference sample are obtained at the sequence level. 8. Способ по п. 1, в котором определение местоположения эталонного сэмпла включает:8. The method of claim. 1, in which the location of the reference sample includes: получение ширины панорамы изображения на основании смещения заворачивания эталонного сэмпла и ширины изображения;obtaining an image panorama width based on a reference sample wrap offset and an image width; идентификацию местоположения текущего сэмпла в изображении;identifying the location of the current sample in the image; определение того, что исходное местоположение эталонного сэмпла находится за пределами изображения;determining that the original location of the reference sample is outside the image; после определения того, что исходное местоположение эталонного сэмпла находится за пределами крайней левой горизонтальной границы изображения, определение местоположения эталонного сэмпла путем добавления смещения заворачивания эталонного сэмпла к горизонтальной координате сэмпла, связанной с исходным местоположением эталонного сэмпла; иafter determining that the original location of the reference sample is outside the leftmost horizontal border of the image, determining the location of the reference sample by adding a wrapping offset of the reference sample to the horizontal coordinate of the sample associated with the original location of the reference sample; and после определения того, что исходное местоположение эталонного сэмпла находится за пределами крайней правой горизонтальной границы изображения, определение местоположения эталонного сэмпла путем вычитания смещения заворачивания эталонного сэмпла из горизонтальной координаты сэмпла, связанной с исходным местоположением эталонного сэмпла.after determining that the reference sample's home location is outside the rightmost horizontal border of the image, determining the reference sample's location by subtracting the reference sample's wrap offset from the horizontal sample coordinate associated with the reference sample's home location. 9. Способ по п. 1, включающий:9. The method according to p. 1, including: определение того, что исходное местоположение эталонного сэмпла находится за пределами изображения; иdetermining that the original location of the reference sample is outside the image; and получение местоположения эталонного сэмпла путем применения смещения заворачивания эталонного сэмпла к горизонтальной координате сэмпла, связанной с исходным местоположением эталонного сэмпла.obtaining the location of the reference sample by applying the wrapping offset of the reference sample to the horizontal coordinate of the sample associated with the original location of the reference sample. 10. Способ по п. 1, включающий:10. The method according to p. 1, including: идентификацию местоположения текущего сэмпла в изображении;identifying the location of the current sample in the image; определение того, что местоположение текущего сэмпла находится на горизонтальной границе изображения;determining that the location of the current sample is on the horizontal border of the image; определение того, что местоположение эталонного сэмпла находится за пределами горизонтальной границы изображения;determining that the location of the reference sample is outside the horizontal boundary of the image; на основании определения того, что компенсация горизонтального движения заворачивания не разрешена, идентификацию местоположения эталонного сэмпла на горизонтальной границе изображения; иbased on the determination that the horizontal wrapping motion compensation is not allowed, identifying the location of the reference sample at the horizontal boundary of the image; and прогнозирование текущего сэмпла на основании местоположения эталонного сэмпла.predicting the current sample based on the location of the reference sample. 11. Способ по п. 1, в котором изображение связано с форматом равнопромежуточной проекции (ERP), форматом равноплощадной проекции (EAP) или форматом скорректированной равноплощадной проекции (AEP).11. The method of claim 1, wherein the image is associated with an equal area projection (ERP) format, an equal area projection (EAP) format, or an adjusted equal area projection (AEP) format. 12. Устройство для декодирования видеосодержимого, содержащее:12. A device for decoding video content, comprising: процессор, выполненный с возможностью:a processor configured to: получения изображения, связанного с видеосодержимым, в видеоданных;obtaining an image associated with the video content in the video data; получения указания с разрешением заворачивания, указывающего, разрешена ли компенсация горизонтального движения заворачивания;obtaining a wrapping permission indication indicating whether the compensation of the horizontal wrapping movement is allowed; на основе указания с разрешением заворачивания, определения того, разрешена ли компенсация горизонтального движения заворачивания;based on the indication with the screw-in permission, determining whether the compensation of the horizontal screw-in movement is allowed; на основе определения того, что компенсация горизонтального движения заворачивания разрешена, анализа видеоданных для получения указания смещения заворачивания эталонного сэмпла;based on determining that compensation for the horizontal movement of the wrapping is enabled, analyzing the video data to obtain an indication of the wrapping offset of the reference sample; определения смещения заворачивания эталонного сэмпла для текущего сэмпла в изображении;determining a wrapping offset of the reference sample for the current sample in the image; определения местоположения эталонного сэмпла по отношению к текущему сэмплу на основании смещения заворачивания эталонного сэмпла, ширины изображения и местоположения текущего сэмпла; иlocating the reference sample with respect to the current sample based on the wrapping offset of the reference sample, the image width, and the location of the current sample; and прогнозирования текущего сэмпла на основании местоположения эталонного сэмпла.predicting the current sample based on the location of the reference sample. 13. Устройство по п. 12, в котором указания с разрешением заворачивания представляют собой флаг с разрешением заворачивания, который указывает, разрешена ли компенсация горизонтального движения заворачивания, причем смещение заворачивания эталонного сэмпла определяют на основании указания смещения и причем смещение заворачивания эталонного сэмпла указывает ширину панорамы изображения.13. The apparatus of claim 12, wherein the roll-on indication is a roll-on enable flag that indicates whether horizontal roll-on motion compensation is enabled, the roll-off offset of the reference sample is determined based on the offset indication, and the roll-off offset of the reference sample indicates a pan width. Images. 14. Устройство по п. 12, в котором для определения смещения заворачивания эталонного сэмпла для текущего сэмпла в изображении процессор выполнен с возможностью:14. The apparatus of claim 12, wherein in order to determine the reference sample wrap offset for the current sample in the image, the processor is configured to: получения указания размера, которое выполнено с возможностью указывать ширину защитной полосы в изображении; иobtaining a size indication that is configured to indicate the width of the guard band in the image; and получения ширины панорамы изображения на основе указания размера, причем указание размера выполнено с возможностью указания ширины защитной полосы в выборках яркости.obtaining an image panorama width based on the size indication, wherein the size indication is configured to indicate the guard band width in the luminance samples. 15. Устройство по п. 12, в котором для определения местоположения эталонного сэмпла процессор выполнен с возможностью:15. The apparatus of claim 12, wherein, in order to determine the location of the reference sample, the processor is configured to: получения ширины панорамы изображения на основании смещения заворачивания эталонного сэмпла и ширины изображения;obtaining an image panorama width based on the reference sample's wrapping offset and the image width; идентификации местоположения текущего сэмпла в изображении;identifying the location of the current sample in the image; определения того, что исходное местоположение эталонного сэмпла находится за пределами изображения;determining that the original location of the reference sample is outside the image; после определения того, что исходное местоположение эталонного сэмпла находится за пределами крайней левой горизонтальной границы изображения, определения местоположения эталонного сэмпла путем добавления смещения заворачивания эталонного сэмпла к горизонтальной координате сэмпла, связанной с исходным местоположением эталонного сэмпла; иafter determining that the original location of the reference sample is outside the leftmost horizontal border of the image, determining the location of the reference sample by adding the wrapping offset of the reference sample to the horizontal coordinate of the sample associated with the original location of the reference sample; and после определения того, что исходное местоположение эталонного сэмпла находится за пределами крайней правой горизонтальной границы изображения, определения местоположения эталонного сэмпла путем вычитания смещения заворачивания эталонного сэмпла из горизонтальной координаты сэмпла, связанной с исходным местоположением эталонного сэмпла.after determining that the reference sample's home location is outside the rightmost horizontal border of the image, determining the reference sample's location by subtracting the reference sample's wrap offset from the sample's horizontal coordinate associated with the reference sample's home location. 16. Устройство по п. 12, в котором процессор выполнен с возможностью:16. The apparatus of claim 12, wherein the processor is configured to: на основании определения того, что компенсация горизонтального движения заворачивания не разрешена, пропускать анализ видеоданных для получения указания смещения для смещения заворачивания эталонного сэмпла.based on the determination that compensation for the horizontal movement of the wrapping is not allowed, skip analyzing the video data to obtain an offset indication for the wrapping offset of the reference sample. 17. Устройство по п. 14, в котором ширина защитной полосы представляет собой первую ширину защитной полосы в выборках яркости, причем указание размера выполнено с возможностью указывать вторую ширину защитной полосы в выборках яркости, причем ширину панорамы изображения получают на основании первой ширины защитной полосы в выборках яркости и второй ширины защитной полосы в выборках яркости.17. The apparatus of claim 14, wherein the guard band width is a first guard band width in luminance samples, wherein the size indication is configured to indicate a second guard band width in luminance samples, the image pan width being obtained based on the first guard band width in luminance samples. luminance samples and a second guardband width in luminance samples. 18. Способ кодирования видеосодержимого, включающий:18. Method for encoding video content, including: получение изображения, связанного с видеосодержимым, в видеоданных;obtaining an image associated with the video content in the video data; получение местоположения текущего сэмпла, причем местоположение текущего сэмпла связано с текущим сэмплом в полученном изображении;obtaining the location of the current sample, and the location of the current sample is associated with the current sample in the received image; определение местоположения эталонного сэмпла, которое связано с текущим сэмплом;determining the location of the reference sample, which is associated with the current sample; определение того, что ссылочный образец находится за пределами изображения в определенном местоположении ссылочного образца, ширины изображения и местоположения текущего сэмпла, причем ссылочный образец связан с местоположением ссылочного образца; иdetermining that the reference sample is outside the image at a specific location of the reference sample, the width of the image, and the location of the current sample, and the reference sample is associated with the location of the reference sample; and на основании определения того, что эталонный сэмпл находится за пределами изображения, включение указания с разрешением заворачивания и указания смещения в видеоданные, причем указание с разрешением заворачивания указывает, разрешена ли компенсация горизонтального движения заворачивания, и указание смещения обеспечено для смещения заворачивания эталонного сэмпла.based on the determination that the reference sample is outside the image, including a wrapping resolution indication and an offset indication in the video data, wherein the wrapping resolution indication indicates whether compensation for the horizontal movement of the wrapping is allowed, and an offset indication is provided for the wrapping offset of the reference sample. 19. Способ по п. 18, в котором указания с разрешением заворачивания представляют собой флаг с разрешением заворачивания, и способ включает в себя:19. The method of claim 18, wherein the wrapping permission indications is a wrapping permission flag, and the method includes: включение по меньшей мере одного из указания с разрешением заворачивания или указание смещения на уровне последовательности.including at least one of the indication with wrapping permission, or indication of an offset at the sequence level. 20. Способ по п. 18, включающий:20. The method according to claim 18, including: включение указания размера видеоданных, причем указание размера выполнено с возможностью указания первой ширины защитной полосы в изображении и второй ширины защитной полосы в изображении, причем первая ширина защитной полосы в выборках яркости, и вторая ширина защитной полосы в выборках яркости.including an indication of the size of the video data, wherein the size indication is configured to indicate the first guard band width in the image and the second guard band width in the image, the first guard band width in luminance samples and the second guard band width in luminance samples. 21. Способ по п. 18, согласно которому способ включает:21. The method according to claim 18, according to which the method includes: включение указания с разрешением заворачивания или указания смещения на уровне последовательности.enable wrapping-enabled picking or sequence-level offset picking. 22. Устройство для кодирования видеосодержимого, содержащее:22. A device for encoding video content, comprising: процессор, выполненный с возможностью:a processor configured to: получения изображения, связанного с видеосодержимым, в видеоданных;obtaining an image associated with the video content in the video data; идентификации местоположения текущего сэмпла, причем местоположение текущего сэмпла связано с текущим сэмплом в полученном изображении;identifying the location of the current sample, and the location of the current sample is associated with the current sample in the received image; определения местоположения эталонного сэмпла, причем местоположение эталонного сэмпла связано с текущим сэмплом;determining the location of the reference sample, and the location of the reference sample is associated with the current sample; определения того, что эталонный образец находится за пределами изображения, на основании определенного местоположения эталонного сэмпла, ширины изображения и местоположения текущего сэмпла, причем эталонный сэмпл связан с местоположением эталонного сэмпла; иdetermining that the reference sample is outside the image, based on the determined location of the reference sample, the width of the image and the location of the current sample, and the reference sample is associated with the location of the reference sample; and на основании определения того, что эталонный сэмпл находится за пределами изображения, включения указания с разрешением заворачивания и указания смещения в видеоданные, причем указание с разрешением заворачивания указывает, разрешена ли компенсация горизонтального движения заворачивания, причем указание смещения обеспечено для смещения заворачивания эталонного сэмпла.based on determining that the reference sample is outside the image, including a wrapping permission indication and an offset indication in the video data, where the wrapping permission indication indicates whether compensation for the horizontal movement of the wrapping is allowed, wherein the offset indication is provided for the wrapping offset of the reference sample. 23. Устройство по п. 22, в котором процессор выполнен с возможностью:23. The apparatus of claim 22, wherein the processor is configured to: включения по меньшей мере одного указания с разрешением заворачивания или указания смещения на уровне последовательности.including at least one indication with wrapping permission or indication of an offset at the sequence level. 24. Устройство по п. 22, в котором указание с разрешением заворачивания представляет собой флаг с разрешением заворачивания, причем процессор выполнен с возможностью включения по меньшей мере одного указания с разрешением заворачивания или указания смещения на уровне последовательности.24. The apparatus of claim 22, wherein the wrap enable indication is a wrap enable flag, wherein the processor is configured to include at least one wrap enable indication or sequence level offset indication. 25. Устройство по п. 22, в котором процессор выполнен с возможностью:25. The apparatus of claim 22, wherein the processor is configured to: включать в видеоданные указание размера, которое выполнено с возможностью указывать первую ширину защитной полосы в изображении и первую ширину защитной полосы в изображении, причем первая ширина защитной полосы в выборках яркости, и вторая ширина защитной полосы в выборках яркости.include in the video data a size indication that is configured to indicate the first guard band width in the image and the first guard band width in the image, the first guard band width in luminance samples and the second guard band width in luminance samples. 26. Компьютерочитаемый носитель данных, выполненный с возможностью хранения инструкций для декодирования видеосодержимого, побуждающих процессор к выполнению способа согласно любому из пп. 1-11.26. Computer-readable storage medium, configured to store instructions for decoding video content, prompting the processor to perform the method according to any one of paragraphs. 1-11. 27. Компьютерочитаемый носитель данных, выполненный с возможностью хранения инструкций для кодирования видеосодержимого, побуждающих процессор к выполнению способа согласно любому из пп. 18-21.27. Computer-readable storage medium, configured to store instructions for encoding video content, prompting the processor to perform the method according to any one of paragraphs. 18-21.
RU2021110578A 2018-09-27 2019-09-26 Obtainment of sample for encoding of 360-degree video RU2786015C2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US62/737,303 2018-09-27

Publications (2)

Publication Number Publication Date
RU2021110578A RU2021110578A (en) 2022-10-17
RU2786015C2 true RU2786015C2 (en) 2022-12-15

Family

ID=

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2332809C2 (en) * 2004-03-15 2008-08-27 Самсунг Электроникс Ко., Лтд. Image encoding device and shift predicting method using turning correlation
WO2017162912A1 (en) * 2016-03-24 2017-09-28 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
WO2017220012A1 (en) * 2016-06-23 2017-12-28 Mediatek Inc. Method and apparatus of face independent coding structure for vr video
WO2018009746A1 (en) * 2016-07-08 2018-01-11 Vid Scale, Inc. 360-degree video coding using geometry projection
RU2648592C2 (en) * 2013-04-08 2018-03-26 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Motion-constrained control data for tile set

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2332809C2 (en) * 2004-03-15 2008-08-27 Самсунг Электроникс Ко., Лтд. Image encoding device and shift predicting method using turning correlation
RU2648592C2 (en) * 2013-04-08 2018-03-26 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Motion-constrained control data for tile set
WO2017162912A1 (en) * 2016-03-24 2017-09-28 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
WO2017220012A1 (en) * 2016-06-23 2017-12-28 Mediatek Inc. Method and apparatus of face independent coding structure for vr video
WO2018009746A1 (en) * 2016-07-08 2018-01-11 Vid Scale, Inc. 360-degree video coding using geometry projection

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PHILIPPE HANHART et al, AHG8: Horizontal geometry padding for PERP, Joint Video Experts Team (JVET) of ITU-T SG16 WP3 and ISO/IEC JTC 1/SC 29/WG 11, JVET-K0333, 11th Meeting: Ljubljana, 10-18 July 2018. YUWEN HE еt al, AHG8: Geometry padding for 360 video coding, Joint Video Exploration Team (JVET) of ITU-T SG16 WP3 and ISO/IEC JTC 1/SC 29/WG 11, JVET-D0075, 4th Meeting: Chengdu, 15-21 October 2016. *

Similar Documents

Publication Publication Date Title
US11601676B2 (en) Sample derivation for 360-degree video coding
JP7357747B2 (en) 360 degree video coding using surface continuity
US12003770B2 (en) Face discontinuity filtering for 360-degree video coding
US20220377385A1 (en) Handling face discontinuities in 360-degree video coding
JP7406378B2 (en) Adaptive quantization for 360 degree video coding
CN111602401B (en) Adaptive frame encapsulation for 360 degree video coding
WO2019089382A1 (en) 360-degree video coding using face-based geometry padding
RU2786015C2 (en) Obtainment of sample for encoding of 360-degree video