RU2786015C2 - Obtainment of sample for encoding of 360-degree video - Google Patents
Obtainment of sample for encoding of 360-degree video Download PDFInfo
- Publication number
- RU2786015C2 RU2786015C2 RU2021110578A RU2021110578A RU2786015C2 RU 2786015 C2 RU2786015 C2 RU 2786015C2 RU 2021110578 A RU2021110578 A RU 2021110578A RU 2021110578 A RU2021110578 A RU 2021110578A RU 2786015 C2 RU2786015 C2 RU 2786015C2
- Authority
- RU
- Russia
- Prior art keywords
- image
- reference sample
- wrapping
- location
- sample
- Prior art date
Links
- 238000003860 storage Methods 0.000 claims description 19
- 230000003993 interaction Effects 0.000 abstract description 5
- 230000000694 effects Effects 0.000 abstract description 3
- 238000006073 displacement reaction Methods 0.000 abstract 3
- 239000000126 substance Substances 0.000 abstract 1
- 238000004891 communication Methods 0.000 description 30
- 238000005516 engineering process Methods 0.000 description 21
- 238000000034 method Methods 0.000 description 14
- 238000001228 spectrum Methods 0.000 description 13
- 101700062884 EMD Proteins 0.000 description 10
- HUCJFAOMUPXHDK-UHFFFAOYSA-N Xylometazoline Chemical compound CC1=CC(C(C)(C)C)=CC(C)=C1CC1=NCCN1 HUCJFAOMUPXHDK-UHFFFAOYSA-N 0.000 description 10
- 239000000969 carrier Substances 0.000 description 9
- 230000002123 temporal effect Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000011664 signaling Effects 0.000 description 8
- 230000001702 transmitter Effects 0.000 description 8
- 241000023320 Luma <angiosperm> Species 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 7
- 230000000875 corresponding Effects 0.000 description 7
- 241000760358 Enodes Species 0.000 description 6
- 125000004122 cyclic group Chemical group 0.000 description 6
- 238000009795 derivation Methods 0.000 description 5
- 230000002093 peripheral Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- -1 nickel cadmium Chemical compound 0.000 description 3
- 238000004806 packaging method and process Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 101700006428 EIF3A Proteins 0.000 description 2
- 210000004915 Pus Anatomy 0.000 description 2
- 241000700159 Rattus Species 0.000 description 2
- 230000003044 adaptive Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 229910001416 lithium ion Inorganic materials 0.000 description 2
- 230000000051 modifying Effects 0.000 description 2
- 229920002635 polyurethane Polymers 0.000 description 2
- 229910052721 tungsten Inorganic materials 0.000 description 2
- 229920000663 Hydroxyethyl cellulose Polymers 0.000 description 1
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium Ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004873 anchoring Methods 0.000 description 1
- 230000003190 augmentative Effects 0.000 description 1
- 230000003139 buffering Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000002354 daily Effects 0.000 description 1
- 230000003247 decreasing Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 101700044109 ena Proteins 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000000977 initiatory Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 229910052987 metal hydride Inorganic materials 0.000 description 1
- 238000002044 microwave spectrum Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 229910052759 nickel Inorganic materials 0.000 description 1
- PXHVJJICTQNCMI-UHFFFAOYSA-N nickel Substances [Ni] PXHVJJICTQNCMI-UHFFFAOYSA-N 0.000 description 1
- 230000003287 optical Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000003252 repetitive Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory Effects 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 230000001360 synchronised Effects 0.000 description 1
- 230000001131 transforming Effects 0.000 description 1
- 238000000411 transmission spectrum Methods 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Abstract
Description
Настоящая заявка испрашивает приоритет по предварительной заявке на патент США № 62/737,303, поданной 27 сентября 2018 г., содержание которой полностью включено в настоящий документ путем ссылки.This application claims priority over U.S. Provisional Application No. 62/737,303, filed September 27, 2018, the contents of which are incorporated herein by reference in their entirety.
Предпосылки создания изобретенияPrerequisites for the creation of the invention
Виртуальная реальность (ВР) все больше входит в нашу повседневную жизнь. ВР применяют во множестве областей, включая здравоохранение, образование, социальные сети, промышленное проектирование/обучение, игры, кино, совершение покупок, развлечения и т.д. ВР вызывает интерес как у предприятий, так и у потребителей, поскольку с ее помощью можно обеспечить впечатление полного эффекта присутствия при просмотре. ВР создает виртуальную среду, окружающую зрителя, и генерирует истинное ощущение присутствия для зрителя. Способ обеспечения ощущения полной реальности в среде ВР влияет на впечатление пользователя. Например, взаимодействие с системой ВР может быть обеспечено с помощью позы, жеста, взгляда, голоса и т.д. Для естественного взаимодействия пользователя с объектами в мире ВР в ВР может быть обеспечена тактильная обратная связь для пользователя.Virtual Reality (VR) is becoming more and more part of our daily lives. VR is used in many areas, including healthcare, education, social media, industrial design/education, gaming, cinema, shopping, entertainment, and more. VR is of interest to both businesses and consumers because it can provide a fully immersive viewing experience. VR creates a virtual environment surrounding the viewer and generates a true sense of presence for the viewer. The way in which the experience of full reality is provided in the VR environment affects the user experience. For example, interaction with a VR system can be achieved through posture, gesture, gaze, voice, and so on. For natural user interaction with objects in the VR world, haptic feedback for the user can be provided in VR.
Изложение сущности изобретенияStatement of the Invention
Описаны системы, способы и средства для выполнения горизонтального геометрического заполнения на текущем сэмпле на основании получения указания с разрешением заворачивания, которое указывает на то, что компенсация горизонтального движения заворачивания разрешена.Systems, methods, and means are described for performing horizontal geometric filling on the current sample based on receiving a wrapping permission indication that indicates that horizontal wrapping motion compensation is enabled.
Устройство кодирования видеосигналов может принимать изображение, связанное с видеосодержимым, в битовом потоке. Устройство кодирования видеосигналов, описанное в настоящем документе, может включать в себя кодер и/или декодер. Изображение может представлять собой или может включать в себя изображение с упакованными кадрами. Устройство кодирования видеосигналов может принимать указание с разрешением заворачивания. Например, устройство кодирования видеосигналов может принимать указание с разрешением заворачивания на уровне последовательности. Указание с разрешением заворачивания может указывать, разрешена или запрещена компенсация горизонтального движения заворачивания. Указание с разрешением заворачивания может представлять собой или может включать в себя флаг с разрешением заворачивания, который указывает, разрешена или запрещена компенсация горизонтального движения заворачивания.The video encoder may receive an image associated with the video content in a bitstream. The video encoding apparatus described herein may include an encoder and/or a decoder. The image may be or may include a packed frame image. The video encoder may receive an indication with permission to wrap. For example, the video encoder may receive an indication to permit wrapping at the sequence level. The tip with enable screwdriving can indicate whether compensation for the horizontal screwdriving movement is enabled or disabled. The wrap-enable indication may be or may include a wrap-enable flag that indicates whether horizontal wrap motion compensation is enabled or disabled.
На основании указания с разрешением заворачивания, указывающего, что компенсация горизонтального движения заворачивания разрешена, устройство кодирования видеосигналов может определять смещение заворачивания эталонного сэмпла для текущего сэмпла в изображении. В примерах устройство кодирования видеосигналов может принимать в битовом потоке указание смещения заворачивания эталонного сэмпла. Смещение заворачивания эталонного сэмпла может быть определено на основании указания смещения. Смещение заворачивания эталонного сэмпла может указывать на ширину панорамы. В примерах устройство кодирования видеосигналов может принимать указание размера, указывающее ширину панорамы изображения. Например, указание размера может представлять собой или может включать в себя ширину защитной полосы в выборках яркости. Устройство кодирования видеосигналов может вычислять ширину панорамы изображения на основании указания размера и может использовать вычисленную ширину в качестве смещения заворачивания эталонного сэмпла. В примерах защитная полоса может иметь одну и ту же ширину. В примерах защитная полоса может иметь разную ширину.Based on the wrapping permission indication indicating that the horizontal wrapping motion compensation is enabled, the video encoder may determine the reference sample wrapping offset for the current sample in the picture. In the examples, the video encoder may receive in the bitstream an indication of the wrapping offset of the reference sample. The wrapping offset of the reference sample may be determined based on the offset specification. The wrapping offset of the reference sample can indicate the width of the pan. In examples, the video encoder may receive a size indication indicating the width of an image panorama. For example, the size indication may be or may include the width of the guard band in luma samples. The video encoder may calculate the image panorama width based on the size indication, and may use the calculated width as a reference sample wrapping offset. In the examples, the guard strip may have the same width. In the examples, the guard strip may have different widths.
Устройство кодирования видеосигналов может определять местоположение эталонного сэмпла по отношению к текущему сэмплу на основании смещения заворачивания эталонного сэмпла, ширины изображения и местоположения текущего сэмпла. Устройство для кодирования видеосигналов может принимать смещение заворачивания эталонного сэмпла на уровне последовательности.The video encoder may determine the location of the reference sample with respect to the current sample based on the wrapping offset of the reference sample, the image width, and the location of the current sample. The video encoder may receive a wrapping offset of the reference sample at the sequence level.
В примерах устройство кодирования видеосигналов может определять, находится ли исходное местоположение эталонного сэмпла (например, первичное местоположение эталонного сэмпла), связанное с местоположением текущего сэмпла, за пределами изображения. Если исходное местоположение эталонного сэмпла находится за пределами изображения, устройство кодирования видеосигналов может рассчитывать местоположение эталонного сэмпла для горизонтального геометрического заполнения. Например, устройство кодирования видеосигналов может вычислять местоположение эталонного сэмпла путем применения смещения заворачивания эталонного сэмпла к горизонтальной координате сэмпла, связанной с исходным местоположением эталонного сэмпла.In the examples, the video encoder may determine if the original reference sample location (eg, the primary reference sample location) associated with the current sample location is outside the picture. If the original location of the reference sample is outside the picture, the video encoder can calculate the location of the reference sample for the horizontal geometric fill. For example, the video encoder may calculate the location of the reference sample by applying the wrap offset of the reference sample to the horizontal coordinate of the sample associated with the original location of the reference sample.
В примерах устройство кодирования видеосигналов может вычислять ширину панорамы изображения на основании смещения заворачивания эталонного сэмпла и ширины изображения. Устройство кодирования видеосигналов может идентифицировать местоположение текущего сэмпла в изображении. Устройство кодирования видеосигналов может определять, находится ли исходное местоположение эталонного сэмпла за пределами изображения. Если исходное местоположение эталонного сэмпла находится за пределами крайней левой горизонтальной границы изображения, устройство кодирования видеосигналов может определять местоположение эталонного сэмпла путем добавления смещения заворачивания эталонного сэмпла к горизонтальной координате сэмпла, связанной с исходным местоположением эталонного сэмпла. Если исходное местоположение эталонного сэмпла находится за пределами крайней правой горизонтальной границы изображения, устройство кодирования видеосигналов может определять местоположение эталонного сэмпла путем вычитания смещения заворачивания эталонного сэмпла из горизонтальной координаты сэмпла, связанной с исходным местоположением эталонного сэмпла.In examples, a video encoder may calculate an image pan width based on a reference sample wrap offset and image width. The video encoder can identify the location of the current sample in the image. The video encoder can determine if the reference sample's original location is outside the picture. If the reference sample home location is outside the leftmost horizontal border of the picture, the video encoder may determine the reference sample location by adding the reference sample wrap offset to the horizontal sample coordinate associated with the reference sample home location. If the reference sample home location is outside the rightmost horizontal edge of the picture, the video encoder may determine the reference sample location by subtracting the reference sample wrap offset from the horizontal sample coordinate associated with the reference sample home location.
Устройство кодирования видеосигналов может прогнозировать текущий сэмпл на основании местоположения эталонного сэмпла.The video encoder may predict the current sample based on the location of the reference sample.
Устройство кодирования видеосигналов может определять, разрешена ли компенсация горизонтального движения заворачивания, на основе указания с разрешением заворачивания. Если указание с разрешением заворачивания указывает на то, что компенсация горизонтального движения заворачивания запрещена, устройство кодирования видеосигналов может идентифицировать местоположение текущего сэмпла в изображении. Устройство кодирования видеосигналов может определять, находится ли местоположение текущего сэмпла на горизонтальной границе изображения. Устройство кодирования видеосигналов может определять, находится ли местоположение эталонного сэмпла за пределами горизонтальной границы изображения. Если устройство кодирования видеосигналов определяет, что местоположение эталонного сэмпла находится за пределами горизонтальной границы изображения, устройство кодирования видеосигналов может идентифицировать местоположение эталонного сэмпла на горизонтальной границе изображения. Устройство кодирования видеосигналов может прогнозировать текущий сэмпл на основании местоположения эталонного сэмпла.The video encoder may determine whether the compensation of the horizontal screw-in movement is allowed based on the indication with the screw-in permission. If the wrap-enable indication indicates that horizontal wrap motion compensation is disabled, the video encoder can identify the location of the current sample in the image. The video encoder can determine if the location of the current sample is on the horizontal edge of the image. The video encoder can determine if the location of the reference sample is outside the horizontal boundary of the image. If the video encoder determines that the location of the reference sample is outside the horizontal boundary of the picture, the video encoder may identify the location of the reference sample at the horizontal boundary of the picture. The video encoder may predict the current sample based on the location of the reference sample.
Изображение может представлять собой или может включать в себя формат равнопромежуточной проекции (ERP), формат равноплощадной проекции (EAP) или формат скорректированной равноплощадной проекции (AEP).The image may be or may include Equidistant Projection (ERP), Equal Area Projection (EAP), or Adjusted Equal Area Projection (AEP) format.
Устройство кодирования видеосигналов может определять, принимать ли указание смещения для смещения заворачивания эталонного сэмпла на основании указания с разрешением заворачивания. Если устройство кодирования видеосигналов определяет, что указание с разрешением заворачивания выдано, устройство кодирования видеосигналов может синтаксически анализировать битовый поток для приема указания смещения для смещения заворачивания эталонного сэмпла. Если устройство кодирования видеосигналов определяет, что указание с разрешением заворачивания не выдано, устройство кодирования видеосигналов может пропускать анализ битового потока и пропускать прием указания смещения для смещения заворачивания эталонного сэмпла.The video encoder may determine whether to receive an offset indication for the wrapping offset of the reference sample based on the wrapping-enabled indication. If the video encoder determines that a wrapping permission indication has been issued, the video encoding device may parse the bitstream to receive an offset indication for the wrapping offset of the reference sample. If the video encoder determines that the wrapping permission indication is not issued, the video encoding device may skip parsing the bitstream and skip receiving the offset indication for the wrapping offset of the reference sample.
Указание может быть передано посредством сигнализации (например, в битовом потоке), чтобы разрешить геометрическое заполнение. Может быть определено правильное положение одного или более соседей в сферической окрестности. Геометрическое заполнение может учитывать положение и/или размер защитных полос для вычисления правильного положения одного или более соседей в сферической окрестности. Положение и/или размер защитных полос могут быть добавлены при упаковке одной или более панорам в изображении (например, перед кодированием). Одно или более указаний, относящихся к геометрическому заполнению, могут быть переданы посредством сигнализации для указания того, применено ли геометрическое заполнение, и/или указания защитных полос.An indication may be signaled (eg, in a bitstream) to enable geometric filling. The correct position of one or more neighbors in a spherical neighborhood can be determined. The geometric filling may take into account the position and/or size of the guardbands to calculate the correct position of one or more neighbors in a spherical neighborhood. The position and/or size of the guard bands may be added when one or more panoramas are packaged in an image (eg, before encoding). One or more indications relating to geometric infill may be signaled to indicate whether geometric infill has been applied and/or to indicate guard bands.
Для геометрий проекции, включающих в себя панораму (например, одну панораму), такую как ERP, EAP, AEP и/или подобные форматы проекции, геометрическое заполнение можно выполнять в горизонтальном направлении. При выполнении геометрического заполнения в горизонтальном направлении можно использовать повторяющееся заполнение в вертикальном направлении. Положение сэмпла может быть определено как горизонтальная координата сэмпла, которая может быть завернута в кодированном изображении. Вертикальная координата сэмпла может быть обрезана по одной или более закодированных границ изображения, например, как при повторяющемся заполнении. Может быть определен процесс выведения целочисленных сэмплов и/или процесс интерполяции дробных сэмплов для внешнего прогнозирования (например, с использованием горизонтального геометрического заполнения), связанный с геометрией проекции, основанной на одной панораме.For projection geometries that include a panorama (eg, a single panorama), such as ERP, EAP, AEP, and/or similar projection formats, geometric filling can be performed in the horizontal direction. When performing geometric infill in the horizontal direction, you can use repeated infill in the vertical direction. The sample position can be defined as the horizontal coordinate of the sample, which can be wrapped in the encoded image. The vertical coordinate of the sample may be clipped at one or more encoded image boundaries, such as in a repeat fill. An integer sample derivation process and/or a fractional sample interpolation process for external prediction (eg, using horizontal geometric filling) associated with a projection geometry based on a single panorama can be defined.
Краткое описание графических материаловBrief description of graphic materials
На фиг. 1A представлен пример сферического сэмплирования в долготе и широте.In FIG. 1A shows an example of spherical sampling in longitude and latitude.
На фиг. 1B представлен пример двухмерной (2D) плоскости с равнопромежуточной проекцией.In FIG. 1B shows an example of a two-dimensional (2D) plane with an equirectangular projection.
На фиг. 2A представлен пример трехмерной (3D) геометрической структуры для проекции с кубической текстурой (CMP).In FIG. 2A shows an example of a three-dimensional (3D) geometry for Cube Mapped Projection (CMP).
На фиг. 2B представлен пример 2D-планера для шести панорам CMP.In FIG. 2B shows an example of a 2D glider for six CMP panoramas.
На фиг. 3A представлен пример изображения с заполненными границами с использованием равнопромежуточной проекции (ERP).In FIG. 3A is an example of an image with filled borders using Equidistant Projection (ERP).
На фиг. 3B представлен пример изображения с заполненными границами с использованием CMP.In FIG. 3B shows an example of an image with filled borders using CMP.
На фиг. 4A представлен пример геометрии заполнения для ERP.In FIG. 4A shows an example infill geometry for ERP.
На фиг. 4B представлен пример заполненного изображения ERP.In FIG. 4B shows an example of a completed ERP image.
На фиг. 5A представлен пример геометрии заполнения для CMP.In FIG. 5A shows an example infill geometry for CMP.
На фиг. 5B представлен пример заполненных панорам CMP.In FIG. 5B shows an example of filled CMP panoramas.
На фиг. 6 представлен пример рабочего процесса получения 360-градусного видео.In FIG. Figure 6 shows an example workflow for getting a 360-degree video.
На фиг. 7 представлен пример видеокодера.In FIG. 7 shows an example of a video encoder.
На фиг. 8 представлен пример видеодекодера.In FIG. 8 shows an example of a video decoder.
На фиг. 9 представлен пример эталонного сэмпла, используемого во внутреннем прогнозировании.In FIG. 9 shows an example of a reference sample used in intra prediction.
На фиг. 10 представлен пример указания направлений внутреннего прогнозирования.In FIG. 10 shows an example of specifying the directions of internal prediction.
На фиг. 11 представлен пример внешнего прогнозирования с вектором движения (например, унипрогнозирование).In FIG. 11 shows an example of external motion vector prediction (eg, uniprediction).
На фиг. 12 представлен пример заполнения эталонных сэмплов за пределами границы изображения.In FIG. 12 shows an example of filling reference samples outside the image boundary.
На фиг. 13 представлен пример пространственных соседей, используемых при определении кандидатов на пространственное объединение.In FIG. 13 shows an example of spatial neighbors used in determining candidates for a spatial union.
На фиг. 14 представлен пример кэширования восстановленных сэмплов для внешнего прогнозирования при использовании горизонтального геометрического заполнения.In FIG. 14 shows an example of caching recovered samples for external prediction using horizontal geometric filling.
На фиг. 15 представлен пример положений целочисленного сэмпла (например, заштрихованный блок с прописными буквами) и дробного сэмпла (например, незаштрихованные блоки со строчными буквами) для интерполяции яркости сэмпла с точностью в четверть пиксела.In FIG. 15 shows an example of the positions of an integer sample (eg, a shaded block with uppercase letters) and a fractional sample (eg, unshaded blocks with lowercase letters) to interpolate sample brightness with quarter-pixel precision.
На фиг. 16A представлена системная схема примера системы связи, в которой может быть реализован один или более описанных вариантов осуществления.In FIG. 16A is a system diagram of an exemplary communications system in which one or more of the described embodiments may be implemented.
На фиг. 16B представлена системная схема примера модуля беспроводной передачи/приема (WTRU), который может использоваться в системе связи, представленной на фиг. 16A.In FIG. 16B is a system diagram of an example of a wireless transmit/receive unit (WTRU) that may be used in the communication system shown in FIG. 16A.
Фиг. 16C представлена системная схема примера сети радиодоступа (RAN) и примера опорной сети (CN), которые могут использоваться в системе связи, представленной на фиг. 16A.Fig. 16C is a system diagram of an example radio access network (RAN) and an example core network (CN) that may be used in the communication system shown in FIG. 16A.
На фиг. 16D представлена системная схема еще одного примера RAN и дополнительного примера сети CN, которые могут использоваться в системе связи, представленной на фиг. 16A.In FIG. 16D is a system diagram of another example of a RAN and an additional example of a CN network that may be used in the communication system shown in FIG. 16A.
Подробное описаниеDetailed description
Далее приведено подробное описание иллюстративных вариантов осуществления со ссылкой на различные фигуры. Хотя в настоящем описании приведены подробные примеры возможных вариантов реализации, следует отметить, что данное подробное описание приведено в качестве примера и ни в коей мере не ограничивает объем заявки.The following is a detailed description of illustrative embodiments with reference to various figures. Although the present description provides detailed examples of possible implementation options, it should be noted that this detailed description is given as an example and in no way limits the scope of the application.
360-градусные видео, описанные в настоящем документе, могут включать в себя или могут представлять собой сферические видео, всенаправленные видео, видео виртуальной реальности (ВР), панорамные видео, видео, создающие эффект присутствия (например, видео в световом поле, которые могут включать в себя 6 степеней свободы), видео в облаке точек и/или т.п.The 360-degree videos described herein may include or may be spherical videos, omnidirectional videos, virtual reality (VR) videos, panoramic videos, immersive videos (e.g., light field videos, which may include into itself 6 degrees of freedom), video in a cloud of points and / or the like.
В системах ВР 360-градусные видео можно использовать для обеспечения пользователя возможностью просмотра сцены под углами до 360 градусов в горизонтальном направлении и под углами до 180 градусов в вертикальном направлении. ВР и 360-градусные видео могут рассматриваться как направление для использования мультимедиа за пределами возможностей услуги вывода изображений сверхвысокой четкости (UHD). Для улучшения качества 360-градусных видео в системах ВР и/или для стандартизации последовательности обработки информации для взаимодействия с клиентом могут быть выработаны требования и потенциальные технологии для формата применения всенаправленного мультимедиа. Согласно технологии Free view TV (FTV) можно проверять характеристики одного или более из следующего: (1) система на основе 360-градусного видео (например, всенаправленного видео); (2) многовидовая система.In VR systems, 360-degree videos can be used to provide the user with the ability to view the scene at angles up to 360 degrees in the horizontal direction and at angles up to 180 degrees in the vertical direction. VR and 360-degree videos can be seen as a direction for using multimedia beyond the capabilities of an ultra-high-definition (UHD) display service. To improve the quality of 360-degree videos in VR systems and/or to standardize the information processing sequence for customer interaction, requirements and potential technologies for an omnidirectional multimedia application format can be developed. According to Free view TV (FTV) technology, one or more of the following can be tested: (1) a 360-degree video system (eg, omnidirectional video); (2) multi-species system.
Система ВР может включать в себя цепь обработки. Цепь обработки может представлять собой или включать в себя захват, обработку, отображение и/или применения. В отношении захвата система ВР может использовать одну или более камер для захвата сцен с разных противоположных ракурсов (например, от 6 до 12 ракурсов). Ракурсы могут быть сшиты вместе с образованием 360-градусного видео в высоком разрешении (например, 4K или 8K). На стороне клиента и/или на стороне пользователя система виртуальной реальности (ВР) может включать в себя вычислительную платформу, наголовный дисплей (HMD) и/или один или более датчиков слежения за положением головы пользователя. Вычислительная платформа может принимать и/или декодировать 360-градусное видео и/или генерировать окно просмотра для отображения. Для окна просмотра могут отображаться два изображения, по одному для каждого глаза. В HMD могут отображаться два изображения (например, для стереопросмотра). Для увеличения изображения, отображаемого в HMD, можно использовать линзу для более удобного просмотра. Датчик слежения за положением головы пользователя может сохранять (например, постоянно сохранять) данные слежения за ориентацией головы зрителя и/или может передавать информацию об ориентации в систему для отображения изображения окна просмотра для этой ориентации.The VR system may include a processing chain. The processing chain may be or include capturing, processing, displaying and/or applying. In terms of capture, the VR system may use one or more cameras to capture scenes from different opposite angles (eg, 6 to 12 angles). Views can be stitched together to form 360-degree video in high definition (eg 4K or 8K). On the client side and/or on the user side, a virtual reality (VR) system may include a computing platform, a head-mounted display (HMD), and/or one or more sensors for tracking the position of the user's head. The computing platform may receive and/or decode the 360-degree video and/or generate a viewport for display. Two images can be displayed for the viewport, one for each eye. The HMD can display two images (eg for stereo viewing). You can use a lens to magnify the image displayed on the HMD for easier viewing. The user's head tracking sensor may store (eg, permanently store) the viewer's head orientation tracking data and/or may send orientation information to the system to display a viewport image for that orientation.
Система ВР может включать в себя сенсорное устройство для зрителя, например, для взаимодействия с объектами в виртуальном мире. Управление системой ВР может работать под управлением рабочей станции с поддержкой графического процессора (GPU). Система ВР может использовать смартфон в качестве вычислительной платформы, HMD-дисплей и/или датчик слежения за положением головы. Пространственное разрешение HMD может составлять 2160 x 1200, частота обновления может составлять 90 Гц и/или поле зрения (FOV) может составлять 110 градусов. Плотность выборки для датчика слежения за положением головы пользователя может составлять 1000 Гц, что позволяет захватывать изображение при быстром перемещении. Система ВР может включать в себя линзу и/или плату и/или может работать под управлением смартфона.The VR system may include a sensory device for the viewer, for example, to interact with objects in the virtual world. System Control VR can be controlled by a graphics processing unit (GPU)-enabled workstation. The VR system may use a smartphone as a computing platform, an HMD display and/or a head-tracking sensor. The spatial resolution of the HMD may be 2160 x 1200, the refresh rate may be 90 Hz, and/or the field of view (FOV) may be 110 degrees. The sampling density for the user's head tracking sensor can be as high as 1000 Hz, which can capture an image while moving quickly. The VR system may include a lens and/or a board and/or may be controlled by a smartphone.
360-градусное видео могут сжиматься и/или доставляться, например, путем динамической адаптивной потоковой передачи через методики потоковой передачи видео с организацией потоковой передачи видео на основании HTTP (DASH). Доставка 360-градусного видео может быть реализована, например, с использованием сферической геометрической структуры для представления 360-градусной информации. Например, множество синхронизированных ракурсов, захватываемых множеством камер, можно сшивать на сфере (например, как единую структуру). Сферическую информацию можно проецировать на плоскую 2D поверхность посредством преобразования геометрической формы (например, в форме равнопромежуточной проекции и/или проекции с кубической текстурой).360-degree video can be compressed and/or delivered, for example, by dynamic adaptive streaming via HTTP-based video streaming (DASH) video streaming techniques. Delivery of 360-degree video can be implemented, for example, using a spherical geometric structure to represent 360-degree information. For example, a plurality of synchronized views captured by multiple cameras may be stitched onto a sphere (eg, as a single structure). Spherical information can be projected onto a flat 2D surface by a geometric shape transformation (eg, in the form of an equidistant projection and/or a cube textured projection).
Может быть выполнена равнопромежуточная проекция. На фиг. 1A представлен пример сферической выборки в долготах (ϕ) и широтах (θ). На фиг. 1B представлен пример сферы, проецированной на 2D плоскость с использованием равнопромежуточной проекции (ERP). Долгота ϕ в диапазоне [-π, π] может быть поворотом относительно вертикальной оси, а широта θ в диапазоне [-π/2, π/2] может быть поворотом относительно поперечной оси в авиации. Величина π может представлять собой отношение длины окружности к ее диаметру. Координаты (x, y, z) могут представлять собой координаты точки в 3D пространстве. Координаты (ue, ve) могут представлять собой координаты точки в 2D плоскости после ERP. Проекция ERP может быть представлена математически, например, как показано в уравнениях (1) и (2).Equidistant projection can be performed. In FIG. 1A shows an example of a spherical sample in longitudes (ϕ) and latitudes (θ). In FIG. 1B is an example of a sphere projected onto a 2D plane using Equidistant Projection (ERP). Longitude ϕ in the range [-π, π] may be yaw, and latitude θ in the range [-π/2, π/2] may be yaw in aviation. The value of π can be the ratio of the circumference of a circle to its diameter. The (x, y, z) coordinates can represent the coordinates of a point in 3D space. The coordinates (ue, ve) may represent the coordinates of a point in the 2D plane after the ERP. The ERP projection can be represented mathematically, for example, as shown in equations (1) and (2).
где W и H могут быть шириной и высотой 2D плоского изображения. Как показано на фиг. 1A, точка P, точка пересечения между долготой L4 и широтой A1 на сфере может картироваться в уникальную точку q на фиг. 1B на 2D плоскости с использованием уравнений (1) и/или (2). Точка q на 2D плоскости, показанная на фиг. 1B, может быть спроецирована обратно в точку P на сфере, показанной на фиг. 1A, например, посредством поперечного проецирования. Поле зрения (FOV) на фиг. 1B представляет пример сопоставления FOV на сфере с 2D плоскостью, например, под углом зрения вдоль оси X, составляющим около 110 градусов.where W and H can be the width and height of the 2D flat image. As shown in FIG. 1A, point P, the intersection point between longitude L4 and latitude A1 on the sphere can be mapped to a unique point q in FIG. 1B on a 2D plane using equations (1) and/or (2). Point q on the 2D plane shown in FIG. 1B can be projected back to point P on the sphere shown in FIG. 1A, for example, by transverse projection. The field of view (FOV) in FIG. 1B is an example of FOV mapping on a sphere to a 2D plane, for example, at an X-axis view angle of about 110 degrees.
Одно или более 360-градусных видео могут быть сопоставлены с 2D видео. Сопоставленное видео может быть закодировано с помощью видеокодека (например, H.264, HEVC и/или т.п.) и/или может быть доставлено клиенту. На стороне клиента равнопромежуточное видео может быть декодировано и/или отображено на основе окна просмотра пользователя (например, путем проецирования и/или отображения части, принадлежащей FOV, на равнопромежуточное изображение на HMD). Сферическое видео может быть преобразовано в 2D плоское изображение для кодирования с помощью ERP. Характеристика равнопромежуточного 2D изображения может отличаться от неравнопромежуточного 2D изображения (например, прямолинейного видео). Верхнюю часть изображения, которая может соответствовать северному полюсу, и нижнюю часть изображения, которая может соответствовать южному полюсу, можно растягивать (например, при сравнении со средней частью изображения, которая может соответствовать экватору). Растяжение может указывать на то, что равнопромежуточная выборка в пространственной области 2D может быть неравномерной. Поле движения в 2D равнопромежуточном изображении может быть сложным и осуществляться вдоль временного направления.One or more 360-degree videos can be mapped to 2D videos. The associated video may be encoded with a video codec (eg, H.264, HEVC, and/or the like) and/or delivered to the client. On the client side, the equidistant video may be decoded and/or displayed based on the user's viewport (eg, by projecting and/or displaying a portion belonging to the FOV onto the equidistant image on the HMD). The spherical video can be converted to a 2D flat image for encoding with ERP. The performance of an equidistant 2D image may differ from that of an unequally spaced 2D image (eg, straight-line video). The top of the image, which may correspond to the north pole, and the bottom of the image, which may correspond to the south pole, can be stretched (for example, when compared with the middle part of the image, which may correspond to the equator). Stretching may indicate that equidistant sampling in the 2D spatial domain may be uneven. The field of motion in a 2D equidistant image can be complex and occur along the time direction.
Левая и/или правая границы изображения ERP могут быть закодированы (например, закодированы независимо). Нежелательные визуальные артефакты в виде швов панорам на восстановленном видео могут создаваться, например, когда восстановленное видео используют для отображения области просмотра, которая затем отображается пользователю посредством HMD или посредством 2D экрана. Заполнение N (например, 8) выборок яркости может быть применено с левой и/или правой сторон изображения. Может быть закодировано заполненное изображение ERP, включающее в себя сэмплы заполнения. Восстановленная ERP с заполнением может быть преобразована обратно. Например, восстановленная ERP с заполнением может быть преобразована обратно путем смешивания дублированных сэмплов и/или обрезания заполненных областей (например, после декодирования).The left and/or right borders of the ERP image may be encoded (eg independently encoded). Unwanted visual artifacts in the form of panorama seams on the reconstructed video may be created, for example, when the reconstructed video is used to display a viewport, which is then displayed to the user via an HMD or via a 2D screen. Filling N (eg, 8) brightness samples may be applied to the left and/or right sides of the image. An ERP filled image including fill samples may be encoded. Refurbished ERP with infill can be converted back. For example, the recovered ERP with padding can be converted back by mixing duplicated samples and/or trimming the padded areas (eg, after decoding).
Для цилиндрической равноплощадной проекции (EAP) Ламберта можно использовать ту же выборку в долготе, что и для ERP. Цилиндрическая EAP Ламберта может компенсировать повышение плотности выборки вблизи полюсов путем уменьшения вертикальной плотности выборки. В EAP вертикальная плотность выборки может быть установлена равной cos(φ), а комбинированная плотность выборки может быть постоянной по всей сфере. Скорректированная равноплощадная проекция (AEP) может представлять собой обобщение EAP. AEP может вводить параметр, который может контролировать частоту повторной выборки в проекции.The Lambert Cylindrical Equal Area Projection (EAP) can use the same longitude sampling as ERP. Cylindrical Lambert EAP can compensate for the increase in sample density near the poles by decreasing the vertical sample density. In EAP, the vertical sample density can be set equal to cos(φ) and the combined sample density can be constant over the entire sphere. Adjusted Equal Area Projection (AEP) may be a generalization of EAP. AEP can introduce a parameter that can control the resampling rate in the projection.
Может быть выполнена проекция с кубической текстурой. Верхний и/или нижний участки изображения ERP, например те, которые могут соответствовать северному полюсу и южному полюсу соответственно, могут быть растянуты (по сравнению, например, со средним участком изображения). Это может указывать на то, что сферическая плотность выборки изображения может быть неравномерной. Поле движения, которое может описывать временную корреляцию между соседними изображениями ERP, может оказаться сложным. Некоторые видеокодеки (например, MPEG-2, H.264 и/или HEVC) могут использовать трансляционную модель для описания поля движения и могут не иметь возможности представлять перемещения с изменением формы на плоских изображениях ERP.A projection with a cubic texture can be performed. The top and/or bottom portions of the ERP image, such as those that may correspond to the north pole and south pole, respectively, may be stretched (compared to, for example, the middle portion of the image). This may indicate that the spherical density of the image sample may be non-uniform. The motion field, which can describe the temporal correlation between adjacent ERP images, can be complex. Some video codecs (eg, MPEG-2, H.264 and/or HEVC) may use a translational model to describe the motion field and may not be able to represent reshaping motions in ERP flat images.
Форматы геометрической проекции могут использоваться для сопоставления 360-градусного видео множеству панорам. Например, можно использовать проекцию с кубической текстурой (CMP). На фиг. 2 A представлен пример геометрической проекции CMP. Как показано на фиг. 2A, проекция CMP может включать в себя шесть квадратных панорам, которые могут быть обозначены как PX, PY, PZ, NX, NY и/или NZ. P может означать положительное, а N может означать отрицательное. X, Y и Z могут означать оси. Панорамы могут быть обозначены с помощью чисел 0–5. Например, панорамы могут быть обозначены как PX (0), NX (1), PY (2), NY (3), PZ (4), NZ (5). Если радиус касательной сферы равен 1, длина стороны каждой панорамы может быть равна 2. Шесть панорам формата CMP могут быть упакованы вместе (например, в виде упакованных вместе кадров) в изображение (например, одно изображение). Панораму можно поворачивать на некоторый угол (например, на определенный угол), который может влиять (например, максимально влиять) на непрерывность между соседними панорамами. На фиг. 2B представлен пример упаковки, в которой шесть панорам помещены в равнопромежуточное изображение. Индекс панорамы может быть размещен в направлении, совпадающем с соответствующим поворотом панорамы. Например, панораму № 3 и панораму № 1 можно повернуть против часовой стрелки на 180 и 270 градусов соответственно. Другие панорамы могут быть не повернуты. В примерах способ упаковки кадров может включать компоновку 3х2 (например, как показано на фиг. 2B). Как показано на фиг. 2B, верхний ряд из 3 панорам может представлять собой пространственно соседние панорамы в 3D геометрической структуре и может иметь непрерывную текстуру. Как показано на фиг. 2B, нижний ряд из 3 панорам может представлять собой пространственно соседние панорамы в 3D геометрической структуре и может иметь непрерывную текстуру. Верхний ряд панорам и нижний ряд панорам могут не быть пространственно непрерывными в 3D геометрической структуре, и между двумя рядами панорам может существовать шов, например прерывистая граница.Geometric projection formats can be used to map a 360-degree video to multiple panoramas. For example, you can use Cube Mapped Projection (CMP). In FIG. 2A shows an example of a CMP geometric projection. As shown in FIG. 2A, the CMP projection may include six square panoramas, which may be labeled PX, PY, PZ, NX, NY, and/or NZ. P can mean positive and N can mean negative. X, Y and Z can mean axes. Panoramas can be labeled with
В проекции CMP если в центре панорамы плотность выборки составляет 1, к краям плотность выборки может увеличиваться. Текстура вокруг краев может быть растянута по сравнению с текстурой в центре. Проекции с кубической текстурой (например, равноугольная проекция с кубической текстурой (EAC), скорректированная проекция с кубической текстурой (ACP) и/или т.п.) могут корректировать панораму (например, каждую панораму) с использованием нелинейной функции деформации в вертикальном и/или горизонтальном направлениях. Например, в проекции EAC корректировки могут быть выполнены с применением функции тангенса. В проекции ACP корректировка может быть выполнена с использованием полиномиальной функции второго порядка.In the CMP projection, if the sample density is 1 in the center of the panorama, the sample density may increase towards the edges. The texture around the edges may be stretched compared to the texture in the center. Cube textured projections (e.g., Conformal Cube Texture Projection (EAC), Corrected Cube Texture Projection (ACP), and/or the like) can correct a panorama (e.g., each panorama) using a non-linear warp function in the vertical and/or or horizontal directions. For example, in an EAC projection, adjustments can be made using the tangent function. In the ACP projection, the adjustment can be made using a second order polynomial function.
Может быть выполнена гибридная проекция с кубической текстурой (CMP). В HCP функция коррекции и ее параметры могут быть настроены для панорамы в целом и/или отдельного направления. Формат проекции с кубической текстурой может включать в себя формат гибридной равноугольной проекции с кубической текстурой (HEC). Проекции с кубической текстурой могут быть упакованы. Например, проекции с кубической текстурой могут быть упакованы аналогично CMP. Разрыв панорамы в изображении с упакованными кадрами может происходить в проекции с кубической текстурой.A hybrid cube texture projection (CMP) can be performed. In the HCP, the correction function and its parameters can be configured for the panorama as a whole and/or for a specific direction. The cube texture projection format may include a hybrid conformal cube texture (HEC) format. Cubic texture projections can be packed. For example, projections with a cubic texture can be packaged similarly to CMP. Panorama tearing in a packed frame image can occur in a cube textured projection.
Может быть выполнено геометрическое заполнение для 360-градусного кодирования видеосигналов.Geometric filling can be performed for 360-degree video encoding.
Видеокодеки могут быть разработаны с учетом 2D видео, захватываемого на плоскости. Когда прогнозирование с компенсацией движения использует сэмпл за границами эталонного изображения, заполнение может быть выполнено посредством копирования значений сэмплов с границ изображения. Этот тип заполнения может быть известен как повторяющееся заполнение. На фиг. 3A и 3B проиллюстрированы примеры расширения исходного изображения (например, ограниченного пунктирной рамкой) с использованием повторяющегося заполнения для ERP и CMP соответственно.Video codecs can be designed with 2D video captured on the plane. When motion-compensated prediction uses a sample outside the boundaries of the reference image, padding can be performed by copying sample values from the boundaries of the image. This type of padding may be known as repetitive padding. In FIG. 3A and 3B illustrate examples of original image enhancement (eg, bounded by a dotted box) using repeated padding for ERP and CMP, respectively.
360-градусное видео может охватывать видеоинформацию на сфере (например, всей сфере) и/или может иметь свойство цикличности. Эталонное изображение 360-градусного видео может не иметь границ. Например, эталонное изображение 360-градусного видео может быть завернуто вокруг сферы (например, и может не иметь границ). Свойство цикличности может существовать при представлении 360-градусного видео на 2D плоскости. Свойство цикличности может существовать независимо от того, какой формат проекции и/или какой вариант реализации упаковки кадров используется. Геометрическое заполнение может быть выполнено для кодирования 360-градусного видео путем заполнения сэмпла с учетом 3D геометрии.A 360-degree video may cover video information on a sphere (eg, the entire sphere) and/or may have a cyclic property. The reference image of a 360-degree video may not have borders. For example, the reference image of a 360-degree video may be wrapped around a sphere (eg, and may not have borders). A cyclic property may exist when presenting 360-degree video on a 2D plane. The cyclic property can exist regardless of which projection format and/or which frame packing implementation is used. Geometric filling can be performed for 360-degree video encoding by filling a sample with 3D geometry.
Может быть выполнено геометрическое заполнение для ERP. ERP может быть определена на сфере с некоторыми долготой и широтой. Если точка (u, v), подлежит заполнению (например, вне изображения ERP), точку (u', v') можно использовать для выведения сэмпла заполнения. Это можно определять следующим образом:Geometric filling for ERP can be performed. ERP can be defined on a sphere with some longitude and latitude. If the point (u, v) is to be filled (for example, outside the ERP image), the point (u', v') can be used to output the fill sample. This can be defined as follows:
где W и H могут быть шириной и высотой изображения ERP.where W and H can be the width and height of the ERP image.
На фиг. 4A представлен пример процесса геометрического заполнения для ERP. Заполнение может быть выполнено за пределами левой границы изображения. Например, как показано на фиг. 4A, сэмплы A, B и C, которые находятся за пределами левой границы изображения, могут заполняться сэмплами A’, B’ и C’, которые могут находиться в пределах правой границы изображения. Заполнение может быть выполнено за пределами правой границы изображения. Например, как показано на фиг. 4A, сэмплы D, E и F могут заполняться сэмплами D’, E’ и F’, которые могут находиться в пределах левой границы изображения. Заполнение может быть выполнено за пределами верхней границы изображения. Например, как показано на фиг. 4A, сэмплы G, H, I и J могут заполняться сэмплами G’, H’, I’ и J’, которые могут находиться в пределах верхней границы изображения со смещением на половину ширины. Заполнение может быть выполнено за пределами нижней границы изображения. Например, как показано на фиг. 4A, сэмплы K, L, M и N могут заполняться сэмплами K’, L’, M’ и N’, которые могут находиться в пределах нижней границы изображения со смещением на половину ширины. На фиг. 4B представлен пример расширенного изображения ERP с использованием геометрического заполнения. Как показано на фиг. 4B, геометрическое заполнение может обеспечивать непрерывность между соседними сэмплами для областей, находящихся за пределами границ изображения ERP. Геометрическое заполнение для ERP может быть упрощено. Например, левая и/или правая границы изображения могут быть заполнены с использованием геометрического заполнения, а верхняя и нижняя границы изображения могут быть заполнены с использованием повторяющегося заполнения. Геометрическое заполнение левой и/или правой границ изображения и повторяющееся заполнение верхней и нижней границ изображения может быть желательным, например, поскольку области вокруг экватора, такие как левая и/или правая границы, могут включать в себя более интересное видеосодержимое и/или могут просматриваться пользователями чаще по сравнению с областями, расположенными у полюсов, такими как верхняя и нижняя границы.In FIG. 4A shows an example of a geometric filling process for ERP. Padding can be done outside the left border of the image. For example, as shown in FIG. 4A, samples A, B, and C that are outside the left edge of the image may be filled with samples A', B', and C', which may be within the right edge of the image. Padding can be done outside the right border of the image. For example, as shown in FIG. 4A, samples D, E, and F may be filled with samples D', E', and F', which may be within the left border of the image. Padding can be done beyond the top border of the image. For example, as shown in FIG. 4A, samples G, H, I, and J may be filled with samples G', H', I', and J', which may be within the upper border of the image offset by half the width. Padding can be done beyond the bottom of the image. For example, as shown in FIG. 4A, samples K, L, M, and N may be filled with samples K', L', M', and N', which may be within the lower border of the image offset by half the width. In FIG. 4B shows an example of an enhanced ERP display using geometric filling. As shown in FIG. 4B, the geometric filling may provide continuity between adjacent samples for areas outside the boundaries of the ERP image. Geometric filling for ERP can be simplified. For example, the left and/or right borders of an image may be filled using geometric fill, and the top and bottom borders of an image may be filled using repeat fill. Geometric padding of the left and/or right borders of the image and repeated padding of the top and bottom borders of the image may be desirable, for example, since areas around the equator, such as the left and/or right borders, may include more interesting video content and/or may be viewed by users more often compared to areas near the poles, such as the upper and lower boundaries.
Если закодированное изображение находится в формате CMP, одна или более панорам CMP могут заполняться с использованием геометрического заполнения. На фиг. 5A представлен пример геометрического заполнения, выполненного на заданной панораме в 3D геометрической структуре. На фиг. 5A, точка P может находиться на панораме F1, но может находиться и за границами панорамы F1. Точка P может быть заполнена. Как показано на фиг. 5A, точка O может находиться в центре сферы. Как показано на фиг. 5A, точка R может представлять собой точку на левой границе, которая может быть ближайшей к P и находиться внутри панорамы F1. Как показано на фиг. 5A, точка Q может представлять собой точку проекции точки P на панораме F2 из центральной точки O. Геометрическое заполнение может быть выполнено с использованием значения сэмпла в точке Q для заполнения значения сэмпла в точке P. На фиг. 5B представлен пример расширенных панорам с использованием геометрического заполнения для изображения CMP 3x2. Как показано на фиг. 5B, заполнение может быть выполнено на каждой панораме по отдельности. Геометрическое заполнение может обеспечивать сэмплы для областей за границей панорамы CMP.If the encoded image is in CMP format, one or more CMP panoramas may be filled using geometric filling. In FIG. 5A shows an example of a geometric infill performed on a given panorama in a 3D geometric structure. In FIG. 5A, point P may be on the F1 panorama, but may also be outside the F1 panorama. Point P can be filled. As shown in FIG. 5A, the point O may be at the center of the sphere. As shown in FIG. 5A, point R may be a point on the left border that may be closest to P and within panorama F1. As shown in FIG. 5A, point Q may be a projection point of point P on panorama F2 from center point O. Geometric filling may be performed using the sample value at point Q to fill the sample value at point P. In FIG. 5B shows an example of enhanced panoramas using geometric fill for a CMP 3x2 image. As shown in FIG. 5B, padding can be performed on each panorama individually. Geometric fill can provide samples for areas outside the CMP panorama boundary.
Может быть выполнено гибридное видеокодирование. Пример реализации доставки 360-градусного видео показан на фиг. 6. Как показано на фиг. 6, пример реализации доставки 360-градусного видео может включать в себя захват 360-градусного видео, для которого можно использовать множество камер для захвата видео, охватывающих сферическое пространство (например, все сферическое пространство). Отдельные видео можно сшивать друг с другом (например, сшивать друг с другом в собственной геометрической структуре). Например, отдельные видео можно сшивать друг с другом в формате ERP. Собственная геометрическая структура может быть преобразована в один или более форматов проекции для кодирования, например, на основе видеокодеков. В приемнике видео может быть декодировано, и/или распакованное видео может преобразовываться в геометрию для отображения. Видео может быть использовано для отображения путем проецирования в окно просмотра в соответствии с углом зрения пользователя.Hybrid video coding may be performed. An example implementation of 360 video delivery is shown in FIG. 6. As shown in FIG. 6, an example implementation of 360 video delivery may include capturing 360 video, which can use a plurality of cameras to capture video covering a spherical space (eg, the entire spherical space). Individual videos can be stitched together (for example, stitched together in their own geometric structure). For example, individual videos can be stitched together in ERP format. The native geometry may be converted to one or more projection formats for encoding, eg based on video codecs. At the receiver, the video may be decoded and/or the decompressed video may be converted to geometry for display. The video can be used for display by projecting into the viewport according to the user's viewing angle.
На фиг. 7 представлен пример гибридной системы 600 видеокодирования на основе блоков. Входной видеосигнал 602 может быть обработан поблочно. Расширенные размеры блоков (например, называемые единицей кодирования (CU)) могут быть использованы (например, использованы в HEVC) для сжатия видеосигналов высокого разрешения (например, 1080 пкс. и/или более). Единица CU может иметь до 64x64 пикселей (например, в HEVC). CU может быть разделен на элементы прогнозирования (PU), для которых можно применять отдельные прогнозы. Для входного видеоблока (например, макроблока (MB) или CU) может быть выполнено пространственное прогнозирование 660 или прогнозирование 662 движения. Пространственное прогнозирование (например, или внешнее прогнозирование) может использовать пиксели из уже закодированных соседних блоков в одном и том же видеоизображении и/или фрагменте для прогнозирования текущего видеоблока. Пространственное прогнозирование может уменьшать пространственную избыточность, характерную для видеосигнала. Прогнозирование движения (например, называемое внешним прогнозированием или временным прогнозированием) может использовать пиксели из уже закодированных видеоизображений для прогнозирования текущего видеоблока. Прогнозирование движения может снизить временную избыточность, характерную для видеосигнала. Сигнал прогнозирования движения для данного видеоблока может передаваться посредством сигнализации с помощью вектора движения, который указывает величину и/или направление движения между текущим блоком и соответствующим ему эталонным блоком. Если поддерживается множество эталонных изображений (например, в H.264/AVC, HEVC и/или т.п.), индекс эталонного изображения видеоблока может передаваться посредством сигнализации на декодер. Эталонный индекс может быть использован для идентификации того, от какого эталонного изображения в хранилище 664 эталонных изображений может поступать сигнал временного прогнозирования.In FIG. 7 shows an example of a hybrid block-based
После пространственного прогнозирования и/или прогнозирования движения средство 680 принятия решения о режиме в кодере может выбирать режим прогнозирования, например, на основании оптимизации зависимости искажений от скорости передачи. Блок прогнозирования может быть вычтен из текущего видеоблока на 616. Остаточные значения прогнозирования могут быть декоррелированы с использованием модуля 604 преобразования и модуля 606 квантования для достижения целевой скорости передачи в битах. Квантованные остаточные коэффициенты могут быть обратно квантованы на 610 и обратно преобразованы на 612 для формирования воссозданных остаточных значений. Воссозданные остаточные значения могут быть добавлены обратно в блок прогнозирования на 626 для формирования воссозданного видеоблока. Внутрипетлевой фильтр, такой как фильтр деблокирования и/или адаптивный петлевой фильтр, может быть применен к воссозданному видеоблоку на 666, прежде чем он будет помещен в хранилище 664 эталонных изображений. Эталонные изображения в хранилище 664 эталонных изображений могут быть использованы для кодирования будущих видеоблоков. Может быть сформирован выходной битовый видеопоток 620. Режим кодирования (например, режим внешнего или внутреннего кодирования), информация о режиме прогнозирования, информация о движении и/или квантованные остаточные коэффициенты могут быть отправлены в единицу 608 энтропийного кодирования для сжатия и упаковки для формирования битового потока 620.After spatial prediction and/or motion prediction, a mode decision means 680 in the encoder can select a prediction mode, for example, based on the optimization of the distortion versus bit rate. The prediction block may be subtracted from the current video block at 616. The residual prediction values may be de-correlated using
На фиг. 8 представлен пример гибридного видеодекодера на основе блоков. Битовый видеопоток 202 может быть принят, распакован и/или энтропийно декодирован в узле 208 энтропийного декодирования. Информация о режиме кодирования и/или прогнозирования может быть отправлена в блок 260 пространственного прогнозирования (например, если было выполнено внутреннее кодирование) и/или в блок 262 временного прогнозирования (например, если было выполнено внешнее кодирование). Блок прогнозирования может быть сформирован с использованием блока 260 пространственного прогнозирования и/или блока 262 временного прогнозирования. Остаточные коэффициенты преобразования могут быть отправлены в блок 210 обратного квантования и в блок 212 обратного преобразования для восстановления остаточного блока. Блок прогнозирования и остаточный блок могут быть добавлены на 226. Восстановленный блок может проходить через внутрипетлевое средство 266 фильтрации и может быть сохранен в хранилище 264 эталонных изображений. Восстановленное видео в хранилище 264 эталонных изображений может быть использовано для приведения в действие устройства отображения и/или для прогнозирования будущих видеоблоков.In FIG. 8 shows an example of a block-based hybrid video decoder. The video bit stream 202 may be received, decompressed, and/or entropy decoded at
Для кодирования 2D плоского прямолинейного видео можно использовать видеокодек, такой как H.264 и/или HEVC. Кодирование видеосигналов может использовать пространственную и/или временную корреляцию, например, для удаления избыточной информации. Во время кодирования видеосигналов может быть применен один или более способов прогнозирования, таких как внутреннее прогнозирование и/или внешнее прогнозирование. Внутреннее прогнозирование может прогнозировать значение сэмпла с помощью соседних по отношению к нему восстановленных сэмплов. На фиг. 9 представлен пример эталонных сэмплов, которые могут быть использованы для внутреннего прогнозирования текущего блока преобразования (TU). Эталонные сэмплы могут представлять собой или включать в себя восстановленные сэмплы, расположенные выше и/или слева от текущего TU. Эталонные сэмплы могут представлять собой или включать в себя левый и/или верхний соседние восстановленные сэмплы.A video codec such as H.264 and/or HEVC can be used to encode 2D flat lay video. Video coding may use spatial and/or temporal correlation, for example, to remove redundant information. During encoding of video signals, one or more prediction methods such as intra prediction and/or inter prediction may be applied. Intra-prediction can predict the value of a sample using reconstructed samples adjacent to it. In FIG. 9 shows an example of reference samples that can be used for intra-prediction of the current transform unit (TU). The reference samples may be or include recovered samples located above and/or to the left of the current TU. The reference samples may be or include the left and/or top adjacent recovered samples.
На фиг. 10 представлен пример указания направлений внутреннего прогнозирования в HEVC. Например, HEVC может указывать 35 режимов внутреннего прогнозирования, которые включают в себя плоское (0), DC (1) и/или угловое прогнозирования (2 ~ 34), как показано на фиг. 10. Можно выбирать соответствующий режим внутреннего прогнозирования. Например, на стороне кодера можно выбирать соответствующий режим внутреннего прогнозирования. Можно сравнивать прогнозы, сгенерированные множеством потенциальных режимов внутреннего прогнозирования. Можно выбирать потенциальный режим внутреннего прогнозирования, который создает наименьшее искажение между сэмплами прогнозирования и исходными сэмплами. Выбранный режим внутреннего прогнозирования можно закодировать в битовом потоке.In FIG. 10 shows an example of specifying directions for intra-prediction in HEVC. For example, HEVC may indicate 35 intra prediction modes, which include flat (0), DC (1), and/or angle prediction (2 ~ 34), as shown in FIG. 10. You can select the appropriate intra prediction mode. For example, on the encoder side, an appropriate intra prediction mode can be selected. It is possible to compare the predictions generated by multiple potential intra prediction modes. It is possible to select a potential intra-prediction mode that creates the least distortion between the prediction samples and the original samples. The selected intra prediction mode may be encoded in the bitstream.
Угловые прогнозирования можно использовать для прогнозирования направленных текстур. На фиг. 11 показан пример внешнего прогнозирования с вектором движения (MV). Блоки B0’ и B1' в эталонном изображении могут представлять собой соответствующие эталонные блоки для блоков B0 и B1 текущего изображения. Эталонный блок B0‘ может частично находиться за пределами границы эталонного изображения. Заполнение может быть использовано для заполнения неизвестных сэмплов за пределами границ изображения. На фиг. 12 представлен пример заполнения эталонных сэмплов за пределами границы изображения. Например, примеры заполнения для блока B0‘ могут содержать четыре части: P0, P1, P2 и P3. Части P0, P1 и P2 могут находиться за пределами границы изображения и могут быть заполнены, например, посредством заполнения. Часть P0 может быть заполнена верхним левым сэмплом эталонного изображения. Часть Р1 может быть заполнена посредством вертикального заполнения с использованием крайнего верхнего ряда эталонного изображения. Часть Р2 может быть заполнена посредством горизонтального заполнения с использованием крайнего левого столбца изображения.Angular predictions can be used to predict directional textures. In FIG. 11 shows an example of motion vector (MV) inter prediction. Blocks B0' and B1' in the reference image may be the corresponding reference blocks for blocks B0 and B1 of the current image. The reference block B0' may be partly outside the boundary of the reference image. Padding can be used to pad unknown samples outside of the image boundaries. In FIG. 12 shows an example of filling reference samples outside the image boundary. For example, padding examples for block B0‘ might contain four parts: P0, P1, P2, and P3. Parts P0, P1 and P2 may be outside the border of the image and may be filled, for example, by padding. Part P0 may be filled with the upper left sample of the reference image. Part P1 may be filled by vertical padding using the topmost row of the reference image. Part P2 can be filled by horizontal filling using the leftmost column of the image.
В режиме объединения можно использовать (например, повторно использовать) информацию MV из пространственных и/или временных соседних PU. Векторы движения для PU (например, текущего PU) могут не кодироваться. Кодер и/или декодер может формировать список кандидатов для объединения векторов движения. Например, список может быть создан с использованием информации MV из пространственных и/или временных соседних PU. На фиг. 13 представлен пример пространственных соседей (например, левого нижнего, левого, правого верхнего, верхнего и/или левого верхнего), используемых для выведения кандидата на объединение. Индекс выбранного кандидата на объединение может быть закодирован и/или передан посредством сигнализации. Список кандидатов на объединение может быть создан декодером. Создание списка декодером может осуществляться аналогично (например, аналогично) созданию списка кодером. Запись индекса кандидата на объединение, переданного посредством сигнализации, может быть использована в качестве MV для PU (например, текущего PU).In the merge mode, MV information from spatial and/or temporal neighbor PUs can be used (eg, reused). Motion vectors for a PU (eg, the current PU) may not be encoded. The encoder and/or decoder may generate a list of candidates for combining motion vectors. For example, a list may be created using MV information from spatial and/or temporal neighbor PUs. In FIG. 13 shows an example of spatial neighbors (eg, bottom left, left, top right, top, and/or top left) used to derive a merge candidate. The index of the selected merge candidate may be encoded and/or signaled. The merge candidate list may be generated by the decoder. The creation of the list by the decoder may be similar (eg, similar) to the creation of the list by the encoder. The merge candidate index entry signaled can be used as the MV for the PU (eg, the current PU).
Можно реализовать геометрическое заполнение для 360-градусного кодирования видеосигналов. Например, геометрическое заполнение для 360-градусного кодирования видеосигналов можно реализовать на основании функций сопоставления 2D с 3D, а также 3D с 2D. Функции сопоставления 2D с 3D, а также 3D с 2D могут использовать функции деления и/или тригонометрические функции, такие как синус, косинус, тангенс и/или т.п. При реализации геометрического заполнения могут быть использованы вычислительные ресурсы, такие как ЦП и/или запоминающее устройство. Геометрическое заполнение может быть реализовано аппаратно. Можно реализовать операции деления с постоянным знаменателем. Например, операции деления с постоянным знаменателем можно реализовать с использованием операций битового сдвига. Операции деления с переменным знаменателем могут быть сложными для реализации. Одна или более функций могут быть реализованы с использованием таблиц перекодировки (LUT). Таблицы LUT могут быть недоступны для платформы декодирования. Кодер и/или декодер может хранить таблицы LUT в запоминающем устройстве.It is possible to implement geometric filling for 360-degree video encoding. For example, geometric filling for 360-degree video coding can be implemented based on 2D to 3D and 3D to 2D mapping functions. The 2D to 3D and 3D to 2D mapping functions may use division and/or trigonometric functions such as sine, cosine, tangent, and/or the like. When implementing geometric filling, computing resources such as a CPU and/or a storage device may be used. Geometric filling can be implemented in hardware. It is possible to implement division operations with a constant denominator. For example, constant denominator division operations can be implemented using bit shift operations. Variable denominator division operations can be tricky to implement. One or more functions may be implemented using lookup tables (LUTs). LUTs may not be available for the decoding platform. The encoder and/or decoder may store the LUTs in a storage device.
Геометрическое заполнение может быть реализовано путем создания эталонного изображения. Количество сэмплов в эталонном изображении может быть предварительно заполнено вокруг границ изображения. Один или более предварительно заполненных сэмплов могут не использоваться. Например, один или более предварительно заполненных сэмплов могут отсутствовать и могут не использоваться, если ни один вектор движения в битовом потоке не относится к заполненным сэмплам. Эталонное изображение и/или предварительно заполненные сэмплы могут быть сохранены. Например, эталонное изображение и/или предварительно заполненные сэмплы могут быть сохранены в запоминающем устройстве.Geometric filling can be implemented by creating a reference image. The number of samples in the reference image may be pre-filled around the edges of the image. One or more prefilled samples may not be used. For example, one or more pre-filled samples may be missing and may not be used if no motion vector in the bitstream belongs to the filled samples. The reference image and/or pre-filled samples may be saved. For example, the reference image and/or pre-populated samples may be stored in a storage device.
В примерах геометрическое заполнение может быть реализовано на основании выведения одного или более сэмплов при получении сферических соседей, например, как описано в настоящем документе. Например, один или более сэмплов могут быть выведены из геометрии проекции на основании одной панорамы, такой как ERP, EAP, AEP и/или т.п. форматы, при использовании горизонтального геометрического заполнения. Операцию обрезки можно использовать для ограничения сэмпла в декодированном изображении.In the examples, geometric filling may be implemented based on the derivation of one or more samples when obtaining spherical neighbors, for example, as described herein. For example, one or more samples may be derived from a projection geometry based on a single panorama, such as ERP, EAP, AEP, and/or the like. formats, when using horizontal geometric filling. The cropping operation can be used to limit a sample in a decoded image.
Например, текущий блок можно разделять на один или более подблоков. Например, блок можно разделять на один или более подблоков на основании его векторов движения. Можно получать прогнозирование для подблока из различных частей проецируемого видео. Например, если вектор движения принимает левую часть блока за пределами левого края изображения ERP, этот блок можно разделять на множество частей, например на две части. Эти части могут находиться внутри и/или за пределами края изображения ERP. Часть, находящаяся за пределами левой границы, может быть получена с правой стороны изображения ERP, а часть, находящаяся в пределах левой границы, может быть получена с левой стороны от изображения ERP.For example, the current block may be divided into one or more subblocks. For example, a block may be divided into one or more sub-blocks based on its motion vectors. It is possible to obtain prediction for a sub-block from different parts of the projected video. For example, if the motion vector takes the left side of the block outside the left edge of the ERP image, this block can be divided into multiple parts, such as two parts. These parts may be inside and/or outside the edge of the ERP image. The part outside the left border can be obtained on the right side of the ERP image, and the part inside the left border can be obtained on the left side of the ERP image.
Устройство кодирования видеосигналов может выполнять геометрическое заполнение. Устройство кодирования видеосигналов, описанное в настоящем документе, может включать в себя кодер и/или декодер. Например, устройство кодирования видеосигналов может выполнять геометрическое заполнение на основании выведения одного или более сэмплов при получении одного или более сферических соседей.The video encoder may perform geometric filling. The video encoding apparatus described herein may include an encoder and/or a decoder. For example, a video encoder may perform geometric filling based on deriving one or more samples upon receiving one or more spherical neighbors.
Указание для разрешения геометрического заполнения, такого как горизонтальное геометрическое заполнение, может быть передано посредством сигнализации. Например, посредством сигнализации может быть передано указание с разрешением заворачивания для указания того, что геометрическое заполнение разрешено. Указание с разрешением заворачивания может указывать, разрешена ли компенсация горизонтального движения заворачивания. Указание с разрешением заворачивания может представлять собой или может включать в себя флаг с разрешением заворачивания, который может указывать, разрешена ли компенсация горизонтального движения заворачивания. Указание, такое как указание с разрешением заворачивания, может быть передано посредством сигнализации в битовом потоке.An indication to allow geometric infill, such as horizontal geometric infill, may be signaled. For example, a wrapping permission indication may be signaled to indicate that geometric filling is permitted. The indication with screw-in permission can indicate whether the compensation of the horizontal screw-in movement is enabled. The wrap-enable indication may be or may include a wrap-enable flag that may indicate whether the horizontal wrap motion compensation is enabled. An indication, such as a wrapper permission indication, may be conveyed by bitstream signaling.
Может быть определено правильное положение одного или более соседей в сферической окрестности. Например, устройство кодирования видеосигналов может определять правильное положение одного или более сферических соседей, связанных с текущим сэмплом, на основании смещения заворачивания эталонного сэмпла относительно текущего сэмпла. Устройство кодирования видеосигналов может учитывать смещение, такое как смещение заворачивания эталонного сэмпла, посредством геометрического заполнения и может вычислять правильное положение одного или более сферических соседей. Например, смещение заворачивания эталонного сэмпла может представлять собой или может включать в себя информацию, которая указывает ширину панорамы изображения, такого как изображение с упакованными кадрами, связанное с видеосодержимым. Устройство кодирования видеосигналов может вычислять правильное положение одного или более сферических соседей на основании указания размера, указывающего ширину панорамы изображения с упакованными кадрами. Указание размера может представлять собой или может включать в себя размер защитной полосы, например ширину защитной полосы в выборках яркости. На основании указания размера, который может представлять собой или может включать в себя ширину защитной полосы, устройство кодирования видеосигналов может вычислять правильное положение одного или более сферических соседей, связанных с текущим сэмплом. Положение и/или размер защитных полос могут быть добавлены (например, могли быть добавлены) при упаковке одной или более панорам в изображении. При упаковке одной или более панорам в изображении, таком как изображение с упакованными кадрами, могут быть добавлены защитные полосы. Например, при упаковке одной или более панорам в изображении перед кодированием могут быть добавлены защитные полосы. Как описано в настоящем документе, одно или более указаний, относящихся к геометрическому заполнению, могут быть переданы посредством сигнализации для указания, применено ли горизонтальное геометрическое заполнение, и/или указания защитных полос.The correct position of one or more neighbors in a spherical neighborhood can be determined. For example, the video encoder may determine the correct position of one or more spherical neighbors associated with the current sample based on the reference sample's wrapping offset relative to the current sample. The video encoder may account for an offset, such as a wrapping offset of a reference sample, through geometric filling, and may calculate the correct position of one or more spherical neighbors. For example, the reference sample wrap offset may be or may include information that indicates the panorama width of an image, such as a frame packed image, associated with video content. The video encoder may calculate the correct position of one or more spherical neighbors based on a size indication indicating the panorama width of the packed frame image. The size indication may be or may include the size of the guard band, such as the width of the guard band in luminance samples. Based on the indication of the size, which may be or may include the guard band width, the video encoder may calculate the correct position of one or more spherical neighbors associated with the current sample. The position and/or size of the guard bands may be (eg, could be) added by packaging one or more panoramas in an image. When packing one or more panoramas in an image, such as a packed image, guard bands may be added. For example, when packaging one or more panoramas in an image, guards may be added before encoding. As described herein, one or more indications relating to geometric infill may be signaled to indicate whether horizontal infill has been applied and/or to indicate guard bands.
Для геометрий проекции, включающих в себя панораму, например формат проекции на основании одной панорамы, такой как ERP, EAP, AEP и/или подобные форматы проекции, геометрическое заполнение можно выполнять в горизонтальном направлении. При выполнении геометрического заполнения в горизонтальном направлении можно использовать повторяющееся заполнение в вертикальном направлении. Положение сэмпла может быть определено как горизонтальная координата сэмпла, которая может быть завернута в кодированном изображении (например, см. ур. (3)). Вертикальная координата сэмпла может быть обрезана по одной или более закодированных границ изображения, например, как при повторяющемся заполнении. Может быть определен процесс выведения целочисленных сэмплов и/или процесс интерполяции дробных сэмплов для внешнего прогнозирования (например, с использованием горизонтального геометрического заполнения) для геометрий проекции на основании панорамы (например, одной панорамы).For projection geometries that include a panorama, such as a projection format based on a single panorama, such as ERP, EAP, AEP, and/or similar projection formats, geometric filling can be performed in the horizontal direction. When performing geometric infill in the horizontal direction, you can use repeated infill in the vertical direction. The sample position may be defined as the horizontal coordinate of the sample, which may be wrapped in the encoded image (eg, see eq. (3)). The vertical coordinate of the sample may be clipped at one or more encoded image boundaries, such as in a repeat fill. An integer sample derivation process and/or a fractional sample interpolation process for external prediction (eg, using horizontal geometric fill) for projection geometries based on a panorama (eg, a single panorama) may be defined.
Одно или более указаний, относящихся к геометрическому заполнению, могут быть могут быть переданы посредством сигнализации. Как описано в настоящем документе, указание с разрешением заворачивания может быть передано посредством сигнализации. Указание с разрешением заворачивания может указывать, разрешена ли компенсация горизонтального движения заворачивания. Указание с разрешением заворачивания может быть передано посредством сигнализации на уровне последовательности и/или изображения. Например, указание с разрешением заворачивания, которое указывает геометрическое заполнение, может быть передано посредством сигнализации на уровне последовательности, например набора параметров последовательности (SPS).One or more indications relating to geometric filling may be signaled. As described herein, a wrapping permission instruction may be signaled. The indication with screwdriving permission can indicate whether the compensation of the horizontal screwdriving movement is enabled. The wrapping permission indication may be signaled at the sequence and/or image level. For example, a wrap-enabled indication that indicates geometric fill may be conveyed by sequence-level signaling, such as a sequence parameter set (SPS).
Один или более параметров упаковки кадров могут быть переданы посредством сигнализации в битовом потоке. Например, один или более параметров упаковки кадров могут быть переданы посредством сигнализации на уровне последовательности и/или изображения с использованием элементов синтаксиса высокого уровня (HLS). Положение и/или ориентация панорамы изображения с упакованными кадрами, могут быть переданы посредством сигнализации в битовом потоке. Указание, указывающее ширину панорамы, которая связана с изображением с упакованными кадрами, может быть передано посредством сигнализации в битовом потоке. Указание для одного или более смещений, где такое указание размера указывает ширину защитной полосы и/или наличие одной или более защитных полос, может быть передано посредством сигнализации в битовом потоке. Например, указание размера и/или наличия защитной полосы для одного или более пикселей (например, дополнительных пикселей) на границах панорамы могут быть переданы посредством сигнализации в битовом потоке. Положение защитных полос, такое как смещения, может быть основано на формате проекции. Например, при геометриях проекции на основании одной панорамы защитные полосы могут располагаться на левой и/или правой границах панорам. В примерах защитные полосы, расположенные на левой и правой границах панорам, могут иметь одинаковый размер. В примерах защитные полосы, расположенные на левой и правой границах панорам, могут иметь разный размер. Указание размера, указывающее ширину защитной полосы, может включать в себя ширины защитных полос, таких как левая и правая защитные полосы. Для формата проекции на основании множественных панорам, такого как формат CMP, защитные полосы могут располагаться вокруг группы непрерывных панорам и/или ряда панорам. Если в формате проекции на основании множественных панорам размеры защитных полос отличаются, указание размера может включать в себя ширины каждой защитной полосы.One or more frame packing parameters may be signaled in the bitstream. For example, one or more frame packing parameters may be signaled at the sequence and/or picture level using High Level Syntax (HLS) elements. The position and/or orientation of the panorama of the packed frame image may be signaled in the bitstream. An indication indicating the width of a panorama that is associated with a packed frame image may be transmitted by bitstream signaling. An indication for one or more offsets, where such a size indication indicates the width of the guard band and/or the presence of one or more guard bands, may be signaled in the bitstream. For example, an indication of the size and/or presence of a guard band for one or more pixels (eg, additional pixels) at the boundaries of a panorama may be signaled in the bitstream. The position of the guard bands, such as offsets, may be based on the projection format. For example, for projection geometries based on a single panorama, guardbands can be located on the left and/or right borders of the panoramas. In the examples, the guard strips located on the left and right borders of the panoramas may have the same size. In the examples, the guard bars located on the left and right borders of the panoramas may have different sizes. The dimension indication indicating the guard band width may include guard band widths such as left and right guard bands. For a projection format based on multiple panoramas, such as the CMP format, guardbands may be arranged around a group of continuous panoramas and/or a series of panoramas. If the sizes of the guard strips differ in the projection format based on multiple panoramas, the size indication may include the width of each guard strip.
Одна или более защитных полос и/или элементы синтаксиса геометрического заполнения, описанные в настоящем документе, могут быть переданы посредством сигнализации. Например, посредством сигнализации может быть передано указание с разрешением заворачивания, в котором указано, разрешена ли компенсация горизонтального движения заворачивания. Указание может представлять собой или может включать в себя флаг разрешения заворачивания. Указание может включать в себя указание размера, указывающее ширину панорамы изображения с упакованными кадрами, и может быть передано посредством сигнализации. Как описано в настоящем документе, указание размера (например, указывающее ширину панорамы) может представлять собой или может включать в себя некоторый параметр, такой как guard_bands_param_present_flag, указывающий ширину защитной полосы. В таблице 1 показан пример геометрического заполнения и элементов синтаксиса защитной полосы. Геометрическое заполнение и/или элементы синтаксиса защитной полосы могут быть переданы посредством сигнализации на уровне последовательности и/или уровне изображения.One or more guard bands and/or geometric padding syntax elements described herein may be signaled. For example, a wrapping permission indication indicating whether compensation for the horizontal wrapping movement is allowed is signaled, for example. The indication may be or may include a wrapping permission flag. The indication may include a size indication indicating the panorama width of the packed frame image, and may be signaled. As described herein, the size indication (eg, indicating the width of the panorama) may be or may include some parameter, such as guard_bands_param_present_flag, indicating the width of the guard band. Table 1 shows an example of geometric padding and guardband syntax elements. Geometric padding and/or guardband syntax elements may be signaled at the sequence level and/or picture level.
Таблица 1. Геометрическое заполнение и синтаксис защитных полосTable 1. Geometric filling and guardband syntax
В примерах параметры таблицы 1 могут иметь следующую семантику.In the examples, table 1 parameters may have the following semantics.
Элемент синтаксиса projection_geometry может представлять собой или может включать в себя индекс сопоставления (например, как показано в таблице 2) используемой геометрии проекции.The projection_geometry syntax element may be, or may include, a mapping index (eg, as shown in Table 2) of the projection geometry used.
Элемент синтаксиса guard_bands_param_present_flag может указывать на наличие элемента синтаксиса guard_bands_size_in_luma_samples. Если элемент синтаксиса guard_bands_size_in_luma_samples отсутствует, значение элемента синтаксиса guard_bands_param_present_flag может быть выведено как равное 0.The guard_bands_param_present_flag syntax element may indicate the presence of the guard_bands_size_in_luma_samples syntax element. If the guard_bands_size_in_luma_samples syntax element is not present, the value of the guard_bands_param_present_flag syntax element may be output as 0.
Указание наличия смещения, такое как указание того, присутствует ли смещение, может включать в себя информацию о смещении. Например, указание наличия смещения, такое как guard_bands_param_present_flag, может быть применено для определения того, присутствует ли смещение в битовом потоке. Если указание наличия смещения указывает на наличие смещения в битовом потоке, устройство кодирования видеосигналов, такое как декодер, может синтаксически анализировать битовый поток для приема смещения. Если указание наличия смещения указывает на то, что в битовом потоке смещение отсутствует, устройство кодирования видеосигналов может пропускать синтаксический анализ битового потока для приема смещения. Например, если указание наличия смещения, такое как guard_bands_param_presnt_flag, указывает на то, что смещение отсутствует, устройство кодирования видеосигналов может пропускать использование защитной полосы. Крайняя левая и крайняя правая границы проецируемой панорамы могут быть соединены в сфере, при этом границы могут не соединяться в изображении с упакованными кадрами. Заполненные/расширенные сэмплы в защитной полосе могут быть закодированы в битовом потоке. Например, информация о левой защитной полосе может быть получена из крайней правой области внутри панорамы, а информация о правой защитной полосе может быть получена из крайней левой области внутри панорамы. Восстановленные сэмплы на крайней левой и крайней правой границах могут быть непрерывными (например, восстановленные сэмплы на крайней левой и крайней правой границах при кодировании рассматриваются как соседние сэмплы). Сэмплы в защитной полосе могут быть отброшены при отображении (например, поскольку сэмплы физически не существуют).An indication of the presence of an offset, such as an indication of whether an offset is present, may include information about the offset. For example, an indication of the presence of an offset, such as guard_bands_param_present_flag, may be used to determine if an offset is present in the bitstream. If the indication of the presence of an offset indicates the presence of an offset in the bitstream, a video encoder such as a decoder may parse the bitstream to receive the offset. If the indication of the presence of an offset indicates that there is no offset in the bitstream, the video encoder may skip parsing the bitstream to receive the offset. For example, if an indication of the presence of an offset, such as guard_bands_param_presnt_flag, indicates that there is no offset, the video encoder may skip using the guard band. The leftmost and rightmost edges of the projected panorama may be connected in a sphere, while the edges may not be connected in a packed frame image. The padded/spread samples in the guardband can be encoded in the bitstream. For example, the left guard band information may be obtained from the rightmost region within the panorama, and the right guardband information may be obtained from the leftmost region within the panorama. Recovered samples at the leftmost and rightmost boundaries may be contiguous (eg, recovered samples at the leftmost and rightmost boundaries are treated as adjacent samples when encoding). Samples in the guardband may be discarded when displayed (for example, because the samples do not physically exist).
Может быть принято указание размера, указывающее ширину панорамы изображения (например, изображения с упакованными кадрами). Например, указание размера может включать в себя элемент синтаксиса, такой как guard_bands_size_in_luma_samples. Ширина панорамы изображения с упакованными кадрами может быть вычислена на основании указания размера. Вычисленная ширина панорамы может быть использована в качестве смещения заворачивания эталонного сэмпла. Например, элемент синтаксиса guard_bands_size_in_luma_samples может представлять размер в одной или более выборках яркости защитных полос, используемых в изображении с упакованными кадрами. Местоположение защитных полос (например, смещений) может быть определено для формата проекции. Например, для геометрии проекции на основании одной панорамы, такой как ERP, EAP, AEP и/или т.п. форматы, одна или более защитных полос могут быть определены на левой и/или правой границах панорамы. В примерах защитные полосы на левой и правой границах панорамы могут иметь одинаковую ширину. В примерах защитные полосы на левой и правой границах панорамы могут иметь разную ширину. Для геометрии проекции на основании множественных панорам, такой как формат CMP, одна или более защитных полос могут определяться вокруг группы панорам (например, каждой группы непрерывных панорам или каждого ряда панорам). Элемент синтаксиса guard_bands_size_in_luma_samples может не быть равен 0. Элемент синтаксиса guard_bands_size_in_luma_samples может быть целым числом, кратным MinCbSizeY.A size indication indicating the width of an image panorama (eg, images with packed frames) may be received. For example, the size indication may include a syntax element such as guard_bands_size_in_luma_samples. The panorama width of a packed frame image can be calculated based on the specified size. The calculated pan width can be used as a wrapping offset for the reference sample. For example, the syntax element guard_bands_size_in_luma_samples may represent the size in one or more luminance samples of the guard bands used in a packed frame image. The location of the guard bands (eg offsets) can be defined for the projection format. For example, for projection geometry based on a single panorama, such as ERP, EAP, AEP, and/or the like. formats, one or more guard bands can be defined on the left and/or right borders of the panorama. In the examples, the guard bars on the left and right borders of the panorama may have the same width. In the examples, the guard bars on the left and right borders of the panorama may have different widths. For projection geometry based on multiple panoramas, such as the CMP format, one or more guardbands may be defined around a group of panoramas (eg, each group of continuous panoramas or each row of panoramas). The guard_bands_size_in_luma_samples syntax element may not be 0. The guard_bands_size_in_luma_samples syntax element MAY be an integer multiple of MinCbSizeY.
Если элемент синтаксиса geometry_padding_enabled_flag равен 1, элемент синтаксиса geometry_padding_enabled_flag может указывать на то, что геометрическое заполнение эталонных изображений применяют для одного или более сэмплов, расположенных за пределами границы изображения. Если элемент синтаксиса geometry_padding_enabled_flag равен 0, элемент синтаксиса geometry_padding_enabled_flag может указывать на то, что геометрическое заполнение пропущено (например, не применяется). Если элемент синтаксиса geometry_padding_enabled_flag отсутствует, значение элемента синтаксиса geometry_padding_enabled_flag может быть выведено как равное 0.If the geometry_padding_enabled_flag syntax element is equal to 1, the geometry_padding_enabled_flag syntax element may indicate that reference image geometry padding is applied to one or more samples located outside the image boundary. If the geometry_padding_enabled_flag syntax element is 0, the geometry_padding_enabled_flag syntax element may indicate that geometry padding is omitted (eg, not applied). If the geometry_padding_enabled_flag syntax element is absent, the value of the geometry_padding_enabled_flag syntax element may be output as 0.
В таблице 2 представлены примеры индексов геометрии проекции.Table 2 provides examples of projection geometry indexes.
Таблица 2. Индексы геометрии проекцииTable 2. Indices of projection geometry
Фактический размер панорамы, такой как ширина панорамы без защитных полос, может быть вычислена на основе информации, переданной посредством сигнализации, в таблице 1 и/или размера закодированного изображения. Например, для геометрии проекции на основании одной панорамы, такой как ERP, EAP, AEP и/или подобные форматы, с защитными полосами на левой и/или правой сторонах кодированного изображения фактическая ширина панорамы может быть вычислена, например, с использованием ур. (6). Параметр, такой как указание размера, который указывает ширину панорамы изображения с упакованными кадрами, может представлять собой или может включать в себя элемент pic_width_in_luma_samples, как описано в настоящем документе. Указание размера или такой параметр, как pic_width_in_luma_samples, может представлять ширину декодированного изображения в единицах выборок яркости. Параметр pic_width_in_luma_samples может быть передан посредством сигнализации на уровне последовательности. Высота панорамы может быть выведена из кодированной высоты изображения, например, при отсутствии защитных полос на верхней и/или нижней сторонах.The actual size of the panorama, such as the panorama width without guardbands, may be calculated based on the signaling information in Table 1 and/or the size of the encoded picture. For example, for projection geometry based on a single panorama, such as ERP, EAP, AEP, and/or similar formats, with guard bands on the left and/or right sides of the encoded image, the actual panorama width can be calculated, for example, using Eq. (6). A parameter, such as specifying a size that specifies the panorama width of a packed frame image, may be or may include a pic_width_in_luma_samples element as described herein. A size indication or a parameter such as pic_width_in_luma_samples may represent the width of the decoded image in units of luma samples. The pic_width_in_luma_samples parameter may be passed through signaling at the sequence level. The height of the panorama can be derived from the encoded image height, for example, in the absence of guard bands on the top and/or bottom sides.
face_width_in_luma_samples = pic_width_in_luma_samples – 2 * guard_bands_size_in_luma_samples (6)face_width_in_luma_samples = pic_width_in_luma_samples - 2 * guard_bands_size_in_luma_samples (6)
В примерах левая и правая защитные полосы могут иметь одинаковый размер. В примерах левая и правая защитные полосы могут иметь разные размеры. Если левая и правая защитные полосы имеют разные размеры, размер (например, индивидуальный размер) защитной полосы может быть передан посредством сигнализации, например, в соответствии с таблицей 3. В таблице 3 показан пример геометрического заполнения и синтаксиса защитных полос.In the examples, the left and right guard strips may be the same size. In the examples, the left and right guard strips may have different sizes. If the left and right guardbands have different sizes, the size (eg, individual size) of the guardband may be signaled, eg, according to Table 3. Table 3 shows an example of the geometric padding and syntax of the guardbands.
Таблица 3. Геометрическое заполнение и синтаксис защитных полосTable 3. Geometric filling and guardband syntax
Элемент синтаксиса guard_bands_param_present_flag может указывать на то, присутствует ли по меньшей мере один из элементов синтаксиса left_guard_band_width_in_luma_samples, right_guard_band_width_in_luma_samples или guard_bands_size_in_luma_samples. Если по меньшей мере один из элементов синтаксиса, такой как left_guard_band_width_in_luma_samples, right_guard_band_width_in_luma_samples или guard_bands_size_in_luma_samples, отсутствует, значение элемента синтаксиса guard_bands_param_present_flag может быть выведено как равное 0.The guard_bands_param_present_flag syntax element may indicate whether at least one of the left_guard_band_width_in_luma_samples, right_guard_band_width_in_luma_samples, or guard_bands_size_in_luma_samples syntax elements is present. If at least one of the syntax elements, such as left_guard_band_width_in_luma_samples, right_guard_band_width_in_luma_samples, or guard_bands_size_in_luma_samples, is missing, the value of the guard_bands_param_present_flag syntax element may be output as 0.
Элемент синтаксиса left_guard_band_width_in_luma_samples может представлять ширину в выборках яркости защитной полосы, используемой в изображении с упакованными кадрами на левой границе панорамы изображения, связанного с проекцией на основании одной панорамы (например, изображения ERP, EAP и/или AEP). Элемент синтаксиса left_guard_band_width_in_luma_samples может быть целым числом, кратным MinCbSizeY.The left_guard_band_width_in_luma_samples syntax element may represent the width in luma samples of a guard band used in a frame packed image at the left panorama border of an image associated with a single panorama projection (eg, ERP, EAP and/or AEP images). The left_guard_band_width_in_luma_samples syntax element can be an integer multiple of MinCbSizeY.
Элемент синтаксиса right_guard_band_width_in_luma_samples может представлять ширину в выборках яркости защитной полосы, используемой в изображении с упакованными кадрами на правой границе панорамы изображения, связанного с проекцией на основании одной панорамы (например, изображения ERP, EAP и/или AEP). Элемент синтаксиса right_guard_band_width_in_luma_samples может быть целым числом, кратным MinCbSizeY.The right_guard_band_width_in_luma_samples syntax element may represent the width in luminance samples of a guard band used in a frame packed image at the right panorama border of an image associated with a single panorama projection (eg, ERP, EAP and/or AEP images). The right_guard_band_width_in_luma_samples syntax element can be an integer multiple of MinCbSizeY.
Как описано в настоящем документе, ширина панорамы изображения с упакованными кадрами может быть вычислена на основании указания размера, которое указывает ширину панорамы изображения с упакованными кадрами, такого как left_guard_band_width_in_luma_samples и/или right_guard_band_width_in_luma_samples. Например, используя представление, описанное в настоящем документе, ширину панорамы может быть вычислена, например, на основании ур. (7).As described herein, a panorama width of a packed frame image may be calculated based on a size indication that indicates the panorama width of a packed frame image, such as left_guard_band_width_in_luma_samples and/or right_guard_band_width_in_luma_samples. For example, using the representation described herein, the width of a panorama can be calculated, for example, based on Eq. (7).
face_width_in_luma_samples = pic_width_in_luma_samples – (left_guard_band_width_in_luma_samples + right_guard_band_width_in_luma_samples) (7)face_width_in_luma_samples = pic_width_in_luma_samples - (left_guard_band_width_in_luma_samples + right_guard_band_width_in_luma_samples) (7)
В примерах значения ширины защитной полосы могут быть кратными MinCbSizeY. Если значения ширины защитной полосы кратны MinCbSizeY, элементы синтаксиса могут быть указаны в единицах MinCbSizeY, например, вместо или в дополнение к указанию в единицах выборок яркости. In the examples, the guardband width values may be multiples of MinCbSizeY. If guardband widths are multiples of MinCbSizeY, the syntax elements may be specified in units of MinCbSizeY, for example, instead of or in addition to being specified in units of luma samples.
Геометрия проекции на основании одной панорамы может быть заполнена геометрией на основании одного или более сэмплов. При внешнем прогнозировании текущий блок в текущем изображении может быть спрогнозирован из эталонного блока в эталонном изображении. Например, текущий блок в текущем изображении может быть спрогнозирован из эталонного блока в эталонном изображении с использованием MV, соответствующего перемещению из положения текущего блока в положение эталонного блока. Для положения сэмпла (x, y) в текущем блоке сигнал прогнозирования Ipred (x, y) может быть получен из эталонного изображения Iref и MV (∆x, ∆y), например с использованием ур. (8).The projection geometry based on one panorama can be filled with geometry based on one or more samples. In inter prediction, the current block in the current picture may be predicted from a reference block in the reference picture. For example, the current block in the current picture may be predicted from the reference block in the reference picture using the MV corresponding to the movement from the current block position to the reference block position. For the position of the sample (x, y) in the current block, the prediction signal I pred (x, y) can be obtained from the reference image I ref and MV (∆x, ∆y), for example, using eq. (eight).
… (8) … (eight)
MV может использовать дробную погрешность p. Например, MV может использовать погрешность 1/2, 1/4, 1/8 или 1/16 пикселей. Дробная погрешность может использовать интерполяцию из одного или более доступных положений целочисленных сэмплов. Положение сэмпла в эталонном изображении может быть представлено в виде целой части и дробной части, например, с использованием ур. (9)–(12). , и могут представлять собой арифметические сдвиги вправо и влево соответственно. & может представлять собой побитовый оператор «и».MV can use fractional error p. For example, an MV might use 1/2, 1/4, 1/8, or 1/16 pixel tolerance. The fractional error may use interpolation from one or more available integer sample positions. The position of the sample in the reference image can be represented as an integer part and a fractional part, for example, using eq. (9)–(12). , and can be arithmetic shifts to the right and left, respectively. & can be a bitwise "and" operator.
…(9) …(10) …(nine) …(10)
…(11) …(12) …(eleven) …(12)
Сигнал прогнозирования может быть получен посредством интерполяции одного или более соседних сэмплов на целочисленные положения. Сигнал прогнозирования может быть получен для определения значения в дробном положении. Если сэмпл в целочисленном положении находится за пределами границы эталонного изображения, например за пределами изображения с упакованными кадрами, можно применять операцию обрезки для ограничения положения сэмпла в пределах границы кодированного изображения. Это может быть аналогично (например, эквивалентно) выполнению повторяющегося заполнения. Для выборок яркости координаты xInt и yInt могут быть обрезаны, например, с использованием ур. (13) и (14) соответственно.The prediction signal may be obtained by interpolating one or more adjacent samples to integer positions. A prediction signal may be obtained to determine a value in a fractional position. If the sample is in integer position is outside the boundary of the reference image, such as outside the packed frame image, a cropping operation can be applied to constrain the position of the sample within the encoded image boundary. This can be analogous (eg, equivalent) to performing repeated padding. For brightness samples, the x Int and y Int coordinates can be clipped, for example, using eq. (13) and (14) respectively.
(13) (13)
(14) (fourteen)
Например, если указание с разрешением заворачивания указывает на то, что компенсация горизонтального движения заворачивания не разрешена, может быть выполнена операция обрезки и/или повторяющееся заполнение. Может быть идентифицировано местоположение текущего сэмпла в изображении с упакованными кадрами. Устройство кодирования видеосигналов может определять, находится ли местоположение текущего сэмпла на горизонтальной границе изображения с упакованными кадрами. Устройство кодирования видеосигналов может определять, находится ли местоположение эталонного сэмпла за пределами горизонтальной границы изображения с упакованными кадрами. Может быть идентифицировано местоположение эталонного сэмпла на горизонтальной границе изображения с упакованными кадрами. Например, как описано в настоящем документе, местоположение эталонного сэмпла на горизонтальной границе изображения с упакованными кадрами может быть идентифицировано на основании обрезки. Текущий сэмпл может быть спрогнозирован на основании местоположения эталонного сэмпла.For example, if an indication with wrapping permission indicates that horizontal wrapping motion compensation is not allowed, a cropping operation and/or repeated filling may be performed. The location of the current sample in the packed frame image can be identified. The video encoder may determine if the location of the current sample is on the horizontal boundary of the packed frame image. The video encoder may determine if the location of the reference sample is outside the horizontal boundary of the packed frame image. The location of the reference sample on the horizontal boundary of the packed frame image can be identified. For example, as described herein, the location of a reference sample at the horizontal boundary of a packed frame image can be identified based on cropping. The current sample can be predicted based on the location of the reference sample.
В случае компонента яркости при использовании горизонтального геометрического заполнения координата в кодированном изображении может быть завернута, например, с использованием ур. (15), где , и , чтобы учесть циклическое свойство 360-градусного видео. Как описано в настоящем документе, указание, такое как указание с разрешением заворачивания, может предоставлять информацию о том, что использовано горизонтальное геометрическое заполнение.In the case of the luminance component, when using horizontal geometric filling, the coordinate in the encoded image can be wrapped, for example, using eq. (15), where , and to account for the cyclic property of 360-degree video. As described herein, an indication, such as a wrapping permission indication, may provide information that horizontal geometric infill has been used.
(15) (fifteen)
Как описано в настоящем документе, устройство кодирования видеосигналов может определять, находится ли исходное местоположение эталонного сэмпла (например, первичное местоположение эталонного сэмпла) за пределами изображения с упакованными кадрами. Если исходное местоположение эталонного сэмпла находится за пределами изображения с упакованными кадрами, местоположение эталонного сэмпла может быть вычислено путем применения смещения заворачивания эталонного сэмпла к горизонтальной координате сэмпла, связанной с исходным местоположением эталонного сэмпла.As described herein, a video encoder can determine if a reference sample's original location (eg, the reference sample's primary location) is outside of a packed frame image. If the reference sample home location is outside the packed frame image, the reference sample location can be calculated by applying the reference sample wrap offset to the horizontal sample coordinate associated with the reference sample home location.
В примерах ширина панорамы изображения с упакованными кадрами может быть определена на основании смещения заворачивания эталонного сэмпла. Может быть идентифицировано местоположение текущего сэмпла в изображении с упакованными кадрами. Устройство кодирования видеосигналов может определять, находится ли исходное местоположение эталонного сэмпла (например, первичное местоположение эталонного сэмпла) за пределами изображения с упакованными кадрами. Если исходное местоположение эталонного сэмпла находится за пределами крайней левой горизонтальной границы изображения с упакованными кадрами, местоположение эталонного сэмпла может быть определено путем добавления смещения заворачивания эталонного сэмпла к горизонтальной координате сэмпла (например, координате ), связанной с исходным местоположением эталонного сэмпла (например, как показано в уравнении 15). Если исходное местоположение эталонного сэмпла находится за пределами крайней правой горизонтальной границы изображения с упакованными кадрами, местоположение эталонного сэмпла может быть определено путем вычитания смещения заворачивания эталонного сэмпла из горизонтальной координаты сэмпла, связанной с исходным местоположением эталонного сэмпла (например, как показано в уравнении 15).In the examples, the width of the panorama of a packed frame image may be determined based on the wrapping offset of the reference sample. The location of the current sample in the packed frame image can be identified. The video encoder may determine if the original location of the reference sample (eg, the primary location of the reference sample) is outside the packed frame image. If the reference sample's original location is outside the leftmost horizontal boundary of the packed frame image, the location of the reference sample can be determined by adding the reference sample's wrap offset to the sample's horizontal coordinate (e.g., coordinate ) associated with the original location of the reference sample (for example, as shown in equation 15). If the reference sample origin location is outside the rightmost horizontal boundary of the packed frame image, the reference sample location can be determined by subtracting the reference sample wrap offset from the horizontal sample coordinate associated with the reference sample origin location (e.g., as shown in Equation 15).
Для геометрии проекции на основании одной панорамы (например, ERP, EAP, AEP и/или т.п. форматы) может быть получено положение выборки яркости, например, как показано в таблице 4. В таблице 4 представлен пример подхода к получению положения выборки яркости. Например, в таблице 4 представлен пример процесса выведения целочисленных величин и/или процесса интерполяции дробных сэмплов для внешнего прогнозирования.For projection geometry, based on a single panorama (eg, ERP, EAP, AEP, and/or the like formats), the luminance sample position can be obtained, for example, as shown in Table 4. Table 4 provides an example approach for obtaining the luminance sample position . For example, Table 4 provides an example of an integer derivation process and/or a fractional sample interpolation process for external prediction.
Таблица 4. Пример подхода к выведению положения выборки яркостиTable 4. An example approach to deriving the position of the luminance sample
Для одной или более выборок цветности при использовании повторяющегося заполнения координаты и могут быть обрезаны, например с помощью ур. (16) и (17) соответственно.For one or more chrominance samples when using repeated coordinate padding and can be cut, for example with the help of ur. (16) and (17) respectively.
(16) (16)
… (17) … (17)
В случае компонента цветности при использовании горизонтального геометрического заполнения координата в кодированном изображении может быть завернута, например с помощью ур. (18), где и In the case of the chrominance component, when using horizontal geometric filling, the coordinate in the encoded image can be wrapped, for example using ur. (18), where and
, для учета циклического свойства 360-градусного видео. , to account for the cyclic property of 360-degree video.
(18) (eighteen)
Для геометрии проекции на основании одной панорамы (например, ERP, EAP, AEP и/или т.п. форматы) может быть получено положение выборки цветности, например, как показано в таблице 5. В таблице 5 представлен пример подхода к получению положения выборки цветности. Например, в таблице 5 представлен пример процесса выведения целочисленных величин и/или процесса интерполяции дробных сэмплов для внешнего прогнозирования.For projection geometry, based on a single panorama (eg, ERP, EAP, AEP, and/or the like formats), a chroma sample position can be obtained, for example, as shown in Table 5. Table 5 provides an example approach for obtaining a chrominance sample position . For example, Table 5 provides an example of an integer derivation process and/or a fractional sample interpolation process for external prediction.
Таблица 5. Пример подхода к выведению положения выборки цветностиTable 5. An example approach to deriving the position of a chrominance sample
Заворачивание местоположений сэмплов, описанное в настоящем документе, с использованием операции по модулю можно применять к горизонтальному геометрическому заполнению, если формат проекции, используемый для представления 360-градусного видео, представляет собой формат проекции на основании одной панорамы (например, ERP, EAP, AEP и/или т.п. формат проекции). Для других форматов проекции, таких как формат проекции на основании множественных панорам (например, CMP и/или формат проекции на основании CMP), могут быть реализованы функции сопоставления 2D с 3D, а также 3D с 2D. Операция по модулю, описанная в настоящем документе, может быть применена к формату проекции на основании множественных панорам (например, CMP и/или формату проекции на основании CMP) в качестве приближения.The sample location wrapping described herein using a modulo operation can be applied to horizontal geometric fill if the projection format used to represent the 360-degree video is a projection format based on a single panorama (e.g., ERP, EAP, AEP, and /or similar projection format). For other projection formats, such as the multi-panoramic projection format (eg, CMP and/or CMP-based projection format), 2D to 3D as well as 3D to 2D matching functions can be implemented. The modulo operation described herein can be applied to a projection format based on multiple panoramas (eg, CMP and/or projection format based on CMP) as an approximation.
Устройство кодирования видеосигналов может определять положение сэмпла в текущей CU и/или может выполнять компенсацию движения на уровне сэмпла. Для видео со стандартным динамическим диапазоном (SDR) и/или т.п. компенсация движения может быть выполнена на уровне блока (например, блоком может быть CU или под-CU). CU может разделяться на множество частей (например, две части) и/или может выполнять компенсацию движения с использованием геометрического заполнения для каждой из множества частей (например, двух частей).The video encoder may determine the position of the sample in the current CU and/or may perform motion compensation at the sample level. For standard dynamic range (SDR) video and/or the like. motion compensation may be performed at the block level (eg, the block may be a CU or a sub-CU). The CU may be divided into multiple parts (eg, two parts) and/or may perform motion compensation using geometric filling for each of the multiple parts (eg, two parts).
На фиг. 14 представлен пример кэширования восстановленных сэмплов для внешнего прогнозирования при использовании горизонтального геометрического заполнения. При внешнем прогнозировании доступ к сэмплу в эталонном изображении может осуществляться более одного раза, поскольку на одну и ту же область может ссылаться несколько блоков, процессов интерполяции и/или процессов уточнения. При доступе к буферу декодированного изображения часть эталонного изображения может быть сохранена в запоминающем устройстве (например, локальном запоминающем устройстве) для быстрого доступа при выполнении внешнего прогнозирования, как показано на фиг. 14. Сохраненная область может представлять собой соседний участок с центром в положении текущего блока и/или положении текущего CTU. Размер сохраненной области может быть ограниченным. Если используется геометрическое заполнение и текущий блок находится на границе первой панорамы и/или вблизи нее, сохраненная область может быть разделена на две подобласти: первую подобласть, расположенную вокруг положения текущего блока в первой панораме; и вторую подобласть, расположенную с другой стороны от границы первой панорамы, например на второй панораме, соседней с первой панорамой. Например, если рассматривать ERP-изображение, показанное на фиг. 12, в эталонном изображении сохраненные данные могут включать в себя две подобласти: первую область, расположенную вокруг положения текущего блока (например, для прогнозирования областей двух подчастей Р1 и Р3 на фиг. 12); и вторую область (например, для прогнозирования областей двух подчастей P0 и P2 на фиг. 12), соответствующую данным заворачивания, например, учитывающим свойства цикличности 360-градусного видео.In FIG. 14 shows an example of caching recovered samples for external prediction using horizontal geometric filling. In inter-prediction, a sample in a reference image may be accessed more than once because the same area may be referenced by multiple blocks, interpolation processes, and/or refinement processes. When accessing the decoded picture buffer, a portion of the reference picture may be stored in a storage device (eg, local storage) for quick access when performing external prediction, as shown in FIG. 14. The saved area may be a neighboring area centered on the position of the current block and/or the position of the current CTU. The size of the saved area can be limited. If geometric filling is used and the current block is located on the border of the first panorama and/or near it, the saved area can be divided into two sub-regions: the first sub-region, located around the position of the current block in the first panorama; and a second subregion located on the other side of the border of the first panorama, for example on the second panorama adjacent to the first panorama. For example, considering the ERP image shown in FIG. 12, in the reference image, the stored data may include two sub-regions: a first region located around the position of the current block (for example, to predict regions of the two sub-portions P1 and P3 in FIG. 12); and a second region (eg, for predicting the regions of the two sub-parts P0 and P2 in FIG. 12) corresponding to the wrapping data, eg taking into account the cyclic properties of 360-degree video.
Для прогнозирования части, которая соответствует областям Р1 и Р3, показанным на фиг. 12, один или более сэмплов прогнозирования могут находиться с левой стороны изображения. Если вектор движения содержит дробную погрешность сэмпла, может быть осуществлена интерполяция, и/или с помощью интерполяции могут быть изменены соседи с правой стороны изображения (например, области, соответствующие областям P0 и P2, показанным на фиг. 12). Повторяющееся заполнение может быть применено для получения одного или более значений сэмплов, используемых в интерполяции для прогнозирования областей P1 и P3, показанных на фиг. 12.In order to predict the part that corresponds to the regions P1 and P3 shown in FIG. 12, one or more prediction samples may be on the left side of the image. If the motion vector contains a fractional sample error, interpolation can be performed and/or neighbors on the right side of the image (eg, regions corresponding to regions P0 and P2 shown in FIG. 12) can be changed by interpolation. Repeated filling may be applied to obtain one or more sample values used in interpolation to predict the regions P1 and P3 shown in FIG. 12.
При необходимости интерполяции для прогнозирования части, которая соответствует областям P0 и P2, один или более соседних сэмплов могут быть получены путем повторяющегося заполнения (например, путем повторения одного или более сэмплов на правой границе изображения с использованием свойства цикличности 360-градусного видео). Получение одного или более сэмплов с левой границы изображения может быть пропущено. При получении двух векторов движения для каждой из двух частей для первой части, которая соответствует областям Р1 и Р3, вектор движения может оставаться без изменения. Для второй части, которая соответствует областям P0 и P2, операция по модулю может быть применена к горизонтальному компоненту вектора движения, например, для достижения эффекта заворачивания, как описано в настоящем документе.If interpolation is needed to predict the portion that corresponds to the regions P0 and P2, one or more neighboring samples can be obtained by repeating filling (eg, by repeating one or more samples at the right edge of the image using the 360-degree video looping property). Getting one or more samples from the left border of the image can be skipped. By obtaining two motion vectors for each of the two parts for the first part, which corresponds to the regions P1 and P3, the motion vector may remain unchanged. For the second part, which corresponds to the regions P0 and P2, a modulo operation can be applied to the horizontal component of the motion vector, for example, to achieve a wrapping effect, as described herein.
Доступ к данным может осуществляться извне кэш-памяти. Для горизонтального геометрического заполнения операция заворачивания может быть ограничена пропуском получения одного или более сэмплов, расположенных за пределами сохраненных данных. Например, горизонтальное геометрическое заполнение может быть выполнено в пределах заданного диапазона SL (SL ≤ face_width_in_luma_samples, SC = SL / SubWidthC), который может быть связан с размером кэш-памяти. Для одного или более сэмплов, расположенных вне сохраненных данных, можно применять повторяющееся заполнение, выходящее за пределы этого диапазона. Ур. (15) и (18) могут быть заменены ур. (19) и (20) соответственно.Data can be accessed from outside the cache. For horizontal geometric filling, the wrapping operation can be limited to skipping getting one or more samples located outside of the stored data. For example, horizontal geometric filling may be performed within a given range S L (S L ≤ face_width_in_luma_samples, S C = S L / SubWidthC), which may be related to the cache size. For one or more samples located outside the saved data, you can apply repeated filling that goes beyond this range. Lv. (15) and (18) can be replaced by eq. (19) and (20) respectively.
(19) (nineteen)
(20) (twenty)
При интерполяции одного или более сэмплов в местоположениях дробных сэмплов может быть выведен один или более сэмплов в местоположениях полных сэмплов, используемых интерполяционным фильтром, например, как показано в таблице 4 и/или таблице 5 для компонентов яркости и цветности соответственно. Например, с учетом ситуации, показанной на фиг. 15, выборки a0, 0–r0, 0 яркости в положениях дробных сэмплов могут быть интерполированы с использованием выборок Ai, j яркости в местоположениях (xAi, j, yAi, j) полных сэмплов. Для выборки Ai, j яркости в местоположениях полных сэмплов координаты xAi, j и yAi, j могут быть выведены, как показано в таблице 4 и/или таблице 5 для компонентов яркости и цветности соответственно.When interpolating one or more samples at the fractional sample locations, one or more samples at the full sample locations used by the interpolation filter may be output, for example, as shown in Table 4 and/or Table 5 for the luma and chrominance components, respectively. For example, considering the situation shown in FIG. 15, the brightness samples a 0, 0 -r 0, 0 at the fractional sample positions may be interpolated using the brightness samples A i, j at the full sample locations (xA i, j , yA i, j ). For the luma sample A i, j at the full sample locations, xA i, j and yA i, j coordinates can be derived as shown in Table 4 and/or Table 5 for the luma and chrominance components, respectively.
На фиг. 16A представлена схема, иллюстрирующая пример системы 100 связи, в которой могут быть реализованы один или более описанных вариантов осуществления. Система 100 связи может представлять собой систему множественного доступа, от которой множество пользователей беспроводной связи получают содержимое, такое как голосовая информация, данные, видео, обмен сообщениями, широковещание и т.д. Система 100 связи может быть выполнена с возможностью предоставления множеству пользователей беспроводной связи доступа к такому содержимому посредством совместного использования системных ресурсов, включая ширину полосы пропускания беспроводного соединения. Например, в системах 100 связи может быть использован один или более способов доступа к каналу, таких как множественный доступ с кодовым разделением каналов (CDMA), множественный доступ с временным разделением каналов (TDMA), множественный доступ с частотным разделением каналов (FDMA), множественный доступ с ортогональным частотным разделением каналов (OFDMA), FDMA с одной несущей (SC-FDMA), расширенное OFDM с безызбыточным расширенным дискретным преобразованием Фурье (DFT) с синхропакетом (ZT UW DTS-s OFDM), OFDM с синхропакетом (UW-OFDM), OFDM с фильтрацией ресурсного блока, блок фильтров с множеством несущих (FBMC) и т.п.In FIG. 16A is a diagram illustrating an example of a
Как показано на фиг. 16A, система 100 связи может включать в себя модули 102a, 102b, 102c, 102d беспроводной передачи/приема (WTRU), RAN 104/113, CN 106/115, коммутируемую телефонную сеть 108 общего пользования (PSTN), сеть Интернет 110 и другие сети 112, хотя следует понимать, что в описанных вариантах осуществления предполагается возможность применения любого количества WTRU, базовых станций, сетей и/или элементов сети. Каждый из WTRU 102a, 102b, 102c, 102d может представлять собой устройство любого типа, выполненное с возможностью функционирования и/или взаимодействия в среде беспроводной связи. Например, WTRU 102a, 102b, 102c, 102d, любой из которых может называться станцией и/или STA, могут быть выполнены с возможностью передачи и/или приема радиосигналов и могут включать в себя оборудование пользователя (UE), мобильную станцию, стационарный или мобильный абонентский модуль, абонентский модуль, пейджер, сотовый телефон, карманный персональный компьютер (PDA), смартфон, ноутбук, нетбук, персональный компьютер, беспроводной датчик, точку доступа или устройство Mi-Fi, устройство Интернета физических объектов (IoT), часы или другие носимые устройства, наголовный дисплей (HMD), транспортное средство, беспилотный радиоуправляемый летательный аппарат, медицинское устройство и приложения (например, применяемые в дистанционной хирургии), промышленное устройство и приложения (например, робот и/или другие беспроводные устройства, работающие в условиях промышленной и/или автоматизированной технологической цепочки), устройство, относящееся к бытовой электронике, устройство, работающее в коммерческой и/или промышленной беспроводной сети, и т.п. Любой из WTRU 102a, 102b, 102c и 102d можно взаимозаменяемо называть UE.As shown in FIG. 16A,
Системы 100 связи могут также включать в себя базовую станцию 114a и/или базовую станцию 114b. Каждая из базовых станций 114a, 114b может представлять собой устройство любого типа, выполненное с возможностью беспроводного взаимодействия с по меньшей мере одним из WTRU 102a, 102b, 102c, 102d для облегчения доступа к одной или более сетям связи, таким как CN 106/115, сеть Интернет 110 и/или другие сети 112. В качестве примера базовые станции 114a, 114b могут представлять собой базовые приемопередающие станции (BTS), станции Node-B, станции eNode B, станции Home Node B, станции Home eNode B, базовую станцию следующего поколения (gNB), NodeB на основании NR, контроллер пункта связи, точку доступа (AP), беспроводной маршрутизатор и т.п. Хотя каждая из базовых станций 114a, 114b показана как отдельный элемент, следует понимать, что базовые станции 114a, 114b могут включать в себя любое количество взаимно соединенных базовых станций и/или элементов сети.
Базовая станция 114a может быть частью RAN 104/113, которая может также включать в себя другие базовые станции и/или элементы сети (не показаны), такие как контроллер базовой станции (BSC), контроллер радиосети (RNC), ретрансляционные узлы и т.п. Базовая станция 114a и/или базовая станция 114b могут быть выполнены с возможностью передачи и/или приема радиосигналов на одной или более несущих частотах, которые могут называться сотой (не показана). Эти частоты могут относиться к лицензированному спектру, нелицензированному спектру или к сочетанию лицензированного и нелицензированного спектров. Сота может обеспечивать покрытие для беспроводного сервиса в конкретной географической зоне, которая может быть относительно фиксированной или которая может изменяться со временем. Сота может быть дополнительно разделена на сектора соты. Например, сота, связанная с базовой станцией 114a, может быть разделена на три сектора. Таким образом, в одном варианте осуществления базовая станция 114a может включать в себя три приемопередатчика, например один для каждого сектора соты. В варианте осуществления в базовой станции 114a может быть использована технология «множественный вход — множественный выход» (MIMO), и может быть задействовано множество приемопередатчиков для каждого сектора соты. Например, для передачи и/или приема сигналов в требуемых пространственных направлениях можно использовать формирование лучей.
Базовые станции 114a, 114b могут обмениваться данными с одним или более из WTRU 102a, 102b, 102c, 102d посредством радиоинтерфейса 116, который может представлять собой любую подходящую систему беспроводной связи (например, для передачи сигналов в радиочастотном (РЧ), микроволновом спектре, спектре сантиметровых волн, спектре микрометровых волн, инфракрасном (ИК), ультрафиолетовом (УФ) спектре, спектре видимого света и т.д.). Радиоинтерфейс 116 может быть установлен с использованием любой подходящей технологии радиодоступа (RAT).
Более конкретно, как указано выше, система 100 связи может представлять собой систему множественного доступа, и в ней можно использовать одну или более схем доступа к каналу, например CDMA, TDMA, FDMA, OFDMA, SC-FDMA и т.п. Например, в базовой станции 114a в RAN 104/113 и WTRU 102a, 102b, 102c может быть реализована технология радиосвязи, такая как универсальный наземный доступ (UTRA) для универсальной системы мобильной связи (UMTS), в которой может быть установлен радиоинтерфейс 115/116/117 с использованием широкополосного CDMA (WCDMA). WCDMA может включать в себя протоколы связи, такие как высокоскоростной пакетный доступ (HSPA) и/или усовершенствованный HSPA (HSPA+). Протокол HSPA может включать в себя высокоскоростной пакетный доступ по нисходящей (DL) линии связи (HSDPA) и/или высокоскоростной пакетный доступ по восходящей (UL) линии связи (HSUPA).More specifically, as noted above,
В варианте осуществления в базовой станции 114a и WTRU 102a, 102b, 102c может быть реализована такая технология радиосвязи, как усовершенствованная сеть наземного радиодоступа UMTS (E-UTRA), которая может устанавливать радиоинтерфейс 116 с использованием стандарта долгосрочного развития сетей связи (LTE), и/или LTE-Advanced (LTE-A), и/или LTE-Advanced Pro (LTE-A Pro).In an embodiment,
В одном варианте осуществления базовая станция 114a и WTRU 102a, 102b, 102c могут реализовывать такую технологию радиосвязи, как новая технология радиодоступа (NR Radio Access), которая может устанавливать радиоинтерфейс 116 с использованием технологии New Radio (NR).In one embodiment,
В варианте осуществления в базовой станции 114a и WTRU 102a, 102b, 102c может быть реализовано множество технологий радиодоступа. Например, в совокупности в базовой станции 114a и WTRU 102a, 102b, 102c может быть реализован радиодоступ LTE и радиодоступ NR, например, с использованием принципов двойного подключения (DC). Таким образом, радиоинтерфейс, используемый WTRU 102a, 102b, 102c, может характеризоваться применением множества типов технологий радиодоступа и/или передачами, направляемыми на базовые станции / с базовых станций, относящихся к множеству типов (например, eNB и gNB).In an embodiment, multiple radio access technologies may be implemented in
В других вариантах осуществления базовая станция 114a и WTRU 102a, 102b, 102c могут реализовывать технологии радиосвязи, такие как IEEE 802.11 (например, Wireless Fidelity (WiFi)), IEEE 802.16 (например, глобальная совместимость для микроволнового доступа (WiMAX)), CDMA2000, CDMA2000 1X, CDMA2000 EV-DO, временный стандарт 2000 (IS-2000), временный стандарт 95 (IS-95), временный стандарт 856 (IS-856), глобальная система мобильной связи (GSM), усовершенствованные скорости передачи данных для сетей GSM Evolution (EDGE), GSM EDGE (GERAN) и т.п.In other embodiments,
Базовая станция 114b, показанная на фиг. 16A, может представлять собой, например, беспроводной маршрутизатор, станцию Home Node B, станцию Home eNode B или точку доступа, и в ней может быть использована любая подходящая RAT для облегчения обеспечения беспроводной связи в локализованной зоне, такой как коммерческое предприятие, жилое помещение, транспортное средство, учебное заведение, промышленный объект, воздушный коридор (например, для использования беспилотными радиоуправляемыми летательными аппаратами), проезжая часть и т.п. В одном варианте осуществления в базовой станции 114b и WTRU 102c, 102d может быть реализована технология радиосвязи, такая как IEEE 802.11, для создания беспроводной локальной сети (WLAN). В варианте осуществления в базовой станции 114b и WTRU 102c, 102d может быть реализована технология радиосвязи, такая как IEEE 802.15, для создания беспроводной персональной сети (WPAN). В еще одном варианте осуществления базовая станция 114b и WTRU 102c, 102d могут использовать RAT на основе сот (например, WCDMA, CDMA2000, GSM, LTE, LTE-A, LTE-A Pro, NR и т.д.) для создания пикосоты или фемтосоты. Как показано на фиг. 16A, базовая станция 114b может иметь прямое соединение с сетью Интернет 110. Таким образом, для базовой станции 114b может не требоваться доступ к сети Интернет 110 посредством CN 106/115.
RAN 104/113 может обмениваться данными с CN 106/115, которая может представлять собой сеть любого типа, выполненную с возможностью предоставления услуг передачи голосовой информации, данных, приложений и/или голосовой связи по протоколу (VoIP) Интернета одному или более из WTRU 102a, 102b, 102c, 102d. К данным могут предъявляться различные требования по качеству обслуживания (QoS), например различные требования по производительности, требования к задержке, требования к отказоустойчивости, требования к надежности, требования к скорости передачи данных, требования к мобильности и т.п. Сеть CN 106/115 может предоставлять управление вызовами, услуги биллинга, услуги мобильной связи на основании местоположения, предварительно оплаченные вызовы, возможность связи с сетью Интернет, распределение видеосигналов и т.п. и/или выполнять функции высокоуровневой защиты, такие как аутентификация пользователей. Хотя на ФИГ. 16A это не показано, следует понимать, что RAN 104/113 и/или CN 106/115 могут прямо или косвенно обмениваться данными с другими RAN, в которых использована такая же RAT, что и в RAN 104/113, или другая RAT. Например, в дополнение к соединению с RAN 104/113, в которой может быть использована технология радиосвязи NR, CN 106/115 может также обмениваться данными с другой RAN (не показана), использующей технологию радиосвязи GSM, UMTS, CDMA 2000, WiMAX, E-UTRA или WiFi.The
CN 106/115 может также выступать в качестве шлюза для WTRU 102a, 102b, 102c, 102d, чтобы обеспечивать доступ к сети PSTN 108, сети Интернет 110 и/или другим сетям 112. PSTN 108 может включать в себя телефонные сети с коммутацией каналов, которые предоставляют традиционные услуги телефонной связи (POTS). Интернет 110 может включать в себя глобальную систему взаимно соединенных компьютерных сетей и устройств, которые используют распространенные протоколы связи, такие как протокол управления передачей (TCP), протокол пользовательских дейтаграмм (UDP) и/или протокол Интернета (IP) в наборе протоколов Интернета TCP/IP. Сети 112 могут включать в себя проводные и/или беспроводные сети связи, которые принадлежат другим поставщикам услуг и/или предоставлены ими для использования. Например, сети 112 могут включать в себя другую CN, соединенную с одной или более RAN, в которых может быть использована такая же RAT, как и в RAN 104/113, или другая RAT.
Некоторые или все из WTRU 102a, 102b, 102c, 102d в системе 100 связи могут включать в себя многорежимные возможности (например, WTRU 102a, 102b, 102c, 102d могут включать в себя множество приемопередатчиков для связи с разными беспроводными сетями по разным беспроводным линиям связи). Например, WTRU 102c, показанный на фиг. 16A, может быть выполнен с возможностью обмена данными с базовой станцией 114a, которая может использовать технологию радиосвязи на основе сот, а также с базовой станцией 114b, которая может использовать технологию радиосвязи IEEE 802.Some or all of the
На фиг. 16B представлена схема системы, иллюстрирующая пример WTRU 102. Как показано на фиг. 16B, WTRU 102 может включать в себя, помимо прочего, процессор 118, приемопередатчик 120, передающий/приемный элемент 122, динамик/микрофон 124, клавиатуру 126, дисплей / сенсорную панель 128, несъемное запоминающее устройство 130, съемное запоминающее устройство 132, источник 134 питания, набор 136 микросхем глобальной системы определения местоположения (GPS) и/или другие периферийные устройства 138. Следует понимать, что WTRU 102 может включать в себя любую подкомбинацию вышеперечисленных элементов и при этом соответствовать варианту осуществления.In FIG. 16B is a system diagram illustrating an example of
Процессор 118 может представлять собой процессор общего назначения, процессор специального назначения, традиционный процессор, цифровой сигнальный процессор (DSP), множество микропроцессоров, один или более микропроцессоров, связанных с ядром DSP, контроллер, микроконтроллер, специализированные интегральные схемы (ASIC), схемы программируемых пользователем вентильных матриц (FPGA), интегральную микросхему (IC) любого другого типа, конечный автомат и т.п. Процессор 118 может выполнять кодирование сигналов, обработку данных, управление мощностью, обработку ввода/вывода и/или иметь любые другие функциональные возможности, с помощью которых WTRU 102 работает в среде беспроводной связи. Процессор 118 может быть соединен с приемопередатчиком 120, который может быть соединен с передающим/приемным элементом 122. Хотя на фиг. 16B процессор 118 и приемопередатчик 120 показаны в виде отдельных компонентов, следует понимать, что процессор 118 и приемопередатчик 120 могут быть выполнены за единое целое и встроены в электронный блок или микросхему.Processor 118 may be a general purpose processor, a special purpose processor, a conventional processor, a digital signal processor (DSP), a plurality of microprocessors, one or more microprocessors associated with a DSP core, a controller, a microcontroller, application specific integrated circuits (ASICs), user programmable circuits gate arrays (FPGA), integrated circuit (IC) of any other type, state machine, etc. Processor 118 may perform signal coding, data processing, power control, input/output processing, and/or any other functionality by which
Передающий/приемный элемент 122 может быть выполнен с возможностью передачи сигналов на базовую станцию (например, базовую станцию 114a) по радиоинтерфейсу 116 или приема от нее сигналов. Например, в одном варианте осуществления передающий/приемный элемент 122 может представлять собой антенну, выполненную с возможностью передачи и/или приема РЧ-сигналов. В варианте осуществления передающий/приемный элемент 122 может представлять собой излучатель/детектор, выполненный с возможностью передачи и/или приема, например, сигналов в ИК-, УФ- или спектре видимого света. В еще одном варианте осуществления передающий/приемный элемент 122 может быть выполнен с возможностью передачи и/или приема сигналов как в РЧ-спектре, так и в спектре видимого света. Следует понимать, что передающий/приемный элемент 122 может быть выполнен с возможностью передачи и/или приема любой комбинации беспроводных сигналов.Transmitting/receiving
Хотя на фиг. 16B передающий/приемный элемент 122 показан в виде единственного элемента, WTRU 102 может включать в себя любое количество передающих/приемных элементов 122. Более конкретно, в WTRU 102 может быть использована технология MIMO. Таким образом, в одном варианте осуществления WTRU 102 может включать в себя два или более передающих/приемных элементов 122 (например, множество антенн) для передачи и приема беспроводных сигналов по радиоинтерфейсу 116.Although in FIG. 16B, transmit/receive
Приемопередатчик 120 может быть выполнен с возможностью модуляции сигналов, которые подлежат передаче посредством передающего/приемного элемента 122, а также демодуляции сигналов, принятых посредством передающего/приемного элемента 122. Как указано выше, WTRU 102 может иметь многорежимные возможности. Таким образом, приемопередатчик 120 может включать в себя множество приемопередатчиков, с помощью которых WTRU 102 получает возможность взаимодействия посредством множества RAT, таких как, например, NR и IEEE 802.11.
Процессор 118 WTRU 102 может быть соединен с динамиком/микрофоном 124, клавиатурой 126 и/или дисплеем / сенсорной панелью 128 (например, жидкокристаллическим дисплеем (LCD) или дисплеем на органических светодиодах (OLED)) и может принимать от них данные, вводимые пользователем. Процессор 118 может также выводить пользовательские данные на динамик/микрофон 124, клавиатуру 126 и/или дисплей / сенсорную панель 128. Кроме того, процессор 118 может иметь доступ к информации с подходящего запоминающего устройства любого типа, такого как несъемное запоминающее устройство 130 и/или съемное запоминающее устройство 132, и хранить на нем данные. Несъемное запоминающее устройство 130 может включать в себя оперативное запоминающее устройство (ОЗУ), постоянное запоминающее устройство (ПЗУ), жесткий диск или запоминающее устройство любого другого типа. Съемное запоминающее устройство 132 может включать в себя карту модуля идентификации абонента (SIM), карту памяти, безопасную цифровую карту памяти (SD) и т.п. В других вариантах осуществления процессор 118 может осуществлять доступ к информации с запоминающего устройства, которое физически размещено не в WTRU 102, а, например, на сервере или домашнем компьютере (не показан), и хранить на нем данные.The processor 118 of the
Процессор 118 может принимать питание от источника 134 питания и может быть выполнен с возможностью управления питанием и/или распределения питания на другие компоненты в WTRU 102. Источник 134 питания может представлять собой любое подходящее устройство для подачи питания на WTRU 102. Например, источник 134 питания может включать одну или более сухих батарей (например, никель-кадмиевых (NiCd), никель-цинковых (NiZn), никель-металл-гидридных (NiMH), литий-ионных (Li-ion) и т.д.), солнечных элементов, топливных элементов и т.п.Processor 118 may receive power from
Процессор 118 также может быть соединен с набором 136 микросхем GPS, который может быть выполнен с возможностью предоставления информации о местоположении (например, долготы и широты) относительно текущего местоположения WTRU 102. Дополнительно или вместо информации от набора 136 микросхем GPS WTRU 102 может принимать информацию о местоположении по радиоинтерфейсу 116 от базовой станции (например, от базовых станций 114a, 114b) и/или определять местоположение на основе синхронизации сигналов, принимаемых от двух или более соседних базовых станций. Следует понимать, что WTRU 102 может получать информацию о местоположении посредством любого подходящего способа определения местоположения и при этом соответствовать варианту осуществления.Processor 118 may also be coupled to GPS chipset 136, which may be configured to provide location information (eg, longitude and latitude) relative to
Процессор 118 может быть дополнительно соединен с другими периферийными устройствами 138, которые могут включать в себя один или более программных и/или аппаратных модулей, в которых предусмотрены дополнительные признаки, функциональные возможности и/или возможности по установлению проводной или беспроводной связи. Например, периферийные устройства 138 могут включать в себя акселерометр, электронный компас, спутниковый приемопередатчик, цифровую камеру (для фото- и видеосъемки), порт универсальной последовательной шины (USB), вибрационное устройство, телевизионный приемопередатчик, беспроводную гарнитуру, модуль Bluetooth®, радиомодуль с частотной модуляцией (FM), цифровой музыкальный проигрыватель, мультимедийный проигрыватель, модуль устройства для воспроизведения видеоигр, Интернет-браузер, устройство виртуальной реальности и/или дополненной реальности (VR/AR), трекер активности и т.п. Периферийные устройства 138 могут содержать один или более датчиков, причем датчики могут представлять собой один или более из гироскопа, акселерометра, датчика Холла, магнитометра, датчика ориентации, датчика приближения, датчика температуры, датчика времени; датчика географического положения; высотомера, датчика освещенности, датчика касания, магнитометра, барометра, датчика жеста, биометрического датчика и/или датчика влажности.Processor 118 may be further coupled to other
WTRU 102 может включать в себя полнодуплексное радиоустройство, для которого передача и прием некоторых или всех сигналов, например, связанных с конкретными подкадрами как для UL (например, для передачи), так и для нисходящей линии связи (например, для приема), могут быть осуществлены совместно и/или одновременно. Полнодуплексное радиоустройство может включать в себя блок управления помехами для снижения уровня и/или по существу устранения собственных помех с помощью либо аппаратного обеспечения (например, дросселя), либо обработки сигнала с помощью процессора (например, отдельного процессора (не показан) или процессора 118). В одном варианте осуществления WRTU 102 может включать в себя полудуплексное радиоустройство для передачи и приема некоторых или всех сигналов (например, связанных с конкретными подкадрами либо для UL (например, для передачи), либо для нисходящей линии связи (например, для приема)).The
На фиг. 16C представлена схема системы, иллюстрирующая RAN 104 и CN 106 в соответствии с одним вариантом осуществления. Как отмечено выше, RAN 104 может использовать технологию радиосвязи E-UTRA для обмена данными с WTRU 102a, 102b, 102c по радиоинтерфейсу 116. RAN 104 может также обмениваться данными с CN 106.In FIG. 16C is a system
RAN 104 может включать в себя eNode-B 160a, 160b, 160c, хотя следует понимать, что сеть RAN 104 может включать в себя любое количество eNode-B и при этом соответствовать варианту осуществления. Каждая eNode-B 160a, 160b, 160c может включать в себя один или более приемопередатчиков для обмена данными с WTRU 102a, 102b, 102c по радиоинтерфейсу 116. В одном варианте осуществления в eNode B 160a, 160b, 160c может быть реализована технология MIMO. Таким образом, в eNode-B 160a может, например, использоваться множество антенн для передачи беспроводных на WTRU 102a и/или приема беспроводных сигналов от него.
Каждая eNode-B 160a, 160b, 160c может быть связана с конкретной сотой (не показана) и может быть выполнена с возможностью принятия решений по управлению радиоресурсами, решений по передаче обслуживания, диспетчеризации пользователей в UL и/или DL и т.п. Как показано на фиг. 16C, eNode-B 160a, 160b, 160c могут обмениваться данными друг с другом по интерфейсу X2.Each eNode-
CN 106, показанная на фиг. 16C, может включать в себя объект 162 управления мобильностью (MME), обслуживающий шлюз 164 (SGW) и шлюз 166 (или PGW) сети с пакетной передачей данных (PDN). Хотя каждый из вышеперечисленных элементов показан как часть CN 106, следует понимать, что любой из этих элементов может принадлежать субъекту, отличному от оператора CN, и/или может быть предоставлен им для использования.
MME 162 может быть подключен к каждой eNode-B 162a, 162b, 162c в RAN 104 по интерфейсу S1 и может выступать в качестве узла управления. Например, MME 162 может отвечать за аутентификацию пользователей WTRU 102a, 102b, 102c, активацию/деактивацию канала, выбор конкретного обслуживающего шлюза во время начального соединения WTRU 102a, 102b, 102c и т.п. MME 162 может обеспечивать функцию плоскости управления для переключения между RAN 104 и другими RAN (не показаны), которые используют другие технологии радиосвязи, такие как GSM и/или WCDMA.
SGW 164 может быть подключен к каждой eNode B 160a, 160b, 160c в RAN 104 по интерфейсу S1. SGW 164 может по существу направлять и пересылать пакеты пользовательских данных на WTRU 102a, 102b, 102c и от них. SGW 164 может выполнять другие функции, например привязку плоскостей пользователя во время передачи обслуживания между базовыми станциями eNode B, инициирование пейджинга, когда данные DL доступны для WTRU 102a, 102b, 102c, управление и хранение контекста WTRU 102a, 102b, 102c и т.п.SGW 164 may be connected to each
SGW 164 может быть подключен к PGW 166, который может предоставлять WTRU 102a, 102b, 102c доступ к сетям с коммутацией пакетов, таким как сеть Интернет 110, для облегчения обмена данными между WTRU 102a, 102b, 102c и устройствами с поддержкой протокола IP.SGW 164 may be connected to
CN 106 может облегчать обмен данными с другими сетями. Например, CN 106 может предоставлять WTRU 102a, 102b, 102c доступ к сетям с коммутацией каналов, таким как PSTN 108, для облегчения обмена данными между WTRU 102a, 102b, 102c и традиционными устройствами связи наземной линии связи. Например, CN 106 может включать в себя IP-шлюз (например, сервер мультимедийной IP-подсистемы (IMS)), который выступает в качестве интерфейса между CN 106 и PSTN 108, либо может обмениваться данными с ним. Кроме того, CN 106 может предоставлять WTRU 102a, 102b, 102c доступ к другим сетям 112, которые могут включать в себя другие проводные и/или беспроводные сети, которые принадлежат другим поставщикам услуг и/или предоставлены ими для использования.
Хотя WTRU описан на фиг. 16A–16D как беспроводной терминал, предполагается, что в определенных типовых вариантах осуществления с таким терминалом можно использовать (например, временно или постоянно) проводные интерфейсы связи с сетью связи.Although the WTRU is described in FIG. 16A-16D as a wireless terminal, it is contemplated that, in certain exemplary embodiments, such a terminal may use (eg, temporarily or permanently) wired communication interfaces with a communications network.
В типовых вариантах осуществления другая сеть 112 может представлять собой WLAN.In exemplary embodiments, the other network 112 may be a WLAN.
WLAN в режиме базового набора служб (BSS) инфраструктуры может иметь точку доступа (АР) для BSS и одну или более станций (STA), связанных с АР. АР может иметь доступ к системе распределения (DS) или интерфейс с ней или осуществлять связь по проводной/беспроводной сети другого типа, которая переносит трафик в BSS и/или вне BSS. Трафик на STA, образованный вне BSS, может поступать через AP и может быть доставлен на STA. Трафик, исходящий от STA к получателям вне BSS, может быть отправлен на АР для доставки соответствующим получателям. Трафик между STA в пределах BSS может быть отправлен через АР, например, если STA-источник может отправлять трафик на АР, а АР может доставлять трафик STA-получателю. Трафик между STA в пределах BSS может рассматриваться и/или называться одноранговым трафиком. Одноранговый трафик может быть передан между (например, непосредственно между) STA-источником и STA-получателем при установлении прямой линии связи (DLS). В определенных типовых вариантах осуществления DLS может использовать DLS 802.11e или туннелированное DLS 802.11z (TDLS). WLAN с использованием независимого BSS (IBSS) режима может не иметь АР, а STA (например, все из STA) в пределах или с использованием IBSS могут осуществлять связь непосредственно друг с другом. В настоящем документе режим IBSS иногда может упоминаться как режим связи с прямым соединением.A WLAN in infrastructure basic service set (BSS) mode may have an access point (AP) for the BSS and one or more stations (STA) associated with the AP. The AP may access or interface with a Distribution System (DS) or communicate over another type of wired/wireless network that carries traffic into and/or out of the BSS. Traffic to the STA generated outside the BSS may arrive via the AP and may be delivered to the STA. Traffic originating from the STA to recipients outside the BSS may be sent to the AP for delivery to the appropriate recipients. Traffic between STAs within a BSS can be sent via an AP, for example, if a source STA can send traffic to an AP and an AP can deliver traffic to a destination STA. Traffic between STAs within a BSS may be considered and/or referred to as peer-to-peer traffic. Peer-to-peer traffic may be transferred between (eg, directly between) a source STA and a sink STA in a forward link (DLS) setup. In certain exemplary embodiments, the DLS may use 802.11e DLS or 802.11z Tunneled DLS (TDLS). A WLAN using independent BSS (IBSS) mode may not have an AP, and STAs (eg, all of STAs) within or using IBSS may communicate directly with each other. In this document, the IBSS mode may sometimes be referred to as the direct connection communication mode.
При использовании режима работы инфраструктуры 802.11ac или аналогичного режима работы AP может передавать маяк по фиксированному каналу, такому как первичный канал. Первичный канал может иметь фиксированную ширину (например, ширину полосы пропускания 20 МГц) или ширину, динамически установленную с помощью сигнализации. Первичный канал может представлять собой рабочий канал BSS и может использоваться STA для установления соединения с АР. В определенных типовых вариантах осуществления может быть реализован множественный доступ с контролем несущей и предотвращением коллизий (CSMA/CA), например, в системах 802.11. STA (например, каждая STA), включая АР, могут обнаруживать первичный канал для CSMA/CA. При распознавании/обнаружении и/или определении занятости первичного канала конкретной STA эта конкретная STA может отключаться. Одна STA (например, только одна станция) может осуществлять передачу в любой конкретный момент времени в данном BSS.When using the 802.11ac infrastructure mode of operation or a similar mode of operation, the AP may transmit a beacon on a fixed channel, such as a primary channel. The primary channel may have a fixed width (eg, 20 MHz bandwidth) or a dynamically set signaling width. The primary channel may be a working channel of the BSS and may be used by the STA to establish a connection with the AP. In certain exemplary embodiments, Carrier Sense Multiple Access with Collision Avoidance (CSMA/CA) may be implemented, such as in 802.11 systems. STAs (eg, each STA), including the AP, can discover the primary channel for CSMA/CA. Upon recognizing/detecting and/or determining whether a particular STA's primary channel is busy, that particular STA may turn off. One STA (eg, only one station) can transmit at any given time in a given BSS.
Для осуществления связи STA с высокой пропускной способностью (HT) может быть использован канал шириной 40 МГц, например, путем объединения первичного канала 20 МГц со смежным или несмежным каналом 20 МГц с образованием канала шириной 40 МГц.For high throughput (HT) STA communication, a 40 MHz channel can be used, for example, by combining a 20 MHz primary channel with an adjacent or non-adjacent 20 MHz channel to form a 40 MHz channel.
STA со сверхвысокой пропускной способностью (VHT) могут поддерживать каналы шириной 20 МГц, 40 МГц, 80 МГц и/или 160 МГц. Каналы 40 МГц и/или 80 МГц могут быть образованы путем объединения сплошных каналов 20 МГц. Канал 160 МГц может быть образован путем объединения 8 сплошных каналов 20 МГц или путем объединения двух несплошных каналов 80 МГц, которые могут называться конфигурацией 80 + 80. Для конфигурации 80 + 80 данные после кодирования канала могут проходить через анализатор сегментов, который может разделять данные на два потока. Обработку в виде обратного быстрого преобразования Фурье (IFFT) и обработку во временной области можно выполнять отдельно для каждого потока. Потоки могут быть сопоставлены с двумя каналами 80 МГц, а данные могут быть переданы передающей STA. В приемнике принимающей STA вышеописанная операция для конфигурации 80 + 80 может быть инвертирована, а объединенные данные могут быть отправлены на устройство управления доступом к среде передачи данных (MAC).Very High Throughput (VHT) STAs may support 20 MHz, 40 MHz, 80 MHz, and/or 160 MHz channels. The 40 MHz and/or 80 MHz channels may be formed by combining continuous 20 MHz channels. A 160 MHz channel can be formed by combining 8 continuous 20 MHz channels, or by combining two non-continuous 80 MHz channels, which may be referred to as an 80+80 configuration. two streams. Inverse Fast Fourier Transform (IFFT) processing and time domain processing may be performed separately for each stream. The streams may be mapped to two 80 MHz channels and the data may be transmitted by the transmitting STA. At the receiver of the receiving STA, the above operation for the 80 + 80 configuration may be inverted, and the combined data may be sent to a media access control (MAC) device.
802.11af и 802.11ah поддерживают подрежимы работы 1 ГГц. Значения ширины полосы пропускания канала и несущие уменьшены в 802.11af и 802.11ah по отношению к используемым в 802.11n и 802.11ac. 802.11af поддерживает значения ширины полосы пропускания 5 МГц, 10 МГц и 20 МГц в неиспользуемом частотном спектре телевидения (TVWS), а 802.11ah поддерживает значения ширины полосы пропускания 1 МГц, 2 МГц, 4 МГц, 8 МГц и 16 МГц с использованием спектра, отличного от TVWS. Согласно типовому варианту осуществления 802.11ah может поддерживать управление с измерением/межмашинные связи, например устройства MTC в макрозоне покрытия. Устройства MTC могут обладать определенными возможностями, например ограниченными возможностями, включая поддержку (например, поддержку только) определенных и/или ограниченных значений ширины полосы пропускания. Устройства МТС могут включать в себя батарею, имеющую срок службы батареи, превышающий пороговое значение (например, для обеспечения очень длительного срока службы батареи).802.11af and 802.11ah support 1GHz sub-modes of operation. Channel bandwidths and carriers are reduced in 802.11af and 802.11ah from those used in 802.11n and 802.11ac. 802.11af supports 5 MHz, 10 MHz, and 20 MHz bandwidths in the unused television frequency spectrum (TVWS), while 802.11ah supports 1 MHz, 2 MHz, 4 MHz, 8 MHz, and 16 MHz bandwidths using spectrum other than TVWS. According to the exemplary embodiment, 802.11ah can support metering/machine-to-machine communications, such as MTC devices in a macro coverage area. MTC devices may have certain capabilities, such as limited capabilities, including support (eg, support only) certain and/or limited bandwidths. The MTC devices may include a battery having a battery life exceeding a threshold value (eg, to provide a very long battery life).
Системы WLAN, которые могут поддерживать множество каналов и значений ширины полосы пропускания канала, такие как 802.11n, 802.11ac, 802.11af и 802.11ah, включают в себя канал, который может быть назначен в качестве первичного канала. Первичный канал может иметь ширину полосы пропускания, равную наибольшей общей рабочей ширине полосы пропускания, поддерживаемой всеми STA в BSS. Ширина полосы пропускания первичного канала может быть установлена и/или ограничена STA из числа всех STA, работающих в BSS, которая поддерживает режим работы с наименьшей шириной полосы пропускания. В примере 802.11ah первичный канал может иметь ширину 1 МГц для STA (например, устройств типа MTC), которые поддерживают (например, поддерживают только) режим 1 МГц, даже если AP и другие STA в BSS поддерживают 2 МГц, 4 МГц, 8 МГц, 16 МГц и/или режимы работы с другими значениями ширины полосы пропускания канала. Параметры обнаружения несущей и/или вектора выделения сети (NAV) могут зависеть от состояния первичного канала. Если первичный канал занят, например, из-за STA (в которой поддерживается только режим работы 1 МГц), осуществляющей передачу на AP, все доступные полосы частот могут считаться занятыми, даже если большинство полос частот все еще не заняты и могут быть доступными.WLAN systems that can support multiple channels and channel bandwidths, such as 802.11n, 802.11ac, 802.11af, and 802.11ah, include a channel that can be designated as a primary channel. The primary channel may have a bandwidth equal to the largest total operating bandwidth supported by all STAs in the BSS. The primary channel bandwidth may be set and/or limited by the STA of all STAs operating in the BSS that supports the lowest bandwidth mode of operation. In the 802.11ah example, the primary channel may be 1 MHz wide for STAs (e.g., MTC type devices) that support (e.g., only support) 1 MHz mode, even if the APs and other STAs in the
В Соединенных Штатах Америки доступные полосы частот, которые могут быть использованы 802.11ah, находятся в диапазоне от 902 МГц до 928 МГц. Доступные полосы частот в Корее — от 917,5 МГц до 923,5 МГц. Доступные полосы частот в Японии — от 916,5 МГц до 927,5 МГц. Общая ширина полосы пропускания, доступная для 802.11ah, составляет от 6 МГц до 26 МГц в зависимости от кода страны.In the United States of America, the available frequency bands that can be used by 802.11ah are between 902 MHz and 928 MHz. The available frequency bands in Korea are from 917.5 MHz to 923.5 MHz. The available frequency bands in Japan are from 916.5 MHz to 927.5 MHz. The total bandwidth available for 802.11ah is between 6 MHz and 26 MHz depending on the country code.
На фиг. 16D представлена схема системы, иллюстрирующая RAN 113 и CN 115 в соответствии с вариантом осуществления. Как отмечено выше, RAN 113 может использовать технологию радиосвязи NR для обмена данными с WTRU 102a, 102b, 102c по радиоинтерфейсу 116. RAN 113 может также обмениваться данными с CN 115.In FIG. 16D is a system
RAN 113 может включать в себя gNB 180a, 180b, 180c, хотя следует понимать, что RAN 113 может включать в себя любое количество gNB и при этом соответствовать варианту осуществления. Каждая gNB 180a, 180b, 180c может включать в себя один или более приемопередатчиков для обмена данными с WTRU 102a, 102b, 102c по радиоинтерфейсу 116. В одном варианте осуществления gNB 180a, 180b, 180c могут реализовывать технологию MIMO. Например, gNB 180a, 108b могут использовать формирование лучей для передачи сигналов на и/или приема сигналов от gNB 180a, 180b, 180c. Таким образом, gNB 180a, например, может использовать множество антенн для передачи радиосигналов на WTRU 102a и/или приема от него радиосигналов. В варианте осуществления gNB 180a, 180b, 180c могут реализовывать технологию агрегирования несущих. Например, gNB 180a может передавать на WTRU 102a множество несущих составляющих (не показаны). Подмножество этих несущих составляющих может относиться к нелицензированному спектру, тогда как остальные несущие составляющие могут относиться к лицензированному спектру. В варианте осуществления gNB 180a, 180b, 180c могут реализовывать технологию многоточечного согласования (CoMP). Например, WTRU 102a может принимать согласованные передачи от gNB 180a и gNB 180b (и/или gNB 180c).
WTRU 102a, 102b, 102c могут обмениваться данными с gNB 180a, 180b, 180c с использованием передач, связанных с масштабируемой численной величиной. Например, разнос символов OFDM и/или разнос поднесущих OFDM может различаться для разных передач, разных сот и/или разных участков спектра беспроводной передачи. WTRU 102a, 102b, 102c могут осуществлять связь с gNB 180a, 180b, 180c с использованием подкадра или временных интервалов передачи (TTI) с различной или масштабируемой длительностью (например, содержащих различное количество символов OFDM и/или имеющих постоянные различные длительности абсолютного значения времени).
gNB 180a, 180b, 180c могут быть выполнены с возможностью обмена данными с WTRU 102a, 102b, 102c в автономной конфигурации и/или в неавтономной конфигурации. В автономной конфигурации WTRU 102a, 102b, 102c могут обмениваться данными с gNB 180a, 180b, 180c без одновременного доступа к другим RAN (например, таким как eNode-B 160a, 160b, 160c). В автономной конфигурации WTRU 102a, 102b, 102c могут использовать одну или более gNB 180a, 180b, 180c в качестве якорной точки для мобильности. В автономной конфигурации WTRU 102a, 102b, 102c могут обмениваться данными с gNB 180a, 180b, 180c с использованием сигналов в нелицензированной полосе. В неавтономной конфигурации WTRU 102a, 102b, 102c могут обмениваться данными / устанавливать соединение с gNB 180a, 180b, 180c, одновременно обмениваясь данными / устанавливая соединение с другой RAN, такой как eNode-B 160a, 160b, 160c. Например, WTRU 102a, 102b, 102c могут реализовывать принципы DC для по существу одновременного обмена данными с одной или более gNB 180a, 180b, 180c и одной или более eNode-B 160a, 160b, 160c. В неавтономной конфигурации eNode-B 160a, 160b, 160c могут выступать в качестве якорной точки для мобильности для WTRU 102a, 102b, 102c, а gNB 180a, 180b, 180c могут обеспечивать дополнительное покрытие и/или пропускную способность для обслуживания WTRU 102a, 102b, 102с.
Каждая из gNB 180a, 180b, 180c может быть связана с конкретной сотой (не показано) и может быть выполнена с возможностью принятия решений относительно управления радиоресурсом, решений относительно передачи обслуживания, планирования пользователей в UL и/или DL, поддержки сегментирования сети, двойного подключения, взаимодействия между NR и E-UTRA, маршрутизации данных плоскости пользователя в функциональный блок 184a, 184b плоскости пользователя (UPF), маршрутизации информации плоскости управления в функциональный блок 182a, 182b управления доступом и мобильностью (AMF) и т.п. Как показано на фиг. 16D, станции gNB 180a, 180b, 180c могут обмениваться данными друг с другом по интерфейсу Xn.Each of the
CN 115, показанная на фиг. 16D, может включать в себя по меньшей мере один AMF 182a, 182b, по меньшей мере один UPF 184a, 184b, по меньшей мере один функциональный блок 183a, 183b управления сеансом (SMF) и, возможно, сеть 185a, 185b передачи данных (DN). Хотя каждый из вышеперечисленных элементов показан как часть CN 115, следует понимать, что любой из этих элементов может принадлежать субъекту, отличному от оператора CN, и/или может быть предоставлен им для использования.
AMF 182a, 182b могут быть подключены к одной или более из gNB 180a, 180b, 180c в RAN 113 по интерфейсу N2 и могут выступать в качестве узла управления. Например, AMF 182a, 182b может отвечать за аутентификацию пользователей WTRU 102a, 102b, 102c, поддержку сегментирования сети (например, обработку различных сеансов PDU с различными требованиями), выбор конкретного SMF 183a, 183b, управление зоной регистрации, прекращение сигнализации NAS, управление мобильностью и т.п. Сегментирование сети может быть использовано в AMF 182a, 182b для настройки поддержки CN для WTRU 102a, 102b, 102c на основе типов сервисов, используемых WTRU 102a, 102b, 102c. Например, различные сетевые срезы могут быть установлены для разных вариантов использования, например службы, основанные на связи повышенной надежности с низкой задержкой (URLLC), службы, основанные на доступе к расширенной широкополосной сети мобильной связи (eMBB), службы для доступа к межмашинной связи (MTC) и/или т.п. AMF 162 может предоставлять функцию плоскости управления для переключения между RAN 113 и другими RAN (не показаны), которые используют другие технологии радиосвязи, такие как LTE, LTE-A, LTE-A Pro, и/или технологии доступа, отличные от 3GPP, например WiFi.
SMF 183a, 183b может быть подключен к AMF 182a, 182b в CN 115 по интерфейсу N11. SMF 183a, 183b также может быть подключен к UPF 184a, 184b в CN 115 по интерфейсу N4. SMF 183a, 183b может выбирать UPF 184a, 184b и управлять им, а также конфигурировать маршрутизацию трафика с помощью UPF 184a, 184b. SMF 183a, 183b может выполнять другие функции, такие как управление IP-адресом UE и его выделение, управление сеансами PDU, управление реализацией политики и QoS, предоставление уведомлений о данных нисходящей линии связи и т.п. Тип сеанса PDU может быть основан на IP, не основан на IP, основан на Ethernet и т.п.
UPF 184a, 184b могут быть подключены к одной или более gNB 180a, 180b, 180c в RAN 113 по интерфейсу N3, который может предоставлять WTRU 102a, 102b, 102c доступ к сетям с коммутацией пакетов, таким как сеть Интернет 110, для облегчения обмена данными между WTRU 102a, 102b, 102c и устройствами с поддержкой протокола IP. UPF 184, 184b могут выполнять другие функции, такие как маршрутизация и передача пакетов, применение политик в плоскости пользователя, поддержка многоканальных сеансов PDU, обработка QoS в плоскости пользователя, буферизация пакетов нисходящей линии связи, привязка для поддержки мобильности и т.п.
CN 115 может облегчать обмен данными с другими сетями. Например, CN 115 может включать в себя IP-шлюз (например, сервер мультимедийной IP-подсистемы (IMS)), который выступает в качестве интерфейса между CN 115 и PSTN 108, либо может обмениваться данными с ним. Кроме того, CN 115 может предоставлять WTRU 102a, 102b, 102c доступ к другим сетям 112, которые могут включать в себя другие проводные и/или беспроводные сети, которые принадлежат другим поставщикам услуг и/или предоставлены ими для использования. В одном варианте осуществления WTRU 102a, 102b, 102c могут быть подключены к локальной сети передачи данных (DN) 185a, 185b через UPF 184a, 184b по интерфейсу N3 к UPF 184a, 184b и интерфейсу N6 между UPF 184a, 184b и DN 185a, 185b.
С учетом фиг. 16A–16D и соответствующих описаний фиг. 16A–16D одна или более или все из функций, описанных в настоящем документе в связи с одним или более из: WTRU 102a–d, базовой станции 114а–b, eNode-B 160a–c, MME 162, SGW 164, PGW 166, gNB 180a–c, AMF 182a–b, UPF 184a–b, SMF 183a–b, DN 185a–b и/или любого (-ых) другого (-их) устройства (устройств), описанного (-ых) в настоящем документе, могут быть реализованы одним или более устройствами эмуляции (не показаны). Устройства эмуляции могут представлять собой одно или более устройств, выполненных с возможностью эмуляции одной или более или всех функций, описанных в настоящем документе. Например, устройства эмуляции можно применять для испытания других устройств и/или для моделирования функций сети и/или WTRU.Taking into account FIG. 16A-16D and the corresponding descriptions of FIG. 16A-16D one or more or all of the functions described herein in connection with one or more of:
Устройства эмуляции могут быть выполнены с возможностью выполнения одного или более испытаний других устройств в лабораторной среде и/или в сетевой среде оператора. Например, одно или более устройств эмуляции могут выполнять одну или более функций или все функции, при этом они полностью или частично реализованы и/или развернуты в качестве части проводной и/или беспроводной сети связи, для испытания других устройств в сети связи. Одно или более устройств эмуляции могут выполнять одну или более функций или все функции, при этом они временно реализованы/развернуты в качестве части проводной и/или беспроводной сети связи. Устройство эмуляции может быть непосредственно соединено с другим устройством для испытания и/или выполнения испытания с использованием беспроводной связи посредством канала беспроводной связи.The emulation devices may be configured to perform one or more tests on other devices in a lab environment and/or in an operator's network environment. For example, one or more emulation devices may perform one or more functions, or all of the functions, while they are fully or partially implemented and / or deployed as part of a wired and / or wireless communication network, to test other devices in the communication network. One or more emulation devices may perform one or more functions, or all functions, while they are temporarily implemented/deployed as part of a wired and/or wireless communication network. The emulation device may be directly connected to another device for testing and/or performing testing using wireless communication via a wireless communication channel.
Одно или более устройств эмуляции могут выполнять одну или более функций, включая все функции, и при этом не быть реализованными/развернутыми в качестве части проводной и/или беспроводной сети связи. Например, устройства эмуляции можно использовать в сценарии испытания в испытательной лаборатории и/или в неразвернутой (например, испытательной) проводной и/или беспроводной сети связи для проведения испытания одного или более компонентов. Одно или более устройств эмуляции могут представлять собой испытательное оборудование. Для передачи и/или приема данных в устройствах эмуляции можно использовать прямое РЧ-соединение и/или беспроводные связи посредством РЧ-схемы (которая может, например, содержать одну или более антенн).One or more emulation devices may perform one or more functions, including all functions, and yet not be implemented/deployed as part of a wired and/or wireless communication network. For example, emulation devices can be used in a test lab scenario and/or in a non-deployed (eg, test) wired and/or wireless communications network to test one or more components. One or more emulation devices may be test equipment. Emulation devices can use a direct RF connection and/or wireless communications via an RF circuit (which may, for example, include one or more antennas) to transmit and/or receive data.
Описанные в настоящем документе процессы и/или способы могут быть реализованы в компьютерной программе, программном обеспечении и/или микропрограммном обеспечении, записанном в машиночитаемый носитель для исполнения с помощью компьютера и/или процессора. Примеры машиночитаемого носителя включают в себя, без ограничений, электронные сигналы (передаваемые посредством проводных и/или беспроводных соединений) и/или машиночитаемые носители данных. Примеры машиночитаемого носителя данных включают в себя, без ограничений, постоянное запоминающее устройство (ПЗУ), оперативное запоминающее устройство (ОЗУ), реестр, быстродействующую буферную память, полупроводниковые устройства хранения данных, магнитные носители, такие как, без ограничений, внутренние жесткие диски и съемные диски, магнитооптические носители и/или оптические носители, такие как диски CD-ROM и/или цифровые универсальные диски (DVD). Процессор в сочетании с программным обеспечением можно применять для реализации радиочастотного приемопередатчика, предназначенного для применения в WTRU, терминале, базовой станции, RNC и/или любом главном компьютере.The processes and/or methods described herein may be implemented in a computer program, software, and/or firmware recorded on a computer-readable medium for execution by a computer and/or processor. Examples of computer-readable media include, without limitation, electronic signals (transmitted over wired and/or wireless connections) and/or computer-readable storage media. Examples of computer-readable storage media include, without limitation, read-only memory (ROM), random access memory (RAM), registry, high-speed buffer memory, semiconductor storage devices, magnetic media such as, but not limited to, internal hard drives, and removable discs, magneto-optical media and/or optical media such as CD-ROMs and/or digital versatile discs (DVDs). The processor, in combination with software, may be used to implement an RF transceiver for use in a WTRU, terminal, base station, RNC, and/or any host computer.
Claims (81)
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US62/737,303 | 2018-09-27 |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2021110578A RU2021110578A (en) | 2022-10-17 |
RU2786015C2 true RU2786015C2 (en) | 2022-12-15 |
Family
ID=
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2332809C2 (en) * | 2004-03-15 | 2008-08-27 | Самсунг Электроникс Ко., Лтд. | Image encoding device and shift predicting method using turning correlation |
WO2017162912A1 (en) * | 2016-03-24 | 2017-09-28 | Nokia Technologies Oy | An apparatus, a method and a computer program for video coding and decoding |
WO2017220012A1 (en) * | 2016-06-23 | 2017-12-28 | Mediatek Inc. | Method and apparatus of face independent coding structure for vr video |
WO2018009746A1 (en) * | 2016-07-08 | 2018-01-11 | Vid Scale, Inc. | 360-degree video coding using geometry projection |
RU2648592C2 (en) * | 2013-04-08 | 2018-03-26 | МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи | Motion-constrained control data for tile set |
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2332809C2 (en) * | 2004-03-15 | 2008-08-27 | Самсунг Электроникс Ко., Лтд. | Image encoding device and shift predicting method using turning correlation |
RU2648592C2 (en) * | 2013-04-08 | 2018-03-26 | МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи | Motion-constrained control data for tile set |
WO2017162912A1 (en) * | 2016-03-24 | 2017-09-28 | Nokia Technologies Oy | An apparatus, a method and a computer program for video coding and decoding |
WO2017220012A1 (en) * | 2016-06-23 | 2017-12-28 | Mediatek Inc. | Method and apparatus of face independent coding structure for vr video |
WO2018009746A1 (en) * | 2016-07-08 | 2018-01-11 | Vid Scale, Inc. | 360-degree video coding using geometry projection |
Non-Patent Citations (1)
Title |
---|
PHILIPPE HANHART et al, AHG8: Horizontal geometry padding for PERP, Joint Video Experts Team (JVET) of ITU-T SG16 WP3 and ISO/IEC JTC 1/SC 29/WG 11, JVET-K0333, 11th Meeting: Ljubljana, 10-18 July 2018. YUWEN HE еt al, AHG8: Geometry padding for 360 video coding, Joint Video Exploration Team (JVET) of ITU-T SG16 WP3 and ISO/IEC JTC 1/SC 29/WG 11, JVET-D0075, 4th Meeting: Chengdu, 15-21 October 2016. * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11601676B2 (en) | Sample derivation for 360-degree video coding | |
JP7357747B2 (en) | 360 degree video coding using surface continuity | |
US12003770B2 (en) | Face discontinuity filtering for 360-degree video coding | |
US20220377385A1 (en) | Handling face discontinuities in 360-degree video coding | |
JP7406378B2 (en) | Adaptive quantization for 360 degree video coding | |
CN111602401B (en) | Adaptive frame encapsulation for 360 degree video coding | |
WO2019089382A1 (en) | 360-degree video coding using face-based geometry padding | |
RU2786015C2 (en) | Obtainment of sample for encoding of 360-degree video |