CN110622483A - 改进用于360度自适应流传输的体验的度量和消息 - Google Patents
改进用于360度自适应流传输的体验的度量和消息 Download PDFInfo
- Publication number
- CN110622483A CN110622483A CN201880031651.3A CN201880031651A CN110622483A CN 110622483 A CN110622483 A CN 110622483A CN 201880031651 A CN201880031651 A CN 201880031651A CN 110622483 A CN110622483 A CN 110622483A
- Authority
- CN
- China
- Prior art keywords
- viewport
- quality
- time
- video segments
- dash
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003044 adaptive effect Effects 0.000 title claims description 14
- 230000033001 locomotion Effects 0.000 claims abstract description 62
- 230000008859 change Effects 0.000 claims description 22
- 238000000034 method Methods 0.000 abstract description 34
- 238000009877 rendering Methods 0.000 description 39
- 238000004891 communication Methods 0.000 description 37
- 230000035945 sensitivity Effects 0.000 description 24
- 238000005516 engineering process Methods 0.000 description 21
- 238000012545 processing Methods 0.000 description 20
- 230000000875 corresponding effect Effects 0.000 description 17
- 230000006870 function Effects 0.000 description 14
- 238000007726 management method Methods 0.000 description 14
- 230000005540 biological transmission Effects 0.000 description 12
- 238000012384 transportation and delivery Methods 0.000 description 11
- 230000006978 adaptation Effects 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 9
- 238000012360 testing method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 239000004576 sand Substances 0.000 description 8
- 239000013598 vector Substances 0.000 description 8
- 238000001228 spectrum Methods 0.000 description 7
- 230000001419 dependent effect Effects 0.000 description 6
- 230000004886 head movement Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 239000002356 single layer Substances 0.000 description 6
- 230000001413 cellular effect Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 239000000969 carrier Substances 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 230000001960 triggered effect Effects 0.000 description 4
- 241000760358 Enodes Species 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000011664 signaling Effects 0.000 description 3
- 241000040561 Arielulus aureocollaris Species 0.000 description 2
- 101100172132 Mus musculus Eif3a gene Proteins 0.000 description 2
- 238000004873 anchoring Methods 0.000 description 2
- 230000033228 biological regulation Effects 0.000 description 2
- 238000013499 data model Methods 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 238000005538 encapsulation Methods 0.000 description 2
- 229910001416 lithium ion Inorganic materials 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000012092 media component Substances 0.000 description 2
- 201000003152 motion sickness Diseases 0.000 description 2
- QELJHCBNGDEXLD-UHFFFAOYSA-N nickel zinc Chemical compound [Ni].[Zn] QELJHCBNGDEXLD-UHFFFAOYSA-N 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000004806 packaging method and process Methods 0.000 description 2
- 238000004091 panning Methods 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000014616 translation Effects 0.000 description 2
- 208000036829 Device dislocation Diseases 0.000 description 1
- 230000005355 Hall effect Effects 0.000 description 1
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 206010029412 Nightmare Diseases 0.000 description 1
- 241000700159 Rattus Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- OJIJEKBXJYRIBZ-UHFFFAOYSA-N cadmium nickel Chemical compound [Ni].[Cd] OJIJEKBXJYRIBZ-UHFFFAOYSA-N 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000002716 delivery method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- GVVPGTZRZFNKDS-JXMROGBWSA-N geranyl diphosphate Chemical compound CC(C)=CCC\C(C)=C\CO[P@](O)(=O)OP(O)(O)=O GVVPGTZRZFNKDS-JXMROGBWSA-N 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000013028 medium composition Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 229910052987 metal hydride Inorganic materials 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 229910052759 nickel Inorganic materials 0.000 description 1
- PXHVJJICTQNCMI-UHFFFAOYSA-N nickel Substances [Ni] PXHVJJICTQNCMI-UHFFFAOYSA-N 0.000 description 1
- -1 nickel metal hydride Chemical class 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000000411 transmission spectrum Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 229910052727 yttrium Inorganic materials 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/80—Responding to QoS
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/61—Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
- H04L65/612—Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/23439—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4728—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
- H04N21/6587—Control parameters, e.g. trick play commands, viewpoint selection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/87—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Computer Hardware Design (AREA)
- Mobile Radio Communication Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Transfer Between Computers (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
所提供的是一种用于接收和显示媒体内容的方法。所述方法可以包括请求与不同视口和质量相关联的DASH视频分段集合。所述方法可以包括显示所述DASH视频分段。所述方法可以包括基于DASH视频分段的所述显示与以下各项中的一者之间的时间差来确定时延度量:设备开始移动、所述设备终止移动、所述设备确定该设备已开始移动、所述设备确定该设备已停止移动或不同DASH视频分段的显示。所述不同DASH视频分段可以与不同质量或不同视口中的一者或多者相关联。
Description
相关申请的交叉引用
本申请要求享有2017年03月23日提交的美国临时专利申请62/475,563、2017年06月26日提交的美国临时专利申请62/525,065、2018年02月28日提交的美国临时专利申请62/636,795的权益,所述申请的内容在这里被引入以作为参考。
背景技术
360°视频是一种在媒体行业中出现的快速发展的格式。360°视频能够通过不断增长的虚拟现实(VR)设备的可用性来实现。360°视频可以为观看者提供全新的临场感。与直线视频(例如2D或3D)相比,360°视频在视频处理和/或递送方面提出了非常困难的工程挑战。启用舒适和/或沉浸式的用户体验会需要很高的视频质量和/或很低的时延。360°视频的大型视频尺寸可能会妨碍到以质量的方式大规模地递送360°视频。
360°视频应用和/或服务可以将整个360°视频编码到符合标准的流中,以便执行渐进式下载和/或自适应流传输。通过将整个360°视频递送给客户端,能够实现低时延渲染(例如,客户端可以访问整个360°视频内容,和/或可以在没有进一步约束的情况下选择渲染其期望观看的部分)。从服务器的角度来看,同一个流可以使用有可能不同的视口来支持多个用户。视频的大小有可能会很高,由此会在递送视频的时候招致很高的传输带宽(作为示例,其原因在于整个360°视频都会被高质量编码,例如以每只眼睛4K@60fps或6K@90fps的方式编码)。作为示例,由于用户可能只观看整个画面的一小部分(例如一个视口),因此,递送过程中的这种高带宽消耗可能不会产生效果。
发明内容
所提供的可以是用于在一个或多个流传输客户端、一个或多个内容原始服务器、一个或多个量度/分析服务器和/或其他视频流传输辅助网络部件之间交换信息的系统、方法和手段。
举例来说,流传输客户端可以以一致的方式产生并报告其支持的度量,并且各种网络部件可以生成流传输辅助消息以及向流传输客户端或彼此发送流传输辅助消息。不同客户端、播放器、设备和网络的性能可以被监视和比较。问题可被以实时或离线的方式调试,并且一个或多个故障可被以实时或离线的方式隔离。
举例来说,借助服务器和网络辅助的一个或多个超文本传输协议(SAND)消息上的动态自适应流传输,可以将视口视图统计信息从客户端报告给度量服务器。所报告的可以是与VR设备相关联的信息。流传输客户端可以测量和报告一个或多个时延参数,例如视口切换时延、初始时延以及安置(settling)时延。在网络部件(例如原始服务器,内容递送网络服务器,以及客户端或度量服务器)之间可以测量和交换一个或多个头戴式设备(HMD)的精度和灵敏度。初始渲染方位信息可以借助一个或多个SAND消息而被发送到VR设备。
虽然在这里使用了超文本传输协议的动态自适应流传输(DASH)术语来描述系统、方法和手段,但是本领域技术人员将会了解,这些系统、方法和手段同样适用于其他的流传输标准及实施方式。
用于接收和显示媒体内容的设备可以显示第一视口。该第一视口可以由一个或多个通过HTTP的动态自适应流传输(DASH)视频分段的至少一部分组成。该第一视口可以具有第一质量。该设备可以在第一时间确定该设备的运动。设备的移动可以包括以下的一项或多项:设备在第一视口之外的移动、设备的方位变化或缩放操作。当一个或多个视口切换参数的变化等于或大于阈值时,设备可以检测到设备运动。作为示例,该视口切换参数可以包括以下的的一项或多项:中心方位角(center_azimuth)、中心仰角(center_elevation)、中心倾斜角(center_tilt)、方位角范围(azimuth_range)以及仰角范围(elevation_range)。
该设备可以显示第二视口。该第二视口可以在第二时间由一个或多个DASH视频分段的至少一部分组成。该第二视口可以具有小于第一质量的第二质量。作为替换,该第二视口可以具有等于或大于第一质量的第二质量。设备可以基于第一时间和第二时间来确定视口切换时延度量,并且可以发送视口切换时延度量。
该设备可以显示第三视口。该第三视口可以在第三时间由一个或多个DASH视频分段的至少一部分组成。第三视口可以具有大于第二质量的第三质量。第三质量可以等于或大于第一质量,或者第三质量也可以等于或大于一个质量阈值,但是小于第一质量。在一个示例中,第一质量与第三质量之间的绝对差可以等于或小于一个质量阈值。每一个DASH视频分段可以具有相应的质量。设备可以基于用于构成相应视口的一个或多个DASH视频分段的相关部分和相应质量来确定第一、第二或第三质量。举例来说,设备可以使用用于构成视口的一个或多个DASH视频分段中的每一个分段的相应质量的平均值、最大值、最小值或加权平均值来确定视口的质量。设备可以基于第一时间与第三时间之间的差值来确定一个质量视口切换时延度量,并且可以发送该质量视口切换时延度量。
设备可以确定视口丢失以及该视口丢失是否影响到了所显示的第一视口、第二视口或第三视口中的至少一个。设备可以确定与视口丢失相关联的信息(例如基于视口丢失会影响所显示的第一视口、第二视口或第三视口中的至少一个的条件)。与视口丢失相关联的信息可以包括视口丢失理由以及与视口丢失相关联的DASH视频分段。设备可以发送指示了与视口丢失相关联的信息的视口丢失度量。与视口丢失相关联的信息可以包括以下的一项或多项:确定视口丢失的时间、分组的源URL以及视口丢失的差错类型。视口丢失的原因可以包括以下各项之一:服务器差错、客户端差错、分组丢失、分组差错或分组丢弃。
设备可以请求一组与不同视口和质量相关联的DASH视频分段。该设备可以显示这些DASH视频分段。该设备可以基于显示DASH视频分段与以下各项之一之间的时间差来确定时延度量:设备开始移动、设备终止(ceasing)移动、设备确定该设备已开始移动、设备确定该设备已停止移动或是显示不同DASH视频分段。不同的DASH视频分段可以与不同的质量和/或不同的视口相关联。
用于接收和显示媒体内容的设备可以在第一时间显示第一视口。该第一视口可以包括一个或多个DASH视频分段的至少一部分。该第一视口可以具有第一质量。设备可以在第二时间检测到该设备运动。当设备与第二视口相关联时,设备可以确定该设备在第三次已经停止移动。设备可以在第四时间显示第二视口。该第二视口可以包括一个或多个DASH视频分段的至少一部分。该第二视口可以与第二质量相关联。设备可以在第五时间显示第三视口。该第三视口可以包括一个或多个DASH视频分段的至少一部分。该第三视口可以与大于第二质量的第三质量相关联。该第三质量可以等于或大于第一质量,或者该第三质量可以大于一个质量阈值但小于第一质量。设备会第一时间、第二时间、第三时间、第四时间和第五时间中的两个或更多时间之间的时间差来确定和发送时延度量。
附图说明
图1A是示出了可以实施所公开的一个或多个实施例的例示通信系统的系统图示;
图1B是示出了根据一个实施例的可以在图1A所示的通信系统内部使用的例示的无线发射/接收单元(WTRU)的系统图示;
图1C是示出了根据一个实施例的可以在图1A所示的通信系统内部使用的例示无线电接入网络(RAN)和例示核心网络(CN)的系统图示;
图1D是示出了根据一个实施例的可以在图1A所示的通信系统内部使用的另一个例示RAN和另一个例示CN的系统图示;
图2描述了在头戴式设备(HMD)上显示的360°视频的例示部分。
图3描述了一个用于360°视频的例示的等矩形(equirectangular)投影。
图4描述了例示的360°视频映射。
图5描述了一个例示的媒体呈现描述(MPD)分层数据模型。
图6显示了一个关于在网络部件与客户端之间交换的SAND消息的示例。
图7显示了一个关于VR度量客户端参考模型的示例。
图8显示了一个关于3D运动跟踪范围的示例。
图9显示了一个关于具有多个传感器的2D运动追踪交叉范围的示例。
图10显示了一个关于视口切换事件的示例。
图11显示一个关于360视频缩放操作的示例。
图12显示了一个针对子画面情形的加权视口质量的示例。
图13显示了一个针对区域级质量排序(RWQR)编码情形的加权视口质量的示例。
图14显示了一个关于等质量视口切换事件的示例。
图15显示了一个关于360视频缩放示例的示例。
图16显示了一个关于时延间隔的示例。
图17显示了在DANE与DASH客户端之间或者在DASH客户端与度量服务器之间的SAND消息的消息流的示例。
具体实施方式
图1A是示出了可以实施所公开的一个或多个实施例的例示通信系统100的图示。该通信系统100可以是为多个无线用户提供语音、数据、视频、消息传递、广播等内容的多址接入系统。该通信系统100可以通过共享包括无线带宽在内的系统资源而使多个无线用户能够访问此类内容。举例来说,通信系统100可以使用一种或多种信道接入方法,例如码分多址(CDMA)、时分多址(TDMA)、频分多址(FDMA)、正交FDMA(OFDMA)、单载波FDMA(SC-FDMA)、零尾唯一字DFT扩展OFDM(ZT UW DTS-s OFDM)、唯一字OFDM(UW-OFDM)、资源块过滤OFDM以及滤波器组多载波(FBMC)等等。
如图1A所示,通信系统100可以包括无线发射/接收单元(WTRU)102a、102b、102c、102d、RAN 104/113、CN 106/115、公共交换电话网络(PSTN)108、因特网110以及其他网络112,然而应该了解,所公开的实施例设想了任意数量的WTRU、基站、网络和/或网络部件。每一个WTRU 102a、102b、102c、102d可以是被配置成在无线环境中工作和/或通信的任何类型的设备。举例来说,任一WTRU 102a、102b、102c、102d都可被称为“站”和/或“STA”,其可以被配置成发射和/或接收无线信号,并且可以包括用户设备(UE)、移动站、固定或移动订户单元、基于签约的单元、寻呼机、蜂窝电话、个人数字助理(PDA)、智能电话、膝上型计算机、上网本、个人计算机、无线传感器、热点或Mi-Fi设备、物联网(IoT)设备、手表或其他可穿戴设备、头戴显示器(HMD)、车辆、无人机、医疗设备和应用(例如远程手术)、工业设备和应用(例如机器人和/或在工业和/或自动处理链环境中工作的其他无线设备)、消费类电子设备、以及在商业和/或工业无线网络上工作的设备等等。WTRU 102a、102b、102c、102d可被可交换地称为UE。
通信系统100还可以包括基站114a和/或基站114b。每一个基站114a和/或基站114b可以是被配置成通过以无线方式与WTRU 102a、102b、102c、102d中的至少一个无线对接来促使其接入一个或多个通信网络(例如CN106/115、因特网110、和/或其他网络112)的任何类型的设备。例如,基站114a、114b可以是基地收发信台(BTS)、节点B、e节点B、家庭节点B、家庭e节点B、gNB、NR节点B、站点控制器、接入点(AP)、以及无线路由器等等。虽然每一个基站114a、114b都被描述成了单个部件,然而应该了解,基站114a、114b可以包括任何数量的互连基站和/或网络部件。
基站114a可以是RAN 104/113的一部分,并且所述RAN还可以包括其他基站和/或网络部件(未显示),例如基站控制器(BSC)、无线电网络控制器(RNC)、中继节点等等。基站114a和/或基站114b可被配置成在名为小区(未显示)的一个或多个载波频率上发射和/或接收无线信号。这些频率可以处于授权频谱、无授权频谱或是授权与无授权频谱的组合之中。小区可以为相对固定或者有可能随时间变化的特定地理区域提供无线服务覆盖。小区可被进一步分成小区扇区。例如,与基站114a相关联的小区可被分为三个扇区。由此,在一个实施例中,基站114a可以包括三个收发信机,也就是说,每一个收发信机都对应于小区的一个扇区。在一个实施例中,基站114a可以使用多输入多输出(MIMO)技术,并且可以为小区的每一个扇区使用多个收发信机。例如,通过使用波束成形,可以在期望的空间方向上发射和/或接收信号。
基站114a、114b可以通过空中接口116来与WTRU 102a、102b、102c、102d中的一个或多个进行通信,其中所述空中接口116可以是任何适当的无线通信链路(例如射频(RF)、微波、厘米波、毫米波、红外线(IR)、紫外线(UV)、可见光等等)。空中接口116可以使用任何适当的无线电接入技术(RAT)来建立。
更具体地说,如上所述,通信系统100可以是多址接入系统,并且可以使用一种或多种信道接入方案,例如CDMA、TDMA、FDMA、OFDMA以及SC-FDMA等等。例如,RAN 104/113中的基站114a与WTRU 102a、102b、102c可以实施某种无线电技术,例如通用移动电信系统(UMTS)陆地无线电接入(UTRA),其中所述技术可以使用宽带CDMA(WCDMA)来建立空中接口115/116/117。WCDMA可以包括如高速分组接入(HSPA)和/或演进型HSPA(HSPA+)之类的通信协议。HSPA可以包括高速下行链路(DL)分组接入(HSDPA)和/或高速UL分组接入(HSUPA)。
在一个实施例中,基站114a和WTRU 102a、102b、102c可以某种无线电技术,例如演进型UMTS陆地无线电接入(E-UTRA),其中所述技术可以使用长期演进(LTE)和/或先进LTE(LTE-A)和/或先进LTA Pro(LTE-A Pro)来建立空中接口116。
在一个实施例中,基站114a和WTRU 102a、102b、102c可以实施某种无线电技术,例如NR无线电接入,其中所述无线电技术可以使用新型无线电(NR)建立空中接口116。
在一个实施例中,基站114a和WTRU 102a、102b、102c可以实施多种无线电接入技术。例如,基站114a和WTRU 102a、102b、102c可以共同实施LTE无线电接入和NR无线电接入(例如使用双连接(DC)原理)。由此,WTRU 102a、102b、102c使用的空中接口可以通过多种类型的无线电接入技术和/或向/从多种类型的基站(例如eNB和gNB)发送的传输来表征。
在其他实施例中,基站114a和WTRU 102a、102b、102c可以实施以下的无线电技术,例如IEEE 802.11(即无线高保真(WiFi))、IEEE 802.16(全球微波接入互操作性(WiMAX))、CDMA2000、CDMA2000 1X、CDMA2000EV-DO、临时标准2000(IS-2000)、临时标准95(IS-95)、临时标准856(IS-856)、全球移动通信系统(GSM)、用于GSM演进的增强数据速率(EDGE)以及GSM EDGE(GERAN)等等。
图1A中的基站114b可以是无线路由器、家庭节点B、家庭e节点B或接入点,并且可以使用任何适当的RAT来促成局部区域中的无线连接,例如营业场所、住宅、车辆、校园、工业设施、空中走廊(例如供无人机使用)以及道路等等。在一个实施例中,基站114b与WTRU102c、102d可以通过实施IEEE 802.11之类的无线电技术来建立无线局域网络(WLAN)。在一个实施例中,基站114b与WTRU 102c、102d可以通过实施IEEE 802.15之类的无线电技术来建立无线个人局域网(WPAN)。在再一个实施例中,基站114b和WTRU 102c、102d可通过使用基于蜂窝的RAT(例如WCDMA、CDMA2000、GSM、LTE、LTE-A、LTE-A Pro、NR等等)来建立微微小区或毫微微小区。如图1A所示,基站114b可以直连到因特网110。由此,基站114b不需要经由CN 106/115来接入因特网110。
RAN 104/113可以与CN 106/115进行通信,所述CN106/115可以是被配置成向WTRU102a、102b、102c、102d中的一者或多者提供语音、数据、应用和/或借助网际协议语音(VoIP)服务的任何类型的网络。该数据可以具有不同的服务质量(QoS)需求,例如不同的吞吐量需求、时延需求、容错需求、可靠性需求、数据吞吐量需求、以及移动性需求等等。CN106/115可以提供呼叫控制、记账服务、基于移动位置的服务、预付费呼叫、因特网连接、视频分发等等,和/或可以执行用户验证之类的高级安全功能。虽然在图1A中没有显示,然而应该了解,RAN 104/113和/或CN 106/115可以直接或间接地和其他那些与RAN 104/113使用相同RAT或不同RAT的RAN进行通信。例如,除了与使用NR无线电技术的RAN 104/113相连之外,CN106/115还可以与使用GSM、UMTS、CDMA 2000、WiMAX、E-UTRA或WiFi无线电技术的别的RAN(未显示)通信。
CN 106/115还可以充当供WTRU 102a、102b、102c、102d接入PSTN 108、因特网110和/或其他网络112的网关。PSTN 108可以包括提供简易老式电话服务(POTS)的电路交换电话网络。因特网110可以包括使用了公共通信协议(例如TCP/IP网际协议族中的传输控制协议(TCP)、用户数据报协议(UDP)和/或网际协议(IP))的全球性互联计算机网络设备系统。网络112可以包括由其他服务供应商拥有和/或运营的有线或无线通信网络。例如,网络112可以包括与一个或多个RAN相连的另一个CN,其中所述一个或多个RAN可以与RAN 104/113使用相同的RAT或不同的RAT。
通信系统100中一些或所有WTRU 102a、102b、102c、102d可以包括多模能力(例如WTRU 102a、102b、102c、102d可以包括在不同无线链路上与不同无线网络通信的多个收发信机)。例如,图1A所示的WTRU 102c可被配置成与使用基于蜂窝的无线电技术的基站114a通信,以及与可以使用IEEE 802无线电技术的基站114b通信。
图1B是示出了例示WTRU 102的系统图示。如图1B所示,WTRU 102可以包括处理器118、收发信机120、发射/接收部件122、扬声器/麦克风124、键盘126、显示器/触摸板128、不可移除存储器130、可移除存储器132、电源134、全球定位系统(GPS)芯片组136以及其他周边设备138。应该了解的是,在保持符合实施例的同时,WTRU 102还可以包括前述部件的任何子组合。
处理器118可以是通用处理器、专用处理器、常规处理器、数字信号处理器(DSP)、多个微处理器、与DSP核心关联的一个或多个微处理器、控制器、微控制器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)电路、其他任何类型的集成电路(IC)以及状态机等等。处理器118可以执行信号编码、数据处理、功率控制、输入/输出处理、和/或其他任何能使WTRU102在无线环境中工作的功能。处理器118可以耦合至收发信机120,收发信机120可以耦合至发射/接收部件122。虽然图1B将处理器118和收发信机120描述成单独组件,然而应该了解,处理器118和收发信机120也可以集成在一个电子组件或芯片中。
发射/接收部件122可被配置成经由空中接口116来发射去往基站(例如基站114a)或接收来自所述基站的信号。举个例子,在一个实施例中,发射/接收部件122可以是被配置成发射和/或接收RF信号的天线。作为示例,在另一个实施例中,发射/接收部件122可以是被配置成发射和/或接收IR、UV或可见光信号的放射器/检测器。在再一个实施例中,发射/接收部件122可被配置成发射和接收RF和光信号。应该了解的是,发射/接收部件122可以被配置成发射和/或接收无线信号的任何组合。
虽然在图1B中将发射/接收部件122描述成是单个部件,但是WTRU 102可以包括任何数量的发射/接收部件122。更具体地说,WTRU 102可以使用MIMO技术。由此,在一个实施例中,WTRU 102可以包括两个或多个通过空中接口116来发射和接收无线电信号的发射/接收部件122(例如多个天线)。
收发信机120可被配置成对发射/接收部件122所要传送的信号进行调制,以及对发射/接收部件122接收的信号进行解调。如上所述,WTRU 102可以具有多模能力。因此,收发信机120可以包括允许WTRU 102借助多种RAT(例如NR和IEEE 802.11)来进行通信的多个收发信机。
WTRU 102的处理器118可以耦合到扬声器/麦克风124、键盘126和/或显示器/触摸板128(例如液晶显示器(LCD)显示单元或有机发光二极管(OLED)显示单元),并且可以接收来自这些部件的用户输入数据。处理器118还可以向扬声器/麦克风124、键盘126和/或显示器/触摸板128输出用户数据。此外,处理器118可以从诸如不可移除存储器130和/或可移除存储器132之类的任何适当的存储器中访问信息,以及将数据存入这些存储器。不可移除存储器130可以包括随机存取存储器(RAM)、只读存储器(ROM)、硬盘或是其他任何类型的记忆存储设备。可移除存储器132可以包括订户身份模块(SIM)卡、记忆棒、安全数字(SD)记忆卡等等。在其他实施例中,处理器118可以从那些并非实际位于WTRU 102的存储器访问信息,以及将数据存入这些存储器,作为示例,此类存储器可以位于服务器或家庭计算机(未显示)。
处理器118可以接收来自电源134的电力,并且可被配置分发和/或控制用于WTRU102中的其他组件的电力。电源134可以是为WTRU 102供电的任何适当设备。例如,电源134可以包括一个或多个干电池组(如镍镉(Ni-Cd)、镍锌(Ni-Zn)、镍氢(NiMH)、锂离子(Li-ion)等等)、太阳能电池以及燃料电池等等。
处理器118还可以耦合到GPS芯片组136,该芯片组136可被配置成提供与WTRU 102的当前位置相关的位置信息(例如经度和纬度)。作为来自GPS芯片组136的信息的补充或替换,WTRU 102可以经由空中接口116接收来自基站(例如基站114a、114b)的位置信息,和/或根据从两个或多个附近基站接收的信号定时来确定其位置。应该了解的是,在保持符合实施例的同时,WTRU 102可以借助任何适当的定位方法来获取位置信息。
处理器118可以进一步耦合到其他周边设备138,所述周边设备138可以包括提供附加特征、功能和/或有线或无线连接的一个或多个软件和/或硬件模块。例如,周边设备138可以包括加速度计、电子指南针、卫星收发信机、数码相机(用于照片和视频)、通用串行总线(USB)端口、振动设备、电视收发信机、免提耳机、模块、调频(FM)无线电单元、数字音乐播放器、媒体播放器、视频游戏机模块、因特网浏览器、虚拟现实和/或增强现实(VR/AR)设备、以及活动跟踪器等等。周边设备138可以包括一个或多个传感器,所述传感器可以是以下的一个或多个:陀螺仪、加速度计、霍尔效应传感器、磁强计、方位传感器、邻近传感器、温度传感器、时间传感器、地理位置传感器、高度计、光传感器、接触传感器、磁力计、气压计、姿态传感器、生物测定传感器和/或湿度传感器。
WTRU 102可以包括全双工无线电设备,其中对于该无线电设备来说,一些或所有信号(例如与用于UL(例如对传输而言)和下行链路(例如对接收而言)的特定子帧相关联)的接收或传输可以是并发和/或同时的。全双工无线电设备可以包括借助于硬件(例如扼流线圈)或是凭借处理器(例如单独的处理器(未显示)或是凭借处理器118)的信号处理来减小和/或基本消除自干扰的接口管理单元。在一个实施例中,WTRU 102可以包括传送或接收一些或所有信号(例如与用于UL(例如对传输而言)或下行链路(例如对接收而言)的特定子帧相关联)的半双工无线电设备。
图1C是示出了根据一个实施例的RAN 104和CN 106的系统图示。如上所述,RAN104可以通过空中接口116使用E-UTRA无线电技术来与WTRU 102a、102b、102c进行通信。所述RAN 104还可以与CN 106进行通信。
RAN 104可以包括e节点B 160a、160b、160c,然而应该了解,在保持符合实施例的同时,RAN 104可以包括任何数量的e节点B。每一个e节点B 160a、160b、160c都可以包括通过空中接口116与WTRU 102a、102b、102c通信的一个或多个收发信机。在一个实施例中,e节点B 160a、160b、160c可以实施MIMO技术。由此,举例来说,e节点B 160a可以使用多个天线来向WTRU 102a发射无线信号,和/或以及接收来自WTRU 102a的无线信号。
每一个e节点B 160a、160b、160c都可以关联于一个特定小区(未显示),并且可被配置成处理无线电资源管理决策、切换决策、UL和/或DL中的用户调度等等。如图1C所示,e节点B 160a、160b、160c彼此可以通过X2接口进行通信。
图1C显示的CN 106可以包括移动性管理网关(MME)162、服务网关(SGW)164以及分组数据网络(PDN)网关(或PGW)166。虽然前述的每一个部件都被描述成是CN 106的一部分,然而应该了解,这其中的任一部件都可以由CN运营商之外的实体拥有和/或运营。
MME 162可以经由S1接口连接到RAN 104中的每一个e节点B 160a、160b、160c,并且可以充当控制节点。例如,MME 142可以负责验证WTRU 102a、102b、102c的用户,执行承载激活/去激活,以及在WTRU 102a、102b、102c的初始附着过程中选择特定的服务网关等等。MME 162还可以提供一个用于在RAN 104与使用其他无线电技术(例如GSM或WCDMA)的其他RAN(未显示)之间进行切换的控制平面功能。
SGW 164可以经由S1接口连接到RAN 104中的每一个e节点B 160a、160b、160c。SGW164通常可以路由和转发去往/来自WTRU 102a、102b、102c的用户数据分组。并且,SGW 164还可以执行其他功能,例如在eNB间的切换过程中锚定用户平面,在DL数据可供WTRU 102a、102b、102c使用时触发寻呼处理,以及管理并存储WTRU 102a、102b、102c的上下文等等。
SGW 164可以连接到PGW 166,所述PGW166可以为WTRU 102a、102b、102c提供针对分组交换网络(例如因特网110)的接入,以便促成WTRU 102a、102b、102c与启用IP的设备之间的通信。
CN 106可以促成与其他网络的通信。例如,CN 106可以为WTRU 102a、102b、102c提供针对电路交换网络(例如PSTN 108)的接入,以便促成WTRU 102a、102b、102c与传统的陆线通信设备之间的通信。例如,CN 106可以包括一个IP网关(例如IP多媒体子系统(IMS)服务器)或与之进行通信,并且该IP网关可以充当CN 106与PSTN 108之间的接口。此外,CN106可以为WTRU 102a、102b、102c提供针对其他网络112的接入,该其他网络112可以包括其他服务供应商拥有和/或运营的其他有线或无线网络。
虽然在图1A-1D中将WTRU描述成了无线终端,然而应该想到的是,在某些典型实施例中,此类终端与通信网络可以使用(例如临时或永久性)有线通信接口。
在典型的实施例中,其他网络112可以是WLAN。
采用基础架构基本服务集(BSS)模式的WLAN可以具有用于所述BSS的接入点(AP)以及与所述AP相关联的一个或多个站(STA)。所述AP可以访问或是对接到分布式系统(DS)或是将业务量送入和/或送出BSS的别的类型的有线/无线网络。源于BSS外部且去往STA的业务量可以通过AP到达并被递送至STA。源自STA且去往BSS外部的目的地的业务量可被发送至AP,以便递送到相应的目的地。处于BSS内部的STA之间的业务量可以通过AP来发送,例如在源STA可以向AP发送业务量并且AP可以将业务量递送至目的地STA的情况下。处于BSS内部的STA之间的业务量可被认为和/或称为点到点业务量。所述点到点业务量可以在源与目的地STA之间(例如在其间直接)用直接链路建立(DLS)来发送。在某些典型实施例中,DLS可以使用802.11e DLS或802.11z隧道化DLS(TDLS)。举例来说,使用独立BSS(IBSS)模式的WLAN不具有AP,并且处于所述IBSS内部或是使用所述IBSS的STA(例如所有STA)彼此可以直接通信。在这里,IBSS通信模式有时可被称为“自组织”通信模式。
在使用802.11ac基础设施工作模式或类似的工作模式时,AP可以在固定信道(例如主信道)上传送信标。所述主信道可以具有固定宽度(例如20MHz的带宽)或是借助信令动态设置的宽度。主信道可以是BSS的工作信道,并且可被STA用来与AP建立连接。在某些典型实施例中,所实施的可以是具有冲突避免的载波感测多址接入(CSMA/CA)(例如在802.11系统中)。对于CSMA/CA来说,包括AP在内的STA(例如每一个STA)可以感测主信道。如果特定STA感测到/检测到和/或确定主信道繁忙,那么所述特定STA可以回退。在指定的BSS中,在任何指定时间都有一个STA(例如只有一个站)进行传输。
高吞吐量(HT)STA可以使用宽度为40MHz的信道来进行通信(例如借助于将宽度为20MHz的主信道与相邻或不相邻的宽度为20MHz的信道相结合来形成宽度为40MHz的信道)。
甚高吞吐量(VHT)STA可以支持宽度为20MHz、40MHz、80MHz和/或160MHz的信道。40MHz和/或80MHz信道可以通过组合连续的20MHz信道来形成。160MHz信道可以通过组合8个连续的20MHz信道或者通过组合两个不连续的80MHz信道(这种组合可被称为80+80配置)来形成。对于80+80配置来说,在信道编码之后,数据可被传递并经过一个分段解析器,所述分段解析器可以将数据分成两个流。在每一个流上可以单独执行反向快速傅里叶变换(IFFT)处理以及时域处理。所述流可被映射在两个80MHz信道上,并且数据可以由传输STA来传送。在接收STA的接收机上,用于80+80配置的上述操作可以是相反的,并且组合数据可被发送至介质访问控制(MAC)。
802.11af和802.11ah支持次1GHz的工作模式。相比于802.11n和802.11ac,在802.11af和802.11ah中使用的信道工作带宽和载波有所缩减。802.11af在TV白空间(TVWS)频谱中支持5MHz、10MHz和20MHz带宽,并且802.11ah支持使用非TVWS频谱的1MHz、2MHz、4MHz、8MHz和16MHz带宽。依照典型实施例,802.11ah可以支持仪表类型控制/机器类型通信(例如宏覆盖区域中的MTC设备)。MTC可以具有某种能力,例如包含了支持(例如只支持)某些和/或有限带宽在内的受限能力。MTC设备可以包括电池,并且该电池的电池寿命高于阈值(例如用于保持很长的电池寿命)。
对于可以支持多个信道和信道带宽的WLAN系统(例如802.11n、802.11ac、802.11af以及802.11ah)来说,这些系统包含了一个可被指定成主信道的信道。所述主信道的带宽可以等于BSS中的所有STA所支持的最大公共工作带宽。主信道的带宽可以由某一个STA设置和/或限制,其中所述STA源自在支持最小带宽工作模式的BSS中工作的所有STA。在关于802.11ah的示例中,即使BSS中的AP和其他STA支持2MHz、4MHz、8MHz、16MHz和/或其他信道带宽工作模式,但对支持(例如只支持)1MHz模式的STA(例如MTC类型的设备)来说,主信道的宽度可以是1MHz。载波感测和/或网络分配矢量(NAV)设置可以取决于主信道的状态。如果主信道繁忙(例如因为STA(其只支持1MHz工作模式)对AP进行传输),那么即使大多数的频带保持空间并且可供使用,也可以认为整个可用频带繁忙。
在美国,可供802.11ah使用的可用频带是902MHz到928MHz。在韩国,可用频带是917.5MHz到923.5MHz。在日本,可用频带是916.5MHz到927.5MHz。依照国家码,可用于802.11ah的总带宽是6MHz到26MHz。
图1D是示出了根据一个实施例的RAN 113和CN 115的系统图示。如上所述,RAN113可以通过空中接口116使用NR无线电技术来与WTRU102a、102b、102c进行通信。RAN 113还可以与CN 115进行通信。
RAN 113可以包括gNB 180a、180b、180c,但是应该了解,在保持符合实施例的同时,RAN 113可以包括任何数量的gNB。每一个gNB 180a、180b、180c都可以包括一个或多个收发信机,以便通过空中接口116来与WTRU 102a、102b、102c通信。在一个实施例中,gNB180a、180b、180c可以实施MIMO技术。例如,gNB 180a、180b、180c可以使用波束成形来向gNB180a、180b、180c发射信号和/或从gNB 180a、180b、180c接收信号。由此,举例来说,gNB180a可以使用多个天线来向WTRU 102a发射无线信号,和/或接收来自WTRU 102a的无线信号。在一个实施例中,gNB 180a、180b、180c可以实施载波聚合技术。例如,gNB 180a可以向WTR 102a传送多个分量载波(未显示)。这些分量载波的一个子集可以处于无授权频谱上,而剩余分量载波则可以处于授权频谱上。在一个实施例中,gNB 180a、180b、180c可以实施协作多点(CoMP)技术。例如,WTRU 102a可以接收来自gNB 180a和gNB 180b(和/或gNB180c)的协作传输。
WTRU 102a、102b、102c可以使用与可扩缩参数配置相关联的传输来与gNB 180a、180b、180c进行通信。例如,对于不同的传输、不同的小区和/或不同的无线传输频谱部分来说,OFDM符号间隔和/或OFDM子载波间隔可以是不同的。WTRU 102a、102b、102c可以使用具有不同或可扩缩长度的子帧或传输时间间隔(TTI)(例如包含了不同数量的OFDM符号和/或持续不同的绝对时间长度)来与gNB 180a、180b、180c进行通信。
gNB 180a、180b、180c可被配置成与采用独立配置和/或非独立配置的WTRU 102a、102b、102c进行通信。在独立配置中,WTRU 102a、102b、102c可以在不接入其他RAN(例如e节点B 160a、160b、160c)的情况下与gNB 180a、180b、180c进行通信。在独立配置中,WTRU102a、102b、102c可以使用gNB 180a、180b、180c中的一个或多个作为移动锚点。在独立配置中,WTRU 102a、102b、102c可以使用无授权频带中的信号来与gNB 180a、180b、180c进行通信。在非独立配置中,WTRU 102a、102b、102c会在与别的RAN(例如e节点B 160a、160b、160c)进行通信/相连的同时与gNB 180a、180b、180c进行通信/相连。举例来说,WTRU 102a、102b、102c可以通过实施DC原理而以基本同时的方式与一个或多个gNB 180a、180b、180c以及一个或多个e节点B 160a、160b、160c进行通信。在非独立配置中,e节点B 160a、160b、160c可以充当WTRU 102a、102b、102c的移动锚点,并且gNB 180a、180b、180c可以提供附加的覆盖和/或吞吐量,以便为WTRU 102a、102b、102c提供服务。
每一个gNB 180a、180b、180c都可以关联于特定小区(未显示),并且可以被配置成处理无线电资源管理决策、切换决策、UL和/或DL中的用户调度、支持网络切片、双连接性、NR与E-UTRA之间的互通、路由去往用户平面功能(UPF)184a、184b的用户平面数据、以及路由去往接入和移动性管理功能(AMF)182a、182b的控制平面信息等等。如图1D所示,gNB180a、180b、180c彼此可以通过Xn接口通信。
图1D所示的CN 115可以包括至少一个AMF 182a、182b,至少一个UPF 184a、184b,至少一个会话管理功能(SMF)183a、183b,并且有可能包括数据网络(DN)185a、185b。虽然每一个前述部件都被描述了CN 115的一部分,但是应该了解,这其中的任一部件都可以被CN运营商之外的其他实体拥有和/或运营。
AMF 182a、182b可以经由N2接口连接到RAN 113中的gNB 180a、180b、180c中的一者或多者,并且可以充当控制节点。例如,AMF 182a、182b可以负责验证WTRU 102a、102b、102c的用户,支持网络切片(例如处理具有不同需求的不同PDU会话),选择特定的SMF183a、183b,管理注册区域,终止NAS信令,以及移动性管理等等。AMF 182a、182b可以使用网络切片处理,以便基于WTRU 102a、102b、102c使用的服务类型来定制为WTRU 102a、102b、102c提供的CN支持。作为示例,针对不同的用例,可以建立不同的网络切片,例如依赖于超可靠低时延(URLLC)接入的服务、依赖于增强型大规模移动宽带(eMBB)接入的服务、和/或用于机器类型通信(MTC)接入的服务等等。AMF 162可以提供用于在RAN 113与使用其他无线电技术(例如LTE、LTE-A、LTE-A Pro和/或诸如WiFi之类的非3GPP接入技术)的其他RAN(未显示)之间切换的控制平面功能。
SMF 183a、183b可以经由N11接口连接到CN 115中的AMF 182a、182b。SMF 183a、183b还可以经由N4接口连接到CN 115中的UPF 184a、184b。SMF 183a、183b可以选择和控制UPF 184a、184b,并且可以通过UPF184a、184b来配置业务量路由。SMF 183a、183b可以执行其他功能,例如管理和分配UE IP地址、管理PDU会话、控制策略实施和QoS以及提供下行链路数据通知等等。PDU会话类型可以是基于IP的、基于非IP的以及基于以太网的等等。
UPF 184a、184b可以经由N3接口连接到RAN 113中的gNB 180a、180b、180c中的一者或多者,这样可以为WTRU 102a、102b、102c提供针对分组交换网络(例如因特网110)的接入,以便促成WTRU 102a、102b、102c与启用IP的设备之间的通信。UPF 184、184b可以执行其他功能,例如路由和转发分组、实施用户平面策略、支持多宿主PDU会话、处理用户平面QoS、缓冲下行链路分组、以及提供移动性锚定处理等等。
CN 115可以促成与其他网络的通信。例如,CN 115可以包括充当CN 115与PSTN108之间的接口的IP网关(例如IP多媒体子系统(IMS)服务器),或者可以与所述IP网关进行通信。此外,CN 115可以为WTRU 102a、102b、102c提供针对其他网络112的接入,该其他网络112可以包括其他服务供应商拥有和/或运营的其他有线或无线网络。在一个实施例中,WTRU 102a、102b、102c可以经由对接到UPF 184a、184b的N3接口以及介于UPF 184a、184b与DN 185a、185b之间的N6接口,并通过UPF 184a、184b连接到本地数据网络(DN)185a、185b。
有鉴于图1A-1D以及关于图1A-1D的相应描述,在这里对照以下的一项或多项描述的一个或多个或所有功能可以由一个或多个仿真设备(未显示)来执行:WTRU 102a-d、基站114a-b、e节点B 160a-c、MME 162、SGW 164、PGW 166、gNB 180a-c、AMF 182a-b、UPF 184a-b、SMF 183a-b、DN185 a-b和/或这里描述的其他任何设备。这些仿真设备可以是被配置成模拟这里一个或多个或所有功能的一个或多个设备。举例来说,这些仿真设备可用于测试其他设备和/或模拟网络和/或WTRU功能。
仿真设备可被设计成在实验室环境和/或运营商网络环境中实施关于其他设备的一项或多项测试。例如,所述一个或多个仿真设备可以在被完全或部分作为有线和/或无线通信网络一部分实施和/或部署的同时执行一个或多个或所有功能,以便测试通信网络内部的其他设备。所述一个或多个仿真设备可以在被临时作为有线和/或无线通信网络的一部分实施/部署的同时执行一个或多个或所有功能。所述仿真设备可以直接耦合到别的设备以执行测试,和/或可以使用空中无线通信来执行测试。
一个或多个仿真设备可以在未被作为有线和/或无线通信网络一部分实施/部署的同时执行包括所有功能在内的一个或多个功能。例如,所述仿真设备可以在测试实验室和/或未被部署(例如测试)的有线和/或无线通信网络的测试场景中使用,以便实施关于一个或多个组件的测试。所述一个或多个仿真设备可以是测试设备。所述仿真设备可以使用直接的RF耦合和/或借助了RF电路(作为示例,该电路可以包括一个或多个天线)的无线通信来发射和/或接收数据。
图2描绘了在头戴式设备(HMD)上显示的360°视频的例示部分。作为示例,如图2所示,在观看360°视频时,该视频的一部分可被呈现给用户。当用户环视和/或缩放视频图像时,该视频部分有可能会发生变化。该视频部分可以基于HMD和/或其他类型的用户界面(例如无线发射/接收单元(WTRU))提供的反馈来改变。整个360°视频的空间区域可以称为视口。视口可以被完全或局部呈现给用户。该视口与该360°视频的其他部分有可能具有一个或多个不同的质量。
360°视频可被捕捉和/或在一个球形上被渲染(作为示例,以使用户能够选择任意视口)。球形视频格式可能无法用常规的视频编解码器来直接递送。通过使用投影方法将球形视频投影到2D平面上,可以对360°视频(例如球形视频)进行压缩。所投影的2D视频可被译码(例如使用常规的视频编解码器)。关于投影方法的示例可以包括等矩形投影。图3描述了用于360°视频的例示的等矩形投影。作为示例,等矩形投影方法可以使用以下一个或多个等式来将在球形上具有坐标(θ,φ)的第一个点P映射成二维平面上的坐标为(u,v)的第二个点P,
u=φ/(2*pi)+0.5 等式1
v=0.5-θ/(pi) 等式2
图3描述了关于360°视频映射的一个或多个示例。作为示例,可以通过使用一种或多种其他投影方法(例如映射)将360视频转换成2D平面视频(作为替换,例如为了减小带宽需求)。举例来说,所述一种或多种其他投影方法可以包括金字塔形贴图(map),立方体贴图和/或偏移立方体贴图。通过使用所述一个或多个其他投影方法,可以用较少的数据来呈现球形视频。举例来说,与等矩形投影相比,立方体贴图投影方法使用的像素可以减少20%(作为示例,因为立方体贴图投影引入的折曲(warping)相对较少)。所述一种或多种其他投影方法(例如金字塔形投影)可以对用户不太可能观看的一个或多个像素执行子采样(作为示例,由此减小被投影的2D视频的大小)。
特定于视口的表示可被用作一种用于存储和/或在服务器与客户端之间递送整个360视频的替换方法。图3所示的一种或多种投影方法(例如立方体贴图和/或金字塔形投影)可以为不同视口提供不均匀的质量表示(举例来说,某些视口与其他视口相比可以以更高的质量表示)。在服务器端有可能需要产生和/或存储具有不同目标视口的同一个视频的多个版本(例如为了支持球形视频的所有视口)。举例来说,在脸书(Facebook)的VR视频递送的实施方式中,使用了图3所示的偏移立方体贴图格式。该偏移立方体贴图可以为前视口提供最高分辨率(例如最高质量),为后视图提供最低分辨率(例如最低质量),以及为一个或多个侧视图提供中等分辨率(例如中等质量)。服务器可以存储同一个内容的多个版本(例如为了适应客户端关于相同内容的不同视口的请求)。作为示例,同一个内容总共可以具有150个不同版本(例如30个视口乘以每一个视口的5种分辨率)。在递送(例如流传输)过程中,客户端可以请求与客户端的当前视口相对应的特定版本。该特定版本可以由服务器递送。请求与该客户端的当前视口相对应的特定版本的客户端可以节省传输带宽,有可能包括服务器上增加的存储需求,和/或在客户端从第一视口改为第二视口的时候/情况下潜在地增大时延。当此类视口变化频繁时,该延迟问题有可能会很严重。
客户端设备可以接收依照全向媒体格式(OMAF)编码的视频流。子画面可以是代表了原始内容的一个空间子集的画面。子画面比特流可以是一个代表原始内容的空间子集的比特流。观看方位可以是表征用户消费视听内容时所在方位的方位角、仰角和倾斜角的三元组。视口可以是适合显示以及适合供用户观看的一个或多个全向图像和/或一个或多个视频的区域。视点可以是视口的中心点。内容覆盖范围可以包括被轨道(track)或图像项所代表的内容覆盖的一个或多个球形区域。
OMAF可以指定与视口无关的视频简档以及与视口相关的视频简档。对于与视口无关的视频流传输来说,360视频画面可被编码成单层比特流。整个编码比特流可被存储在服务器上,并且如有需要可被完全传送至OMAF播放器并由该解码器完全解码。与当前视口相对应的解码画面的区域可被渲染给用户。对于与视口相关的视频流传输来说,可以使用一种视频流传输方法或视频流传输方法的组合。OMAF播放器可以接收依照基于单层流的方法编码的视频。在基于单层流的方法中,多个单层流可以被产生。作为示例,每一个流都可以包含整个全向视频,但是每一个流可以具有由区域级质量排序(RWQR)元数据指示的不同的高质量编码区域。依照当前视口,可以选择包含与当前视口位置相匹配的高质量编码区域的流,和/或可以将其传送到OMAF播放器。
OMAF播放器可以接收依照基于子画面流的方法编码的视频。在基于子画面流的方法中,360视频可被分割成子画面序列。子画面序列(例如每一个子画面序列)可以覆盖全向视频内容的空间区域的一个子集。子画面序列(例如每一个子画面序列)可以以相互独立的方式被编码成单层比特流。OMAF播放器可以选择要被执行流传输的一个或多个子画面(例如基于OMAF播放器的方位/视口元数据)。与覆盖由区域级质量排序(RWQR)元数据所指示的剩余的且当前未被渲染的区域的质量或分辨率相比,可为当前视口接收、解码和/或渲染具有更好的质量或更高的分辨率的流。
HTTP流传输也已成为商业部署中的主要方法。例如,诸如苹果的HTTP直播流传输(HLS)、微软的平滑流传输(SS)和/或奥多比(Adobe)的HTTP动态流传输(HDS)之类的流传输平台可以使用HTTP流传输作为底层递送方法。用于多媒体内容的HTTP流传输标准能使基于标准的客户端流式传输来自任何基于标准的服务器的内容(作为示例,由此能够实现服务器与不同供应商的客户端之间的互操作性)。MPEG通过HTTP的动态自适应流传输(MPEG-DASH)可以是一种通用的递送格式,其可以通过动态地适应不断变化的网络条件来为终端用户提供最佳可能的视频体验。DASH可以构建在HTTP/TCP/IP堆栈之上。该DASH可以为ISO基础媒体文件格式以及MPEG-2传输流定义清单(manifest)格式、媒体呈现描述(MPD)以及分段格式。
动态HTTP流传输可能会要求在服务器上可以提供关于多媒体内容的不同比特率的替换版本。该多媒体内容可以包括若干个媒体成分(例如音频、视频、文本),其中一些或所有的媒体成分可以具有不同的特性。在MPEG-DASH中,这些特征可以由MPD来描述。
MPD可以是一个XML文档,其包含DASH客户端构建适当的HTTP-URL所需的元数据,以便在流传输会话过程以自适应的方式访问视频分段(相关示例如这里所述)。图5描述了一个例示的MPD分层数据模型。该MPD可以描述一系列的时段,其中在一个时段中,媒体内容成分的编码版本的一致性集合不会是改变的。一个(例如每一个)时段可以具有一个开始时间和持续时间。一个(例如每一个)时段可以包括一个或多个适配集合(例如适配集合)。如在这里对照图8A-8E描述的那样,DASH流传输客户端可以是WTRU。
“适配集合”可以代表共享了一个或多个相同属性(例如语言、媒体类型、画面宽高比、角色(role)、可访问性、视点和/或评级属性)的一个或若干个媒体内容成分的编码版本集合。第一适配集合可以包括同一个多媒体内容的视频成分的不同比特率。第二适配集合可以包括同一个多媒体内容的音频成分的不同比特率(例如较低质量的立体声和/或较高质量的环绕声)。一个(例如每一个)适配集合可以包含多个表示。
一个“表示”可以描述一个或若干个媒体成分的可递送编码版本,由此会通过比特率、分辨率、信道数量和/或其他特性来区别于其他表示。一个(例如每一个)表示可以包括一个或多个分段。一个表示元素的一个或多个属性(例如@id,@带宽,@质量排序以及@依赖性Id)可被用于指定相关联的表示的一个或多个属性。
分段可以是可以用单个HTTP请求检索的最大数据单元。一个(例如每一个)分段可以具有一个URL(例如服务器上的可寻址位置)。分段(例如每一个分段)可以用HTTP GET或具有字节范围的HTTP GET来下载。
DASH客户端可以解析MPD XML文档。DASH客户端可以选择一个与DASH客户端环境相适合的适配集合的选集(例如基于一个或多个适配集合元素中提供的信息)。在一个(例如每一个)适配集合内部,客户端可以选择一个表示。客户端可以基于@带宽属性、客户端解码能力和/或客户端渲染能力的值来选择所述表示。客户端可以下载所选择的表示的初始化分段。客户端可以访问内容(例如通过请求整个分段或是分段的字节范围)。在呈现开始之后,客户端可以继续消费媒体内容。例如,客户端可以在呈现过程中请求(例如持续请求)媒体分段和/或媒体分段部分。客户端可以依照媒体呈现时间线来播放内容。客户端可以基于来自客户端环境的更新信息而从第一表示转换成第二表示。客户端可以在两个或更多时段连续播放内容。当客户端消费该分段中包含的媒体直至该表示中所通告的媒体的末尾时,这时可以终止媒体呈现,启动一个时段,和/或可以(例如需要)重新取回MPD。
在流传输客户端(例如DASH客户端)与网络部件之间或者在不同网络部件之间的消息可以提供与网络、服务器、代理、缓存、CDN的实时工作特性以及DASH客户端的性能和状态有关的信息。图6显示了一个关于在网络部件与一个或多个客户端之间交换的服务器和网络辅助的DASH(SAND)消息的示例。如图所示,在DASH感知网络部件(例如602或604)或DASH辅助网络部件(DANE)(例如602或604)之间可以交换参数增强递送(PED)消息。参数增强接收(PER)消息可被从一个或多个DANE 602和604发送到DASH客户端606。状态消息可被从一个或多个DASH客户端606发送到一个或多个DANE 602和604。状态消息可以将来自DASH客户端606的实时反馈提供给一个或多个DANE 602和604,以便支持实时操作。从一个或多个DASH客户端606可以向度量服务器608发送度量消息。该度量消息可以提供会话摘要或更长的时间间隔。
DASH客户端可以以一致的方式产生和报告其支持的度量。不同客户端、播放器、设备和网络的性能会受到监视和比较。问题可以以实时或离线的方式调试,并且一个或多个故障可以以实时或离线的方式隔离。对于可以产生、报告、处理和可视化所述度量的实体来说,这些实体会对消息、度量和报告中包含的信息具有共同的理解。
在DASH客户端流传输全向媒体中,可以以与客户端流传输传统媒体中相同的方式来使用一些DASH度量。全向媒体有可能与较高的比特率需求、较高的渲染延迟以及较高的时延灵敏度相关联。某些度量可供流传输这种媒体类型的DASH客户端使用。对于支持SAND的DASH实体来说,其可以使用特定的PED/PER消息。
VR设备可以测量其精度和灵敏度。VR设备可以包括一个或多个HMD。初始渲染方位信息可被发送到VR设备。视口观看统计信息可以被报告(例如由VR设备)。兴趣区(ROI)可以采用文件格式等级来用信号通告。ROI可以被用信号通告成是与(例如每一个)分段一起携带的事件。用于在DANE部件中预取数据的信令可以与补充PED消息一起处于MPD等级。在定时元数据轨道或者在事件流元素中可以携带ROI信息。
作为示例,如图6所示,VR度量客户端参考模型可以和在流传输客户端、原始服务器或测量/分析服务器中的一个或多个与其他DANE之间交换的不同类型的信息一起被使用。
语义可以用抽象语法来定义。抽象语法中的项目可以具有一个或多个原语类型,其中包括整数、实数、布尔值、枚举、字符串和/或向量等等。抽象语法中的项目可以具有一个或多个复合类型。该复合类型可以包括对象和/或列表等等。对象可以包括无序的键值和/或值对序列。键值可可以有字符串类型。该键值在序列中可以是唯一的。列表可以包括有序项目列表。多种(例如两种)时间戳可以被使用或定义。时间戳的种类可以包括具有Real-Time类型的实际时间(例如壁钟时间)和/或具有Media-Time类型的媒体时间。
VR度量客户端参考模型可被用于度量收集和/或处理。该VR度量客户端参考模型可以使用或定义一个或多个观察点(OP),以便执行度量收集和处理。图7是关于VR度量客户端参考模型的一个示例。VR设备可以包括VR客户端718。VR设备或VR播放器可以基于VR度量客户端参考模型700来使用。
图7显示了VR度量客户端参考模型700的功能部件。这些功能部件可以包括以下的一个或多个:网络接入706、媒体处理708、传感器710、媒体呈现712、VR客户端控制和管理714、或度量收集和处理(MCP)716。VR应用可以与不同的功能部件进行通信,以便提供沉浸式的用户体验。网络接入706可以从网络704请求VR内容。该网络接入706可以请求具有不同质量的一个或多个视口分段,以便执行取决于视口的流传输(例如基于动态传感器数据)。媒体处理部件708可以对(例如每一个)媒体采样(一个或多个)进行解码,和/或可以将一个或多个经过解码的媒体采样传递至媒体呈现712。媒体呈现712可以借助一个或多个设备(例如HMD(一个或多个)、扬声器或耳机中的一个或多个)来呈现相应的VR内容。
传感器710可以检测用户的方位和/或移动。传感器710可以生成传感器数据(例如基于用户的方位和/或移动来产生)。VR客户端718和/或服务器可以采用各种方式来使用传感器数据。举例来说,传感器数据可被用于确定所要请求的视口分段(例如特定的高质量视口分段)。传感器数据可被用于确定在设备(例如一个或多个HMD和/或耳机)上呈的现媒体采样(例如音频和视频)的一部分或哪些部分。传感器数据可被用于应用后期处理,以使媒体采样呈现与用户移动(例如最近的用户移动)相匹配。
VR客户端控制和/或管理模块700可以为VR应用配置VR客户端718。该VR客户端控制和/或管理模块700可以与一些或所有功能部件进行交互。该VR客户端控制和/或管理模块700可以管理工作流。该工作流可以包括端到端的媒体处理过程。作为示例,对于VR客户端718来说,工作流可以包括从接收媒体数据到呈现媒体采样的处理。
MCP 716可以聚合数据(例如来自各个观察点(OP)的数据)。该数据可以包括以下的一个或多个:用户位置、事件时间和/或媒体采样参数等等。MCP 716可以推导被度量服务器702使用或者发送给度量服务器702的一个或多个度量。例如,视口切换时延度量推导可以是基于来自OP3(例如运动触发时间)和/或OP4(例如视口显示更新时间)的输入数据的。
度量服务器702可以收集数据(例如度量数据)。度量服务器702可以使用该数据来实施以下的一项或多项:用户行为分析、VR设备性能比较、或其他调试或跟踪目的。跨越了网络、平台和/或设备的整个沉浸式VR体验将会得到增强。
VR服务应用(例如CDN服务器、内容提供方和/或云游戏会话)可以使用度量服务器702收集的度量来向VR客户端(例如包含了VR客户端718的VR设备)递送不同质量等级和/或沉浸式体验的服务(例如基于客户端能力和性能)。例如,VR云游戏服务器可以检查VR客户端的性能度量,其包括以下的一项或多项:端到端延迟、追踪灵敏度和精度或视场等等。VR云游戏服务器可以确定VR客户端718是否能向用户提供适当等级的VR体验。VR云游戏服务器可以授权一个或多个合格的VR客户端访问VR游戏。一个或多个合格的VR客户端能向用户提供恰当等级的VR体验。
VR云游戏服务器不会授权一个或多个不合格的VR客户端访问VR游戏。一个或多个不合格的VR客户端可能无法为用户提供恰当等级的VR体验。举例来说,如果VR云游戏服务器确定客户端(例如VR客户端718)遭遇到较高的端到端时延和/或没有足够的跟踪灵敏度参数,那么VR云游戏服务器不会允许VR客户端加入实况VR游戏会话。VR云游戏服务器可以许可客户端(例如VR客户端718)进入常规游戏会话。举例来说,客户端可以加入只采用了没有沉浸式体验的2D版本的游戏。VR云游戏服务器可以监视客户端的动态性能变化。当VR度量显示即时性能降级时,VR云游戏服务器可以切换到质量较低的VR游戏内容或是沉浸度较差的VR游戏。举例来说,如果VR云游戏服务器确定客户端的等质量视口切换时延相对较高,那么VR云游戏服务器可以向客户端递送图块(tile)(例如质量更相似的图块),以便减小质量差异。VR用户的VR体验可能会受网络状况影响。内容递送网络(CDN)或边缘服务器可以将VR内容和/或服务推送到更接近于客户端(例如VR用户)的缓存。
MCP 716可以用各种方式聚合来自不同观察点(OP)的数据。在这里提供了例示的OP(OP1-OP5),然而应该理解,作为示例,MCP 716可以聚合来自这里描述的任何顺序或组合的OP的数据。MCP 716既可以是客户端的一部分,也可以驻留在度量服务器(例如度量服务器702)中。
OP1可以对应于或者包括从网络接入706到MCP 716的接口。网络接入706可以发布一个或多个网络请求,接收VR媒体流和/或解封装来自网络704的VR媒体流。OP1可以包含一组网络连接。一个(例如每一个)网络连接可以由以下的一项或多项来定义:目的地地址、发起时间、连接时间或关闭时间。OP1可以包括一系列的传输网络请求。一个或多个(例如每一个)传输网络请求可以以下的一项或多项来定义:传输时间、内容、或是用以发送所述一个或多个网络请求的TCP连接。针对(例如每一个)网络响应,OP1可以包含以下的一项或多项:接收时间、响应报头内容、和/或(例如每一个)响应主体字节的接收时间。
OP2可以对应于或者包括从媒体处理708到MCP 716的接口。媒体处理708可以执行解复用和/或解码(例如音频、图像、视频和/或光场解码)。OP2可以包括编码媒体采样。编码媒体采样(例如每一个编码媒体采样)可以包括以下一项或多项:媒体类型、媒体编解码器、媒体解码时间、全向媒体元数据、全向媒体投影、全向媒体区域封装、全向视频视口、帧封装、颜色空间或动态范围等等。
OP3可以对应于从传感器710到MCP 716的接口。传感器710可以获取用户的头部或身体的方位和/或移动。传感器710可以获取环境数据,例如光、温度、磁场、重力和/或生物特征。OP3可以包括一个传感器数据列表,其中所述传感器数据包括以下的一项或多项:6DoF(X、Y、Z、偏摆、俯仰和滚转)、深度、或速度等等。
OP4可以对应于从媒体呈现712到MCP 716的接口。该媒体呈现712可以同步和/或呈现混合的自然和合成VR媒体元素(例如为了向用户提供完全沉浸的VR体验)。媒体呈现712可以为(例如每一个)VR媒体元素执行颜色转换、投影、媒体合成和/或视图合成。OP4可以包括被解码的媒体采样。一个采样(例如每一个媒体采样)可以包括以下的一项或多项:媒体类型、媒体采样呈现时间戳、壁钟计数器、实际呈现视口、实际呈现时间、实际播出帧速率、或音频视频同步等等。
OP5可以对应于从VR客户端控制和管理714到MCP 716的接口。VR客户端控制和管理部件714可以管理客户端参数,例如显示分辨率、帧速率、视场(FOV)、眼到屏幕距离、透镜分离(LensSeparation)距离等等。OP5可以包含VR客户端配置参数。参数(例如每一个参数)可以包括以下的一项或多项:显示分辨率、显示密度(例如以PPI为单位)、水平和垂直FOV(例如以度为单位)、追踪范围(例如以毫米为单位)、追踪精度(例如以毫米为单位)、运动预测(例如以毫秒为单位)、媒体编解码器支持、或OS支持等等。
如果用户(例如VR用户)已被授予许可,那么VR客户端控制和管理714可以收集用户的个人简档信息(例如除了设备信息之外)。该个人简档信息可以包括以下的一项或多项:VR用户的性别、年龄、位置、种族或宗教等等。VR服务应用可以从度量服务器702收集个人简档信息。该VR服务应用可以从VR客户端718(作为示例,包括VR设备)收集(例如直接收集)个人简档信息。该VR服务应用可以识别出适合VR用户(例如个人VR用户)的VR内容和/或服务。
VR流传输服务供应方可以向不同的用户递送不同的360度视频图块集合。该VR流传输服务供应方可以基于不同的潜在观看者的特性来递送不同的360度视频图块的集合。例如,成年人会接收到包含了针对受限内容的访问的完整的360度视频。未成年用户可以观看相同的视频,但其无法访问该受限内容(例如区域和/或图块)。针对某个位置和/或在某个时间(例如针对特定的位置和/或在特定的时间),VR服务供应方可以停止递送某些VR内容,以便遵守法律和法规(例如当地政府的法律或法规)。VR云游戏服务器可以向具有不同模拟晕动症敏感性的用户(例如男性、女性、老年人和/或青年)提供不同沉浸级别的游戏,由此避免出现潜在的模拟晕动症。VR设备可以控制本地VR呈现(例如通过使用个人简档信息)。举例来说,VR服务供应方可以多播/广播包含了一个或多个受限场景的360度视频(例如以对所有人都无歧视的方式)。VR接收机(例如每一个VR接收机)可以基于个人简档信息来对呈现进行配置。VR接收机可以基于个人简档信息来许可针对受限内容(例如一个或多个情景)的不同访问等级。例如,VR接收机可以基于潜在的观看者的年龄、种族或宗教信息来滤除或模糊某些或所有受限场景(一个或多个)。VR接收机可以基于潜在观看者的年龄、种族或宗教信息来确定是否适合允许访问一些或所有受限场景(一个或多个)。这里的方法和/或技术可以允许VR服务供应方向更多的用户和/或以有效的方式提供VR内容(例如单个VR内容版本)。
MCP 716可以从一个或多个OP获取度量和/或推导VR度量(例如特定的VR度量,比方说时延)。
设备(例如VR设备、HMD、电话、平板电脑或个人计算机)可以产生和/或报告与观看相关的度量和消息。与观看相关的度量和消息可以包括以下的一项或多项:视口视图、视口匹配、渲染设备、初始渲染方位、视口切换时延、质量视口切换延迟(例如质量视口切换延迟)、初始时延、安置时延、6DoF坐标、注视(gaze)数据、帧速率、视口丢失、精度、灵敏度、和/或ROI等等。
设备可以使用度量来指示在什么时间(某个或某几个)请求和/或查看了哪个或哪些视口。该度量可以包括视口视图度量。在什么时间(某个或某几个)请求和查看了哪个或哪些视口可以由一个关于度量(例如,视口视图)的报告来指示。设备或度量服务器可以从OP4中推导出视口视图度量(如表1所示)。表1显示了关于视口视图的报告的例示内容。
表1
一个条目(例如条目“源”)可以包括(例如指定)原始VR媒体采样的来源。设备可以从以下的一项或多项中推断条目“源”:MPD的URL,用于DASH流传输的媒体元素表示,或用于渐进式下载的媒体采样文件的初始URL。
一个条目(例如条目“时间戳”)可以包括(例如指定)媒体采样呈现时间。
一个条目(例如条目“持续时间”)可以指定客户端用以报告该客户端在相应视口停留了多长时间的时间间隔。
一个条目(例如条目“视口”)可以包括(例如指定)在媒体时间t呈现的全向媒体的区域。该区域可以由以下的一项或多项来定义:中心偏摆(center_yaw)、中心俯仰(center_pitch)、静态水平范围(static_hor_range)、静态垂向范围(static_ver_range)(如果存在的话)或水平范围(hor_range)和垂向范围(ver_range)。对于6DoF来说,条目“视口”可以包括用户位置或附加用户位置(x,y,z)。
一个条目(例如条目“视口”)可以使用在不同规范和实施方式中用到的一个或多个注释或表述来呈现被观看的视口。例如,不同用户的视口视图度量可以由度量服务器(例如度量服务器702)来进行相互比较和/或相互关联。作为示例,度量服务器可以确定更受欢迎的视口。网络(例如CDN)可以使用该信息(例如条目“视口”)来执行缓存或用于内容产生。设备(例如VR设备)可以记录具有某个或某些精度的一个或多个视口视图,以便进行重放。所记录的视口视图可以在以后(例如由另一个观看者)使用,以便重播早先观看的360视频的特定版本。网络部件(例如广播/多播服务器)或一个或多个VR客户端可以基于视口视图度量来同步多个观看者观看的视口。观看者可以具有相似或相同的体验(例如以实时的方式)。
设备(例如客户端)可以将视口视图度量(例如以周期性的方式)记入日志,和/或可以被一个或多个观看方位变化(例如由传感器检测)触发以报告视口视图度量。
设备可以使用度量来指示客户端是否遵循推荐的视口(例如导演剪辑)。该度量可以包括视口匹配度量。设备(例如客户端)能将客户端的观看方位与相应的推荐视口元数据相比较,和/或如果客户端观看方位与相应的推荐视口元数据相匹配,则将该匹配事件记入日志。表2显示了报告中关于视口匹配量度的例示内容。
表2
一个条目(例如条目“标识”)可以是一个布尔型参数,该参数指定了视口(例如当前视口)在测量间隔期间是否与推荐的视口相匹配。当条目“标识”的值为真时,以下的任一条目或是其组合都可以被呈现。一个条目(例如条目“t轨道Id”)可以是所推荐的视口定时元数据序列的标识符,和/或可以用于标识所匹配的是一个或多个推荐视口中的哪一个推荐视口。一个条目(例如条目“计数”)可以指定由“轨道”指定的推荐的视口的累积匹配次数。一个条目(例如条目“持续时间”)可以指定在测量间隔期间连续视口匹配的时间间隔。一个条目(例如条目“类型”)可以指定所匹配的视口类型,其中值0可以表明所推荐的视口是导演剪辑,和/或值1可以表明所推荐的视口是基于观看统计被选择的。当观看方位改变或者被推荐的视口位置和/或尺寸发生变化时,设备(例如客户端)可以记录视口匹配(例如以周期性的方式)和/或可被触发以报告视口匹配。
设备可以使用度量来指示渲染设备度量和消息。该度量可以包括渲染设备。作为示例,关于度量渲染设备的VR设备类型报告可以指示以下的一项或多项:品牌、型号、操作系统(OS)、分辨率、密度、刷新率、编解码器、投影、封装、追踪范围、追踪精度、追踪灵敏度、和/或关于该设备的其他特定于设备的信息(例如渲染全向媒体的位置)。度量服务器可以基于该报告来确定该内容是在电视上还是HMD上或是还是在白日梦型的HMD上消费的。该度量服务器或客户端可以将该信息与内容类型相关联,以便进行更好的分析。如果VR设备是HMD,那么可以在度量中包括诸如特定于所支持的HMD信息之类的信息。客户端(例如VR客户端)可以确定向度量服务器报告的恰当设备信息。该度量服务器可以从VR设备请求适当的信息。所述特定于所支持的HMD的信息可以包括但不局限于精度、灵敏度、最大支持帧速率、最大支持分辨率和/或关于所支持的编解码器/投影方法的列表。表3显示了关于VR设备(例如度量渲染设备)的报告的例示内容。该度量服务器可以将诸如表3中的信息与内容类型相关联,以便进行分析。例如,客户端或度量服务器可以从OP5中推导出度量渲染设备和/或表3中包含的一个或多个条目。
表3
一个条目(例如条目“追踪范围”)可以包括(例如指定)用于VR用户运动检测的VR设备支持的最大限度或最大规模的2D或3D追踪范围。该最大限度或最大规模的2D或3D追踪范围可以意味着运动追踪和检测在该最大限度或最大规模的2D或3D追踪范围之外有可能会不准确。最低限度或最小规模的范围可以是一个点。作为示例,追踪范围可被定义成是VR空间的宽度、长度和高度(例如以毫米为单位)。图8显示一个测量3D追踪范围的示例。条目追踪范围可被定义成是3D空间800的宽度802、高度804和长度806,或是用于具有(例如单个)追踪传感器的2D范围的圆形范围。该条目“追踪范围”可被定义成是具有多个跟踪传感器的2D交叉区域的宽度、长度。图9显示了一个关于具有多个传感器(例如追踪传感器904-910)的2D运动追踪交叉范围的示例。如图9所示,2D交叉区域902的长度和宽度可以定义条目“追踪范围”。
一个条目(例如条目“追踪精度”)可以包括(例如指定)以毫米为单位用于平移运动(x,y,z)的追踪符号单元(例如最小追踪符号单元),以及用于旋转运动(偏摆、俯仰、滚转)的毫度。
一个条目(例如条目“追踪灵敏度”)可以包括且可以被(例如指定)VR设备针对平移以毫米为单位以及针对旋转以毫度(Δ偏摆,Δ俯仰,Δ滚转)为单位检测的最小运动位移(例如细微运动)(Δx,Δy,Δz)。
一个条目(例如条目“追踪时延”)可以指示(例如指定)一个运动与传感器检测到该运动并将其报告给应用之间的时间间隔。
一个条目(例如条目“渲染时延”)可以指示(例如指定)媒体采样被从渲染模块中输出与其在显示器和/或耳机上被呈现之间的时间间隔。
设备(例如VR设备)可以生成和/或报告初始渲染方位消息。设备可以使用度量来指示开始回放的方位。该度量可以包括初始渲染方位。关于度量“初始渲染方位”的初始渲染方位报告可以指示应该从哪一个方位开始回放。关于度量“初始渲染方位”的初始渲染方位报告可以指示应该从哪一个方位开始回放。该初始方位可以在所述呈现的开端和/或在该呈现中的某些点(例如情景改变)被指示。内容生成方可以提供该指示。一个或多个初始渲染方位消息可以具有PER类型。举例来说,所述一个或多个初始渲染方位消息可被从DANE发送到DASH客户端。该信息(例如初始渲染方位)可以在定时元数据轨道、事件流元素或SAND-PER消息中被携带。度量服务器可以使用初始渲染方位度量来配置HMD方位,以便重置针对VR内容的渲染位置的一个或多个坐标(例如在场景改变时)。采用初始渲染方位消息,HMD可以将另一个视频区域移动到正面。表4显示了关于初始渲染方位消息的例示内容。度量服务器或客户端可以从OP2中推导出该度量以及表4中包含的一个或多个条目。
表4
设备可以生成一个度量,以便指示客户端在从一个视口切换到另一个视口时经历的时延。该度量可以包括“视口切换时延”。举例来说,对度量“视口切换时延”的一个或多个视口切换时延量度报告可以指示客户端在从一个视口切换到另一个视口的时候经历的时延。网络或客户端(例如VR设备)可以使用该视口切换时延度量来测量观看者的体验质量(QoE)。(SAND)DANE部件和/或原始服务器可以对以下的一项或多项使用视口切换时延度量:内容编码、封装、缓存或递送。表5显示了关于视口切换时延度量的例示报告。该度量服务器或客户端可以从OP3和/或OP4中推导出视口切换时延度量和/或表5所示的一个或多个条目。
表5
一个条目(例如条目“平移”)可以包括(例如指定)用户的平移运动(例如向前/向后,向上/向下,向左/向右和/或可以用位移矢量(Δx,Δy,Δz)表示的平移运动)。
一个条目(例如条目“旋转”)可以包括(例如指定)用户的角运动,例如偏摆、俯仰、滚转,和/或可以通过以弧度或度为单位的角位移(Δ偏摆,Δ俯仰,Δ滚转)来表示的角度运动。
一个条目(例如条目“第一视口”)可以包括(例如指定)第一视口的中心坐标以及第一视口的大小。
一个条目(例如条目“第二视口”)可以指示(例如指定)第二视口的中心点坐标(一个或多个)以及第二视口的尺寸。
一个条目(例如条目“时延”)可以包括(例如指定)输入的平移和/或旋转运动与在VR呈现上更新或显示的一个或多个相关VR媒体元素(视频、音频、图像、光场等等)的相应视口之间的延迟。例如,条目“时延”可以指定发生从第一视口到第二视口的头部运动的时间(例如客户端检测到头部运动的时间)与在显示器上呈现相应的第二视口的时间之间的时间间隔。
例如,视口切换时延可以对应于HMD对头部移动做出响应、解封装以及渲染用于被移位的视口的内容的快速程度。视口切换时延可以对应于观看者的头部移动(例如HMD检测到观看者的头部移动)的时间与观看者的头部移动影响到观看者观察视频的时间之间的时间。例如,在头部从当前视口移动到不同视口与在HMD上显示不同视口之间可以测量视口切换时延。作为示例,视口切换时延有可能是因为网络或客户端用来取回和/或渲染相应视口的网络或客户端处理能力不足造成的。在沿着时间线接收和分析了一个或多个视口切换时延量度报告之后,网络和/或客户端播放器可以使用不同的智能方法来将视口切换时延最小化。
设备(例如HMD、电话、平板电脑或个人计算机)可以确定设备的移动(例如头部移动)。设备的移动可以包括以下的一项或多项:设备在当前视口之外移动、方位改变、或缩放操作等等。设备可以基于该设备的移动来确定视口切换时延。
图10显示了一个关于视口切换事件的示例。该设备可以基于视口切换事件来确定设备移动。视口可以用一组参数来表示。如图10所示,第一视口1002可以用1010第一方位角范围、1012第一仰角范围以及1006第一中心方位角和/或第一中心仰角来表示。第二视口1004可以用1014第二方位角范围、1016第二仰角范围以及1008第二中心方位角和/或第二中心仰角来表示。
如果参数集合中的一个或多个参数的变化等于或大于阈值,那么设备可以确定一个视口切换事件。如果参数集合中的一个或多个参数的变化等于或大于阈值,那么设备可以确定设备移动。在确定了视口切换事件时,该设备可以应用一个或多个约束条件,以便在不同应用和/或设备上保持一致的量度。
作为示例,设备可以基于与第一视口1002相关联的一个或多个参数(1010第一方位角范围,1012第一仰角范围以及1006第一中心方位角和/或第一中心仰角)来确定与第一渲染视口相关联的第一视点1002在视口切换之前是稳定的。同样,作为示例,该设备可以基于与第二视口相关联的一个或多个参数(1014第二方位角范围,1016第二仰角范围以及1008第二中心方位角和/或第二中心仰角)来确定与第二渲染视口相关联的第二视点1004在视口切换事件之后是稳定的。作为示例,如图10所示,视点可以由以下的一项或多项来表示:中心方位角、中心仰角和/或中心倾斜角。中心方位角和中心仰角可以指示视口的中心。中心倾斜角可以指示视口的倾斜角度(例如以相对于全局坐标轴的2-16度为单位)。举例来说,在视口切换事件之前的n毫秒以内,第一视点的中心方位角、中心仰角和/或中心倾斜角的取值变化不会超出m个大小为2-16度的单位,并且在视口切换事件之后的n毫秒以内,第二视点的中心方位角、中心仰角和/或中心倾斜角不会超出m个大小为2-16度的单位。所述m和n都可以是正整数。设备可以被配置所述m和n。举例来说,设备可以(例如从内容服务器或者从度量服务器)接收m和n的值。设备可以使用用于标识视口切换事件的m和n来将度量记入日志和/或报告所述度量。
当视点(例如用于观看者的视点)移动到设备的当前渲染或显示的视口之外时,这时将会触发视口切换事件。当视点(例如用于观察者的视点)移动到当前渲染或显示的视口之外时,设备可以确定该设备移动。作为示例,如图10所示,第一视口1002或第一渲染视口可以由第一视口1002或第一渲染视口的中心位置1006(例如第一中心方位角、第一中心仰角、第一中心倾斜角)和/或第一视口或第一渲染视口区域(例如第一方位角范围1010和第一仰角范围1012)来表示。第二视口1004或第二渲染视口可以由第二视口1004或第二渲染视口的中心位置1008(例如第二中心方位角、第二中心仰角、第二中心倾斜角)和/或第二视口或第二渲染视口的区域(例如第二方位角范围1014和第二仰角范围1016)来表示。
当参数变化(例如第一视口1002的参数与第二视口1004的参数之间的差异)等于或大于阈值时,设备可以确定发生了视口切换事件。举例来说,当第一中心方位角1006与第二中心方位角1008之间的距离等于或大于阈值(例如第一方位角范围/2)时,这时有可能发生了视口切换事件。当第一中心仰角1006与第二中心仰角1008之间的距离等于或大于阈值(例如第一仰角范围/2)时,这时有可能发生了视口切换事件。
视口切换事件可以通过设备检测出观看方位变化来触发。观看方位可以由表征用户消费视听内容时所处方位的方位角、仰角和倾斜角的三元组来定义。观看方位可以由表征用户消费图像或视频时视口方位的方位角、仰角和倾斜角的三元组来定义。举例来说,当设备检测到观看方位变化时,设备可以确定该设备移动。作为示例,观看方位可以与视口的相对位置或定位相关联。
在一个或多个缩放操作过程中有可能会发生视口切换事件。举例来说,设备可以确定该设备在一个或多个缩放操作过程中移动。作为示例,即使所渲染或显示的视口中心位置没有改变,但是相应的视口和/或相应的球形区域的大小发生了改变,那么同样有可能发生了缩放操作。图11显示了关于360视频视口缩放的一个示例。对于一个或多个缩放操作来说,视口切换时延的参数第一视口和第二视口可以分别被第一视口大小1102和第二视口大小1108取代。参数方位角范围和/或仰角范围可以通过所要渲染的视口的中心点来指定一个或多个范围(例如以2-16度为单位)。当第一视口大小1102和第二视口大小1108之间的差值等于或大于阈值时,该设备可以确定发生了视口切换事件。第一视口大小1102和第二视口大小1108可以由用于第一视口的方位角范围1104和/或仰角范围1106以及用于第二视口的方位角范围1110和/或仰角范围1112来确定。设备可以分别确定视口切换事件之前的第一视口大小1102,以及第一和第二视口被确定为稳定之后的视口切换之后的第二视口大小1108。例如,当第一视口大小1102在视口切换事件前的n毫秒以内的变化没有超出m个大小为2-16度的单位时,设备可以确定第一视口是稳定的,并且当第二视口大小1108在视口切换事件后的n毫秒以内的变化没有超过m个大小为2-16度的单位时,设备设备可以确定第二视口是稳定的。
设备可以生成一个度量来指示其在设备的移动变化之后将所显示的视口的质量恢复到质量阈值的时延或是所耗费的时间。举例来说,在设备从第一视口移动到第二视口之后,该设备可以基于第一视口和第二视口之间的时间间隔来确定一个质量视口切换时延度量(例如在第二视口的质量达到质量阈值的时候)。作为示例,当第二视口的质量达到第一视口的质量或者达到比第一视口的质量更好和/或更高的质量时,该质量视口切换时延度量可以用等质量视口切换时延度量来呈现。所述等质量视口切换时延度量可以是质量视口切换时延度量的一个子集。对于质量视口切换时延度量来说,第二视口的质量有可能达到或者没有达到第一视口的质量。第二视口的质量有可能小于第一视口的质量,但是大于质量阈值。该设备可以被配置成具有质量阈值或者接收质量阈值(例如从度量服务器接收)。该设备可以确定或指定质量阈值,和/或可以将该质量阈值报告给度量服务器。
质量阈值可以用多个(例如两个)质量之间的差异来定义。作为示例,当第一视口质量与第二视口质量之间的差异(例如绝对差异或是质量或质量排序之间的绝对值的差异)等于或小于一个阈值的时候将会达到该质量阈值。
设备可以生成一个度量来指示设备从当前视口切换到不同视口直至所述不同视口达到与当前视口相同或相似的呈现质量所经历的时延。举例来说,设备可以确定一个等质量视口切换时延度量。关于度量“EQ视口切换时延”的一个或多个等质量视口切换时延度量报告可以指示设备从当前视口切换到不同视口直至所述不同视口达到与当前视口相同或更高的质量或者直至所述不同窗口达到超出质量阈值但小于当前视口质量的质量所经历的时延。作为示例,度量服务器可以使用等质量视口切换时延度量来测量观看者的QoE。表6显示了一个关于等质量视口切换时延度量的例示报告。设备或度量服务器可以从OP3和/或OP4中推导等质量视口切换时延度量和/或表6中显示的一个或多个条目。
表6显示了关于等质量视口切换时延度量的报告的例示内容。
表6
举例来说,当用户移动其头部观看视口B时,用户可能会以某个质量(例如高质量(HQ))观看视口A。视口B的质量有可能处于不同质量(例如因为视口自适应流传输而处于低质量(LQ))。依照以下的一项或多项,有可能需要耗费一定时间来将视口B的质量从LQ提升至HQ:运动检测、视口请求调度以及一个或多个网络状况。在视口B的质量从LQ提升至HQ之前,用户有可能将其头部移动到视口C。质量视口切换时延度量可以对应于从以第一质量呈现视口A切换到在显示器(例如HMD显示器或常规显示器)上以高于质量阈值的质量呈现视口B和/或视口C之间的时间。等质量视口切换时延度量可以对应于从以第一质量呈现视口A切换到在显示器(例如HMD显示器或常规显示器)上以与视口A的第一质量相同或更高的质量呈现视口B和/或C之间的时间。质量阈值可以小于视口A的第一质量。当视口A的第一质量与视口B和/或视口C的质量之间的差异(例如绝对差异或时质量或质量排序的绝对值之间的差异)等于或小于一个阈值时,这时将会达到该质量阈值。
度量“EQ视口切换时延”的一个条目(例如条目“平移”)可以包括(例如指定)处于多个(例如3个)自由度(向前/向后、向上/向下、向左/向右、和/或可以用一个或多个矢量(例如恒定矢量(Δx,Δy,Δz)表示的自由度)的HDM位置平移。一个条目(例如条目“旋转”)可以包括(例如指定)处于多个(例如3个)自由度(例如偏摆、俯仰、滚转和/或可以用一个或多个矢量(例如恒定矢量(Δ偏摆,Δ俯仰,Δ滚转)表示的自由度)的HMD圆周运动。一个条目(例如条目“质量排序”)可以包括(例如指定)在视口切换之后(例如在终点)渲染给用户的视口的质量。视口的质量可以指示呈现质量。质量排序值越高,则呈现质量越低。一个条目(例如条目“时延”)可以包括(例如指定)输入的平移和/或旋转运动与在VR呈现上更新的相应视口的质量之间的延迟。
视口可以被多个区域覆盖。该视口可包括一个或多个DASH视频分段的一个或多个部分。举例来说,视口可以被基于多个DASH视频分段的多个区域覆盖。一个区域可以包括一个或多个DASH视频分段或是一个或多个DASH视频分段的一个或多个部分。视口可以通过质量定义。作为示例,如通过基于一个或多个区域级质量排序(RWQR)的质量排序值指示的那样,区域(例如每一个区域)可以通过质量来定义。该区域可以是独立编码的子画面(例如视频分段)和/或单层表示的区域级质量排序区域。设备或度量标准服务器可以将视口质量(例如如质量排序值所示)作为区域质量的平均值来推导。区域的质量可以基于区域的质量排序值或是构成视口的区域的质量排序值中的最小或最大质量排序值来确定。作为示例,视口的质量可以作为构成视口的每一个相应区域或视频分段的质量(由质量排序值所指示的)的加权平均值来确定。这些权重可以对应于被每一个相应区域覆盖的面积、大小和/或视口的部分。视口的质量可以通过质量等级、质量值和/或质量排序来指示。
图12是一个基于子画面的流传输的示例。子画面可以对应于一个或多个DASH视频分段或是DASH视频分段的一个或多个部分。在图12中,一个视口可以包括4个子画面,其中每一个子画面具有该子画面自身的质量(例如如质量排序值所指示的)。举例来说,子画面A1202的质量排序值可以是1,子画面B 1204的质量排序值可以是3,子画面C 1206的质量排序值可以是2,以及子画面D 1208的质量排序值可以是5。子画面的覆盖范围可以用被相应子画面覆盖的视口面积的百分比来表示。如图12所示,70%的视口面积会被子画面A 1202覆盖,10%的视口面积会被子画面B 1204覆盖,15%的视口面积会被子画面C 1206覆盖,以及5%的视口面积会被子画面D 1208覆盖。作为示例,视口质量可以用等式3来计算。质量(视口)可以代表视口的质量排序值。质量(子画面(n))可以代表子画面n的质量排序值。覆盖范围(子画面(n))可以代表子画面n的面积在视口中的百分比。
等式4提供了一个关于使用等式3推导的图12中的视口的质量排序值的示例。
质量(视口)=质量(子画面A)*覆盖范围(子画面A)+质量(子画面B)*覆盖范围(子画面B)+质量(子画面C)*覆盖范围(子画面C)+质量(子画面D)*覆盖范围(子画面D)=1*0.7+3*0.1+2*0.15+5*0.05=1.55 等式4
图13是一个关于在视口同时被高质量区域(例如区域A 1306)和低质量区域(例如区域B 1304)覆盖的情况下的区域级质量排序(RQR)编码情形的示例。区域质量可以由相应的RWQR值指示。区域A 1306的RWQR值可以是1。区域B 1304的RWQR值可以是5。区域A可以覆盖90%的视口,区域B 1304可以覆盖10%的视口。作为示例,视口质量排序值可以用等式5来计算。
质量(视口)=质量(区域A)*覆盖范围(区域A)+质量(区域B)*覆盖范围(区域B)=1*0.9+5*0.1=1.4 等式5
当设备渲染的第二视口的质量高于阈值质量时,可以标识质量视口切换事件。举例来说,当被渲染的第二视口的质量排序值等于或小于在切换前被渲染的第一视口的质量排序值时,这时可以标识该质量视口切换事件。当被渲染的第二视口的质量排序值小于视口切换事件前的第一视口的质量排序值时,这时可以标识等质量视口切换事件。
EQ视口切换时延可被用于定义与针对方位变化的等质量视口切换事件相关联的时延。该EQ视口切换时延可以是设备(例如设备的传感器)检测到用户方位从第一视口变成第二视口(作为示例,这里的视口切换可被标识成是等质量切换视口)的时间和以与第一视口相同或相似的质量来将第二视口完全渲染给用户的时间之间的时间间隔。
图14显示了一个关于等质量视口切换事件的示例。设备可以接收和解码多个子画面(例如DASH视频分段),例如子画面A-F。子画面A-F可以对应于一个或多个相应的视频分段和相应的质量(例如由一个或多个质量排序值指示)。设备可以使用子画面B和C来产生视口#1。设备可以在该设备的显示器上为用户渲染(例如显示)视口#1。设备或度量服务器可以从子画面B和C的一个或多个质量排序值中推导出视口#1的质量排序值。在视口自适应流传输场景中,子画面B和C的质量排序值有可能(例如通常会)低于子画面A、D、E和F的质量排序值。如图14(b)所示,当设备移动并且用户观看方位从视口#1移动到视口#2时,视口#2会被子画面B和C覆盖。视口#2的子画面B和C与用于创建视口#1的子画面B和C可以是相同或不同的。视口#2可以具有与视口#1的质量相同的质量,或者视口#2可以具有与视口#1的质量不同的质量。设备或度量服务器可以从子画面B和C的一个或多个质量排序值中推导出视口#2的质量(例如如质量排序值所示)。
如图14(c)所示,当设备移动并导致户观看方位从视口#2移动到视口#3时,视口#3会被子画面C和D覆盖。用于生成视口#3的子画面C和D与客户端在其呈现视口#1和/或视口#2时请求的子画面C和D可以是相同或不同的。子画面C和D不会被用于生成视口#1和视口#2。子画面C和D可以被请求处理变化(例如突然的观看方位改变)。设备或度量标准服务器可以从子画面C和D的一个或多个质量排序中推导出视口#3的质量。设备可以将视口#3的质量与视口#1、视口#2的质量和/或质量阈值相比较,其中所述质量阈值大于视口#2的质量,但小于视口#1的质量。举例来说,如果设备确定视口#3的质量小于视口#1的质量或者小于该阈值,那么设备可以请求关于质量更好的子画面D的不同(例如新的)表示。作为示例,所述更好的质量可以通过一个与子画面D的原始质量排序值相比相对更低的质量排序值来表示。作为示例,在接收并使用子画面D的不同(例如新的)表示来产生视口#3时,如果设备确定视口#3的质量大于质量阈值或者等于或大于视口#1的质量(例如等质量视口切换事件),那么设备可以确定和/或报告质量视口切换事件。
图15显示了关于360缩放(例如用于在缩放操作期间中测量等质量视口切换时延)的示例。设备可以请求和接收多个子画面,例如子画面A、B、C、D、E和F。如1510所示,设备可以使用子画面B和C来生成第一视口。子画面B和C可以是高质量子画面。如1520所示,设备可以接收输入以进行缩放,并可以作为响应产生和显示第二视口。该第二视口可以包括跨越子画面A、B、C和D的球形区域。子画面B和C可以具有高质量,并且子画面A和D可以具有低质量。如此一来,第二视口可以由一个低于第一视口质量的质量来定义。如1530所示,设备可以请求具有更高质量(例如较低质量排序值)的子画面A和D的不同(例如新的)表示,将子画面A和D从低质量切换成高质量,以及生成如图15(c)中显示的高质量的完整第二视口。
作为示例,依照使用以下各项中的哪一项来确定等质量视口切换事件,设备可以基于图15(a)与图15(c)之间的时间间隔或是图15(b)与图15(c)之间的时间间隔来产生EQ视口切换时延度量。EQ视口切换时延可以作为从传感器检测到处于第二视口位置的用户观看方位的时间(例如以毫秒为单位)以及将第二视口内容以与先前渲染第一视口的质量相等或更高的质量完全渲染给用户的时间来被测量。EQ视口切换时延可以作为从传感器检测到处于第二视口位置的用户观看方位的时间(例如以毫秒为单位)以及以比渲染第一视口时的第二视口质量更高的质量将第二视口内容完全渲染给用户的时间来测量。
度量计算和报告模块可以使用在DASH MPD中用信号通告的表示比特率和/或分辨率来确定相应表示的相对质量(作为示例,而不是RWQR值)。设备(例如度量计算和报告模块)可以从被请求、解码或渲染以覆盖视口的表示(例如每一个表示)的比特率和/或分辨率中推导视口质量。在没有呈现表示时,这时可以默认地该表示的质量作为最高质量排序值来推导。
设备(例如VR设备)可以产生和报告初始时延度量和消息。该设备可以使用一个度量来指示开始头部运动与在VR域中开始相应反馈之间的时间差。该度量可以包括初始时延度量(例如在使用HMD时)。与视口切换时延相比,初始时延可以具有取决于HMD的延迟(例如基于传感器等等)。表7显示了关于初始延迟度量的报告的例示内容。设备或度量标准服务器可以从OP3和/或OP4中推导初始延迟度量和/或表7中所示的一个或多个条目。
表7显示了关于初始延迟度量的报告的例示内容。
表7
设备可以使用度量来指示停止头部运动与在VR域中停止相应反馈之间的时间差。该度量可以包括安置时延度量(例如在使用HMD的时候)。表8显示了关于安置时延度量的报告的例示内容。设备或度量服务器可以从OP3和/或OP4中推导安置时延度量和/或表8显示的一个或多个条目。
表8
作为示例,设备(例如VR设备)可以单独为每一个观看者的头部运动和/或视口变化报告时延量度。作为示例,该设备可以计算和/或报告一个预定时段上的平均值(例如以某个间隔)。度量服务器可以基于时延度量来测量不同VR设备的时延性能。该度量服务器可以将时延度量与包含了以下的一项或多项的其他数据相关联,以便确定一个或多个特定于VR设备的特征影响到用户满意度的程度:内容类型、总的观看时间以及视口变化频率。作为示例,作为示例,该度量服务器可以使用初始和安置时延,以便对HMD执行基准测试和/或为供应商提供反馈。
设备(例如HMD、电话、平板电脑或个人计算机)可以请求一个或多个DASH视频分段,以及将DASH视频分段作为具有不同质量的各种视口来显示。设备可以确定不同类型的时延,并且可以将该时延作为一个或多个时延度量来报告。设备可以基于显示当前视口与不同时间点之间的时间差来确定一个或多个时延度量。该时间点可以包括以下的一项或多项:设备开始移动、设备终止移动、处理器确定设备已开始移动、处理器确定设备已经停止移动、或是显示不同的视口和/或不同的质量。
图16示出了可以由DASH客户端(例如VR设备)报告的例示时延间隔。在时间t0,用户的头部/设备(例如HMD)会开始从视口#1移动到视口#2。用户有可能在t0观看视口#1(例如以HQ)。设备可以检测到从视口#1到视口#2的移动,和/或可以在t1(t1>=t0)作用于HMD的移动。从视口#1到视口#2的移动可能会影响用户的QoE。作为示例,设备可以反映出这种头部运动(例如在HMD显示器上),并且视口#1的质量会在t1之后降低。t0与t1之间的时延可能会依照不同的设备而改变(例如因为传感器、处理器等等)。如果运动(例如头部移动)是精细的(例如小于阈值),那么设备可以检测到运动,但是不会作用于该运动。在t2,头部或设备有可能会停在视口#2。该设备可以检测到视口#2,并且可以在t3(t3>=t2)作用于视口#2。举例来说,在t3,设备可以确定HMD在与视口#2相关联的位置已经停止了预定时间量(例如n毫秒)。在t4,用户可以观察HMD(例如HMD显示器)中的视口移位和/或质量变化。t4在时间上有可能小于t2或者在其之前(例如,用户可以保持移动其头部)。视口改变可以完成(例如在t5),并且设备在t5可以在初始的低质量视口执行显示。在设备上显示的质量是可以恢复的。例如,设备可以请求一个或多个较高质量的视频分段(例如DASH分段),以便产生视口#2。如此一来,视口#2的质量可以是高质量(例如在t6(t6>=t5)的与先前视口#1的质量相同的质量,或者与先前视口#1的质量相比更高的质量)。设备(例如度量收集和处理(MCP)模块)可以收集来自OP3的输入定时信息,和/或在OP4上收集该信息。作为示例,设备(例如MCP部件)可以基于时间t1-t6中的一个或多个来推导对应的时延度量,以便其报告给度量服务器(如图7的客户端参考模型所示)。
作为示例,VR设备可以测量各种时延参数。视口切换时延可以对应于t5与t1之间的时间差。等质量视口切换时延可以对应于t6与t1之间的时间差。初始时延可以对应于t4-t0。安置时延可以对应于t5与t2之间的时间差。在一个实施例中,设备可以记录和/或报告时间点(例如图16中的特定时间)。举例来说,一旦检测到头部运动,则设备可以生成一个度量报告,并且该度量报告可以指示t0,t1,t2,t3,t4,t5和t6。
该设备可以使用一个度量来指示用户位置。作为示例,如表9所示,该度量可以包括6DoF坐标度量。设备(例如VR设备)可以报告所述6DoF坐标度量(例如将其报告给度量服务器)。本地传感器可以提供用户位置。设备可以基于用户位置和/或HMD视口数据来提取6DoF坐标。6DoF位置可以借助用户HMD的3D坐标(例如X,Y,Z)来表示。6DoF位置可以借助VR空间中的控制器位置以及用户HMD或控制器的一个或多个相关球坐标(例如偏摆、俯仰和滚转,球坐标中心可以是X,Y和Z)来表示。当用户配备了多个控制器时,设备或用户可以用信号通告多个6DoF位置信号。表9显示了关于6DoF坐标的报告的例示内容。设备或度量服务器可以通过从OP3推导6DoF坐标度量和/或表9所示的一个或多个条目。
表9
设备(例如VR设备)可以报告注视数据。度量服务器可以使用注视数据来执行分析(例如以广告为目标)。表10显示了关于注视数据的报告的例示内容。设备或度量服务器可以从OP3中推导注视数据度量和/或表10中包含的一个或多个条目。设备可以使用注视数据来决定如何配置和/或提升基于图块的流传输(例如选择图块配置)。
表10
设备(例如VR设备)可以报告帧速率度量。渲染帧速率有可能不同于原生帧速率。表11显示了关于渲染帧速率的报告的例示内容。设备或度量标准服务器可以从OP4中推导帧速率度量和/或表11中包含的一项或多项。
表11
一般的系统服务质量(QoS)度量或参数(例如分组/帧丢失率、帧差错率和/或帧丢弃率)可以代表服务质量(例如针对常规的视频流传输)。一般的QoS度量无法反映关于某些流传输(例如取决于视口的360度视频流传输,比方说基于图块的流传输)的VR用户体验。对于常规视频流传输来说,一些或所有分组或帧可能会对用户体验产生相似或相同的影响。对于依赖于视口的360度视频流传输(例如基于图块的流传输)来说,用户体验可以通过呈现给用户的视口来确定(例如被部分或主要确定)。对于依赖于视口的360度视频流传输(例如基于图块的流)来说,其他非视口图块的分组或帧丢失不会影响用户体验。例如,用户不会观看其他非视口图块。用户观看的一个或多个视口图块的分组或帧丢失可能会对用户体验产生影响(例如产生重大影响)。通用的QoS度量有可能无法反映VR用户体验。
设备可以使用度量来指示一个或多个视口丢失事件。作为示例,该度量可以包括表12中描述的视口丢失度量。设备可以使用视口丢失度量来报告一个或多个视口丢失事件,以便进行用户体验分析(例如针对依赖于视口的360度视频流,比方说基于图块的流)。举例来说,客户端可以确定一个或多个丢失事件是否影响了显示给用户的视口,和/或可以借助视口丢失度量而仅仅报告影响所显示的视口的丢失事件。如表12所示,该视口丢失度量可以包括用于指示观察到丢失的时间的一个或多个定时信息,和/或其他丢失信息。设备或度量服务器可以可以从OP1和/或OP3推导视口丢失量度和/或表12包含的一个或多个条目。
表12
视口丢失度量可以报告视口分段丢失事件和/或提供与丢失状态有关的信息或附加信息。一个条目(例如条目“源Url”)可以指示(例如指定)丢失的视口分段的URL。条目(例如条目“丢失理由”)可以指示分段丢失的一个或多个原因(作为示例,这其中包括这里描述的一个或多个原因)。
关于视口丢失度量的一个条目(例如条目“服务器差错”)可以指示(例如指定)服务器没有完成视口分段请求(例如特定视口分段请求)的原因。在这里可以使用HTTP响应状态5xx服务器错误代码列表,举例来说,504对应于“网关超时”,505对应于“HTTP版本不被支持”等等。关于视口丢失度量的一个条目(例如条目“客户端差错”)可以指示(例如指定)在客户端请求(例如特定)视口分段时的客户端差错。所使用的可以是HTTP响应状态4xx客户端差错代码列表,例如,401对应于“未被授权”,404对应于“未找到”等等。关于视口丢失度量的一个条目(例如条目“分组丢失”)可以指示(例如指定)与源Url相关联的视口分段的一个或多个分组未能到达其目的地。关于视口丢失度量的一个条目(例如条目“分组差错”)可以指示(例如指定)与源Url相关联的视口分段的一个或多个分组无效。关于视口丢失度量的一个条目(例如条目“分组丢弃”)可以指示(例如指定)与源Url相关联的视口分段的一个或多个分组被丢弃。关于视口丢失度量的一个条目(例如条目“差错”)可以提供详细(例如更详细)的差错消息。举例来说,字段“差错”可以提供HTTP响应错误代码,作为示例,504对应于“网关超时”,505对应于“HTTP版本不被支持”,401对应于“未被授权”,404对应于“未找到”等等。通过这里描述的的差错度量,度量服务器能够分析网络状况对VR用户体验的影响和/或追踪一个或多个根本原因。
设备(例如VR设备)可以生成和/或报告与HMD相关的度量,例如精度和/或灵敏度。设备可以使用度量来指示VR域中用度数衡量的物理移动与视觉反馈之间的角度定位一致性。该度量可以包括精度度量。表13显示了关于HMD精度的报告的例示内容。设备或度量服务器可以从OP3和/或OP5推导精度度量和/或表13中包含的一个或多个条目。
表13
举例来说,在时间t,用户头部可能指向坐标A,然而显示给用户的图像有可能反映的是坐标B。精度度量可以对应于该差值(例如坐标B减去坐标A)。作为示例,用户可以将其头部向右移动3度,并且在HMD上显示的图像可以反映出用户向右移动了2.5度以及向下移动了0.2度。该精度度量可以指示这个测量差,例如水平0.5度的差异和垂直0.2度的差异。该度量可以报告该差异。该差异可以采用增量(delta)坐标(例如矢量)的形式。该差异可以采用绝对差异(例如单个值)的形式。HMD和/或控制器可以提供该精度度量。HMD可被包括在VR设备中。该增量值可以依照传感器与用户之间的距离而变化。
该设备可以使用一个度量来指示HMD惯性传感器感测微小运动以及随后向用户提供反馈的能力。该度量可以包括灵敏度度量。表14显示了关于HMD敏感性的报告的例示内容。设备或度量服务器可以从OP3和/或OP5推导灵敏度度量和/或表14中包含的一个或多个条目。
表14
设备和/或度量服务器可以用各种方式来使用精度和灵敏度。内容供应方或服务器可以基于HMD的精度和/或灵敏度来向用户提供一个或多个定制的内容建议。内容供应方、服务器或设备可以收集VR设备型号/品牌等级的精度和/或灵敏度度量,和/或与(例如VR设备的)制造商共享这些度量,由此解决问题和/或改进设备。
设备(例如VR设备)可以将精度和/或灵敏度作为PER消息来发送。DANE可以将精度和/或灵敏度消息发送到DASH客户端(例如包含VR设备)。设备或DANE可以向可配置的HMD发送关于所选择的内容的适当精度/灵敏度设置。观看者观看所选择的内容的体验会得到增强。表15显示了关于精确度消息的例示内容。表16显示了关于灵敏度消息的例示内容。
表15
表16
设备(例如VR设备)可以生成与ROI相关的消息。ROI消息可以采用PER类型。ROI消息可以向观看者指示期望的ROI。DASH客户端可以预先预取期望的ROI。ROI消息可以指示DASH客户端预先预取期望的ROI。所述ROI可能会随时间改变。设备或内容供应方可以从视口视图统计中推断ROI。设备或内容供应方可以规定ROI(例如导演剪辑)。设备或内容供应方可以基于实时分析来确定ROI。DANE可以将该ROI信息作为PER消息发送给DASH客户端。基于ROI信息,DASH客户端可以确定从服务器取回的图块/分段/字节范围。举例来说,设备或度量服务器可以从OP4中推导ROI消息。
ROI可以指示在吸引力、重要性或质量方面具有高优先级的VR区域(例如提示用户提前做出决定)。用户可以以一致的方式观看正面。通过ROI消息,用户可被提示观看另一个区域,但是仍然可以观看该视频的正面。
DANE可以接收作为PED消息的ROI信息,以便执行预取以及提升缓存性能。在PED消息中,如果提供了ROI,那么DANE可以确定所要取回的图块/分段/字节范围。在PED消息中可以提供一个或多个特定的URL。ROI信息消息可被从DANE发送到另一个DANE。表17示出了关于ROI信息消息的例示内容。
表17
ROI信息可以在定时元数据轨道或事件流元素中被携带。
图17显示了在DANE与DASH客户端之间或是在DASH客户端与度量服务器之间执行的SAND消息的消息流。DANE 1704(例如原始服务器)可以将视频分段发送到DANE 1706(例如CDC/缓存)。DANE 1706(例如CDC/缓存)可以将视频分段发送到DASH客户端1708。DASH客户端1708可以将度量发送到度量服务器1702。该度量可以包括以下的一项或多项:视口视图、渲染设备、视口切换时延、初始时延、安置时延、6DoF坐标、注视数据、帧速率、精度和/或灵敏度等等。DANE 1704(例如原始服务器)可以向DASH客户端1708发送信息(例如初始渲染方位、精度、灵敏度和/或ROI等等)。DANE 1706(例如CDC/缓存)可以向DASH客户端1708发送信息(例如初始渲染方位、精度、灵敏度,和/或ROI等等)。DASH客户端1708可以向DANE 1706(例如CDC/Cache)或DANE 1704(例如原始服务器)发送信息(例如渲染设备、视口切换时延和/或帧速率等等)。
设备可以检测、推导和/或向一个或多个度量服务器报告所述度量和/或度量变化,以便在一个或多个度量服务器上执行分析和/或计算。VR设备、度量服务器和/或控制器可以执行检测、推导、分析和/或计算中的一项或多项。
虽然在上文中描述了采用特定组合或顺序的特征和要素,但是本领域普通技术人员将会认识到,每一个特征或要素既可以单独使用,也可以以与其他特征和要素进行任何组合的方式使用。此外,这里描述的方法可以在引入到计算机可读介质中以供计算机或处理器运行的计算机程序、软件或固件中实施。关于计算机可读介质的示例包括电信号(通过有线和无线连接传送)。关于计算机可读介质的示例包括但不局限于只读存储器(ROM)、随机存取存储器(RAM)、寄存器、缓冲存储器、半导体存储设备、磁介质(例如内部硬盘和可移除磁盘)、磁光介质以及光介质(例如CD-ROM盘和数字多用途盘(DVD))。与软件相关联的处理器可以用于实施在WTRU、WTRU、终端、基站、RNC或任何计算机主机中使用的射频收发信机。
Claims (15)
1.一种用于接收和显示媒体内容的设备,所述设备包括:
处理器,该处理器被配置成:
显示第一视口,所述第一视口包括一个或多个通过HTTP的动态自适应流传输(DASH)视频分段的至少部分,所述第一视口与第一质量相关联;
确定所述设备在第一时间的移动;
在第二时间显示第二视口,所述第二视口包括一个或多个DASH视频分段的至少部分,所述第二视口与第二质量相关联,所述第二质量小于所述第一质量;
在第三时间显示第三视口,所述第三视口包括一个或多个DASH视频分段的至少部分,所述第三视口与第三质量相关联,其中所述第三质量大于所述第二质量;
基于所述第一时间与所述第三时间之间的差异,确定质量视口切换时延度量;以及
发送所述质量视口切换时延度量。
2.如权利要求1所述的设备,其中所述第三质量等于或大于所述第一质量。
3.如权利要求1所述的设备,其中所述第三质量等于或大于质量阈值,但小于所述第一质量。
4.如权利要求1所述的设备,其中所述第一视口的所述一个或多个DASH视频分段中的每一者具有相应的质量,以及其中所述第一质量是基于覆盖所述第一视口的所述一个或多个DASH视频分段的相关部分以及所述一个或多个DASH视频分段的所述相应的质量确定的。
5.如权利要求1所述的设备,其中所述第一质量是用所述一个或多个DASH视频分段的相应的质量的平均值、最大值、最小值或加权平均值中的至少一者确定的。
6.如权利要求1所述的设备,其中所述第一视口包括第一视频分段集合的第一部分,以及所述第二视口包括第二视频分段集合的第二部分,其中所述第一视频分段集合或所述第二视频分段集合的每一个视频分段具有质量,其中所述处理器被配置成:
确定所述第二质量小于阈值;以及
请求第三视频分段集合,其中所述第三视频分段集合中的一者或多者具有比所述第二视频分段集合中的一者或多者更高的质量,由此,基于所述第三视频分段集合的所述第三质量等于或大于所述质量阈值或所述第一质量。
7.如权利要求1所述的设备,其中所述设备在所述第一时间的所述移动包括以下内容中的一项或多项:所述设备在所述第一视口之外的移动、所述设备的方位变化或缩放操作。
8.如权利要求1所述的设备,其中当一个或多个视口切换参数的变化等于或大于阈值时,所述设备检测所述设备在所述第一时间的所述移动,其中,所述视口切换参数包括以下内容中的一项或多项:中心方位角、中心仰角、中心倾斜角、方位角范围及仰角范围。
9.如权利要求1所述的设备,其中所述第二视口和所述第三视口是相同的视口。
10.如权利要求1所述的设备,其中所述处理器进一步被配置成:
基于所述第一时间和所述第二时间来确定视口切换时延度量;以及
发送所述视口切换时延度量。
11.如权利要求1所述的设备,其中所述处理器进一步被配置成:
确定视口丢失;
确定所述视口丢失是否影响所显示的第一视口、第二视口或第三视口中的至少一者;
如果所述视口丢失影响到所显示的第一视口、第二视口或第三视口中的至少一者,则确定与所述视口丢失相关联的信息,其中所述信息包括所述视口丢失的理由以及与所述视口丢失相关联的DASH视频分段;
发送指示与所述视口丢失相关联的所述信息的视口丢失度量。
12.如权利要求11所述的设备,其中与所述视口丢失相关联的所述信息进一步包括以下内容中的一项或多项:确定所述视口丢失的时间、分组的源URL以及所述视口丢失的差错类型;以及
其中所述视口丢失的所述理由是以下各项之一:服务器差错、客户端差错、分组丢失、分组差错或分组丢弃。
13.一种用于接收和显示媒体内容的设备,所述设备包括:
处理器,该处理器被配置成:
请求多个通过HTTP的动态自适应流传输(DASH)视频分段,所述多个DASH视频分段与多个视口和质量相关联;
显示所述多个DASH视频分段的至少部分;以及
基于DASH视频分段的所述显示与以下各项中的一者之间的时间差来确定时延度量:所述设备开始移动、所述设备终止移动、所述处理器确定所述设备已开始移动、所述处理器确定所述设备已停止移动或者不同DASH视频分段的至少部分的所述显示,其中所述不同DASH视频分段与一个或多个不同的质量或不同视口相关联。
14.一种用于接收和显示媒体内容的设备,所述设备包括:
处理器,该处理器被配置成:
在第一时间显示第一视口,所述第一视口包括一个或多个通过HTTP的动态自适应流传输(DASH)视频分段的至少部分,所述第一视口与第一质量相关联;
检测所述设备在第二时间的移动;
确定所述设备在第三时间已停止移动,其中所述设备在所述第三时间与第二视口相关联;
在第四时间显示所述第二视口,所述第二视口包括一个或多个DASH视频分段的至少部分,所述第二视口与第二质量相关联;
在第五时间显示第三视口,所述第三视口包括一个或多个DASH视频分段的至少部分,所述第三视口与大于所述第二质量或质量阈值的第三质量相关联;
确定与所述第一时间、所述第二时间、所述第三时间、所述第四时间和所述第五时间中的两者或更多者之间的时间差相关联的时延度量。
15.一种用于接收和显示媒体内容的设备,所述设备包括:
处理器,该处理器被配置成:
请求多个通过HTTP的动态自适应流传输(DASH)视频分段,所述多个DASH视频分段与多个视口和质量相关联;
显示包括所述多个DASH视频分段中的一者或多者的至少部分的视口;
确定视口丢失;
确定所述视口丢失是否影响所显示的视口;
如果所述视口丢失影响所显示的视口,则确定与所述视口丢失相关联的信息,其中所述信息包括所述视口丢失的理由;
发送指示与所述视口丢失相关联的所述信息的视口丢失度量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211176352.3A CN115766679A (zh) | 2017-03-23 | 2018-03-23 | 改进用于360度自适应流传输的体验的度量和消息 |
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762475563P | 2017-03-23 | 2017-03-23 | |
US62/475,563 | 2017-03-23 | ||
US201762525065P | 2017-06-26 | 2017-06-26 | |
US62/525,065 | 2017-06-26 | ||
US201862636795P | 2018-02-28 | 2018-02-28 | |
US62/636,795 | 2018-02-28 | ||
PCT/US2018/023971 WO2018175855A1 (en) | 2017-03-23 | 2018-03-23 | Metrics and messages to improve experience for 360-degree adaptive streaming |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211176352.3A Division CN115766679A (zh) | 2017-03-23 | 2018-03-23 | 改进用于360度自适应流传输的体验的度量和消息 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110622483A true CN110622483A (zh) | 2019-12-27 |
CN110622483B CN110622483B (zh) | 2022-10-18 |
Family
ID=61966077
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211176352.3A Pending CN115766679A (zh) | 2017-03-23 | 2018-03-23 | 改进用于360度自适应流传输的体验的度量和消息 |
CN201880031651.3A Active CN110622483B (zh) | 2017-03-23 | 2018-03-23 | 改进用于360度自适应流传输的体验的度量和消息 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211176352.3A Pending CN115766679A (zh) | 2017-03-23 | 2018-03-23 | 改进用于360度自适应流传输的体验的度量和消息 |
Country Status (8)
Country | Link |
---|---|
US (3) | US11166072B2 (zh) |
EP (1) | EP3603006B1 (zh) |
JP (3) | JP6872631B2 (zh) |
KR (2) | KR102314172B1 (zh) |
CN (2) | CN115766679A (zh) |
FI (1) | FI3603006T3 (zh) |
IL (1) | IL269519B (zh) |
WO (1) | WO2018175855A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112866669A (zh) * | 2021-01-15 | 2021-05-28 | 聚好看科技股份有限公司 | 待分析视频录制方法、数据切换时间确定方法及设备 |
CN113065240A (zh) * | 2021-03-19 | 2021-07-02 | 成都安智杰科技有限公司 | 一种自适应巡航仿真方法、装置、电子设备和存储介质 |
CN113452474A (zh) * | 2020-03-27 | 2021-09-28 | 华为技术有限公司 | 扩展现实数据传输方法及装置 |
CN113542209A (zh) * | 2020-03-30 | 2021-10-22 | 腾讯美国有限责任公司 | 用于视频信令的方法、装置和可读存储介质 |
Families Citing this family (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109891850B (zh) | 2016-09-09 | 2023-04-04 | Vid拓展公司 | 用于减少360度视区自适应流媒体延迟的方法和装置 |
GB2554877B (en) * | 2016-10-10 | 2021-03-31 | Canon Kk | Methods, devices, and computer programs for improving rendering display during streaming of timed media data |
IL269519B (en) * | 2017-03-23 | 2022-09-01 | Vid Scale Inc | Metrics and messages to improve a customized 360-degree streaming experience |
WO2019182701A1 (en) * | 2018-03-22 | 2019-09-26 | Futurewei Technologies, Inc. | Immersive media metrics for field of view |
CN116708847A (zh) | 2018-03-22 | 2023-09-05 | Vid拓展公司 | 方法、系统及非暂时性计算机可读介质 |
CN112771884B (zh) * | 2018-04-13 | 2023-02-10 | 华为技术有限公司 | 具有多个机位的虚拟现实内容的沉浸式媒体度量 |
US11917127B2 (en) | 2018-05-25 | 2024-02-27 | Interdigital Madison Patent Holdings, Sas | Monitoring of video streaming events |
US11659222B2 (en) * | 2018-08-14 | 2023-05-23 | Comcast Cable Communications, Llc | Adaptive multicast streaming |
US10931979B2 (en) | 2018-10-18 | 2021-02-23 | At&T Intellectual Property I, L.P. | Methods, devices, and systems for decoding portions of video content according to a schedule based on user viewpoint |
US10846042B2 (en) * | 2018-10-31 | 2020-11-24 | Hewlett Packard Enterprise Development Lp | Adaptive rendering for untethered multi-user virtual reality |
US11051206B2 (en) | 2018-10-31 | 2021-06-29 | Hewlett Packard Enterprise Development Lp | Wi-fi optimization for untethered multi-user virtual reality |
EP4102852A1 (en) * | 2018-12-03 | 2022-12-14 | Sony Group Corporation | Information processing apparatus and method |
CN113424549B (zh) * | 2019-01-24 | 2024-05-28 | 交互数字Vc控股公司 | 用于利用多个细节级别和自由度的自适应空间内容流传输的系统和方法 |
WO2020186478A1 (en) * | 2019-03-20 | 2020-09-24 | Beijing Xiaomi Mobile Software Co., Ltd. | Method and device for transmitting viewpoint switching capabilities in a vr360 application |
WO2020198164A1 (en) * | 2019-03-26 | 2020-10-01 | Pcms Holdings, Inc. | System and method for multiplexed rendering of light fields |
WO2020201632A1 (en) * | 2019-04-05 | 2020-10-08 | Nokia Technologies Oy | An apparatus, a method and a computer program for omnidirectional video |
US11074697B2 (en) | 2019-04-16 | 2021-07-27 | At&T Intellectual Property I, L.P. | Selecting viewpoints for rendering in volumetric video presentations |
US11153492B2 (en) | 2019-04-16 | 2021-10-19 | At&T Intellectual Property I, L.P. | Selecting spectator viewpoints in volumetric video presentations of live events |
US11012675B2 (en) | 2019-04-16 | 2021-05-18 | At&T Intellectual Property I, L.P. | Automatic selection of viewpoint characteristics and trajectories in volumetric video presentations |
US10970519B2 (en) | 2019-04-16 | 2021-04-06 | At&T Intellectual Property I, L.P. | Validating objects in volumetric video presentations |
CN114375583A (zh) * | 2019-07-23 | 2022-04-19 | Pcms控股公司 | 用于自适应小透镜光场传输和渲染的系统和方法 |
US11303956B2 (en) * | 2019-09-11 | 2022-04-12 | Verizon Patent And Licensing Inc. | Systems and methods for internet protocol tuning |
US11729243B2 (en) * | 2019-09-20 | 2023-08-15 | Intel Corporation | Dash-based streaming of point cloud content based on recommended viewports |
US10893218B1 (en) | 2019-09-20 | 2021-01-12 | Gopro, Inc. | Systems and methods for generating panoramic visual content |
US11297387B2 (en) | 2019-09-24 | 2022-04-05 | Verizon Patent And Licensing Inc. | Systems and methods for digital video recording of internet protocol content |
CN111265863B (zh) * | 2020-01-17 | 2022-05-24 | 腾讯科技(深圳)有限公司 | 一种目标对象的位置纠正方法、装置、设备及介质 |
JP7512055B2 (ja) * | 2020-03-13 | 2024-07-08 | キヤノン株式会社 | 電子機器及びその制御方法 |
JP7504632B2 (ja) | 2020-03-13 | 2024-06-24 | キヤノン株式会社 | 電子機器及びその制御方法 |
US20210304705A1 (en) * | 2020-03-27 | 2021-09-30 | Samsung Electronics Co., Ltd. | Image display apparatus and method for managing data packet loss |
EP4182044A1 (en) * | 2020-07-20 | 2023-05-24 | Telefonaktiebolaget LM Ericsson (publ) | 5g optimized game rendering |
CN114125499A (zh) * | 2020-09-01 | 2022-03-01 | 中兴通讯股份有限公司 | 虚拟现实视频处理方法及其终端、服务器及存储介质 |
US11743442B2 (en) * | 2020-11-09 | 2023-08-29 | Tencent America LLC | Bitstream structure for immersive teleconferencing and telepresence for remote terminals |
WO2022117185A1 (en) * | 2020-12-03 | 2022-06-09 | Nokia Technologies Oy | Methods, user equipment and apparatus for controlling vr image in a communication network |
CN116868557A (zh) * | 2020-12-15 | 2023-10-10 | 弗劳恩霍夫应用研究促进协会 | 用于流传输视觉内容的客户端-服务器通信 |
US11677840B2 (en) | 2021-01-11 | 2023-06-13 | Cisco Technology, Inc. | Preserving transmission properties of real-time scenes in an environment when an increasing number of users join a session |
US11882169B1 (en) * | 2021-06-04 | 2024-01-23 | PicsArt, Inc. | Adaptive media streaming |
US11394758B1 (en) * | 2021-07-02 | 2022-07-19 | Rovi Guides, Inc. | Systems and methods for selecting a local device in a collaborative environment |
US11930059B2 (en) * | 2021-11-05 | 2024-03-12 | Tencent America LLC | Immersive media streaming prioritized by frequency of asset reuse |
KR20230094695A (ko) * | 2021-12-21 | 2023-06-28 | 한국전자통신연구원 | 멀티뷰 스트림을 위한 적응적 스트리밍 처리 방법 및 장치 |
US20230291781A1 (en) * | 2022-03-11 | 2023-09-14 | Qualcomm Incorporated | Techniques for multimedia uplink packet handling |
WO2023194648A1 (en) * | 2022-04-08 | 2023-10-12 | Nokia Technologies Oy | A method, an apparatus and a computer program product for media streaming of immersive media |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101872243A (zh) * | 2010-06-13 | 2010-10-27 | 上海杰图软件技术有限公司 | 一种实现跟随现实空间方向的360°全景播放系统及其方法 |
CN103293689A (zh) * | 2013-05-31 | 2013-09-11 | 京东方科技集团股份有限公司 | 一种可在不同显示模式之间切换的方法和显示装置 |
CN104067628A (zh) * | 2012-01-19 | 2014-09-24 | Vid拓展公司 | 用于支持对观看条件自适应的视频传输的方法和系统 |
CN104205734A (zh) * | 2012-04-27 | 2014-12-10 | 英特尔公司 | 用于基于HTTP的视频流送的QoE知晓的无线电接入网络架构 |
GB2523554A (en) * | 2014-02-26 | 2015-09-02 | Sony Comp Entertainment Europe | Head-mountable apparatus and systems |
CN105532008A (zh) * | 2013-08-29 | 2016-04-27 | Vid拓展公司 | 用户自适应的视频电话 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013163224A1 (en) * | 2012-04-24 | 2013-10-31 | Vid Scale, Inc. | Method and apparatus for smooth stream switching in mpeg/3gpp-dash |
GB2536025B (en) | 2015-03-05 | 2021-03-03 | Nokia Technologies Oy | Video streaming method |
JP6359993B2 (ja) * | 2015-03-09 | 2018-07-18 | 日本電信電話株式会社 | 映像配信方法、映像配信装置及び映像配信プログラム |
JP6501904B2 (ja) * | 2015-05-27 | 2019-04-17 | グーグル エルエルシー | 球面ビデオのストリーミング |
US11095537B2 (en) * | 2015-06-19 | 2021-08-17 | Qualcomm Incorporated | Middleware delivery of dash client QoE metrics |
CN109891850B (zh) * | 2016-09-09 | 2023-04-04 | Vid拓展公司 | 用于减少360度视区自适应流媒体延迟的方法和装置 |
CN107888993B (zh) * | 2016-09-30 | 2020-11-06 | 华为技术有限公司 | 一种视频数据的处理方法及装置 |
MX2022004795A (es) * | 2016-10-12 | 2022-12-16 | Fraunhofer Ges Forschung | Transmisión continua espacialmente desigual. |
IL269519B (en) * | 2017-03-23 | 2022-09-01 | Vid Scale Inc | Metrics and messages to improve a customized 360-degree streaming experience |
-
2018
- 2018-03-23 IL IL269519A patent/IL269519B/en unknown
- 2018-03-23 KR KR1020197027607A patent/KR102314172B1/ko active IP Right Grant
- 2018-03-23 KR KR1020217032830A patent/KR102391126B1/ko active IP Right Grant
- 2018-03-23 US US16/496,670 patent/US11166072B2/en active Active
- 2018-03-23 JP JP2019552034A patent/JP6872631B2/ja active Active
- 2018-03-23 FI FIEP18717479.2T patent/FI3603006T3/fi active
- 2018-03-23 EP EP18717479.2A patent/EP3603006B1/en active Active
- 2018-03-23 CN CN202211176352.3A patent/CN115766679A/zh active Pending
- 2018-03-23 WO PCT/US2018/023971 patent/WO2018175855A1/en unknown
- 2018-03-23 CN CN201880031651.3A patent/CN110622483B/zh active Active
-
2021
- 2021-04-19 JP JP2021070513A patent/JP7333802B2/ja active Active
- 2021-10-20 US US17/505,982 patent/US11849178B2/en active Active
-
2023
- 2023-05-24 JP JP2023085403A patent/JP2023109935A/ja not_active Withdrawn
- 2023-12-18 US US18/543,660 patent/US20240129581A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101872243A (zh) * | 2010-06-13 | 2010-10-27 | 上海杰图软件技术有限公司 | 一种实现跟随现实空间方向的360°全景播放系统及其方法 |
CN104067628A (zh) * | 2012-01-19 | 2014-09-24 | Vid拓展公司 | 用于支持对观看条件自适应的视频传输的方法和系统 |
CN104205734A (zh) * | 2012-04-27 | 2014-12-10 | 英特尔公司 | 用于基于HTTP的视频流送的QoE知晓的无线电接入网络架构 |
CN103293689A (zh) * | 2013-05-31 | 2013-09-11 | 京东方科技集团股份有限公司 | 一种可在不同显示模式之间切换的方法和显示装置 |
CN105532008A (zh) * | 2013-08-29 | 2016-04-27 | Vid拓展公司 | 用户自适应的视频电话 |
GB2523554A (en) * | 2014-02-26 | 2015-09-02 | Sony Comp Entertainment Europe | Head-mountable apparatus and systems |
Non-Patent Citations (1)
Title |
---|
XAVIER CORBILLON 等: ""Viewport-Adaptive Navigable 360-Degree Video Delivery"", 《HTTPS://WWW.RESEARCHGATE.NET/PUBLICATION/308647414_VIEWPORT-ADAPTIVE_NAVIGABLE_360-DEGREE_VIDEO_DELIVERY》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113452474A (zh) * | 2020-03-27 | 2021-09-28 | 华为技术有限公司 | 扩展现实数据传输方法及装置 |
WO2021190422A1 (zh) * | 2020-03-27 | 2021-09-30 | 华为技术有限公司 | 扩展现实数据传输方法及装置 |
CN113452474B (zh) * | 2020-03-27 | 2022-12-02 | 华为技术有限公司 | 扩展现实数据传输方法及装置 |
CN113542209A (zh) * | 2020-03-30 | 2021-10-22 | 腾讯美国有限责任公司 | 用于视频信令的方法、装置和可读存储介质 |
CN113542209B (zh) * | 2020-03-30 | 2024-06-07 | 腾讯美国有限责任公司 | 用于视频信令的方法、装置和可读存储介质 |
CN112866669A (zh) * | 2021-01-15 | 2021-05-28 | 聚好看科技股份有限公司 | 待分析视频录制方法、数据切换时间确定方法及设备 |
CN112866669B (zh) * | 2021-01-15 | 2023-09-15 | 聚好看科技股份有限公司 | 一种数据切换时间确定方法及设备 |
CN113065240A (zh) * | 2021-03-19 | 2021-07-02 | 成都安智杰科技有限公司 | 一种自适应巡航仿真方法、装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
KR102391126B1 (ko) | 2022-04-27 |
JP2023109935A (ja) | 2023-08-08 |
US20200037029A1 (en) | 2020-01-30 |
CN115766679A (zh) | 2023-03-07 |
IL269519A (en) | 2019-11-28 |
US20240129581A1 (en) | 2024-04-18 |
KR20210126794A (ko) | 2021-10-20 |
CN110622483B (zh) | 2022-10-18 |
US11849178B2 (en) | 2023-12-19 |
FI3603006T3 (fi) | 2024-06-18 |
WO2018175855A1 (en) | 2018-09-27 |
JP2020516122A (ja) | 2020-05-28 |
JP7333802B2 (ja) | 2023-08-25 |
KR20190142765A (ko) | 2019-12-27 |
IL269519B (en) | 2022-09-01 |
US20220046320A1 (en) | 2022-02-10 |
JP2021114783A (ja) | 2021-08-05 |
EP3603006A1 (en) | 2020-02-05 |
EP3603006B1 (en) | 2024-05-01 |
US11166072B2 (en) | 2021-11-02 |
JP6872631B2 (ja) | 2021-05-19 |
KR102314172B1 (ko) | 2021-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110622483B (zh) | 改进用于360度自适应流传输的体验的度量和消息 | |
US11974001B2 (en) | Secondary content insertion in 360-degree video | |
KR102509753B1 (ko) | 뷰포트 의존성 비디오 스트리밍 이벤트 | |
US11770594B2 (en) | 360-degree video delivery over next generation network | |
EP4035410A1 (en) | Video-based point cloud streams | |
US11917127B2 (en) | Monitoring of video streaming events | |
CN114449275A (zh) | 用于测量视口相关流传输中的运动影响的装置和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |