CN114981822A - 用于流式传输到异构客户端端点的2d视频的适配的神经网络模型的参考 - Google Patents
用于流式传输到异构客户端端点的2d视频的适配的神经网络模型的参考 Download PDFInfo
- Publication number
- CN114981822A CN114981822A CN202180009467.0A CN202180009467A CN114981822A CN 114981822 A CN114981822 A CN 114981822A CN 202180009467 A CN202180009467 A CN 202180009467A CN 114981822 A CN114981822 A CN 114981822A
- Authority
- CN
- China
- Prior art keywords
- media
- neural network
- scene
- content
- format
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/234336—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by media transcoding, e.g. video is transformed into a slideshow of still pictures or audio is converted into text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
- H04N21/2355—Processing of additional data, e.g. scrambling of additional data or processing content descriptors involving reformatting operations of additional data, e.g. HTML pages
- H04N21/2356—Processing of additional data, e.g. scrambling of additional data or processing content descriptors involving reformatting operations of additional data, e.g. HTML pages by altering the spatial resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/158—Switching image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
- H04N21/23412—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
- H04N21/23418—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/23439—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
- H04N21/23614—Multiplexing of additional data and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/85406—Content authoring involving a specific file format, e.g. MP4 format
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/10—Interfaces, programming languages or software development kits, e.g. for simulating neural networks
- G06N3/105—Shells for specifying net layout
Abstract
提供一种用于流式传输沉浸式媒体的方法、计算机程序和计算机系统。方法包括:以二维格式摄取内容,2D格式引用至少一个神经网络;基于所引用的至少一个神经网络,将所摄取的内容转换成三维格式;以及所转换的内容流式传输到客户端端点。
Description
相关申请的交叉引用
本申请要求于2020年12月16日提交到美国专利商标局的第63/126,188号美国临时专利申请和于2021年8月20日提交到美国专利商标局的第17/407,711号美国专利申请的优先权,这两个申请的全部内容通过引用整体并入本文中。
技术领域
本公开总体上涉及数据处理领域,更具体地涉及视频编码。
背景技术
“沉浸式媒体”通常指的是如下媒体,该媒体刺激任何或所有人类感官系统(视觉,听觉,体感,嗅觉,可能还有味觉)以创建或增强物理地存在于媒体的体验中的用户的感知,即,超过了分布在现有商业网络上以用于定时二维(2D)视频和对应音频的、被称为“传统媒体”的媒体。沉浸式媒体和传统媒体均可表征为定时的或不定时的。
时间媒体指的是根据时间结构化和呈现的媒体。示例包括电影特征、新闻报道、剧集内容,所有这些示例根据时间段进行组织。传统视频和音频通常被认为是时间媒体。
非时间媒体是未按时间结构化的媒体;相反,通过逻辑、空间和/或时间关系来结构化。示例包括视频游戏,其中用户可以控制游戏设备所创造的体验。非时间媒体的另一示例是由相机拍摄的静止图像照片。非时间媒体可包含时间媒体,例如,在视频游戏场景的连续循环音频或视频片段中包含时间媒体。反过来,时间媒体可包含非时间媒体,例如视频具有固定静止图像作为背景。
具有沉浸式媒体能力的设备可以指的是配备有访问、解释和呈现沉浸式媒体的能力的设备。这样的媒体和设备在媒体的数量和格式方面不统一,以及大规模地分发这样的媒体所需的网络资源的数量和类型不统一,即,实现与传统视频和音频媒体在网络上的分发等同的分发所需的网络资源的数量和类型不统一。相比之下,诸如笔记本电脑显示器、电视和移动手持式显示器的传统设备在其能力方面同质,原因是所有这些设备包括矩形显示屏,且消耗2D矩形视频或静止图像作为它们的主要媒体格式。
发明内容
提供一种用于流式传输沉浸式媒体的方法、系统和计算机可读介质。
根据本公开的一方面,一种流式传输沉浸式媒体的方法,可由处理器执行,并包括:以二维格式摄取内容,其中,二维格式引用至少一个神经网络;基于所引用的至少一个神经网络,将所摄取的内容转换成三维格式;以及将所转换的内容流式传输到客户端端点。
至少一个神经网络可包括特定于场景的神经网络,特定于场景的神经网络对应于所摄取的内容中包括的场景。
转换所摄取的内容可包括:使用特定于场景的神经网络来推断与场景相关的深度信息;以及将所摄取的内容适配成与场景相关联的特定于场景的体积格式。
至少一个神经网络可基于对应于场景内的对象的先验来训练。
至少一个神经网络可以在补充增强信息(Supplemental EnhancementInformation,SEI)消息中予以引用,SEI消息包括在对应于所摄取的内容的已编码视频码流中。
对应于至少一个神经网络的神经网络模型和至少一个参数可直接嵌入在SEI消息中。
可以在SEI消息中写入对应于至少一个神经网络的神经网络模型的位置。
客户端端点可包括电视、计算机、头戴式显示器、透镜式光场显示器、全息显示器、增强现实显示器和密集光场显示器中的一个或多个。
根据本公开的一方面,一种用于流式传输沉浸式媒体的设备,包括:至少一个存储器,配置成存储程序代码;以及至少一个处理器,配置成读取程序代码并按照程序代码的指令进行操作,程序代码包括:摄取代码,配置成使得至少一个处理器以二维格式摄取内容,其中,二维格式引用至少一个神经网络;转换代码,配置成使得至少一个处理器基于所引用的至少一个神经网络,将所摄取的内容转换成三维格式;以及流式传输代码,配置成使得至少一个处理器将所转换的内容流式传输到客户端端点。
至少一个神经网络可包括特定于场景的神经网络,特定于场景的神经网络对应于所摄取的内容中包括的场景。
转换代码可包括:推断代码,配置成使得至少一个处理器使用特定于场景的神经网络来推断与场景相关的深度信息;以及适配代码,配置成使得至少一个处理器将所摄取的内容适配成与场景相关联的特定于场景的体积格式。
至少一个神经网络可基于对应于场景内的对象的先验来训练。
至少一个神经网络可以在补充增强信息SEI消息中予以引用,SEI消息包括在对应于所摄取的内容的已编码视频码流中。
对应于至少一个神经网络的神经网络模型和至少一个参数可直接嵌入在SEI消息中。
可以在SEI消息中写入对应于至少一个神经网络的神经网络模型的位置。
客户端端点可包括电视、计算机、头戴式显示器、透镜式光场显示器、全息显示器、增强现实显示器和密集光场显示器中的一个或多个。
根据本公开的一方面,一种非暂时性计算机可读介质,存储有指令,该指令包括一个或多个指令,当一个或多个指令由用于流式传输沉浸式媒体的设备的至少一个处理器执行时,一个或多个指令使得至少一个处理器执行:摄取代码,配置成使得至少一个处理器以二维格式摄取内容,其中,二维格式引用至少一个神经网络;转换代码,配置成使得至少一个处理器基于所引用的至少一个神经网络,将所摄取的内容转换成三维格式;以及流式传输代码,配置成使得至少一个处理器将所转换的内容流式传输到客户端端点。
至少一个神经网络可包括特定于场景的神经网络,特定于场景的神经网络对应于所摄取的内容中包括的场景。
所述一个或多个指令可进一步使得至少一个处理器:使用特定于场景的神经网络来推断与场景相关的深度信息;以及将所摄取的内容适配成与场景相关联的特定于场景的体积格式。
至少一个神经网络可以在补充增强信息(SEI)消息中予以引用,SEI消息包括在对应于所摄取的内容的已编码视频码流中。
附图说明
通过结合附图阅读说明性实施例的以下详细描述,这些和其它目的、特征和优点将变得显而易见。附图的各个特征未按比例绘制,因为示图是为了清楚地便于本领域技术人员结合详细描述来理解。在附图中:
图1是定时传统媒体分发的端到端过程的示意图。
图2是用于流式传输定时传统媒体的标准媒体格式的示意图。
图3是用于表示和流式传输定时沉浸式媒体的数据模型的实施例的示意图。
图4是用于表示和流式传输不定时沉浸式媒体的数据模型的实施例的示意图。
图5是采集自然场景并将自然场景转换成一种可用作服务于异构客户端端点的网络的摄取格式的表示的过程的示意图。
图6是使用3D建模工具和格式创建合成场景的可用作服务于异构客户端端点的网络的摄取格式的表示的过程的示意图。
图7是计算机系统的系统图。
图8是服务于多个异构客户端端点的网络的示意图。
图9是提供与以媒体摄取格式表示的特定媒体相关的适配信息的网络的示意图,例如,在适配媒体以供特定沉浸式媒体客户端端点消费的网络过程之前。
图10是由媒体渲染-转换器组成的媒体适配过程的系统图,媒体渲染-转换器将源媒体从其摄取格式转换成适合于特定客户端端点的特定格式。
图11是将已适配的源媒体格式化成适合于表示和流式传输的数据模型的网络的示意图。
图12是将图12的数据模型分成网络协议分组的有效载荷的媒体流式传输过程的系统图。
图13是将摄取格式的特定沉浸式媒体适配成可流式传输且适合于特定沉浸式媒体客户端端点的分发格式的网络的序列图。
图14是由沉浸式内容格式和传统内容格式(即,仅2D视频格式)组成,或者由沉浸式和2D视频格式组成的图10的摄取媒体格式和资产1002的示意图。
图15描绘了神经网络模型信息连同已编码视频流的携带。
具体实施方式
本文公开了所要求保护的结构和方法的详细实施例;然而,可以理解到,所公开的实施例仅仅是所要求保护的结构和方法的说明,所要求保护的结构和方法可以以各种形式实施。然而,这些结构和方法可以以许多不同的形式实施,且不应解释为限于本文所阐述的示例性实施例。相反,提供这些示例性实施例以使得本公开将是彻底的和完整的,并向本领域技术人员充分地传达范围。在描述中,可省略众所周知的特征和技术的细节,以避免不必要地模糊所呈现的实施例。
实施例总体上涉及数据处理领域,更具体地涉及视频编码。本文描述的技术允许2D已编码视频流用信号表示特定于场景的神经网络模型,以便网络摄取包括一个或多个(通常较小数量的)视图的媒体的2D视频源,且将2D媒体的源适配成一个或多个可流式传输的“分发格式”,来适应各种异构客户端端点设备、异构客户端端点设备的不同特征和能力、以及在客户端端点上使用的应用的要求,此后实际上将格式化的媒体分发给各种客户端端点。网络模型可通过SEI结构化字段直接嵌入到已编码码流的特定于场景的已编码视频流中,或者SEI可以用信号表示存储在分发网络上的其它地方但是可由神经网络过程访问的特定模型的使用。将2D媒体源重新格式化成各种可流式传输的分发格式的能力使得网络能够同时服务于具有各种能力以及可用计算资源的各种客户端端点,且使得能够支持新兴的沉浸式客户端端点,例如商业网络中的全息和光场显示器。此外,基于特定于场景的神经网络模型来适配特定于场景的2D媒体源的能力改善了最终视觉质量。当不存在可用的沉浸式媒体源时,以及当客户端无法支持基于2D媒体的分发格式时,对2D媒体源进行适配的这种能力尤其重要。在该场景中,基于神经网络的方法可通过携带特定于场景的神经网络模型而更优化地用于存在于2D媒体内的特定场景,其中特定于场景的神经网络模型使用先验来训练,先验通常与特定场景内的对象或针对特定场景的上下文的对象类似。这提高了网络推断与特定场景相关的基于深度的信息的能力,使得网络可以将2D媒体适配成适合于目标客户端端点的特定于场景的体积格式。
如先前所描述的,“沉浸式媒体”通常指的是如下媒体,该媒体刺激任何或所有人类感官系统(视觉,听觉,体感,嗅觉,可能还有味觉)以创建或增强物理地存在于媒体的体验中的用户的感知,即,超过了分布在现有商业网络上以用于定时二维(2D)视频和对应音频的、被称为“传统媒体”的媒体。沉浸式媒体和传统媒体均可表征为定时的或不定时的。
时间媒体指的是根据时间结构化和呈现的媒体。示例包括电影特征、新闻报道、剧集内容,所有这些示例根据时间段进行组织。传统视频和音频通常被认为是时间媒体。
非时间媒体是未按时间结构化的媒体;相反,通过逻辑、空间和/或时间关系来结构化。示例包括视频游戏,其中用户可以控制游戏设备所创造的体验。非时间媒体的另一示例是由相机拍摄的静止图像照片。非时间媒体可包含时间媒体,例如,在视频游戏场景的连续循环音频或视频片段中包含时间媒体。反过来,时间媒体可包含非时间媒体,例如视频具有固定静止图像作为背景。
具有沉浸式媒体能力的设备可以指的是配备有访问、解释和呈现沉浸式媒体的能力的设备。这样的媒体和设备在媒体的数量和格式方面不统一,以及大规模地分发这样的媒体所需的网络资源的数量和类型不统一,即,实现与传统视频和音频媒体在网络上的分发等同的分发所需的网络资源的数量和类型不统一。相比之下,诸如笔记本电脑显示器、电视和移动手持式显示器的传统设备在其能力方面同质,原因是所有这些设备包括矩形显示屏,且消耗2D矩形视频或静止图像作为它们的主要媒体格式。
任何媒体在网络上的分发可采用媒体投放系统和架构,媒体投放系统和架构将媒体从输入或网络“摄取”格式重新格式化成最终分发格式,其中该分发格式不仅适用于目标客户端设备及其应用,而且有助于通过网络流式传输。媒体的“流式传输”泛指源媒体的分段和分组,使得源媒体可根据媒体的时间或空间结构中的任一个或媒体的时间和空间结构两者,以逻辑上组织和排序的连续较小尺寸的“块”通过网络分发。在这样的分发架构和系统中,媒体可经历压缩或分层过程,使得首先仅给客户端分发最显著的媒体信息。在一些情况下,客户端必须接收某些媒体部分的所有显著媒体信息,然后客户端能够向终端用户呈现相同媒体部分中的任何媒体部分。
重新格式化输入媒体以匹配目标客户端端点的能力的过程可采用神经网络过程,该神经网络过程采用可具有被重新格式化的特定媒体的一些先验知识的网络模型。例如,可调整特定模型以识别室外公园场景(具有树,植物,草和公园场景常见的其它对象),然而可调整又一种不同的特定模型以识别室内晚餐场景(具有餐桌,服务器具,坐在桌子旁的人等)。本领域技术人员将认识到,经调整以从特定上下文中识别对象(例如公园场景对象)的网络模型将认识到,与未如此调整的网络模型相比,配备有经调整以匹配特定场景内容的网络模型的神经网络过程将产生更好的视觉结果。因此,益处是将特定于场景的网络模型提供给神经网络过程,该神经网络过程的任务是重新格式化输入媒体以匹配目标客户端端点的能力。
将神经网络模型与特定场景相关联的机制可通过可选地压缩网络模型并通过补充增强信息(Supplemental Enhancement Information,SEI)结构化字段直接将网络模型插入到视觉场景的已编码码流中来实现,SEI结构化字段通常用于将元数据附加到H.264,H.265和H.266视频压缩格式的已编码视频流。在一部分已编码视频码流的上下文中包含特定神经网络模型的SEI消息的存在,可用于指示网络模型将用于解释和适配其中嵌入了模型的这部分码流内的视频内容。或者,SEI消息可用于通过网络模型的标识符用信号表示哪个神经网络模型可以在不存在实际模型本身的情况下使用。
在将视频适配到目标客户端端点之后,网络内的适配过程然后可选择将压缩算法应用于结果。此外,可选地,压缩算法可以将已适配的视频信号分成多个层,这多个层对应于视觉信号的最显著部分到最不显著部分。
压缩和分层过程的示例是JPEG标准(ISO/IEC 10918第1部分)的逐步发展格式,其将图像分成多个层,使得整个图像首先仅以最初不是焦点的基本形状和颜色呈现,即,来自整个图像扫描的较低阶DCT系数,随后整个图像以附加细节层呈现,该附加细节层可以使得图像成为焦点,即,来自图像扫描的较高阶DCT系数。
将媒体分成较小部分、将它们组织成连续网络协议分组的有效载荷部分以及分发这些协议分组的过程被称为媒体的“流式传输”,而将媒体转换成适合于在运行各种异构应用之一的各种异构客户端端点之一上呈现的格式的过程被称为“适配”媒体。
定义
场景图:通常由基于矢量的图形编辑应用和现代计算机游戏使用的通用数据结构,其布置图形场景的逻辑和通常的(但不一定)空间表示;图形结构中的节点和顶点的集合。
节点:场景图的基本元素,包括与视觉、音频、触觉、嗅觉、味觉或相关处理信息的逻辑或空间或时间表示相关的信息;每个节点应具有至多一个输出边缘、零个或更多个输入边缘、以及连接到节点的至少一个边缘(输入或输出)。
基础层:资产的标称表示,通常被制定以最小化渲染资产所需的计算资源或时间,或者最小化通过网络传输资产所需的时间。
增强层:当应用于资产的基础层表示时的一组信息,增强基础层以包括未在基础层中支持的特征或能力。
属性:与节点相关联的元数据,用于以典型的或更复杂的形式(例如,从另一节点的角度而言)描述该节点的特定特性或特征。
容器:一种序列化格式,用于存储和交换信息以表示所有自然场景、所有合成场景或者合成场景和自然场景的混合,包括场景图和渲染场景所需的所有媒体资源。
序列化:将数据结构或对象状态转换成可以存储(例如,在文件或存储器缓冲区中)或传输(例如,通过网络连接链路)且稍后(可能在不同的计算机环境中)重建的格式的过程。当根据序列化格式重新读取所得到的比特序列时,该比特序列可用于创建原始对象的语义上相同的克隆。
渲染器:基于学科的选择性混合的应用或过程(通常基于软件),学科涉及:声学物理、光物理、视觉感知、音频感知、数学和软件开发,即,给定输入场景图和资产容器,渲染器发出典型视觉和/或音频信号,该信号适合于呈现在目标设备上或符合由场景图中的渲染目标节点的属性指定的期望属性。对于基于视觉的媒体资产,渲染器可发出视觉信号,该视觉信号适合于目标显示器,或者适合于存储为中间资产(例如,重新打包到另一容器中,即,在图形流水线中的一系列渲染过程中使用);对于基于音频的媒体资产,渲染器可发出音频信号,以用于在多通道扬声器和/或双耳式耳机中呈现,或者用于重新打包到另一(输出)容器中。渲染器的流行的示例包括:Unity,Unreal。
评估:产生结果(例如,类似于对网页的文档对象模型的评估),使得输出从抽象移动到具体结果。
脚本语言:一种解释性编程语言,可以由渲染器在运行时执行以处理对场景图节点做出的动态输入和可变状态改变,其影响空间和时间对象拓扑(包括物理力,约束,IK,变形,碰撞)和能量传播和传输(光,声音)的渲染和评估。
着色器:一种类型的计算机程序,最初用于描影(在图像内产生适当水平的光、暗度和颜色),但是现在,在计算机图形特效的各个领域中执行各种专用功能,或者执行与描影无关的视频后处理,或者甚至执行根本不与图形相关的功能。
路径寻迹:渲染三维场景的计算机图形方法,使得场景的照明更加真实。
时间媒体:按时间排序的媒体;例如,根据特定时钟,具有开始时间和结束时间。
非时间媒体:通过空间、逻辑或时间关系组织的媒体;例如,如在根据用户采取的动作来实现的交互式体验中。
神经网络模型:定义在明确定义的数学运算中使用的权重(即,数值)的参数和张量(例如,矩阵)的集合,此类数学运算应用于视觉信号以获得改进的视觉输出,改进的视觉输出可包括用于视觉信号的、未由原始信号明确提供的新视图的内插。
沉浸式媒体可被认为是一种或多种类型的媒体,当此类媒体由具有沉浸式媒体能力的设备呈现给人类时,此类媒体以更真实且与人类对自然世界内的体验理解一致的方式刺激五个感官(即视觉,声音,味道,触摸和听觉)中的任一个,即,超过了使用通过传统设备呈现的传统媒体来实现的刺激。在该上下文中,术语“传统媒体”指的是二维(2D)视觉媒体(静止或移动图片帧)和/或对应的音频,对于传统媒体,与用户交互的能力限于暂停、播放、快进或倒带;“传统设备”指的是电视、笔记本电脑、显示器和移动设备,其能力局限于仅能呈现传统媒体。在面向消费者的应用场景中,用于沉浸式媒体的呈现设备(即,具有沉浸式媒体能力的设备)是面向消费者的硬件设备,尤其配备有利用由沉浸式媒体体现的特定信息的能力,使得该设备可创建的呈现更紧密地贴合人类对物理世界的理解以及与物理世界的交互,即,超过了传统设备这样做的能力。传统设备的能力局限于仅呈现传统媒体,而沉浸式媒体设备不会受类似地约束。
在过去十年中,许多具有沉浸式媒体能力的设备已引入消费者市场,包括头戴式显示器、增强现实眼镜、手持式控制器、触觉手套和游戏控制台。类似地,全息显示器和其它形式的体积显示器有望在下一个十年内出现。虽然这些设备立即可用或即将可用,但是出于若干原因,用于在商业网络上分发沉浸式媒体的连贯端到端生态系统的具体化已失败。
这些原因之一是缺乏对沉浸式媒体的单一标准表示,这种标准表示可解决与大规模媒体在商业网络上的当前分发相关的两种主要使用情况:1)实况动作事件的实时分发,即,内容被创建且实时地或接近实时地分发到客户端端点,以及2)非实时分发,其不要求实时地,即,在内容被物理地采集或创建时,分发内容。相应地,这两种使用情况可以与如今存在的“广播”和“点播”格式的分发同等地做比较。
对于实时分发,内容可以由一个或多个相机采集,或者使用计算机生成技术来创建。由相机采集的内容在本文中被称为“自然”内容,而使用计算机生成技术创建的内容在本文中被称为“合成”内容。表示合成内容的媒体格式可以是3D建模、视觉效果和CAD/CAM行业使用的格式,且可包括对象格式和工具,例如网格、纹理、点云、结构体积、非晶体积(例如,用于火灾、烟雾和雾)、着色器、程序生成的几何形状、材料、照明、虚拟相机定义和动画。虽然合成内容是计算机生成的,但是合成媒体格式可用于自然内容和合成内容两者,然而,将自然内容转换成合成媒体格式(例如,合成表示)的过程可以是时间和计算密集型过程,因此对于实时应用和使用情况来说可能不切实际。
对于自然内容的实时分布,相机采集的内容可以以光栅格式分布,这适合于传统显示设备,因为许多这样的设备都类似地被设计成显示光栅格式。也就是说,假定传统显示器统一设计成显示光栅格式,因此光栅格式的分布优选地适用于能够仅显示光栅格式的显示器。
然而,具有沉浸式媒体能力的显示器不一定局限于显示基于光栅的格式。此外,一些具有沉浸式媒体能力的显示器不能呈现仅以基于光栅的格式可用的媒体。被优化以基于除了基于光栅的格式之外的格式来创建沉浸式体验的显示器的可用性是为什么不存在用于分发沉浸式媒体的连贯端到端生态系统的另一重要原因。
给多个不同的沉浸式媒体设备创建连贯分发系统的又一个问题是当前和新兴的具有沉浸式媒体能力的设备本身差异很大。例如,一些沉浸式媒体设备明确设计成一次仅由一个用户使用,例如头戴式显示器。其它沉浸式媒体设备设计成使得这些沉浸式媒体设备可以由多于一个用户同时使用,例如“窥镜工厂8K显示器”(之后称为“透镜式光场显示器”)可显示可以同时由多达12个用户观看的内容,其中每个用户正在经历他或她自己对正在显示的内容的独特视角(即,视图)。
进一步使连贯分发系统的开发复杂化的是每个显示器能够产生的独特视角或视图的数量可以变化很大。在大多数情况下,传统显示器仅可以创建内容的单个视角。然而,透镜式光场显示器可支持多个用户,其中每个用户经历相同视觉场景的独特视角。为了实现同一场景的多个视图的这种创建,透镜式光场显示器创建特定体积视体,其中需要相同场景的45个独特视角或视图作为对显示器的输入。这意味着相同场景的45个略微不同的唯一光栅表示需要采集且以特定于这一个特定显示器(即,其视体)的格式分发到显示器。相反,传统显示器的视体限于单个二维平面,因此不存在通过显示器的视体呈现内容的多于一个观看视角的方式(不管正在体验显示器的同时观看者的数量如何)。
通常,沉浸式媒体显示器可根据所有显示器的以下特性而显著变化:视体的尺寸和体积,同时支持的观看者的数量,用于填充视体的光学技术(可以是基于点、基于射线或基于波的技术),占据视体的光单元(点、射线或波)的密度,计算能力和计算类型(CPU或GPU)的可用性,功率源和可用性(电池或线),本地存储或缓存的量,以及对诸如基于云的计算和存储的辅助资源的访问。这些特性有助于沉浸式媒体显示器的异质性,与传统显示器的均匀性相反,使得可支持所有显示器(包括传统显示器和沉浸式类型的显示器)的单个分发系统的开发复杂化。
所公开的主题解决了基于网络的媒体分发系统的开发的问题,该基于网络的媒体分发系统可支持传统显示器和沉浸式媒体显示器作为单个网络的上下文中的客户端端点。具体地,本文提出一种机制,该机制将输入的沉浸式媒体源适配成适合于客户端端点设备(包括当前在该客户端端点设备上执行的应用)的特定特性的格式。适配输入的沉浸式媒体源的这种机制包括使输入的沉浸式媒体的特性与目标端点客户端设备(包括在客户端设备上执行的应用)的特性协调,然后将输入的沉浸式媒体适配成适合于目标端点及其应用的格式。
此外,适配过程可包括从输入媒体内插附加视图(例如新视图),以创建客户端端点所需的附加视图。可借助于神经网络过程来执行这样的内插。
应注意,在不丧失一般性的情况下,所公开的主题的其余部分假设将输入的沉浸式媒体源适配到特定端点客户端设备的过程与将相同输入的沉浸式媒体源适配到正在特定客户端端点设备上执行的特定应用的过程相同或相似。也就是说,将输入的媒体源适配到端点设备的特性的问题与将特定输入的媒体源适配到特定应用的特性的问题具有相同的复杂度。
传统媒体支持的传统设备已实现广泛的消费者采用,原因是传统设备同样由传统媒体内容提供商的生态系统(产生传统媒体的基于标准的表示)和商业网络服务提供商(提供网络基础设施以将传统设备连接到标准传统内容源)支持。除了在网络上分发传统媒体的角色之外,商业网络服务提供商还可促进传统客户端设备与内容分发网络(CDN)上的传统内容的访问配对。一旦与对适当形式的内容的访问配对,传统客户端设备就可以请求或“上拉”来自内容服务器的传统内容到达设备,以呈现给终端用户。然而,网络服务器将适当媒体“推送”到适当客户端的架构同样适宜,而不会给总体架构和解决方案设计带来额外复杂度。
在本文中参考根据各种实施例的方法、装置(系统)和计算机可读介质的流程图和/或框图描述各方面。应理解,流程图和/或框图的每个框以及流程图和/或框图中的框的组合可以由计算机可读程序指令实现。
下面描述的示例性实施例涉及用于分发媒体(包括视频,音频,几何(3D)对象,触觉,相关联的元数据或客户端设备的其它内容)的系统和网络的架构、结构和组件。特定实施例涉及用于向异构沉浸式和交互式客户端设备分发媒体内容的系统、结构和架构。
图1是定时传统媒体分发的端到端过程的示例图。在图1中,定时音频-视觉内容由相机或麦克风101A采集或者由计算机101B生成,来创建2D图像序列102和相关联的音频,2D图像序列102的相关联的音频输入到准备模块103。103的输出是已编辑的内容(例如,用于包括语言翻译,字幕,其它编辑功能的后生产),被称为准备好转换成标准夹层格式(例如,用于点播媒体)的主格式,或者通过转换器模块104转换成标准贡献格式(例如,用于实况事件)。媒体由商业网络服务提供商“摄取”,适配模块105将媒体打包成各种比特率、时间分辨率(帧速率)或空间分辨率(帧大小),这些比特率、时间分辨率或空间分辨率打包成标准分发格式。所得到的适配存储在内容分发网络106上,各种客户端108从内容分发网络106进行上拉请求107以获取媒体和将媒体呈现给终端用户。重要的是要注意,主格式可以由来自101A或101B的媒体的混合组成,且格式101A可实时地获得,例如,从实况体育赛事获得的媒体。此外,客户端108负责选择最适合于客户端的配置和/或当前网络状况的特定适配107,但同样可能的是,网络服务器(图1未示出)可确定合适内容,并随后将合适内容推送到客户端108。
图2是用于分发传统时间媒体(例如视频,音频和支持元数据(包括例如用于字幕的定时文本)的标准媒体格式的示例。如图1中的项106所示出的,媒体以基于标准的分发格式存储在CDN 201上。基于标准的格式示出为MPD202,其由多个部分组成,这多个部分包含具有与时钟相对应的开始时间和结束时间的定时周期203。每个周期203指的是一个或多个适配集204。每个适配集204通常用于单个类型的媒体,例如视频,音频或定时文本。对于任何给定的周期203,可提供多个视频集204,例如,一个视频集用于视频,多个视频集用于音频(例如用于转换成各种语言)。每个视频集204指的是提供与媒体的帧分辨率(用于视频)、帧速率和比特率相关的信息的一个或多个表示205。多个表示205可用于提供访问,例如每个表示205用于超高清视频、高清视频或标准清晰度视频。每个表示205指的是一个或多个片段文件206,媒体实际上存储在一个或多个片段文件206中,以供客户端提取(如图1中的108所示)或由网络媒体服务器(图1未示出)分发(在“基于推送”的架构中)。
图3是定时异构沉浸式媒体的可流式传输格式的示例表示。图4是不定时异构沉浸式媒体的可流式传输格式的示例表示。两个图均指的是场景;图3指的是用于时间媒体的场景301,而图4指的是用于非时间媒体的场景401。对于两种情况,场景可以由各种场景表示或场景描述来体现。
例如,在一些沉浸式媒体设计中,场景可以由场景图体现,或作为多平面图像(Multi-Plane Image,MPI)或多球面图像(Multi-Spherical Image,MSI)来体现。MPI技术和MSI技术是有助于创建自然内容(即,从一个或多个相机同时采集的真实世界的图像)的与显示器无关的场景表示的技术的示例。另一方面,可采用场景图技术来以合成表示的形式表示自然图像和计算机生成的图像,然而,在内容由一个或多个相机作为自然场景来采集的情况下,创建这种表示特别是计算密集型的。也就是说,创建自然采集的内容的场景图表示是时间和计算密集型的,需要利用摄影测量技术或深度学习技术或这两者对自然图像的复杂分析,以创建合成表示,随后该合成表示可用于内插足够和适当数量的视图来填充目标沉浸式客户端显示器的视体。因此,目前考虑这样的合成表示作为表示自然内容的候选是不切实际的,因为实际上不能实时地创建这样的合成表示,以考虑需要实时分发的使用情况。然而,目前,计算机生成的图像的最佳候选表示是采用场景图与合成模型一起使用,原因是计算机生成的图像使用3D建模过程和工具来创建。
自然内容和计算机生成的内容的最佳表示的这种二分法暗示自然采集的内容的最佳摄取格式不同于计算机生成的内容的最佳摄取格式或者不同于对于实时分发应用来说不是必需的自然内容的最佳摄取格式。因此,所公开的主题的目标是足够稳健地支持视觉沉浸式媒体的多个摄取格式,无论它们是自然创建的还是由计算机创建的。
下面是将场景图体现为一种格式的示例技术,该格式适合于表示使用计算机生成技术创建的视觉沉浸式媒体,或者适合于表示自然采集的内容,对于自然采集的内容,采用深度学习或摄影测量技术来创建自然场景的对应合成表示,即,对于实时分发应用来说不是必需的。
OTOY的ORBX是几种场景图技术之一,其能够支持任何类型的定时或不定时的视觉媒体,包括可射线寻迹、传统(基于帧的)、体积的和其它类型的合成的或基于向量的视觉格式。ORBX相对于其它场景图是独特的,原因是ORBX为网格、点云和纹理的自由使用和/或开源格式提供原生支持。ORBX是有意设计的场景图,其目的是促进在场景图上操作的多个供应商技术的交流。此外,ORBX提供丰富的材料系统,支持开放式着色器语言(Open ShaderLanguage),稳健的相机系统,以及支持Lua脚本。ORBX还是沉浸式技术媒体格式的基础,沉浸式技术媒体格式由沉浸式数字体验联盟(IDEA)发布,在无版税条件下予以许可。在媒体的实时分发的上下文中,创建和分发自然场景的ORBX表示的能力是计算资源的可用性的函数,以执行对相机采集的数据的复杂分析以及将相同数据合成为合成表示。迄今为止,足以用于实时分发的计算的可用性不切实际,但是仍然是不可能的。
2.Pixar的通用场景描述
Pixar的通用场景描述(USD)是另一种公知的、成熟的场景图,其在VFX和专业内容生产社区中流行。USD集成到英伟达的Omniverse平台中,Omniverse平台是便于开发者使用英伟达的GPU创建和渲染3D模型的工具集。USD的子集由苹果公司和Pixar作为USDZ发布。USDZ由苹果公司的ARKit支持。
3.Khronos的glTF 2.0
glTF 2.0是由Khronos 3D组编写的最新版本的“图形语言传输格式”规范。该格式支持简单场景图格式,简单场景图格式通常能够支持场景中的静态(不定时)对象,包括“png”和“jpeg”图像格式。glTF2.0支持使用glTF基元描述的基本形状(即,用于几何对象)的简单动画,包括支持平移、旋转和缩放。glTF 2.0不支持时间媒体,因此不支持视频或音频。
例如,仅提供沉浸式视觉媒体的场景作为示例表示的这些已知设计,且不将所公开的主题的能力限制于指定过程,以将输入的沉浸式媒体源适配成适合于客户端端点设备的特定特性的格式。
此外,上述任何或所有示例媒体表示当前采用或可采用深度学习技术来训练和创建神经网络模型,神经网络模型能够基于视体的特定尺寸来选择特定视图或促进对特定视图的选择,以填充特定的显示器的视体。可以从明确在场景表示中提供的现有视图(例如,根据MSI或MPI技术)内插所选择的用于特定显示器的视体的视图,或者可基于特定虚拟相机位置、滤波器或渲染引擎的虚拟相机的描述而直接从这些渲染引擎渲染所选择的用于特定显示器的视体的视图。
因此,所公开的主题足够稳健,以考虑相对小但公知的沉浸式媒体摄取格式集合能够充分满足实时或“点播”(例如,非实时)分发媒体的需求,该媒体自然地(例如,利用一个或多个相机)采集或使用计算机生成技术来创建。
随着先进网络技术,例如用于移动网络的5G,以及用于固定网络的光纤线缆的部署,进一步促进了通过使用神经网络模型或基于网络的渲染引擎来内插来自沉浸式媒体摄取格式的视图。也就是说,这些先进网络技术增加了商业网络的容量和能力,原因是这样的先进网络基础设施可支持越来越大量的视觉信息的传输和分发。网络基础设施管理技术(例如多接入边缘计算(Multi-access Edge Computing,MEC),软件定义网络(SoftwareDefined Networks,SDN)和网络功能虚拟化(Software Defined Networks,NFV))使得商业网络服务提供商能够灵活地配置他们的网络基础设施以适应某些网络资源的需求变化,例如,响应于对网络吞吐量、网络速度、往返延迟时间和计算资源的需求的动态增加或减少。此外,这种适应动态网络需求的固有能力同样促进了网络将沉浸式媒体摄取格式适配成合适的分发格式的能力,以支持具有用于异构客户端端点的可能的异构视觉媒体格式的各种沉浸式媒体应用。
沉浸式媒体应用本身还可对网络资源具有不同的要求,沉浸式媒体应用包括:需要明显更小的网络延迟时间来响应于游戏状态的实时更新的游戏应用;对网络的上行链路部分和下行链路部分具有对称吞吐量要求的远程呈现应用;以及可根据消耗数据的客户端端点显示器的类型而可对下行链路资源具有增加的需求的被动观看应用,。通常,任何面向消费者的应用可以由各种客户端端点支持,各种客户端端点具有各种板载客户端能力,用于存储,计算和功率以及对特定媒体表示的各种类似要求,。
因此,所公开的主题能够使充分配备的网络,即采用现代网络的一些或全部特性的网络,根据指定的特征同时支持多个传统设备和具有沉浸式媒体能力的设备,由此:
1.提供利用媒体摄取格式的灵活性,媒体摄取格式对于分发媒体的实时和“点播”使用情况都比较实用。
2.给传统客户端端点和具有沉浸式媒体能力的客户端端点提供支持自然内容和计算机生成的内容的灵活性。
3.支持时间媒体和非时间媒体。
4.提供一种基于客户端端点的特征和能力以及基于应用的要求来动态地将源媒体摄取格式适配成合适的分发格式的过程。
5.确保分发格式在基于IP的网络上可流式传输。
6.使得网络能够同时服务于可包括传统设备和具有沉浸式媒体能力的设备的多个异构客户端端点。
7.提供便于沿着场景边界组织分发媒体的示例性媒体表示框架。
所公开的主题能够实现的改进的端到端实施例的示例根据以下描述图3至图14的详细描述的处理和部件来实现。
图3和图4采用单个示例性包含分发格式,这个包含分发格式已从摄取源格式适配,以匹配特定客户端端点的能力。如上所述,图3所示的媒体是时间媒体,图4所示的媒体是非时间媒体。特定包含格式在其结构方面足够坚固以容纳大量媒体属性,每个媒体属性可基于显著信息的量而分层,每一层有助于媒体呈现。应注意,这种分层过程已经是现有技术中已知的技术,如通过逐步发展的JPEG和可缩放视频架构(例如ISO/IEC 14496-10(可缩放高级视频编码))中所指定的那些可缩放视频架构所演示的。
1.根据包含媒体格式流式传输的媒体不限于传统视觉和音频媒体,而是可包括能够产生信号的任何类型的媒体信息,该信号与机器交互以刺激人类对视觉、声音、味道、触摸和气味的感官。
2.根据包含媒体格式流式传输的媒体可以是时间媒体或非时间媒体,或者时间媒体和非时间媒体的混合。
3.能够通过使用基础层和增强层架构来实现媒体对象的分层表示,由此包含媒体格式还可流式传输。在一个示例中,通过给每个场景中的媒体对象应用多分辨率或多细分分析技术,来计算单独的基础层和增强层。这类似于ISO/IEC10918-1(JPEG)和ISO/IEC15444-1(JPEG 2000)指定的逐行渲染的图像格式,但不限于基于光栅的视觉格式。在示例实施例中,几何对象的逐行表示可以是使用小波分析计算的对象的多分辨率表示。
在媒体格式的分层表示的另一示例中,增强层将不同的属性应用于基础层,例如细化由基础层表示的视觉对象的表面的材料属性。在又一示例中,属性可细化基础层对象的表面的纹理,例如将表面从平滑变成多孔纹理或者从无光泽表面变成光泽表面。
在分层表示的又一示例中,场景中的一个或多个视觉对象的表面可以从朗伯式(Lambertian)变成可射线寻迹的。
在分层表示的又一示例中,网络将向客户端分发基础层表示,使得客户端可以在客户端等待附加增强层的传输以细化基础表示的分辨率或其它特性时创建场景的标称呈现。
4.增强层中的属性或细化信息的分辨率与目前在现有MPEG视频和JPEG图像标准中的基础层中的对象的分辨率没有明确耦合。
5.包含媒体格式支持可由呈现设备或机器呈现或致动的任何类型的信息媒体,从而使得异构客户端端点能够支持异构媒体格式。在分发媒体格式的网络的一个实施例中,网络首先将查询客户端端点以确定客户端的能力,如果客户端不能够有意义地摄取媒体表示,则网络将移除客户端不支持的属性层,或者将媒体从其当前格式转码成适合于客户端端点的格式。在这种转码的一个示例中,网络可通过使用基于网络的媒体处理协议来将体积视觉媒体资产转换成相同视觉资产的2D表示。
6.针对完整或部分完整的沉浸式体验(点播资产的实况流式传输事件、游戏或回放)的清单由场景组织,清单是渲染和游戏引擎当前可摄取以创建呈现的最小量信息。清单包括要针对由客户端请求的整个沉浸式体验渲染的独立场景的列表。与每个场景相关联的是场景内对应于场景几何形状的可流式传输版本的几何对象的一个或多个表示。在一个实施例中,场景表示指的是场景的几何对象的低分辨率版本。另一实施例中,同一场景指的是增强层,该增强层用于场景的低分辨率表示,以向同一场景的几何对象添加附加细节或增加细分。如上所述,每个场景可具有多于一个增强层,以逐行方式增加场景的几何对象的细节。
7.在场景内引用的媒体对象的每个层与令牌(例如,URI)相关联,该令牌指向可以在网络内访问资源的位置的地址。这样的资源类似于CDN的位置,其中在该位置,内容可以由客户端获取。
8.用于表示几何对象的令牌可指向网络内的位置或客户端内的位置。也就是说,客户端可以用信号向网络表示其资源可用于网络,以用于基于网络的媒体处理。
图3描述了用于时间媒体的包含媒体格式的实施例,如下。时间场景清单包括场景信息301的列表。场景301指的是组件302的列表,组件302分别描述处理信息和包括场景301的媒体资产的类型。组件302指的是资产303,资产303进一步指的是基础层304和属性增强层305。
图4描述了用于非时间媒体的包含媒体格式的实施例,如下。场景信息401不与根据时钟的开始持续时间和结束持续时间相关联。场景信息401指的是组件402的列表,组件402分别描述处理信息和包括场景401的媒体资产的类型。组件402指的是资产403(例如视觉资产、音频资产和触觉资产),资产403进一步指的是基础层404和属性增强层405。此外,场景401指的是用于非时间媒体的其它场景401。场景401还指的是时间媒体场景。
图5示出了从自然内容合成摄取格式的过程500的实施例。相机单元501使用单个相机镜头来采集人的场景。相机单元502通过围绕环形对象安装五个相机镜头来采集具有五个发散视场的场景。502的布置是通常用于采集VR应用的全向内容的示例性布置。相机单元503通过在球体的内径部分上安装七个相机镜头来采集具有七个会聚视场的场景。布置503是通常用于采集光场或全息沉浸式显示器的光场的示例性布置。自然图像内容509作为输入提供给合成模块504,合成模块504可以可选地采用神经网络训练模块505,神经网络训练模块505训练图像506的集合来产生可选的采集神经网络模型508。通常代替训练过程505而使用的另一过程是摄影测量。如果在图5中描绘的过程500期间创建模型508,则模型508变成用于自然内容的摄取格式507下的资产之一。摄取格式507的示例性实施例包括MPI和MSI。
图6示出了创建合成媒体(例如,计算机生成的图像)的摄取格式的过程600的实施例。LIDAR相机601采集场景的点云602。在计算机603上采用CGI工具、3D建模工具或另一动画过程来创建合成内容,以在网络上创建604CGI资产。具有传感器的运动采集套件605A佩戴在行为人605上,以采集行为人605的运动的数字记录,来产生动画式运动采集数据606。数据602、604和606作为合成模块607的输入来提供,合成模块607同样可以可选地使用神经网络和训练数据来创建神经网络模型(图6未示出)。
用于表示和流式传输以上描述的异构沉浸式媒体的技术可实现为计算机软件,计算机软件使用计算机可读指令且物理地存储在一个或多个计算机可读介质中。例如,图7示出了适于实现所公开的主题的某些实施例的计算机系统700。
可使用任何合适的机器代码或计算机语言对计算机软件进行编码,任何合适的机器代码或计算机语言可经受汇编、编译、链接或类似的机制以创建包括指令的代码,该指令可由计算机中央处理单元(CPU)、图形处理单元(GPU)等直接执行或通过解释、微代码执行等执行。
指令可以在各种类型的计算机或其组件上执行,计算机或其组件包括例如个人计算机、平板计算机、服务器、智能手机、游戏设备、物联网设备等。
图7所示的计算机系统700的组件本质上是示例性的,并不旨在对实施本公开的实施例的计算机软件的使用范围或功能提出任何限制。组件的配置也不应被解释为具有与计算机系统700的示例性实施例中所示的组件中的任何一个组件或组件的组合相关的任何依赖或要求。
计算机系统700可包括某些人机接口输入设备。此类人机接口输入设备可响应于一个或多个人类用户通过例如下述的输入:触觉输入(例如:击键、划动,数据手套移动)、音频输入(例如:语音、拍手)、视觉输入(例如:手势)、嗅觉输入(未描绘)。人机接口设备还可用于采集不一定与人的意识输入直接相关的某些媒介,例如音频(例如:语音、音乐、环境声音)、图像(例如:扫描的图像、从静止图像相机获取摄影图像)、视频(例如二维视频、包括立体视频的三维视频)。
输入人机接口设备可包括下述中的一项或多项(每种中仅示出一个):键盘701、鼠标702、触控板703、触摸屏710、数据手套(未描绘)、操纵杆705、麦克风706、扫描仪707和相机708。
计算机系统700还可包括某些人机接口输出设备。此类人机接口输出设备可例如通过触觉输出、声音、光和气味/味道来刺激一个或多个人类用户的感官。此类人机接口输出设备可包括触觉输出设备(例如触摸屏710的触觉反馈、数据手套(未描绘)或操纵杆705,但也可以是不作为输入设备的触觉反馈设备)、音频输出设备(例如:扬声器709、耳机(未描绘))、视觉输出设备(例如包括CRT屏幕、LCD屏幕、等离子屏幕、OLED屏幕的屏幕710,每种屏幕都有或没有触摸屏输入功能,每种屏幕都有或没有触觉反馈功能-其中的一些屏幕能够通过诸如立体图像输出之类的装置、虚拟现实眼镜(未描绘)、全息显示器和烟箱(未描绘)以及打印机(未描绘)来输出二维视觉输出或超过三维的输出。
计算机系统700还可包括人类可访问存储设备及其关联介质,例如,包括具有CD/DVD等介质721的CD/DVD ROM/RW 720的光学介质、指状驱动器722、可拆卸硬盘驱动器或固态驱动器723、诸如磁带和软盘之类的传统磁性介质(未描绘)、诸如安全软件狗之类的基于专用ROM/ASIC/PLD的设备(未描绘)等。
本领域技术人员还应该理解,结合当前公开的主题使用的术语“计算机可读介质”不涵盖传输介质、载波或其它暂时性信号。
计算机系统700还可包括通到一个或多个通信网络的接口。网络可例如是无线网络、有线网络、光网络。网络可进一步是本地网络、广域网络、城域网络、车辆和工业网络、实时网络、延迟容忍网络等。网络的示例包括诸如以太网之类的局域网、无线LAN、包括GSM,3G,4G,5G,LTE等的蜂窝网络、包括有线电视、卫星电视和地面广播电视的电视有线或无线广域数字网络、包括CANBus的车辆和工业用网络等。某些网络通常需要连接到某些通用数据端口或外围总线(749)的外部网络接口适配器(例如,计算机系统700的USB端口);如下所述,其它网络接口通常通过连接到系统总线而集成到计算机系统700的内核中(例如,连接到PC计算机系统中的以太网接口或连接到智能手机计算机系统中的蜂窝网络接口)。计算机系统700可使用这些网络中的任何一个网络与其它实体通信。此类通信可以是仅单向接收的(例如,广播电视)、仅单向发送的(例如,连接到某些CANbus设备的CANbus)或双向的,例如,使用局域网或广域网数字网络连接到其它计算机系统。如上所述,可以在那些网络和网络接口中的每一个上使用某些协议和协议栈。
上述人机接口设备、人机可访问的存储设备和网络接口可附接到计算机系统700的内核740。
内核740可包括一个或多个中央处理单元(CPU)741,图形处理单元(GPU)742,现场可编程门区域(FPGA)743形式的专用可编程处理单元、用于某些任务的硬件加速器744等。这些设备以及只读存储器(ROM)745、随机存取存储器(RAM)746、诸如内部非用户可访问的硬盘驱动器、SSD等之类的内部大容量存储器747可通过系统总线748连接。在一些计算机系统中,可以以一个或多个物理插头的形式访问系统总线748,以能够通过附加的CPU、GPU等进行扩展。外围设备可直接连接到内核的系统总线748或通过外围总线749连接到内核的系统总线748。外围总线的体系结构包括PCI、USB等。
CPU 741、GPU 742、FPGA 743和加速器744可执行某些指令,这些指令可以组合来构成上述计算机代码。该计算机代码可存储在ROM 745或RAM 746中。过渡数据也可存储在RAM 746中,而永久数据可例如存储在内部大容量存储器747中。可通过使用高速缓存来进行到任何存储设备的快速存储及检索,该高速缓存可与下述紧密关联:一个或多个CPU741、GPU 742、大容量存储器747、ROM 745、RAM 746等。
计算机可读介质可在其上具有用于执行各种由计算机实现的操作的计算机代码。介质和计算机代码可以是出于本公开的目的而专门设计和构造的介质和计算机代码,或者介质和计算机代码可以是计算机软件领域的技术人员公知且可用的类型。
作为非限制性示例,可由于一个或多个处理器(包括CPU、GPU、FPGA、加速器等)执行包含在一种或多种有形的计算机可读介质中的软件而使得具有架构700,特别是内核740的计算机系统提供功能。此类计算机可读介质可以是与如上所述的用户可访问的大容量存储相关联的介质,以及某些非暂时性的内核740的存储器,例如内核内部大容量存储器747或ROM 745。可将实施本公开的各实施例的软件存储在此类设备中并由内核740执行。根据特定需要,计算机可读介质可包括一个或多个存储设备或芯片。软件可使得内核740,特别是其中的处理器(包括CPU、GPU、FPGA等)执行本文所描述的特定过程或特定过程的特定部分,包括定义存储在RAM 746中的数据结构以及根据由软件定义的过程来修改此类数据结构。附加地或替代地,可由于硬连线或以其它方式体现在电路(例如,加速器744)中的逻辑而使得计算机系统提供功能,该电路可替换软件或与软件一起运行以执行本文描述的特定过程或特定过程的特定部分。在适当的情况下,提及软件的部分可包含逻辑,反之亦然。在适当的情况下,提及计算机可读介质的部分可包括存储用于执行的软件的电路(例如集成电路(IC))、体现用于执行的逻辑的电路或包括两者。本公开包括硬件和软件的任何合适的组合。
图8示出了示例性网络媒体分发系统800,网络媒体分发系统800支持各种传统显示器和异构的具有沉浸式媒体能力的显示器作为客户端端点。内容获取模块801使用图6或图5的示例性实施例来采集或创建媒体。在内容准备模块802中创建摄取格式,然后使用传输模块803向网络媒体分发系统中的一个或多个客户端端点804发送摄取格式。网关可服务于客户端设备,以向网络提供对各种客户端端点的网络访问。机顶盒还可用作客户端设备,以通过网络服务提供商提供对聚合内容的访问。无线解调器可用作移动设备(例如,如同移动手持机和显示器)的移动网络接入点。在一个或多个实施例中,传统2D电视可直接连接到网关、机顶盒或WiFi路由器。具有传统2D显示器的笔记本电脑可以是连接到WiFi路由器的客户端端点。头戴式2D(基于光栅的)显示器也可连接到路由器。透镜式光场显示器可以连接到网关。显示器可包括本地计算GPU、存储设备和视觉呈现单元,视觉呈现单元使用基于光线的透镜光学技术来创建多个视图。全息显示器可连接到机顶盒,且可包括本地计算CPU、GPU、存储设备以及基于菲涅尔模式波的全息可视化单元。增强现实头戴式耳机可连接到无线解调器,且可包括GPU、存储设备、电池和体积视觉呈现组件。密集光场显示器可连接到WiFi路由器,且可包括多个GPU、CPU和存储设备;眼睛寻迹设备;相机;以及基于密集光线的光场面板。
图9示出了沉浸式媒体分发模块900的实施例,沉浸式媒体分发模块900能够服务于如先前在图8中描绘的传统显示器和异构的具有沉浸式媒体能力的显示器。在模块901中创建或获取内容,模块901进一步在图5和图6中体现,分别用于自然内容和CGI内容。然后,使用创建网络摄取格式模块902将内容901转换成摄取格式。模块902同样进一步在图5和图6中体现,分别用于自然内容和CGI内容。摄取媒体格式发送到网络且存储在存储设备903上。可选地,存储设备可驻留在沉浸式媒体内容生产者的网络中,且由沉浸式媒体网络分发模块(未编号)远程访问,如由平分903的虚线所描绘的。客户端信息和应用特定信息可选地在远程存储设备904上可用,远程存储设备904可以可选地远程存在于替代“云”网络中。
如图9所描绘的,客户端接口模块905用作用于执行分发网络的主要任务的信息的主要源和库。在该特定实施例中,模块905可与网络的其它组件以统一格式来实现。然而,由图9中的模块905描绘的任务形成所公开的主题的必不可少的元件。
模块905接收与客户端908的特征和属性相关的信息,此外收集关于当前在908上运行的应用的要求。可从设备904获得该信息,或者在替代实施例中,可通过直接查询客户端908来获得该信息。在直接查询客户端908的情况下,假设存在双向协议且可操作双向协议(图9未示出),使得客户端可直接通信到接口模块905。
接口模块905还发起并与图10中描述的媒体适配和分段模块910通信。当摄取媒体由模块910适配和分段时,该媒体可选地传送到媒体间存储设备,媒体间存储设备被描绘成准备分发媒体存储设备909。当在设备909中准备和存储分发媒体时,接口模块905确保沉浸式客户端908通过“推送”请求经由其网络接口908B接收分发媒体和对应的描述信息906,或者客户端908本身可发起从存储设备909获得媒体906的“上拉”请求。沉浸式客户端908可以可选地采用CPU(或CPU,未示出)908C。媒体的分发格式存储在客户端908的存储设备或高速缓存908D中。最后,客户端908通过其可视化组件908A在视觉上呈现媒体。
在将沉浸式媒体流式传输到客户端908的过程中,接口模块905将通过客户端进度和状态反馈信道907来监测客户端进度的状态。
图10描绘了媒体适配过程的特定实施例,使得所摄取的源媒体可被适当地适配以匹配客户端908的要求。媒体适配模块1001包括便于将摄取媒体适配成客户端908的合适分发格式的多个组件。这些组件应被视为示例性的。在图10中,适配模块1001接收输入网络状态1005以寻迹网络上的当前业务负载;客户端908信息(包括属性和特征描述、应用特征和描述以及应用当前状态);以及客户端神经网络模型(如果可用的话),以帮助将客户端的视体的几何形状映射到所摄取的沉浸式媒体的插值能力。适配模块1001确保在创建适配的输出时,适配的输出存储在客户端适配的媒体存储设备1006中。
适配模块1001采用渲染器1001B或神经网络处理器1001C,来将特定摄取源媒体适配成适合于客户端的格式。神经网络处理器1001C使用神经网络模型1001A。这样的神经网络处理器1001C的示例包括如MPI和MSI中所描述的深度视图神经网络模型生成器。如果媒体处于2D格式,但是客户端必须具有3D格式,则神经网络处理器1001C可调用使用来自2D视频信号的高度相关图像以导出视频中描绘的场景的体积表示的过程。这样的过程的示例可以是加州大学伯克利分校开发的来自一个或多个图像过程的神经辐射场。合适的渲染器1001B的示例可以是OTOY Octane渲染器(未示出)的修改版本,可修改该渲染器以直接与适配模块1001交互。根据相对于摄取媒体的格式和客户端908所要求的格式对这些工具的需要,适配模块1001可以可选地采用媒体压缩器1001D和媒体解压缩器1001E。
图11描绘了适配媒体封装模块1103,适配媒体封装模块1103最终转换现在驻留在客户端适配媒体存储设备1102上、来自图10的媒体适配模块1101的适配媒体。封装模块1103将来自模块1101的适配媒体格式化成稳健的分发格式,例如,图3或图4所示的示例性格式。清单信息1104A向客户端908提供其可期望接收的场景数据的列表,且还提供可视化资产和对应的元数据以及音频资产和对应的元数据的列表。
图12描绘了分组器模块1202,分组器模块1202将适配的媒体1201分成适合于流式传输到客户端908的独立分组1203。
图13中针对序列图1300所示的组件和通信如下解释:客户端端点1301向网络分发接口1302发起媒体请求1308。请求1308包括用于通过URN或其它标准命名来标识由客户端请求的媒体的信息。网络分发接口1302利用配置文件请求1309来响应请求1308,配置文件请求1309请求客户端1301提供与其当前可用资源(包括计算、存储、电池充电百分比以及表征客户端的当前操作状态的其它信息)相关的信息。配置文件请求1309还请求客户端提供一个或多个神经网络模型,这一个或多个神经网络模型可以由网络使用来进行神经网络推理,以提取或内插正确的媒体视图来匹配客户端的呈现系统的特征(如果此类模型在客户端处可用的话)。从客户端1301到达接口1302的响应1311提供客户端令牌,应用令牌以及一个或多个神经网络模型令牌(如果此类神经网络模型令牌在客户端处可用)。然后,接口1302向客户端1301提供会话ID令牌1311。然后,接口1302使用摄取媒体请求1312来请求摄取媒体服务器1303,摄取媒体请求1312包括在请求1308中识别的媒体的URN或标准命名名称。服务器1303利用包括摄取媒体令牌的响应1313来回复请求1312。然后,接口1302在调用1314中将来自响应1313的媒体令牌提供给客户端1301。然后,接口1302通过向适配接口1304提供摄取媒体令牌、客户端令牌、应用令牌和神经网络模型令牌来发起针对1308中请求的媒体的适配过程。接口1304通过在调用1316处向服务器1303提供摄取媒体令牌以请求访问摄取媒体资产,来请求访问摄取媒体。通过到达接口1304的响应1317中的摄取媒体访问令牌,服务器1303响应于请求1316。然后,接口1304请求媒体适配模块1305适配位于摄取媒体访问令牌处的摄取媒体,摄取媒体访问令牌用于对应于1313处创建的会话ID令牌的客户端、应用和神经网络推断模型。从接口1304到达应模块1305的请求1318包含所需的令牌和会话ID。模块1305向接口1302提供适配的媒体访问令牌和更新的会话ID 1319。接口1302在接口调用1320中向封装模块1306提供适配的媒体访问令牌和会话ID。封装模块1306向接口1302提供响应1321,在响应1321中存在封装媒体访问令牌和会话ID。模块1306在响应1322中向封装媒体服务器1307提供封装资产、URN和用于会话ID的封装媒体访问令牌。客户端1301执行请求1323,以发起对应于在消息1321中接收的封装媒体访问令牌的媒体资产的流式传输。客户端1301执行其它请求并在消息1324中向接口1302提供状态更新。
图14描绘了图10的摄取媒体格式和资产1002,摄取媒体格式和资产1002可选地由两个部分组成:3D格式1401的沉浸式媒体和资产以及2D格式1402的沉浸式媒体和资产。2D格式1402可以是单个视图已编码视频流,例如ISO/IEC 14496第10部分高级视频编码,或者可以是包含多个视图的已编码视频流(例如,对ISO/IEC 14496第10部分的多视图压缩修改)。
图15描绘了神经网络模型信息连同已编码视频流的携带。在该图中,已编码码流1501包括由一个或多个SEI消息1501A直接携带的神经网络模型和对应的参数以及已编码视频流1501B。而在包括一或多个SEI消息1502A和已编码视频流1502B的已编码码流1502中,一个或多个SEI消息1502A可携带神经网络模型的标识符及其对应的参数。在已编码码流1502的场景中,神经网络模型和参数可存储在已编码视频流的外部,例如,存储在图10的1001A中。
一些实施例可涉及集成的任何可能的技术细节级别下的系统、方法和/或计算机可读介质。计算机可读介质可包括计算机可读非暂时性存储介质(或介质),在计算机可读非暂时性存储介质(或介质)上具有使得处理器执行操作的计算机可读程序指令。
计算机可读存储介质可以是可保持和存储由指令执行设备使用的指令的有形器件。计算机可读存储介质可以是例如,但不限于:电子存储器件、磁性存储器件、光学存储器件、电磁存储器件、半导体存储器件、或前述器件的任何合适的组合。计算机可读存储介质的更具体示例的非穷尽列表包括以下项:便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式光盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码器件(例如其上记录有指令的穿孔卡或凹槽中的凸起结构)以及前述项的任何合适的组合。如本文所使用的,计算机可读存储介质不应解释为本身是瞬时信号,例如无线电波或其它自由传播的电磁波、通过波导或其它传输介质传播的电磁波(例如,穿过光纤线缆的光脉冲)或通过导线传输的电信号。
本文描述的计算机可读程序指令可通过网络(例如因特网,局域网,广域网和/或无线网络)从计算机可读存储介质下载到相应的计算/处理设备,或者下载到外部计算机或外部存储器件。网络可包括铜传输线缆、传输光纤、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配器卡或网络接口从网络接收计算机可读程序指令,并转发计算机可读程序指令,以存储在相应的计算/处理设备内的计算机可读存储介质中。
用于执行操作的计算机可读程序代码/指令可以是汇编指令、指令集架构(ISA)指令、机器指令、依赖于机器的指令、微代码、固件指令、状态设置数据、集成电路的配置数据、或者以一种或多种编程语言的任何组合编写的源代码或目标代码,此类编程语言包括面向对象的编程语言,例如Smalltalk,C++等,以及包括过程编程语言,例如"C"编程语言或类似的编程语言。计算机可读程序指令可完全在用户计算机上运行,部分地在用户计算机上运行,作为独立软件包运行,部分地在用户计算机上且部分地在远程计算机上运行,或者完全在远程计算机或服务器上运行。在后一种场景中,远程计算机可通过任何类型的网络(包括局域网(LAN)或广域网(WAN))连接到用户计算机,或者可连接到外部计算机(例如,通过使用因特网服务提供商的因特网)。在一些实施例中,例如包括可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA)的电子电路可通过利用计算机可读程序指令的状态信息个性化定制电子电路,来运行计算机可读程序指令,以执行各方面或操作。
这些计算机可读程序指令可提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器以产生机器,使得通过计算机或其它可编程数据处理装置的处理器运行的指令创建用于实现流程图和/或框图的一个或多个框中指定的功能/动作的装置。这些计算机可读程序指令还可存储在计算机可读存储介质中,计算机可读存储介质可引导计算机、可编程数据处理装置和/或其它设备以特定方式起作用,使得其中存储有指令的计算机可读存储介质包括一种制品,该制品包括实现流程图和/或框图的一个或多个框中指定的功能/动作的各方面的指令。
计算机可读程序指令还可加载到计算机、其它可编程数据处理装置或其它设备上,使得在计算机、其它可编程装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,使得在计算机、其它可编程装置或其它设备上运行的指令实现流程图和/或框图的一个或多个框中指定的功能/动作。
附图中的流程图和框图示出了根据各个实施例的系统、方法和计算机可读介质的可能实现方式的架构、功能和操作。就这一点而言,流程图或框图中的每个框可表示模块、段或一部分指令,这部分指令包括用于实现指定的逻辑功能的一个或多个可执行指令。方法、计算机系统和计算机可读介质可包括与图中所描绘的框相比更多的框、更少的框、不同的框或不同地布置的框。在一些替代实现方式中,框中所标注的功能可以不按图中所标注的顺序发生。例如,连续示出的两个框实际上可同时或基本上同时执行,或者这些框有时可以以相反的顺序执行,这取决于所涉及的功能。还应注意,框图和/或流程图中的每个框以及框图和/或流程图中的框的组合可由基于硬件的专用系统实现,基于硬件的专用系统执行指定的功能或动作或者实现专用硬件和计算机指令的组合。
将显而易见的是,本文描述的系统和/或方法可以以不同形式的硬件、固件或硬件和软件的组合来实现。用于实现这些系统和/或方法的实际专用控制硬件或软件代码不是对实现方式的限制。因此,在不参考特定软件代码的情况下,在本文中描述系统和/或方法的操作和行为—应理解,软件和硬件可设计成基于本文的描述来实现系统和/或方法。
本文使用的元件、动作或指令不应解释为至关重要的或必不可少的,除非明确地如此描述。此外,如本文所使用的,冠词“一”和“一个”旨在包括一个或多个项,且可与“一个或多个”互换地使用。此外,如本文所使用的,术语“集合”旨在包括一个或多个项(例如相关项,不相关项,相关项和不相关项的组合等),且可与“一个或多个”互换地使用。在意图仅是一个项的情况下,使用术语“一个”或类似语言。此外,如本文所使用的,术语“有”、“具有”、“含有”等旨在是开放式术语。此外,短语“基于”的意思旨在是“至少部分地基于”,除非另有明确说明。
已经出于说明的目的陈述了各个方面和实施例的描述,但是各个方面和实施例并不旨在穷举或限于所公开的实施例。虽然在权利要求中记载和/或在说明书中公开了特征的组合,但是这些组合并不旨在限制可能的实现方式的公开。实际上,这些特征中的许多特征可以以未在权利要求中具体记载和/或在说明书中公开的方式进行组合。虽然下面列出的每个从属权利要求可以仅直接从属于一个权利要求,但是可能的实现方式的公开包括每个从属权利要求与权利要求集中的每个其它权利要求的组合。在不脱离所描述的实施例的范围的情况下,许多修改和变化对于本领域普通技术人员将是显而易见的。选择本文使用的术语是为了最好地解释实施例的原理,对市场上找到的技术的实际应用或技术改进,或者使本领域的其它普通技术人员能够理解本文公开的实施例。
Claims (20)
1.一种流式传输沉浸式媒体的方法,能够由处理器执行,所述方法包括:
以二维格式摄取内容,其中,所述二维格式引用至少一个神经网络;
基于所引用的至少一个神经网络,将所摄取的内容转换成三维格式;以及
将所转换的内容流式传输到客户端端点。
2.根据权利要求1所述的方法,其中,所述至少一个神经网络包括特定于场景的神经网络,所述特定于场景的神经网络对应于所摄取的内容中包括的场景。
3.根据权利要求2所述的方法,其中,转换所摄取的内容包括:使用所述特定于场景的神经网络来推断与所述场景相关的深度信息;以及将所摄取的内容适配成与所述场景相关联的特定于场景的体积格式。
4.根据权利要求2所述的方法,其中,所述至少一个神经网络基于对应于所述场景内的对象的先验来训练。
5.根据权利要求1所述的方法,其中,所述至少一个神经网络在补充增强信息SEI消息中予以引用,所述SEI消息包括在对应于所摄取的内容的已编码视频码流中。
6.根据权利要求5所述的方法,其中,对应于所述至少一个神经网络的神经网络模型和至少一个参数直接嵌入在所述SEI消息中。
7.根据权利要求5所述的方法,其中,在所述SEI消息中写入对应于所述至少一个神经网络的神经网络模型的位置。
8.根据权利要求1所述的方法,其中,所述客户端端点包括电视、计算机、头戴式显示器、透镜式光场显示器、全息显示器、增强现实显示器和密集光场显示器中的一个或多个。
9.一种用于流式传输沉浸式媒体的设备,所述设备包括:
至少一个存储器,配置成存储程序代码;以及
至少一个处理器,配置成读取所述程序代码并按照所述程序代码的指令进行操作,所述程序代码包括:
摄取代码,配置成使得所述至少一个处理器以二维格式摄取内容,其中,所述二维格式引用至少一个神经网络;
转换代码,配置成使得所述至少一个处理器基于所引用的至少一个神经网络,将所摄取的内容转换成三维格式;以及
流式传输代码,配置成使得所述至少一个处理器将所转换的内容流式传输到客户端端点。
10.根据权利要求9所述的设备,其中,所述至少一个神经网络包括特定于场景的神经网络,所述特定于场景的神经网络对应于所摄取的内容中包括的场景。
11.根据权利要求10所述的设备,其中,所述转换代码包括:
推断代码,配置成使得所述至少一个处理器使用所述特定于场景的神经网络来推断与所述场景相关的深度信息;以及
适配代码,配置成使得所述至少一个处理器将所摄取的内容适配成与所述场景相关联的特定于场景的体积格式。
12.根据权利要求10所述的设备,其中,所述至少一个神经网络基于对应于所述场景内的对象的先验来训练。
13.根据权利要求9所述的设备,其中,所述至少一个神经网络在补充增强信息SEI消息中予以引用,所述SEI消息包括在对应于所摄取的内容的已编码视频码流中。
14.根据权利要求13述的设备,其中,对应于所述至少一个神经网络的神经网络模型和至少一个参数直接嵌入在所述SEI消息中。
15.根据权利要求13所述的设备,其中,在所述SEI消息中写入对应于所述至少一个神经网络的神经网络模型的位置。
16.根据权利要求9所述的设备,其中,所述客户端端点包括电视、计算机、头戴式显示器、透镜式光场显示器、全息显示器、增强现实显示器和密集光场显示器中的一个或多个。
17.一种非暂时性计算机可读介质,存储有指令,所述指令包括一个或多个指令,当所述一个或多个指令由用于流式传输沉浸式媒体的设备的至少一个处理器执行时,所述一个或多个指令使得所述至少一个处理器执行:
摄取代码,配置成使得所述至少一个处理器以二维格式摄取内容,其中,所述二维格式引用至少一个神经网络;
转换代码,配置成使得所述至少一个处理器基于所引用的至少一个神经网络,将所摄取的内容转换成三维格式;以及
流式传输代码,配置成使得所述至少一个处理器将所转换的内容流式传输到客户端端点。
18.根据权利要求17所述的非暂时性计算机可读介质,其中,所述至少一个神经网络包括特定于场景的神经网络,所述特定于场景的神经网络对应于所摄取的内容中包括的场景。
19.根据权利要求18所述的非暂时性计算机可读介质,其中,所述一个或多个指令进一步使得所述至少一个处理器执行:
使用所述特定于场景的神经网络来推断与所述场景相关的深度信息;以及将所摄取的内容适配成与所述场景相关联的特定于场景的体积格式。
20.根据权利要求17所述的非暂时性计算机可读介质,其中,所述至少一个神经网络在补充增强信息SEI消息中予以引用,所述SEI消息包括在对应于所摄取的内容的已编码视频码流中。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063126188P | 2020-12-16 | 2020-12-16 | |
US63/126,188 | 2020-12-16 | ||
US17/407,711 US11736748B2 (en) | 2020-12-16 | 2021-08-20 | Reference of neural network model for adaptation of 2D video for streaming to heterogeneous client end-points |
US17/407,711 | 2021-08-20 | ||
PCT/US2021/048644 WO2022132249A1 (en) | 2020-12-16 | 2021-09-01 | Reference of neural network model for adaptation of 2d video for streaming to heterogeneous client end-points |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114981822A true CN114981822A (zh) | 2022-08-30 |
Family
ID=81942108
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180009467.0A Pending CN114981822A (zh) | 2020-12-16 | 2021-09-01 | 用于流式传输到异构客户端端点的2d视频的适配的神经网络模型的参考 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11736748B2 (zh) |
EP (1) | EP4070249A4 (zh) |
JP (1) | JP7447293B2 (zh) |
KR (1) | KR20220113772A (zh) |
CN (1) | CN114981822A (zh) |
WO (1) | WO2022132249A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102511539B1 (ko) * | 2022-08-18 | 2023-03-20 | (주)에이아이매틱스 | 영상 기반 차량 주행 시뮬레이션 시스템 및 방법 |
US20240104803A1 (en) * | 2022-09-27 | 2024-03-28 | Tencent America LLC | Scene graph translation |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9131279B2 (en) * | 2009-08-06 | 2015-09-08 | Qualcomm Incorporated | Preparing video data in accordance with a wireless display protocol |
US8537200B2 (en) | 2009-10-23 | 2013-09-17 | Qualcomm Incorporated | Depth map generation techniques for conversion of 2D video data to 3D video data |
CN103765481B (zh) | 2011-08-05 | 2016-06-29 | 想象技术有限公司 | 用于3-d场景加速结构创建和更新的系统和方法 |
US11094137B2 (en) | 2012-02-24 | 2021-08-17 | Matterport, Inc. | Employing three-dimensional (3D) data predicted from two-dimensional (2D) images using neural networks for 3D modeling applications and other applications |
US10499118B2 (en) * | 2012-04-24 | 2019-12-03 | Skreens Entertainment Technologies, Inc. | Virtual and augmented reality system and headset display |
US9250653B2 (en) * | 2012-09-28 | 2016-02-02 | City University Of Hong Kong | Capturing, processing, and reconstructing audio and video content of mobile devices |
US9626585B2 (en) * | 2014-05-13 | 2017-04-18 | The Penn State Research Foundation | Composition modeling for photo retrieval through geometric image segmentation |
US9609307B1 (en) * | 2015-09-17 | 2017-03-28 | Legend3D, Inc. | Method of converting 2D video to 3D video using machine learning |
KR102452314B1 (ko) * | 2016-09-08 | 2022-10-07 | 삼성전자주식회사 | 컨텐츠 재생 방법 및 이를 지원하는 전자 장치 |
FR3060170B1 (fr) * | 2016-12-14 | 2019-05-24 | Smart Me Up | Systeme de reconnaissance d'objets base sur un modele generique 3d adaptatif |
US10540590B2 (en) * | 2016-12-29 | 2020-01-21 | Zhejiang Gongshang University | Method for generating spatial-temporally consistent depth map sequences based on convolution neural networks |
US10559126B2 (en) * | 2017-10-13 | 2020-02-11 | Samsung Electronics Co., Ltd. | 6DoF media consumption architecture using 2D video decoder |
WO2019093234A1 (ja) | 2017-11-08 | 2019-05-16 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
US10951903B2 (en) | 2018-04-02 | 2021-03-16 | Intel Corporation | Video analytics encoding for improved efficiency of video processing and compression |
KR20230051309A (ko) | 2018-04-11 | 2023-04-17 | 알카크루즈 인코포레이티드 | 디지털 미디어 시스템 |
US20190373322A1 (en) * | 2018-05-29 | 2019-12-05 | Sony Interactive Entertainment LLC | Interactive Video Content Delivery |
KR102491349B1 (ko) * | 2018-07-04 | 2023-01-27 | 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 | 부호화 장치, 복호 장치, 부호화 방법 및 복호 방법 |
JP7030989B2 (ja) | 2018-07-13 | 2022-03-07 | エルジー エレクトロニクス インコーポレイティド | 動的ビューポイントの座標系に関するメタデータを送受信する方法及び装置 |
EP3834409A1 (en) | 2018-09-10 | 2021-06-16 | Huawei Technologies Co., Ltd. | Hybrid video and feature coding and decoding |
US11217006B2 (en) | 2018-10-29 | 2022-01-04 | Verizon Patent And Licensing Inc. | Methods and systems for performing 3D simulation based on a 2D video image |
KR20210110588A (ko) * | 2018-12-26 | 2021-09-08 | 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 | 삼차원 데이터 부호화 방법, 삼차원 데이터 복호 방법, 삼차원 데이터 부호화 장치, 및 삼차원 데이터 복호 장치 |
US11265580B2 (en) * | 2019-03-22 | 2022-03-01 | Tencent America LLC | Supplemental enhancement information messages for neural network based video post processing |
US11627314B2 (en) * | 2019-09-27 | 2023-04-11 | Apple Inc. | Video-based point cloud compression with non-normative smoothing |
CN111182350B (zh) * | 2019-12-31 | 2022-07-26 | 广州方硅信息技术有限公司 | 图像处理方法、装置、终端设备及存储介质 |
KR20210135851A (ko) * | 2020-05-06 | 2021-11-16 | 엘지전자 주식회사 | 영상표시장치 및 그 동작방법 |
CN112702522B (zh) * | 2020-12-25 | 2022-07-12 | 李灯 | 一种基于vr直播系统的自适应控制播放方法 |
-
2021
- 2021-08-20 US US17/407,711 patent/US11736748B2/en active Active
- 2021-09-01 CN CN202180009467.0A patent/CN114981822A/zh active Pending
- 2021-09-01 EP EP21907367.3A patent/EP4070249A4/en active Pending
- 2021-09-01 WO PCT/US2021/048644 patent/WO2022132249A1/en unknown
- 2021-09-01 KR KR1020227023653A patent/KR20220113772A/ko not_active Application Discontinuation
- 2021-09-01 JP JP2022551722A patent/JP7447293B2/ja active Active
-
2023
- 2023-06-02 US US18/205,013 patent/US20230319328A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US11736748B2 (en) | 2023-08-22 |
JP2023516305A (ja) | 2023-04-19 |
JP7447293B2 (ja) | 2024-03-11 |
US20220191561A1 (en) | 2022-06-16 |
KR20220113772A (ko) | 2022-08-16 |
EP4070249A4 (en) | 2023-03-29 |
WO2022132249A1 (en) | 2022-06-23 |
US20230319328A1 (en) | 2023-10-05 |
EP4070249A1 (en) | 2022-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230319328A1 (en) | Reference of neural network model for adaptation of 2d video for streaming to heterogeneous client end-points | |
JP7472298B2 (ja) | 没入型メディアの設置、及び没入型メディアから異種クライアントエンドポイントへの配信 | |
KR102598603B1 (ko) | 이기종 클라이언트 종단점에 대한 스트리밍을 위한 2d 비디오의 적응 | |
EP4085397B1 (en) | Reference of neural network model by immersive media for adaptation of media for streaming to heterogenous client end-points | |
US20230007067A1 (en) | Bidirectional presentation datastream | |
US20230143196A1 (en) | Immersive media data complexity analyzer for transformation of asset formats | |
US20230007361A1 (en) | Bidirectional presentation datastream using control and data plane channels | |
US20240104803A1 (en) | Scene graph translation | |
KR20230152130A (ko) | 클라이언트 질의를 이용한 중복 자산의 재사용 | |
CN117280313A (zh) | 用于将基于场景的沉浸式媒体流式传输到游戏引擎的智能客户端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40073784 Country of ref document: HK |