CN110035316B - 处理媒体数据的方法和装置 - Google Patents

处理媒体数据的方法和装置 Download PDF

Info

Publication number
CN110035316B
CN110035316B CN201810027139.3A CN201810027139A CN110035316B CN 110035316 B CN110035316 B CN 110035316B CN 201810027139 A CN201810027139 A CN 201810027139A CN 110035316 B CN110035316 B CN 110035316B
Authority
CN
China
Prior art keywords
information
machine
media data
metadata
machine position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810027139.3A
Other languages
English (en)
Other versions
CN110035316A (zh
Inventor
范宇群
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN201810027139.3A priority Critical patent/CN110035316B/zh
Priority to PCT/CN2019/070696 priority patent/WO2019137339A1/zh
Priority to EP19739070.1A priority patent/EP3716634A1/en
Publication of CN110035316A publication Critical patent/CN110035316A/zh
Priority to US16/921,434 priority patent/US20200336803A1/en
Application granted granted Critical
Publication of CN110035316B publication Critical patent/CN110035316B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/26258Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for generating a list of items to be played back in a given order, e.g. playlist, or scheduling item distribution according to such list
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • H04N21/8586Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot by using a URL

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本申请提供了一种处理媒体数据的方法和装置。该方法包括:获取元数据信息,其中,所述元数据信息为描述媒体数据的属性信息,所述元数据信息包括机位标识信息;根据所述机位标识信息对媒体数据进行处理。本申请能够根据机位标识信息对不同机位对应的媒体数据进行自由处理。

Description

处理媒体数据的方法和装置
技术领域
本申请涉及流媒体传输技术领域,并且更具体地,涉及一种处理媒体数据的方法和装置。
背景技术
ISO/IEC 23090-2标准规范又称为全向媒体格式(Omnidirectional mediaformat,OMAF)标准规范,该规范定义了一种媒体应用格式,该媒体应用格式能够在应用中实现全向媒体的呈现,全向媒体主要是指全向视频(360度视频)和相关音频。OMAF规范首先指定了可以用于将球面视频转换为二维视频的投影方法的列表,其次是如何使用ISO基本媒体文件格式(ISO base media file format,ISOBMFF)存储全向媒体和该媒体相关联的元数据,以及如何在流媒体系统中封装全向媒体的数据和传输全向媒体的数据,例如通过基于超文本传输协议(Hyper Text Transfer Protocol,HTTP)的动态自适应流传输(DynamicAdaptive Streaming over HTTP,DASH),ISO/IEC 23009-1标准中规定的动态自适应流传输。
ISO基本媒体文件格式是由一系列的盒子(box)组成,在一个box中还可以包括其他的box,box中包括元数据box和媒体数据box,元数据box(moov box)中包括的是元数据,媒体数据box(mdat box)中包括的是媒体数据,元数据的box和媒体数据的box可以是在同一个文件中,也可以是在分开的文件中;如果具有时间属性的元数据采用ISO基本媒体文件格式封装,那么,元数据box中包括的是描述具有时间属性的元数据的元数据,媒体数据box中包括的是具有时间属性的元数据。
在现有的方案中,当多个机位对应的媒体数据共存时,无法对不同机位的媒体数据进行自由处理。
发明内容
本申请提供了一种处理媒体数据的方法和装置,以自由处理不同机位对应的媒体数据。
第一方面,提供了一种处理媒体数据的方法,该方法包括:获取元数据信息;根据该元数据信息中包括的机位标识信息对媒体数据进行处理。
上述元数据信息可以是描述媒体数据的一些属性信息,例如,媒体数据的时长,码率,帧率,在球面坐标系中的位置等。
上述媒体数据可以是全向媒体数据,该全向媒体数据可以是视频数据和/或音频数据。
应理解,在根据机位标识信息对媒体数据进行处理之前,上述方法还包括:从元数据信息中获取机位标识信息。
上述机位标识信息可以描述媒体数据对应的机位,具体地,机位标识信息可以表示媒体数据对应的机位的ID,媒体数据对应的机位编号等等。
上述机位可以是在拍摄视频时摄像机或者摄像机阵列所放置的位置。
拍摄视频时既可以采用单个机位也可以采用多个机位,例如,当采用一个摄像机或者一个摄像机阵列拍摄视频时对应的是一个机位,当采用多个摄像机或者采用多个摄像机阵列时拍摄一个场景的画面时对应的是多个机位。具体地,在拍摄全景视频或者360度视频时,通常需要采用多个摄像机组成的摄像机阵列进行拍摄。
在某个机位下采用摄像机拍摄某一场景的画面时既可以得到一个视角的视频,也可以得到多个视角的视频,也可以得到全景视频或者360度视频。
在本申请中,视角是用户观看视频时选择的某个观看角度。具体地,当用户观看的视频是全景视频或者360度视频时,视角可以是用户视线与视频所在的球面所成的角度。
本申请中,由于元数据信息中携带有机位标识信息,因此,通过元数据信息中的机位标识信息能够自由处理不同机位对应的媒体数据。
进一步地,上述处理媒体数据具体还可以是呈现媒体数据,此时,可以通过机位标识信息自由选择需要呈现的机位的媒体数据,进而能够实现在不同机位的视频之间进行自由切换。
在一种可能的实现方式中,上述处理媒体数据的方法还包括:获取机位选择信息;根据机位标识信息对媒体数据进行处理,包括:根据机位选择信息和机位标识信息确定第一机位;对第一机位对应的媒体数据进行处理。
上述机位选择信息可以用于表示用户选择的机位,当上述方法由客户端执行时,客户端可以根据用户触摸客户端的显示屏或者用户操作客户端的按键的输入得到机位指示信息。
本申请中,客户端可以根据用户在客户端的操作界面上的输入得到机位选择信息,进而选择和呈现用户想要观看的视频的机位,能够给用户带来较好的视觉体验。
在一种可能的实现方式中,在对第一机位对应的媒体数据进行处理之前,上述方法还包括:确定是否已经获取第一机位对应的媒体数据。
具体地,当客户端已经将第一机位对应的媒体数据下载到了本地时,可以确定客户端已经获取了第一机位对应的媒体数据,而当客户端还未将第一机位对应的媒体数据下载到本地时,客户端需要先从服务器端获取第一机位对应的媒体数据才能够对媒体数据进行处理。
应理解,当客户端还未获取第一机位对应的媒体数据时,上述方法还包括:根据机位标识信息和元数据信息获取第一机位对应的媒体数据。
例如,服务器端一共缓存了第一机位、第二机位以及第三机位对应的媒体数据,那么,客户端就可以向服务器端请求获取第一机位对应的媒体数据的码流,并解析得到第一机位对应的媒体数据。具体的获取媒体数据的方式可以参考MPEG-DASH等标准中的有关规定,在此不再赘述。
在一种可能的实现方式中,对第一机位对应的媒体数据进行处理,具体包括:呈现第一机位对应的媒体数据。
在一种可能的实现方式中,元数据信息的形式可以包括元数据轨迹、媒体呈现描述(Media presentation description,MPD)以及辅助增强信息(supplementaryenhancementinformation,SEI),这些信息可以携带上述机位标识信息,因此,可以通过解析包括元数据轨迹、MPD以及SEI来获取机位标识信息。
因此,在本申请中,在通过获取元数据信息进而得到机位标识信息时,可以通过获取元数据轨迹,然后从元数据轨迹中获取机位标识信息,也可以通过获取MPD或者SEI,然后再从MPD或者SEI中获取机位标识信息。
在一种可能的实现方式中,上述元数据信息还可以包括机位位置信息,该机位位置用于指示机位在球面坐标系中的位置。
上述机位位置信息既可以指示当前元数据信息对应的媒体数据所属的机位的位置,也可以指示当前元数据信息对应的媒体数据之外的其它媒体数据所属的机位的位置。
具体地,当元数据信息对应的媒体数据所属的机位的位置为机位1时,该元数据信息中的机位位置信息可以指示机位2在机位1的视频数据所在的球面区域中的位置,其中,机位2可以是与机位1的有部分视角重叠的机位。
在一种可能的实现方式中,元数据信息的形式可以包括有时间属性的元数据轨迹、盒信息、MPD以及SEI,这些信息可以携带上述机位标识信息,因此,可以通过解析包括元数据轨迹、MPD以及SEI来获取机位位置信息。
因此,在本申请中,在通过获取元数据信息进而得到机位位置信息时,可以通过获取有时间属性的元数据轨迹、盒信息、MPD以及SEI,然后再从有时间属性的元数据轨迹、盒信息、MPD以及SEI中获取机位位置信息。
可以理解的是,机位位置信息可以和机位标识信息存储在相同的元数据信息中,也可以存储在不同的元数据信息中。例如可以通过元数据轨迹得到机位标识信息,通过MPD文件得到机位位置信息。
本申请中,通过机位位置信息,能够灵活指示不同机位的位置,使得用户在观看视频时能够在不同的机位之间进行灵活切换。
在一种可能的实现方式中,上述元数据信息的具体形式可以是元数据轨迹,该元数据轨迹中携带机位标识信息和导演视角信息,此时,在根据机位标识信息对媒体数据进行处理,包括:根据机位标识信息和导演视角信息,对媒体数据进行处理。
上述导演视角信息可以指示视频制作者或者导演推荐的观看视角,客户端根据导演视角信息可以将视频制作者或者导演要呈现给用户的媒体内容呈现给用户。由于元数据轨迹中还包括机位标识信息,因此,客户端可以将导演视角范围的至少一个机位的视频内容呈现给用户,使得用户能够在导演视角范围内的至少一个机位中选择一个机位的视频来观看。
本申请中,由于元数据轨迹中了除了包含导演视角信息之外,还包含机位标识信息,使得用户能够在导演视角范围内选择相应机位的视频观看,因此,本申请能够使得用户在导演视角范围内的不同的机位之间进行自由切换。
第二方面,提供了一种处理媒体数据的装置,该装置包括:获取模块,用于获取元数据信息,其中,所述元数据信息为描述媒体数据的属性信息,所述元数据信息包括机位标识信息;处理模块,用于根据所述机位标识信息对媒体数据进行处理。
在一种可能的实现方式中,所述获取模块还用于:获取机位选择信息;所述处理模块具体用于:根据所述机位选择信息和所述机位标识信息确定第一机位;对所述第一机位对应的媒体数据进行处理。
在一种可能的实现方式中,所述处理模块具体用于:呈现所述第一机位对应的媒体数据。
在一种可能的实现方式中,在所述处理模块对所述第一机位对应的媒体数据进行处理之前,所述处理模块还用于:根据所述机位标识信息和所述元数据信息获取所述第一机位对应的媒体数据。
在一种可能的实现方式中,所述元数据信息还包括机位位置信息,所述机位位置信息用于指示机位在球面坐标系中的位置。
在一种可能的实现方式中,所述元数据信息包括盒信息,所述盒信息包括所述机位位置信息。
在一种可能的实现方式中,所述元数据信息为元数据轨迹。
在一种可能的实现方式中,所述元数据信息为媒体呈现描述。
在一种可能的实现方式中,所述元数据信息为辅助增强信息。
在一种可能的实现方式中,所述元数据信息为元数据轨迹,所述元数据轨迹还包括导演视角信息;所述处理模块具体用于根据所述机位标识信息和导演视角信息,对媒体数据进行处理。
第三方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述第一方面所述的方法。
第四方面,提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述第一方面所述的方法。
第五方面,提供了一种电子设备,包括上述第二方面所述的处理媒体数据的装置。
应理解,本申请的第二至第五方面及对应的实现方式所取得的有益效果参见本申请的第一方面及对应的实现方式所取得的有益效果,不再赘述。
附图说明
图1是本申请实施例的一种可能的应用场景的示意图;
图2是本申请实施例的一种可能的应用场景的示意图;
图3是本申请实施例的处理媒体数据的方法的示意性流程图;
图4是本申请实施例的处理媒体数据的方法的流程图;
图5是本申请实施例的处理媒体数据的方法的流程图;
图6是本申请实施例的处理媒体数据的方法的流程图;
图7是本申请实施例的处理媒体数据的装置的示意性框图;
图8是本申请实施例的处理媒体数据的装置的硬件结构示意图。
具体实施方式
下面将结合附图,对本申请中的技术方案进行描述。
为了更好地理解本申请实施例的处理媒体数据的方法,下面先对媒体处理数据相关的一些基本概念进行简要的介绍。
轨迹(track)是指一系列有时间属性的按照ISO基本媒体文件格式(ISO basemedia fileformat,ISOBMFF)的封装方式的样本。比如视频track,视频样本是通过将视频编码器编码每一帧后产生的码流按照ISOBMFF的规范封装后得到的。
轨迹在标准ISO/IEC 14496-12中的定义为:“timed sequence of relatedsamples(q.v.)inan ISO base media file”,该定义的中文翻译为“ISO媒体文件中相关样本的时间属性序列”。
对于媒体数据来说,一个track就是个图像或者音频样本序列;对于提示轨迹,一个轨迹对应一个流频道(For media data,a track corresponds to a sequence ofimages or sampledaudio;for hint tracks,a track corresponds to a streamingchannel)。
ISOBMFF文件是由多个盒子(box)构成,其中,一个box可以包括其它的box。
box在ISO/IEC 14496-12标准中的定义为:“object-oriented building blockdefined by aunique type identifier and length”,该定义的中文翻译为“面向对象的构建块,由唯一的类型标识符和长度定义”。
另外,box在某些规范被成为“原子”,包括MP4的第一个定义(Called“atom”insomespecifications,including the first definition of MP4)。
辅助增强信息(supplementary enhancement information,SEI)是国际通信联盟(International Telecommunication Union,ITU)发布的视频编解码标准h.264,h.265中定义的一种网络接入单元(Network Abstract Layer Unit,NALU)的类型。
媒体呈现描述(Media presentation description,MPD)是标准ISO/IEC 23009-1中规定的一种文档,在该文档中包括了客户端构造HTTP-URL的元数据。在MPD中包括一个或者多个周期(period)元素,每个period元素包括有一个或者多个自适应集(adaptationset),每个adaptationset中包括一个或者多个表示(representation),每个representation中包括一个或者多个分段,客户端根据MPD中的信息,选择表达,并构建分段的http-URL。
为了描述媒体数据中有关时间的属性信息,OMAF标准中规定了在球面上的区域(region)的有时间属性的元数据轨迹(timed metadata track)。该元数据轨迹中的元数据的box中包含的是描述球面的元数据,在元数据的box中描述了有时间属性的元数据轨迹的意图,也就是球面区域是用来做什么的,在OMAF标准中描述了两种有时间属性的元数据轨迹:推荐视角元数据轨迹(the recommended viewport timed metadata track)和初始视点轨迹(the initial viewpoint timed metadata track)。其中,推荐视角轨迹描述了推荐给终端呈现的视角的区域,初始视点轨迹描述了全向视频观看时的初始呈现方向。
现有的OMAF标准中规定的球面区域样本入口(Sample Entry)的格式如下:
Figure BDA0001545334080000051
Figure BDA0001545334080000061
上述球面区域样本入口中各个字段的语义如下:
Shape_type:用来描述球面区域形状类型;
Reserved:保留字段;
dynamic_range_flag:该值为0时表示区域的是水平垂直范围不变,该值为1时表示区域水平和垂直区域在样本中描述;
static_azimuth_range:区域的方位角覆盖范围;
static_elevation_range:区域的仰角覆盖范围;
num_regions:元数据轨迹中的区域个数。
OMAF中定义了两种球面区域形状类型,一种为四个大圆(Azimuth Circle)合成形成的形状,其shape_type值为0;另一种为两个大圆和两个小圆(Elevation Circle)合成形成的形状,其shape_type值为1。
现有的OMAF标准中规定的球面区域样本(Sample)格式定义如下:
Figure BDA0001545334080000062
上述球面区域样本中的各个字段的语义如下:
center_azimuth、center_elevation:表示球面区域的中心点位置;
Center_tilt:表示区域的倾斜角度;
azimuth_range:区域的方位角覆盖范围;
Elevation_range:区域的仰角覆盖范围。
在播放视频时,为了能够在不同的视角之间自由切换,可以在拍摄视频时采用多机位拍摄,多机位拍摄的特点是多机位同时记录,并且通过切换不同的机位来播放不同视角的视频。
例如,在拍摄视频的过程中一共采用了机位A和机位B两种机位进行拍摄,那么,在拍摄得到的视频中,当机位A出现在另一个机位B拍摄的360度全景视频中的某个区域时,可以用上述球面区域结构来定义该机位A在机位B的位置。而机位A所拍摄的360度全景视频可以用一个统一资源标识符(Uniform Resource Identifier,URI)链接来表示,当用户在观看B机位拍摄的视频时可以通过和机位A相关联的URI链接切换至机位A的视频观看。
具体地,可以采用下列语法在球面区域结构中定义一个机位在另一个机位的位置。
Sample syntax
class HotspotSample()extends SphereRegionSample
{
string hotspot_uri;
}
上述语法通过字段hotspot_uri定义了一个与球面区域相关联的URI指向另一个机位的360度全景视频链接。
在上述方式中,由于URI是带外的连接,无法区分两个机位是否属于同一场景(或者事件)的拍摄,并且URI在网络传输过程中容易被更改或者重定向,因此,采用URI无法稳定的表达与机位相关的视频。
因此,本申请提出了一种处理媒体数据的方法,通过在媒体数据的元数据信息中携带机位标识信息来指示媒体数据对应的机位,从而能够根据机位对媒体数据进行处理(例如,呈现),从而能够更灵活地向用户展示不同机位的视频。
图1是本申请实施例的一种可能的应用场景的示意图。
如图1,体育场中设置有机位A、机位B和机位C来拍摄视频,其中,机位A和机位B的位置固定,机位C位于轨道上,位置可以随时变动。机位A、机位B和机位C各自放置一台摄像机,用于拍摄360度的全景视频,其中,机位A拍摄视频的视角为视角1,机位B拍摄视频的视角为视角2,视角1和视角2有部分重叠,因此,在机位A拍摄的视频中的某些区域能够观察到机位B,在机位B拍摄的视频中的某些区域能够观察到机位A。
图2示出了本申请实施例的另一种可能的应用场景,在图2中,体育场中设置有机位A和机位B,机位A和机位B分别固定在体育场的两端,机位A拍摄视频的视角为视角1,机位B拍摄视频的视角为视角2,视角1和视角2没有重叠。由于机位A拍摄视频的视角与机位B拍摄视频的视角不重合,因此,在机位A和机位B各自拍摄的视频中的区域中都无法观看到其它机位。
应理解,上述图1和图2只是以体育场为例,示出了多机位拍摄视频的场景。实质上,多机位拍摄视频的场景还有很多,例如,采用多机位拍摄进行电视栏目制作,采用多机位拍摄进行晚会节目拍摄等等,任何采用多机位拍摄视频的场景都在本申请的范围内。
图3是本申请的处理媒体数据的方法的示意性流程图。图3所示的方法可以由解码端设备执行,这里的解码端设备具体可以是视频解码器、具有解码视频功能的设备、视频播放器(例如,能够处理多媒体数据的电子设备)等等。图3所示的方法包括步骤101和步骤102,下面结合具体实例对步骤101和步骤102进行详细的描述。
101、获取元数据信息。
上述元数据信息可以是描述媒体数据的一些属性信息,例如,上述元数据信息可以包括媒体数据的时长,码率,帧率,在球面坐标系中的位置等信息。
另外,上述元数据信息描述的媒体数据可以是全向媒体数据,该全向媒体数据可以是视频数据和/或音频数据。
102、根据元数据信息中的机位标识信息对媒体数据进行处理。
上述元数据信息可以携带机位标识信息,该机位标识信息用于表示机位。例如,第一媒体数据的元数据信息中包含第一机位标识信息,该第一机位标识信息表示第一机位,那么,第一媒体数据就是在第一机位下拍摄的媒体数据。
另外,在步骤102中根据机位标识信息对媒体数据进行处理之前,还可以先从元数据中获取该元数据携带的机位标识信息。
可选地,上述机位标识信息具体可以是机位ID,每个机位对应一个ID,不同的ID用于表示不同的机位。
本申请中,由于元数据信息中携带有机位标识信息,因此,通过元数据信息中的机位标识信息能够自由处理不同机位对应的媒体数据。
进一步地,上述处理媒体数据具体还可以是呈现媒体数据,此时,可以通过机位标识信息自由选择需要呈现的机位的媒体数据,进而能够实现在不同机位的视频之间进行自由切换。
图4是本申请的处理媒体数据的方法的流程图。与图3所示的方法相同,图4所示的方法也可以由解码端设备执行。
图4所示的方法包括步骤301至步骤306,下面对步骤301至步骤306进行详细的描述。
301、获取元数据信息。
步骤301中获取的元数据信息与步骤101中获取的元数据信息相同,也是描述媒体数据的一些属性信息。另外,步骤301中获取的元数据信息可以携带机位标识信息,该机位标识信息用于表示机位。
302、获取机位选择信息。
该机位选择信息可以用于表示用户选择观看的机位。例如,当图4所示的方法由终端设备执行时,用户可以通过终端设备的操作界面输入机位选择信息,进而选择想要观看的视频的视角。
可选地,在步骤302之前,图4所示的方法还包括:呈现不同的机位。
当用户观察到呈现的不同的机位时,可以根据观看视频的需要从不同的机位中选择观看视频的目标机位,并通过操作显示界面生成机位选择信息。
303、根据机位选择信息以及元数据信息中的机位标识信息确定第一机位。
具体地,当图4所示的方法由终端设备执行时,终端设备可以在显示界面呈现不同的机位图标(每个机位图标对应的机位标识信息不同)供用户选择,用户可以根据需要点击需要观看的机位(这里的用户的点击操作相当于上文中的机位选择信息),接下来,设备就可以呈现出用户选择的机位的视频。
304、确定是否已经获取第一机位对应的媒体数据。
当步骤304中确定已经获取了第一机位对应的媒体数据之后直接执行步骤306,而如果步骤304中确定没有获取第一机位对应的媒体数据,那么需要先获取第一机位对应的媒体数据,也就是执行步骤305。
应理解,上述已经获取了第一机位对应的媒体数据可以是指客户端已经将第一机位对应的媒体数据下载到了本地;而没有获取第一机位对应的媒体数据可以是指只获取了第一机位对应的媒体数据的元数据信息,但是还未将第一机位对应的媒体数据保存到本地,此时,需要继续从服务器端获取第一机位对应的媒体数据。
305、获取第一机位对应的媒体数据。
具体地,在获取第一机位对应的媒体数据时,可以根据第一机位对应的媒体数据的元数据信息从服务器端获取第一机位对应的媒体数据的码流,然后解析第一机位对应的媒体数据的码流,从而得到第一机位对应的媒体数据。
306、呈现第一机位对应的媒体数据。
例如,当第一机位对应的媒体数据为视频数据并且图4所示的方法的执行主体是终端设备时,可以在终端设备的显示屏显示第一机位对应的视频,这样用户就可以通过显示屏观看到第一机位对应的视频。
可选地,上述机位标识信息可以承载在不同形式的元数据信息中。
具体地,上述机位标识信息可以承载在元数据轨迹、MPD以及SEI中。
当机位标识信息承载在元数据轨迹中时,上述获取元数据信息可以具体包括:获取元数据轨迹,其中,该元数据轨迹包括机位标识信息。
当机位标识信息承载在MPD中时,上述获取元数据信息可以具体包括:获取MPD,其中,该MPD包括机位标识信息。
当机位标识信息承载在SEI中时,上述获取元数据信息可以具体包括:获取SEI,其中,该SEI包括机位标识信息。
由于元数据轨迹、MPD以及SEI中包括机位标识信息,因此,通过解析元数据轨迹、MPD以及SEI能够确定机位。
下面结合实例一至实例三对机位标识信息分别携带在元数据轨迹、MPD以及SEI中进行详细的说明。
应理解,在本申请实施例中,MPD中除了下面实例中提到的语义之外,MPD中包含的其它语义可以参考OMFA、MPEG-DASH等标准中有关MPD语义的解释。
实例一:机位标识信息携带在元数据轨迹中
在实例一中,可以将属于同一机位的多个视频流(tracks)组成一类组合,并给不同的机位下的多个视频流组成的组合分配一个机位标识信息(具体可以是机位ID),客户端在解析到该机位的视频流组合之后将机位ID呈现给用户,用户可以根据机位ID选择要观看的机位。
现有标准中的元数据轨迹中的box定义组合类型box(TrackGroupTypeBox),TrackGroupTypeBox包含的语法具体如下:
aligned(8)class TrackGroupTypeBox(unsigned int(32)track_group_type)extendsFullBox(track_group_type,version=0,flags=0)
{
unsigned int(32)track_group_id;
}
上述语法的所表示的语义如下:
Track_group_type:表示组合的类型;
Track_group_id:表示同一类型和同一id的tracks属于同一个组合。
在实例一种,通过在元数据轨迹中新增一种组合类型box(ViewPositionGroupBox),该box继承自TrackGroupTypeBox,该新增组合类型box的语法如下:
aligned(8)class ViewPositionGroupBox extends TrackGroupTypeBox(‘vipo’){}
当客户端获取到上述类型的box之后,通过解析该类型的box可以获取该box中的track_group_id,然后将不同的机位呈现给用户供用户自由选择。
图5是本申请的处理媒体数据的方法的流程图,客户端处理上述类型的box的具体过程可以图5所示:
401、获取视频码流。
402、解析视频码流,确定是否存在特定类型的盒子。
具体地,在获取到视频码流之后,寻找并解析类型为’vipo’的TrackGroupTypeBox。
403、获取机位标识信息。
当存在类型为’vipo’的TrackGroupTypeBox时,获取TrackGroupTypeBox中的track_group_id,也就是要获取机位标识信息。
404、将机位呈现给用户。
具体地,当解析得到多个机位标识信息时,可以将多个机位标识信息表示的机位通过图标的形式呈现在设备的显示界面。例如,当通过机位标识信息确定三个机位时,可以在设备的显示界面显示着三个机位的图标。用户可以通过显示屏幕选择相应的机位的视频观看,例如,用户可以通过点击的机位图标的方式来选择机位。
405、呈现用户选择的机位对应的视频。
例如,显示界面一共显示第一机位、第二机位和第三机位的图表,用户点击了第一机位,那么,设备接下来可以将第一机位对应的视频呈现在显示界面供用户观看。
应理解,上文中的’vipo’表示的是track group组合的类型是同机位组合。并不是box中携带机位标识信息。应理解,这里只是采用’vipo’这四个字符来表示同机位组合类型,也可以用’aabb’等其他的任意字符表示同机位组合类型,本申请对具体采用的字符并不限定。
为保证不同机位的track_group_id不同,可以通过标记ViewPositonGroupBox的flags为1来表示不同机位的track_group_id不同,该box的定义如下:
aligned(8)class ViewPositionGroupBox extends TrackGroupTypeBox(‘vipo’,version=0,flags=1){}
实例二:机位标识信息携带在MPD中
当机位标识信息携带在MPD中时,具体可以在MPD的字段adaptation set level增加属性@viewPositionSetId来表示该adaptation set所属的机位,其中,@viewPositionSetId的具体定义如表1所示。
表1
Figure BDA0001545334080000101
Figure BDA0001545334080000111
在上述表1中,O表示该字段是可选的,不是必须出现的字段。另外,应理解,拥有相同@viewPositionSetId值的adaptation set属于同一个机位,拥有不同@viewPositionSetId值的adaptation set属于不同的机位。
在一种可能的实现方式中,当MPD中携带机位标识指示信息时,MPD包含的语法具体如下:
Figure BDA0001545334080000112
Figure BDA0001545334080000121
在上述MPD包含的语法中,当viewPositionSetId=“1”时指示机位1,当viewPositionSetId=“2”时指示机位2,其中,机位1和机位2各自拥有两个轨迹,这两个轨迹可以分别称为tile1和tile2。
当客户端获取到MPD文件之后,可以解析MPD文件中adaptation set一级的属性并获取到viewPositionSetId属性的值。
接下来,客户端就可以将根据viewPositionSetId属性得到的机位信息呈现给用户,用户可以选择某一机位观看,在用户选择观看机位之后,客户端就可以将该机位对应的视频呈现给用户,用户在观看视频的观看中随时可以根据客户端呈现的机位信息来自由选择不同机位的视频来观看。
实例三:机位标识信息携带在SEI中
在一种可能的实现方式中,SEI携带机位标识信息的语法具体如下:
Figure BDA0001545334080000131
上述语法中的VIP是一个具体的数值,例如,当VIP为190时,表示SEI中的字段source_payload携带机位标识信息,source_payload包含的语法具体如下:
Figure BDA0001545334080000132
应理解,Source_payload就是上面的View_position_payload,Source_payload表示的是具体palyload里面的内容。
上述View_position_id描述了上述SEI对应的码流所属的机位ID信息。
另外,应理解,本申请中并不限定VIP的取值,当VIP取某个特定的取值时就可以用来表示SEI中的字段source_payload携带机位标识信息。
在实例三种,当客户端获取视频码流之后,具体的处理流程如下:
(1)、客户端获取到视频码流,解析码流中的NALU头信息,如果解析到的头信息类型是SEI类型,那么就解析SEI NALU,以获得SEI的载荷类型;
(2)、如果客户端解析到SEI的载荷类型(payloadType)为190,那么就表示SEI中携带了码流机位信息,客户端继续解析获得view_position_id信息,获取机位号;
(3)、客户端将不同的view_position_id值对应的机位号呈现给用户;
(4)、用户选择某一机位观看,客户端将该机位下的视频呈现给客户。
应理解,在上述过程(1)至(4)中,客户可以根据客户端呈现的机位号来自由选择不同机位的视频来观看。
可选地,作为一个实施例,上述元数据信息还包括机位位置信息,该机位位置信息用于指示机位在球面坐标系中的位置。
本申请中,通过机位位置信息,能够灵活指示不同机位的位置,使得用户在观看视频时能够在不同的机位之间进行灵活切换。
应理解,在本申请中,机位标识信息可以指示机位的ID或者机位号,而机位位置信息可以用来指示机位在球面坐标系中的位置,也就是说,通过一个信息指示了机位的ID,通过另一个信息指示了机位的位置。
可选地,上述元数据信息中包含的机位位置信息可以具体指示该元数据信息对应的机位之外的其它机位的位置。
应理解,当机位位置信息指示元数据信息对应机位之外的其它机位的位置时可以适用于图1所示的场景。也就是说,当不同机位之间拍摄视频的视角之间有重叠部分时,可以在一个机位的媒体数据对应的元数据信息中携带指示其它机位在当前机位位置的机位位置信息。
例如,在拍摄视频时存在机位1和机位2,机位1中的元数据信息中包含的机位位置信息还可以是机位2在机位1对应的媒体数据所在的球面区域中的位置。
图6是本申请实施例的处理媒体数据的方法的流程图。具体地,图6所示方法中的具体步骤可以看成是图4所示的方法的步骤306之后的延续。当呈现了第一机位对应的媒体数据之后,接下来还可以根据在机位位置信息在第一机位的媒体数据所在的位置呈现其它机位的图标,使得用户能够自由的从第一机位切换到其它机位。图6所示的方法具体包括步骤501至步骤506,下面分别对步骤501至步骤506进行详细的描述。
501、根据机位位置信息确定第二机位在第一机位对应的媒体数据所在的球面区域的第一位置。
上述机位位置信息可以携带在元数据信息中,在步骤501之前,可以先从元数据信息中获取机位位置信息。
应理解,在图5所示的方法中,机位位置信息具体指示第二机位在第一机位对应的媒体数据所在的球面区域的位置。上述第二位置可以位于第一机位和第二机位重合的区域。
502、在第一位置呈现第二机位的图标。
具体地,客户端可以在呈现的第一机位的视频中的第一位置处呈现第二机位的图标,用户通过点击第二机位的图标可以从第一机位切换到第二机位,这里的用户的点击操作就是机位切换指令。
503、确定是否接收到用户的机位切换指令。
当客户端接收到用户的机位切换指令之后,执行步骤504,否则继续等待。
504、确定是否已获取第二机位对应的媒体数据。
应理解,上述已获取了第二机位对应的媒体数据可以是指客户端已经将第二机位对应的媒体数据下载到了本地;而未获取第二机位对应的媒体数据可以是指客户端只获取了第二机位对应的媒体数据的元数据信息,但是还未将第二机位对应的媒体数据保存到本地,此时,客户端需要继续从服务器端获取第二机位对应的媒体数据。
当步骤504中确定已经获取了第二机位对应的媒体数据之后直接执行步骤506,而如果步骤504中确定没有获取第二机位对应的媒体数据,那么需要先获取第二机位对应的媒体数据然后再呈现,也就是先执行步骤505然后再执行步骤506。
505、获取第二机位对应的媒体数据。
具体地,在获取第二机位对应的媒体数据时,可以根据第二机位对应的媒体数据的元数据信息从服务器端获取第二机位对应的媒体数据的码流,然后解析第二机位对应的媒体数据的码流,从而得到第二机位对应的媒体数据。
506、呈现第二机位对应的媒体数据。
可选地,上述机位位置信息可以承载在有时间属性的元数据轨迹、盒信息、MPD以及SEI中。这里的盒信息具体可以是盒子(box)。
将机位位置信息携带在有时间属性的元数据轨迹上,能够指示机位位置变化的场景。
当机位位置信息承载在有时间属性的元数据轨迹中时,上述获取元数据信息可以具体包括:获取有时间属性的元数据轨迹,其中,该有时间属性的元数据轨迹包括机位位置信息。
当机位位置信息承载在盒信息中时,上述获取元数据信息可以具体包括:获取盒信息,其中,该盒信息包括机位位置信息。
当机位位置信息承载在MPD中时,上述获取元数据信息可以具体包括:获取MPD,其中,该MPD包括机位位置信息。
当机位位置信息承载在SEI中时,上述获取元数据信息可以具体包括:获取SEI,其中,该SEI包括机位位置信息。
由于上述有时间属性的元数据轨迹、盒信息、MPD以及SEI中包括机位位置信息,因此,通过解析元数据轨迹、MPD以及SEI能够确定机位。
下面结合实例四至实例七对机位标识信息分别携带在有时间属性的元数据轨迹、盒信息、MPD以及SEI中进行详细的说明。
实例四:机位标识信息携带在有时间属性的元数据轨迹(timed metadata track)中
在多机位的360度全景视频的应用场景中,可能出现在一个机位的视频中观看到其它一个或者多个机位情况。因此,元数据信息中除了携带机位标识信息之外还可以携带机位位置信息,用于描述其它机位在当前机位的球面区域的位置信息。具体地,可以通过一个与当前机位相关联的有时间属性的元数据轨迹描述其它机位在当前机位的球面区域信息,使得用户可以在观看某一机位视频的时候可以观看到另外的机位并通过点击该机位的球面区域的方式切换到其它机位。应理解,通过有时间属性的元数据轨迹描述机位的球面区域位置信息能够支持机位位置变化的场景。
与实例一类似,在实例四中也可以通过新增一种组合类型来表示相同ID的轨迹(track)属于同一机位,该新增组合类型的语法如下:
aligned(8)class ViewPositionGroupBox extends TrackGroupTypeBox(‘vipo’){}
为了能够描述其它机位在当前机位的球面区域的位置信息,需要在当前机位的球面区域中关联另一个机位的机位标识信息。为了支持在球面区域中关联另一个机位的机位标识信息(track group id),新定义有时间属性的元数据轨迹中样本入口格式(SampleEntry)如下:
Class AlternativeViewPositionEntry extends SphereRegionSampleEntry(‘alvp’,0,0){}
新定义的有时间属性的元数据轨迹中样本的格式如下:
Figure BDA0001545334080000151
上述样本中的各个字段的语义如下:
num_view_position:表示存在多少个机位(其值应为具体机位数减一);
Track_group_id:表示其它机位的ID号;
SphereRegionStruct:表示其它机位在本机位的球面区域中的位置。
作为另外一种可能的实现方式,有时间属性的元数据轨迹中样本入口格式如下:
Figure BDA0001545334080000161
在实例四中,当客户端获取到视频码流后,具体处理处理流程如下:
(1)、客户端获取视频数据轨迹(track)流;
(2)、客户端在视频数据轨迹流中寻找并解析类型为’vipo’的TrackGroupTypeBox;
(3)、若视频数据轨迹流中存在类型为’vipo’的TrackGroupTypeBox,那么就从TrackGroupTypeBox获取其track_group_id(也就是从TrackGroupTypeBox中获取机位标识信息);
(4)、客户端获取有时间属性的元数据轨迹;
(5)、客户端从有时间属性的元数据轨迹中寻找并解析样本入口类型为’alvp’的有时间属性的元数据轨迹;
(6)、客户端从类型为’alvp’的有时间属性的元数据轨迹的样本中获取其它机位(其它机位的数量可以是一个也可以是多个)的track_group_id以及其它机位在当前机位的球面区域位置;
(7)、客户端呈现某一机位的视频,并在当前呈现的机位的视频中呈现其它机位的信息(如机位的编号)和该其它机位在当前机位的视频中的球面区域中的位置。
应理解,当客户端呈现某一机位的视频时,用户可以随时点击该机位的视频中的球面区域中的其它机位,进而切换到其它机位的视频。
可选地,在实例四中,假设与当前机位视频相关联的机位有多个机位,那么,有时间属性的元数据轨迹既可以包含该多个机位的机位位置信息,也可以只包含该多个机位中的一个机位的机位位置信息。
在有时间属性的元数据轨迹仅包含一个机位的机位位置信息的情况下,多个机位的位置信息可以通过多个有时间属性的元数据轨迹来携带。
当有时间属性的元数据轨迹包含多个机位的机位位置信息的情况下,相应的样本入口格式如下:
Class AlternativeViewPositionEntry extends SphereRegionSampleEntry(‘alvp’,0,0){}
当有时间属性的元数据轨迹包含多个机位的机位位置信息的情况下,相应的样本格式如下:
Figure BDA0001545334080000171
另外,有时间属性的元数据轨迹的样本入口格式也可以不继承至SphereRegionSampleEntry,而是重新定义新的样本入口格式和样本格式,重新定义的样本入口格式如下:
Figure BDA0001545334080000172
重新定义的样本格式如下:
Figure BDA0001545334080000173
上述各个字段的语义如下:
num_view_position:表示存在多少个机位(其值应为具体机位数减一);
Track_group_id:表示其它机位的ID号;
center_azimuth和center_elevation:表示区域的中心点位置(也就是表示其它机位在当前机位的球面区域的位置)。
当有时间属性的元数据轨迹仅包含一个机位的机位位置信息的情况下,相应的样本入口格式如下:
Class AlternativeViewPositionEntry extends MetaDataSampleEntry(‘alvp’,0,0){}
当有时间属性的元数据轨迹仅包含一个机位的机位位置信息的情况下,相应的样本格式如下:
Figure BDA0001545334080000181
在实例四中,通过机位位置信息能够当用户观看当前机位的视频时还能够呈现其它机位的机位信息以及其它机位在当前机位的视频区域中的位置,方便用户切换到其它机位的视频观看。
在实例四中,通过有时间属性的元数据轨迹描述机位的球面区域位置信息能够支持机位位置变化的场景。而对于机位位置固定不变的应用场景可以在机位视频流track中新增一个用于描述其它机位的机位位置信息的box,使得用户可以在观看某一机位视频的时候可以观看到另外的机位并通过点击该机位相应球面区域(其它机位在当前机位视频中的位置)的方式切换到其它机位。
下面结合实例五对机位位置固定不变的场景下,通过在机位视频流track中新增一个box用于描述其它机位的机位位置信息的实现方式进行详细的说明。
实例五:机位位置信息携带在盒信息中
在实例五中,通过新增一种组合类型,表示该组合类型下相同id的tracks属于同一机位,新增组合类型定义如下:
aligned(8)class ViewPositionGroupBox extends TrackGroupTypeBox(‘vipo’){}
通过在视频流track中的元数据box(相当于上文中的盒信息)来携带其它机位在当前机位的机位位置信息,具体定义如下:
Figure BDA0001545334080000182
上述元数据box中的各个字段含义如下:
num_view_position:表示存在多少个机位(其值应为具体机位数减一);
Track_group_id:表示其它机位的ID号;
center_azimuth和center_elevation:表示区域的中心点位置(也就是表示其它机位在当前机位的球面区域的位置)。
在实例五中,当客户端获取到视频码流后,具体处理处理流程如下:
(1)、客户端获取视频数据轨迹(track)流;
(2)、客户端在视频数据轨迹流中寻找并解析类型为’vipo’的TrackGroupTypeBox;
(3)、若视频数据轨迹流中存在类型为’vipo’的TrackGroupTypeBox,那么就从TrackGroupTypeBox获取其track_group_id(也就是从TrackGroupTypeBox中获取机位标识信息);
(4)、客户端在视频数据轨迹流中寻找并解析类型为’avpb’的box;
(5)、客户端从类型为’avpb’的box中获取其样本数据中的一个或者多个其它机位的track_group_id和其球面区域位置;
(6)、客户端呈现某一机位视频,并在该机位视频中呈现其它机位信息以及其它机位在该机位视频中的球面区域的位置。
应理解,当客户端呈现某一机位的视频时,用户可以随时点击该机位的视频中的球面区域中的其它机位,进而切换到其它机位的视频。
在实例五中,可以利用现有OMAF中的SphereRegionStruct球面区域结构来定义类型为’avpb’的box,具体定义如下:
Figure BDA0001545334080000191
下面结合实例六对MPD携带机位标识信息和机位位置信息的情况进行详细描述。
实例六:机位位置信息携带在MPD中
MPD中不仅可以携带机位位置信息,还可以携带机位标识信息。与实例二相同,当MPD携带机位标识信息时,也可以通过在MPD的adaptation set level增加属性@viewPositionSetId表达该adaptation set所属的机位,其具体含义可以如上文中的表1所示。
此外,还可以在ISO/IEC 23009-1中规定的标准元素SupplementalProperty中增加源信息描述子,其@schemeIdUri的值采用”urn:mpeg:omaf:alvp:2017”,表示该辅助属性描述可供替换的机位,其具体值定义如表2所示:
表2
Figure BDA0001545334080000192
Figure BDA0001545334080000201
上述表2中的各个字段的语义如下:
View_position_id:表示可替代的机位的id(也就是当前机机位之外的其它机位的id),View_position_id应与adaptation set中的某个@viewPositionSetId相同;
center_azimuth、center_elevation:表示其它机位在当前机位的视频的球面区域的中心点的位置。
另外,在表2中,M表示该字段是必须出现的或者必须存在的,而O表示该字段是可选的。
在多个机位的场景下,可以利用多个ALVP描述字来描述多个可替代的机位信息,其中,在一种可能的实现方式中,MPD的示例如下:
Figure BDA0001545334080000202
Figure BDA0001545334080000211
Figure BDA0001545334080000221
在上述MPD包含的语法中,当viewPositionSetId=“1”时指示机位1,当viewPositionSetId=“2”时指示机位2,其中,机位1和机位2各自拥有两个轨迹(tile1和tile2)。
<SupplementalProperty schemeIdUri="urn:mpeg:omaf:alvp:2017"value="2,-135,-45"/>表示可替代的机位的id以及其它机位的球面区域位置信息。
客户端在获取视频码流后的处理流程具体如下:
(1)、客户端获取MPD文件,解析adaptation set一级的属性并获取到viewPositionSetId属性的值;
(2)、客户端解析adaptation set中SupplementalProperty属性,获取其它机位的ID和在其球面区域信息;
(3)、当用户在观看某一机位视频时,客户端呈现其它机位信息及其在该机位视频中的球面区域,用户可随时点击该区域切换至不同机位观看。
在实例六中,通过类型为’alvp’的SupplementalProperty定义了View_position_id,center_azimuth和center_elevation。其中center_azimuth和center_elevation可以表示球面区域的中心点,进一步,在实例六中还可做一定扩展表示球面区域的覆盖范围,其具体定义如表3所示:
表3
Figure BDA0001545334080000222
Figure BDA0001545334080000231
上述表3中的语法中的各个字段的语义如下:
View_position_id:表示其它机位的id;
Shape_type:表示该球面区域构成的形式,包括四个大球相交形成的区域,以及两个大球和两个小球在球面相交的区域;
center_azimuth、center_elevation、center_tilt、azimuth_range以及elevation_range具体用于表示其它机位在在当前机位的视频的球面区域中的位置。
其中,center_azimuth、center_elevation表示其它机位所在区域的中心点位置,center_tilt表示其它机位所在区域中心点倾斜角,azimuth_range表示其它机位所在区域方位角覆盖范围,elevation_range表示其它机位所在区域仰角覆盖范围。
实例七:机位位置信息携带在SEI中
SEI中除了携带机位标识信息之外,还可以携带机位位置信息,同实例二相同,实例七中SEI携带机位标识信息的语法具体如下:
Figure BDA0001545334080000232
上述语法中的VIP是一个具体的数值,例如,当VIP为190时,表示SEI中的字段source_payload携带机位标识信息,source_payload包含的语法具体如下:
Figure BDA0001545334080000241
上述View_position_id描述了上述SEI对应的码流所属的机位ID信息。
另外,应理解,本申请中并不限定VIP的取值,当VIP取某个特定的取值时就可以用来表示SEI中的字段source_payload携带机位标识信息。
可选地,机位位置信息也可以携带在SEI中,具体地,这里的机位位置信息可以包括其它机位的ID信息以及其它机位在当前机位的视频所在的球面区域中的位置信息,SEI中携带机位位置信息的语法具体如下:
Figure BDA0001545334080000242
述语法中的ALV表示一个具体取值,例如,当ALV为191时表示SEI中携带机位位置信息,当SEI中的载荷类型为ALV时,SEI中的语法具体如下:
Figure BDA0001545334080000243
其中,各个语法的语义如下:
Num_view_position:表示有多个其它机位;
View_position_id:表示其它机位的ID;
center_azimuth、center_elevation:表示其它机位在当前机位的视频的球面区域的中心点的位置。
在实例七中,客户端获取到视频码流后的处理流程如下:
(1)、客户端获取到视频码流,解析码流中的NALU头信息;
(2)、如果客户端解析到的头信息类型是SEI类型,那么,继续解析SEI NALU,获得SEI的载荷类型;
(3)、如果客户端解析到的载荷类型为190,表示SEI中携带了码流机位信息;
(4)、客户端继续解析码流获得view_position_id信息,获取机位号;
(5)、如果客户端解析到的载荷类型为191,表示SEI中携带了其它机位的信息及其它机位在当前机位的视频的球面区域的位置;
(6)、客户端向用户呈现某一机位视频,并呈现其它机位以及其它机位在当前机位的视频的球面区域中的位置。
在实例七中,当客户端呈现某一机位的视频时,用户可以随时点击该机位的视频中的球面区域中的其它机位,进而切换到其它机位的视频。
实例七中通过ALV SEI信息中定义了其它机位的机位标识信息和其它机位在当前机位的视频的球面区域中的位置信息,进一步地,实例七还可做一定扩展表示球面区域的覆盖范围,其具体定义如下:
Figure BDA0001545334080000251
上述语法中各个语法的含义如下:
View_position_id:表示其它机位的id;
Shape_type:表示该球面区域构成的形式,包括四个大球相交形成的区域,以及两个大球和两个小球在球面相交的区域;
center_azimuth、center_elevation、center_tilt、azimuth_range以及elevation_range具体用于表示其它机位在在当前机位的视频的球面区域中的位置。
其中,center_azimuth、center_elevation表示其它机位所在区域的中心点位置,center_tilt表示其它机位所在区域中心点倾斜角,azimuth_range表示其它机位所在区域方位角覆盖范围,elevation_range表示其它机位所在区域仰角覆盖范围。
应理解,在上述实例四至实例七中,机位位置信息具体包括其它机位的机位标识信息以及其它机位在当前机位的视频所在的球面区域的位置。其中,其它机位的机位标识信息也可以采用track_group_id来表示,而其它机位在当前机位的视频所在的球面区域的位置可以用SphereRegionStruct来表示。
可选地,作为一个实施例,上述获取元数据信息,包括:获取元数据轨迹,该元数据轨迹携带机位标识信息和导演视角信息;上述根据机位标识信息对媒体数据进行处理,包括:根据所述机位标识信息和导演视角信息,对媒体数据进行处理。
上述导演视角信息可以指示视频制作者或者导演推荐的观看视角,客户端根据导演视角信息可以将视频制作者或者导演要呈现给用户的媒体内容呈现给用户。由于元数据轨迹中还包括机位标识信息,因此,客户端可以将导演视角范围的至少一个机位的视频内容呈现给用户,使得用户能够在导演视角范围内的至少一个机位中选择一个机位的视频来观看。
本申请中,由于元数据轨迹中了除了包含导演视角信息之外,还包含机位标识信息,使得用户能够在导演视角范围内选择相应机位的视频观看,因此,本申请能够使得用户在导演视角范围内的不同的机位之间进行自由切换。
下面结合实例八对元数据轨迹中既携带机位标识信息又携带导演视角信息的情况进行详细的说明。
实例八:元数据轨迹中携带机位标识信息和导演视角信息
实例八为存在导演视角流的应用场景,在该场景下,用户并不通过自身选择的视角和机位来观看视频,而是根据导演或者视频制作者事先设计或者推荐的视角和机位观看视频。
现有的OMAF标准中定义了导演视角流的语法格式,具体地,当通过有时间属性的元数据轨迹描述导演推荐用户观看的视角(即球面区域)时定义的样本入口(sampleentry)的语法格式如下:
Figure BDA0001545334080000261
其中SphereRegionSampleEntry表示了球面区域位置类型,viewport_type表示该样本中定义了导演视角。
相应的样本格式如下:
Figure BDA0001545334080000262
Figure BDA0001545334080000271
在实例八中,通过新增一种组合类型,表示该组合类型下相同id的轨迹属于同一机位,新增组合类型的定义如下:
aligned(8)class ViewPositionGroupBox extends TrackGroupTypeBox(‘vipo’){}
在实例八中,通过一个timed metadata track描述导演推荐用户观看的机位和视角。其中样本入口(sample entry)定义仍采用OMAF原有的导演推荐视角流的类型’rcvp’,样本格式的定义如下:
Figure BDA0001545334080000272
上述语法的语义如下:
Multiple_position_presence_flag:表示导演推荐视角流中是否存在多个机位;
Track_group_id:当导演推荐视角流中存在多个机位时,表示导演视角流中的机位的的ID。
在实例八中,当客户端获取到视频码流后,具体的处理流程如下:
(1)、客户端获取视频数据轨迹(track)流;
(2)、客户端在视频数据轨迹流中寻找并解析类型为’vipo’的TrackGroupTypeBox;
(3)、若视频数据轨迹流中存在类型为’vipo’的TrackGroupTypeBox,那么就从TrackGroupTypeBox获取track_group_id;
(4)、客户端从码流中获取类型为’rcvp’的有时间属性的元数据轨迹;
(5)、如果时间属性的元数据轨迹的样本数据中的multiple_position_presence_flag为1,则获取其它机位的track_group_id和其推荐观看的球面区域;
(6)、客户端根据上述有时间属性的元数据轨迹中的信息,将推荐的不同机位的视频呈现给用户。
在上述过程(2)中,当客户端解析到类型为’vipo’的TrackGroupTypeBox时,确定有时间属性的元数据轨迹中携带有机位标识信息,接下来,需要获取机位标识信息。
在上述过程(3)中,当客户端解析到类型为’rcvp’的有时间属性的元数据轨迹时,确定有时间属性的元数据轨迹中携带有导演视角信息,接下来,需要获取导演视角信息。
在本申请实施例中,机位标识信息可以具体用于指示机位的ID,机位的编号或者机位号等等,在上述实例一至实例八中,track_group_id可以看成是机位标识信息的一种具体实现形式,track_group_id可以具体用于表示机位的ID。
在全向媒体格式设计中,通常采用多个轨迹(track)来承载全向内容的不同部分。因此,在多视点的场景下,如果当前设计混合使用所有的轨道,那么就很难区分从一个观看位置到另一个观看位置的视频轨迹。
为了区分不同观看位置对应的视频轨迹,可以采用轨迹分组机制对属于同一观看位置的视频轨迹进行分组,如果视频轨迹属于相同的观看位置,那么它们享有相同的轨迹组ID,并且一个观看位置对应的轨迹组ID与其它观看位置对应的轨迹组ID不同。当所有的视频轨迹中都不存在ViewPositionGroupBox时,那么就意味着所有的视频轨迹都对应一个观看位置。
在本申请中,可以通过下面的语法定义机位标识信息,语法内容具体如下:
aligned(8)class ViewPositionGroupBox extends TrackGroupTypeBox(‘vipo’){}
上述语法的语义如下:
TrackGroupTypeBox中track_group_id值相同且track_group_type等于“vipo”的轨迹属于相同的观看位置(Tracks that have the same value of track_group_idwithin
TrackGroupTypeBox with track_group_type equal to‘vipo’belong to thesame viewing
position)。
另外,在本申请中还可以通过机位位置信息来定义其它机位的ID以及其它机位在当前机位的视频中的球面区域中的位置。具体地,可以使用与给定观看位置组相关联的有时间属性的元数据轨道来描述可选观看位置以及其在给定观看位置的球面上的空间区域。
为了描述机位位置信息,相应的样本入口类型’alvp’的语法定义如下:
Figure BDA0001545334080000281
其中,num_view_position指示了可选择的观看位置的数目(num_view_positionindicates number of alternative viewing positions)。这里的观看位置相当于上位中的机位。
为了描述机位位置信息,在每个样本中需要定义可选的观看位置id(相当于上文中的机位ID)和它在球体上的空间区域,样本语法的具体定义如下:
Figure BDA0001545334080000282
Figure BDA0001545334080000291
上述样本中的字段的语义具体如下:
center_azimuth、center_elevation:表示区域的中心点位置;
Center_tilt:表示区域的倾斜角度;
azimuth_range:表示区域的方位角覆盖范围;
Elevation_range:表示区域的仰角覆盖范围;
num_view_position:表示标志存在多少个机位(其值应为具体机位数减一);
Track_group_id标志其它机位的ID号;
SphereRegionStruct:表示其它机位在本机位的球面区域中的位置。
上文结合图1至图6对本申请实施例的处理媒体数据的方法进行了详细的描述,下面结合图7和图8对本申请实施例的处理媒体数据的装置进行描述,应理解,图7和图8所描述的处理媒体数据的装置能够执行图1至图6中的处理媒体数据的方法的各个步骤,上文图1至图6中对各个步骤的限定同样适用于图7和图8所示的装置,因此,下面在描述图7和图8所示的装置时,为了简洁,适当省略重复的描述。
图7是本申请实施例的处理媒体数据的装置的示意性框图。
图7所示的装置600包括:
获取模块601,用于获取元数据信息,其中,该元数据信息为描述媒体数据的属性信息,该元数据信息包括机位标识信息。
处理模块602,用于根据机位标识信息对媒体数据进行处理。
本申请中,由于元数据信息中携带有机位标识信息,因此,通过元数据信息中的机位标识信息能够自由处理不同机位对应的媒体数据。
图8是本申请实施例的处理媒体数据的装置的硬件结构示意图。图8所示的装置700可以看成是一种计算机设备,装置700可以作为本申请实施例的处理媒体数据的装置的一种实现方式,也可以作为本申请实施例的处理媒体数据的方法的一种实现方式,装置700包括处理器701、存储器702、输入/输出接口703和总线705,还可以包括通信接口704。其中,处理器701、存储器702、输入/输出接口703和通信接口704通过总线705实现彼此之间的通信连接。
处理器701可以采用通用的中央处理器(Central Processing Unit,CPU),微处理器,应用专用集成电路(Application Specific Integrated Circuit,ASIC),或者一个或多个集成电路,用于执行相关程序,以实现本申请实施例的处理媒体数据的装置中的模块所需执行的功能,或者执行本申请方法实施例的处理媒体数据的方法。处理器701可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器701中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器701可以是通用处理器、数字信号处理器(Digital Signal Processing,DSP)、专用集成电路(ASIC)、现成可编程门阵列(Field Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器702,处理器701读取存储器702中的信息,结合其硬件完成本申请实施例的处理媒体数据的装置中包括的模块所需执行的功能,或者执行本申请方法实施例的处理媒体数据的方法。
存储器702可以是只读存储器(Read Only Memory,ROM),静态存储设备,动态存储设备或者随机存取存储器(Random Access Memory,RAM)。存储器702可以存储操作系统以及其他应用程序。在通过软件或者固件来实现本申请实施例的处理媒体数据的装置中包括的模块所需执行的功能,或者执行本申请方法实施例的处理媒体数据的方法时,用于实现本申请实施例提供的技术方案的程序代码保存在存储器702中,并由处理器701来执行处理媒体数据的装置中包括的模块所需执行的操作,或者执行本申请方法实施例提供的处理媒体数据的方法。
输入/输出接口703用于接收输入的数据和信息,输出操作结果等数据。
通信接口704使用例如但不限于收发器一类的收发装置,来实现装置700与其他设备或通信网络之间的通信。可以作为处理装置中的获取模块或者发送模块。
总线705可包括在装置700各个部件(例如处理器701、存储器702、输入/输出接口703和通信接口704)之间传送信息的通路。
应注意,尽管图8所示的装置700仅仅示出了处理器701、存储器702、输入/输出接口703、通信接口704以及总线705,但是在具体实现过程中,本领域的技术人员应当明白,装置700还包括实现正常运行所必须的其他器件,例如还可以包括显示器,用于显示要播放的视频数据。同时,根据具体需要,本领域的技术人员应当明白,装置700还可包括实现其他附加功能的硬件器件。此外,本领域的技术人员应当明白,装置700也可仅仅包括实现本申请实施例所必须的器件,而不必包括图8中所示的全部器件。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (14)

1.一种处理媒体数据的方法,其特征在于,包括:
获取元数据信息,其中,所述元数据信息为描述媒体数据的属性的信息,所述媒体数据为多个机位对应的以全向媒体格式编码的全向媒体数据,所述元数据信息包括机位标识信息,所述机位标识信息描述一个或多个机位,每个机位对应于拍摄视频时一个摄像机或一个摄像机阵列所放置的位置,所述元数据信息还包括机位位置信息,所述机位位置信息用于指示每个机位在球面坐标系中的位置;
获取机位选择信息;
根据所述机位选择信息和所述机位标识信息确定第一机位;
呈现所述第一机位对应的媒体数据;
在呈现所述第一机位对应的媒体数据之后,所述方法还包括:
根据所述机位位置信息确定第二机位在所述第一机位对应的媒体数据所在的球面坐标系中的第一位置;
在所述第一位置上呈现所述第二机位的图标;
响应于接收机位切换指令,呈现所述第二机位对应的媒体数据。
2.如权利要求1所述的方法,其特征在于,在对所述第一机位对应的媒体数据进行处理之前,所述方法还包括:
根据所述机位标识信息和所述元数据信息获取所述第一机位对应的媒体数据。
3.如权利要求1或2所述的方法,其特征在于,所述元数据信息包括盒信息,所述盒信息包括所述机位位置信息。
4.如权利要求1或2所述的方法,其特征在于,所述元数据信息为元数据轨迹。
5.如权利要求1或2所述的方法,其特征在于,所述元数据信息为媒体呈现描述。
6.如权利要求1或2所述的方法,其特征在于,所述元数据信息为辅助增强信息。
7.如权利要求1所述的方法,其特征在于,所述元数据信息为元数据轨迹,所述元数据轨迹还包括导演视角信息;所述方法还包括:
根据所述机位标识信息和导演视角信息,对媒体数据进行处理。
8.一种处理媒体数据的装置,其特征在于,包括:
处理器、存储器、输入输出接口和通信接口,所述存储器存储一组指令,当处理器执行所述指令时,所述装置执行以下步骤:
获取元数据信息,其中,所述元数据信息为描述媒体数据的属性的信息,所述媒体数据为多个机位对应的以全向媒体格式编码的全向媒体数据,所述元数据信息包括机位标识信息,所述机位标识信息描述一个或多个机位,每个机位对应于拍摄视频时一个摄像机或一个摄像机阵列所放置的位置,所述元数据信息还包括机位位置信息,所述机位位置信息用于指示每个机位在球面坐标系中的位置;
获取机位选择信息;
根据所述机位选择信息和所述机位标识信息确定第一机位;
呈现所述第一机位对应的媒体数据;
在呈现所述第一机位对应的媒体数据之后,所述指令还包括:
根据所述机位位置信息确定第二机位在所述第一机位对应的媒体数据所在的球面坐标系中的第一位置;
在所述第一位置上呈现所述第二机位的图标;
响应于接收机位切换指令,呈现所述第二机位对应的媒体数据。
9.如权利要求8所述的装置,其特征在于,所述指令还包括:对所述第一机位对应的媒体数据进行处理之前,根据所述机位标识信息和所述元数据信息获取所述第一机位对应的媒体数据。
10.如权利要求8或9所述的装置,其特征在于,所述元数据信息包括盒信息,所述盒信息包括所述机位位置信息。
11.如权利要求8或9所述的装置,其特征在于,所述元数据信息为元数据轨迹。
12.如权利要求8或9所述的装置,其特征在于,所述元数据信息为媒体呈现描述。
13.如权利要求8或9所述的装置,其特征在于,所述元数据信息为辅助增强信息。
14.如权利要求8所述的装置,其特征在于,所述元数据信息为元数据轨迹,所述元数据轨迹还包括导演视角信息;
所述装置具体用于根据所述机位标识信息和导演视角信息,对媒体数据进行处理。
CN201810027139.3A 2018-01-11 2018-01-11 处理媒体数据的方法和装置 Active CN110035316B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201810027139.3A CN110035316B (zh) 2018-01-11 2018-01-11 处理媒体数据的方法和装置
PCT/CN2019/070696 WO2019137339A1 (zh) 2018-01-11 2019-01-07 处理媒体数据的方法和装置
EP19739070.1A EP3716634A1 (en) 2018-01-11 2019-01-07 Method and device for processing media data
US16/921,434 US20200336803A1 (en) 2018-01-11 2020-07-06 Media data processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810027139.3A CN110035316B (zh) 2018-01-11 2018-01-11 处理媒体数据的方法和装置

Publications (2)

Publication Number Publication Date
CN110035316A CN110035316A (zh) 2019-07-19
CN110035316B true CN110035316B (zh) 2022-01-14

Family

ID=67218496

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810027139.3A Active CN110035316B (zh) 2018-01-11 2018-01-11 处理媒体数据的方法和装置

Country Status (4)

Country Link
US (1) US20200336803A1 (zh)
EP (1) EP3716634A1 (zh)
CN (1) CN110035316B (zh)
WO (1) WO2019137339A1 (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210084346A1 (en) * 2018-01-12 2021-03-18 Sony Corporation Transmission device, transmission method, reception device and reception method
WO2019194529A1 (ko) * 2018-04-05 2019-10-10 삼성전자 주식회사 복수의 뷰포인트들을 포함하는 3차원 컨텐트에 대한 정보를 전송하기 위한 방법 및 장치
GB2582014A (en) * 2019-03-08 2020-09-09 Canon Kk Method, device, and computer program for optimizing transmission of portions of encapsulated media content
SG11202110312XA (en) * 2019-03-20 2021-10-28 Beijing Xiaomi Mobile Software Co Ltd Method and device for transmitting viewpoint switching capabilities in a vr360 application
US11310303B2 (en) 2019-10-01 2022-04-19 Tencent America LLC Methods and apparatuses for dynamic adaptive streaming over HTTP
CN112188219B (zh) * 2020-09-29 2022-12-06 北京达佳互联信息技术有限公司 视频接收方法和装置以及视频发送方法和装置
CN115604523A (zh) * 2021-06-28 2023-01-13 中兴通讯股份有限公司(Cn) 自由视角视频场景的处理方法、客户端及服务器

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101166282A (zh) * 2006-10-16 2008-04-23 华为技术有限公司 摄像机参数编码传输的方法
CN106233745A (zh) * 2013-07-29 2016-12-14 皇家Kpn公司 向客户端提供瓦片视频流
CN106331732A (zh) * 2016-09-26 2017-01-11 北京疯景科技有限公司 生成、展现全景内容的方法及装置
CN106664443A (zh) * 2014-06-27 2017-05-10 皇家Kpn公司 根据hevc拼贴视频流确定感兴趣区域
CN106717010A (zh) * 2014-09-29 2017-05-24 亚马逊科技公司 用户交互分析模块
CN107257494A (zh) * 2017-01-06 2017-10-17 深圳市纬氪智能科技有限公司 一种体育赛事拍摄方法及其拍摄系统

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102246491B (zh) * 2008-10-08 2014-11-12 诺基亚公司 用于存储多源多媒体表示的系统和方法
US9179125B2 (en) * 2009-01-06 2015-11-03 Lg Electronics Inc. Method for processing three dimensional (3D) video signal and digital broadcast receiver for performing the method
US9226045B2 (en) * 2010-08-05 2015-12-29 Qualcomm Incorporated Signaling attributes for network-streamed video data
CN104010225B (zh) * 2014-06-20 2016-02-10 合一网络技术(北京)有限公司 显示全景视频的方法和系统
KR102170550B1 (ko) * 2016-05-24 2020-10-29 노키아 테크놀로지스 오와이 미디어 콘텐츠를 인코딩하는 방법, 장치 및 컴퓨터 프로그램
US20170359624A1 (en) * 2016-06-08 2017-12-14 Sphere Optics Company, Llc Multi-view point/location omni-directional recording and viewing
CN106412669B (zh) * 2016-09-13 2019-11-15 微鲸科技有限公司 一种全景视频渲染的方法和设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101166282A (zh) * 2006-10-16 2008-04-23 华为技术有限公司 摄像机参数编码传输的方法
CN106233745A (zh) * 2013-07-29 2016-12-14 皇家Kpn公司 向客户端提供瓦片视频流
CN106664443A (zh) * 2014-06-27 2017-05-10 皇家Kpn公司 根据hevc拼贴视频流确定感兴趣区域
CN106717010A (zh) * 2014-09-29 2017-05-24 亚马逊科技公司 用户交互分析模块
CN106331732A (zh) * 2016-09-26 2017-01-11 北京疯景科技有限公司 生成、展现全景内容的方法及装置
CN107257494A (zh) * 2017-01-06 2017-10-17 深圳市纬氪智能科技有限公司 一种体育赛事拍摄方法及其拍摄系统

Also Published As

Publication number Publication date
CN110035316A (zh) 2019-07-19
WO2019137339A1 (zh) 2019-07-18
EP3716634A4 (en) 2020-09-30
EP3716634A1 (en) 2020-09-30
US20200336803A1 (en) 2020-10-22

Similar Documents

Publication Publication Date Title
CN110035316B (zh) 处理媒体数据的方法和装置
CN111937397B (zh) 媒体数据处理方法及装置
CN109155873B (zh) 改进虚拟现实媒体内容的流传输的方法、装置和计算机程序
US9271048B2 (en) Systems and methods for immersive viewing experience
CN108271044B (zh) 一种信息的处理方法及装置
CN104012106B (zh) 使表示不同视点的视频对准
KR20190045934A (ko) 제어된 관찰 포인트 및 배향 선택 시청각 콘텐츠에 대한 방법 및 장치
CN110800311B (zh) 用于传输媒体内容的方法、装置和计算机程序
US20200145736A1 (en) Media data processing method and apparatus
KR20180029344A (ko) 가상 현실 시스템에서 컨텐트 전송 및 재생 방법 및 장치
JP2023179659A (ja) ファイルを生成する方法およびそのデバイス、ファイルを処理する方法およびそのデバイス
KR102147748B1 (ko) 증강현실 지원을 위한 데이터 처리 방법 및 장치
CN107637082B (zh) 信息处理装置以及信息处理方法
KR102287133B1 (ko) 자유 시점 영상 제공 방법 및 장치
JPWO2019031469A1 (ja) 送信装置、送信方法、受信装置および受信方法
JP2020526969A (ja) メディア情報処理方法および装置
US20210218908A1 (en) Method for Processing Media Data, Client, and Server
CN110933461A (zh) 图像处理方法、装置、系统、网络设备、终端及存储介质
US20080159592A1 (en) Video processing method and system
CN111937043B (zh) 将文件格式对象和基于超文本传输协议的动态自适应流媒体(dash)对象进行关联
JP2020516133A (ja) 仮想現実アプリケーションに対して最も関心のある領域に関連付けられた情報をシグナリングするためのシステム及び方法
US20220256132A1 (en) Devices and methods for generating and rendering immersive video
CN117255233A (zh) 媒体信息处理方法、媒体信息播放方法、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant