CN117356083A - 用于发现5g edgar设备的能力和性能的过程 - Google Patents

用于发现5g edgar设备的能力和性能的过程 Download PDF

Info

Publication number
CN117356083A
CN117356083A CN202380011104.XA CN202380011104A CN117356083A CN 117356083 A CN117356083 A CN 117356083A CN 202380011104 A CN202380011104 A CN 202380011104A CN 117356083 A CN117356083 A CN 117356083A
Authority
CN
China
Prior art keywords
edgar
features
capabilities
video
media
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202380011104.XA
Other languages
English (en)
Inventor
伊拉吉·索达加
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent America LLC
Original Assignee
Tencent America LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US18/192,328 external-priority patent/US20230362257A1/en
Application filed by Tencent America LLC filed Critical Tencent America LLC
Publication of CN117356083A publication Critical patent/CN117356083A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

包括一种方法和装置,该装置包括计算机代码,该计算机代码被配置成使一个或多个处理器:控制5G边缘相关增强现实(EDGAR)设备以发现该5G EDGAR设备的至少一部分特征;获得该5G EDGAR设备的至少一部分特征的索引;以及根据该5G EDGAR设备的至少一部分特征的索引来控制5G媒体流式传输(5GMS)服务的实施。

Description

用于发现5G EDGAR设备的能力和性能的过程
相关申请的交叉引用
本申请基于于2022年5月5日提交的美国临时专利申请第63/338,767号以及于2023年3月29日提交的美国专利申请第18/192,328号并且要求其优先权,该美国临时专利申请和美国专利申请的公开内容通过引用整体并入本文。
背景技术
1.技术领域
本公开内容提供了用于由设备上的应用或者由网络上运行的应用(边缘上的边缘应用或者应用服务提供器)发现5G EDGAR(Edge Dependent Augmented Reality,EDGAR)设备的能力和动态性能的过程,使得所述应用的复杂部分可以在边缘上运行而在设备上仅执行少量处理。
2.相关技术的描述
3GPP(3rd Generation Partnership Project,3GPP)TR 26.998限定了在5G网络中对玻璃型增强现实/混合现实(AR(Augmented Reality,AR)/MR(Mixed Reality,MR))设备的支持。主要考虑两种设备类别:1)完全能够解码和播放复杂AR/MR内容的设备(独立AR或STAR);以及2)具有较小计算资源和/或较小物理大小(并且因此电池)并且仅在大部分计算在5G边缘服务器、网络或云上而不是在设备(边缘相关AR或EDGAR)上执行的情况下才能够运行此类应用的设备。最近在3GPP中开始了关于分析EDGAR设备的活动。
即使当前的TR26.998限定了用于通过在云/边缘上执行一些所需的繁重的计算来接收流式传输内容的EDGAR设备的架构:也没有能力接收和响应由设备上的应用、边缘网络上的应用或者由诸如应用服务提供器的任何授权的应用通过无线网络进行的能力查询。
发明内容
为了解决一个或更多个不同的技术问题,本公开内容提供了减少网络开销和服务器计算开销的技术解决方案,同时提供了将各种操作应用于解析元素使得在使用这些操作时可以改进这些操作的实用性和技术信号传送特征中的一些的选项。
包括一种方法和装置,该装置包括被配置成存储计算机程序代码的存储器和被配置成访问计算机程序代码并且按照计算机程序代码所指示的进行操作的一个或多个处理器。该计算机程序代码包括:第一控制代码,该第一控制代码被配置成使至少一个处理器控制5G边缘相关增强现实(EDGAR)设备以发现该5G EDGAR设备的至少一部分特征;获得代码,该获得代码被配置成使至少一个处理器获得该5G EDGAR设备的至少一部分特征的索引;以及第二控制代码,该第二控制代码被配置成使至少一个处理器根据该5G EDGAR设备的至少一部分特征的索引来控制5G媒体流式传输(5GMS)服务的实施。
根据示例性实施方式,第一控制代码被配置成使至少一个处理器控制5G EDGAR设备以通过该5G EDGAR设备的多个应用编程接口(API)中的复数个应用编程接口来发现所述至少一部分特征。
根据示例性实施方式,第一控制代码被配置成使至少一个处理器通过网络API来控制5G EDGAR设备,并且获得代码被配置成使至少一个处理器通过网络API获得所述索引。
根据示例性实施方式,所述至少一部分特征包括媒体编码器和媒体解码器中的至少一者的参数。
根据示例性实施方式,所述至少一部分特征包括5G EDGAR设备的设备捕获能力,该设备捕获能力包括摄像装置能力和麦克风能力中的任意项。
根据示例性实施方式,所述至少一部分特征包括5G EDGAR设备的设备渲染能力,该设备渲染能力包括扬声器能力和显示器能力中的任意项。
根据示例性实施方式,所述至少一部分特征包括5G EDGAR设备的原始硬件能力,该原始硬件能力包括CPU基准、GPU基准、存储器带宽和设备上的存储中的任意项。
根据示例性实施方式,所示至少一部分特征包括5G EDGAR设备的功能效率,该功能效率指示每个功能的相对电力消耗的量并且与每个功能的参数有关。
根据示例性实施方式,所述至少一部分特征关于5G EDGAR设备的电力状态和5GEDGAR设备的电池的耗尽速度中的任意项。
根据示例性实施方式,所述索引指示所述至少一部分特征的组合是否能够在5GEDGAR设备上实时运行以及该组合的估计的总电池消耗中的任意项。
附图说明
根据以下详细描述和附图,所公开的主题的其他特征、性质和各种优点将更加明显,在附图中:
图1是根据实施方式的简化示意性图示。
图2是根据实施方式的简化示意性图示。
图3是关于根据实施方式的关于解码器的简化框图。
图4是关于根据实施方式的关于编码器的简化框图。
图5是根据实施方式的简化框图。
图6是根据实施方式的简化框图。
图7是根据实施方式的简化框图。
图8是根据实施方式的简化框图。
图9是根据实施方式的简化框图。
图10是根据实施方式的简化图。
图11是根据实施方式的简化框图。
图12是根据实施方式的简化框图。
图13是根据实施方式的简化框图和时序图。
图14是根据实施方式的简化框图。
图15是根据实施方式的简化框图。
图16是根据实施方式的简化流程图。
图17是根据实施方式的简化流程图。
图18是根据实施方式的示意性图示。
具体实施方式
可以单独使用或以任何顺序组合使用下面讨论的所提出的特征。此外,可以通过处理电路系统(例如,一个或更多个处理器或者一个或更多个集成电路)来实现实施方式。在一个示例中,一个或更多个处理器执行存储在非暂态计算机可读介质中的程序。
图1示出了根据本公开内容的实施方式的通信系统100的简化框图。通信系统100可以包括经由网络105互连的至少两个终端102和103。对于数据的单向传输,第一终端103可以在本地位置处对视频数据进行编码,以经由网络105传输至另一终端102。第二终端102可以从网络105接收另一终端的已编码视频数据,对已编码数据进行解码并且显示恢复的视频数据。单向数据传输在媒体服务应用等中可能是常见的。
图1示出了第二对终端101和104,所述第二对终端101和104被设置成支持例如在视频会议期间可能发生的已编码视频的双向传输。对于数据的双向传输,每个终端101和104可以对在本地位置处捕获的视频数据进行编码,以经由网络105传输至另一终端。每个终端101和104还可以接收由另一终端发送的编码视频数据,可以对已编码数据进行解码,并且可以在本地显示设备处显示恢复的视频数据。
在图1中,终端101、102、103和104可以被示出为服务器、个人计算机和智能电话,但是本公开内容的原理不限于此。本公开内容的实施方式适用于膝上型计算机、平板计算机、媒体播放器和/或专用视频会议设备的应用。网络105表示在终端101、102、103和104之间传送已编码视频数据的任何数目的网络,包括例如有线和/或无线通信网络。通信网络105可以在电路交换信道和/或分组交换信道中交换数据。代表性的网络包括电信网络、局域网、广域网和/或因特网。出于本论述的目的,除非在下文中有所说明,否则网络105的架构和拓扑对于本公开内容的操作而言可以是无关紧要的。
图2示出了视频编码器和视频解码器在流式传输环境中的放置,作为针对所公开的主题的应用的示例。所公开的主题可以同等地适用于其他支持视频的应用,包括例如视频会议、数字TV、在包括CD(Compact Disc,CD)、DVD(Digital Versatile Disc,DVD)、存储棒等的数字介质上存储压缩视频等。
流式传输系统可以包括捕获子系统203,捕获子系统203可以包括创建例如未压缩的视频样本流213的视频源201例如数字摄像装置。该样本流213可以被强调为在与已编码视频比特流进行比较时高的数据量,并且可以由耦接至摄像装置201的编码器202进行处理。编码器202可以包括硬件、软件或其组合,以实现或实施如下面更详细地描述的所公开的主题的各方面。已编码视频比特流204可以被强调为在与样本流进行比较时较低的数据量,该已编码视频比特流204可以存储在流式传输服务器205上以供将来使用。一个或更多个流式传输客户端212和207可以访问流式传输服务器205以检索已编码视频比特流204的副本208和206。客户端212可以包括视频解码器211,视频解码器211对已编码视频比特流208的传入副本进行解码,并且创建可以在显示器209或其他渲染设备(未示出)上渲染的传出视频样本流210。在一些流式传输系统中,可以根据某些视频编码/压缩标准对视频比特流204、206和208进行编码。这些标准的示例在上面提到并且在本文中进一步描述。
图3可以是根据本发明的实施方式的视频解码器300的功能框图。
接收器302可以接收要由解码器300解码的一个或更多个编解码视频序列;在同一实施方式或另一实施方式中,一次接收一个已编码视频序列,其中,每个已编码视频序列的解码独立于其他已编码视频序列。可以从信道301接收已编码视频序列,该信道301可以是到存储已编码视频数据的存储设备的硬件/软件链路。接收器302可以接收已编码视频数据以及其他数据,例如已编码音频数据和/或辅助数据流,它们可以被转发至它们各自的使用实体(未描绘)。接收器302可以将已编码视频序列与其他数据分开。为了防止网络抖动,可以将缓冲存储器303耦接在接收器302与熵解码器/解析器304(此后被称为“解析器”)之间。当接收器302正在从具有足够带宽和可控性的存储/转发设备或者从等时同步网络接收数据时,可以不需要缓冲器303或者缓冲器303可以是小的。为了在尽力型分组网络诸如因特网上使用,可能需要缓冲器303,该缓冲器303可以相对较大并且可以有利地具有自适应性大小。
视频解码器300可以包括解析器304以根据已熵编码视频序列重建符号313。这些符号的类别包括:用于管理解码器300的操作的信息;以及潜在地用于控制诸如显示器312的渲染设备的信息,该渲染设备不是解码器的组成部分但是可以耦接至解码器。用于渲染设备的控制信息可以是辅助增强信息(SEI(Supplementary Enhancement Information,SEI)消息)或视频可用性信息参数集片段(未描绘)的形式。解析器304可以对接收到的已编码视频序列进行解析/熵解码。已编码视频序列的编码可以根据视频编码技术或标准进行,并且可以遵循本领域技术人员公知的原理,包括:可变长度编码、霍夫曼编码(Huffmancoding)、具有或不具有上下文敏感度的算术编码等。解析器304可以基于与群组对应的至少一个参数来从已编码视频序列中针对视频解码器中的像素的子群组中的至少一个子群组提取子群组参数集。子群组可以包括图片群组(Group of Pictures,GOP)、图片、图块、切片、宏块、编码单元(Coding Unit,CU)、块、变换单元(Transform Unit,TU)、预测单元(Prediction Unit,PU)等。熵解码器/解析器还可以从已编码视频序列中提取信息例如变换系数、量化器参数值、运动矢量等。
解析器304可以对从缓冲器303接收到的视频序列执行熵解码/解析操作,以创建符号313。解析器304可以接收已编码数据,并且选择性地对特定符号313进行解码。此外,解析器304可以确定是否将特定符号313提供给运动补偿预测单元306、缩放器/逆变换单元305、帧内预测单元307或环路滤波器311。
根据已编码视频图片或其一部分的类型(例如:帧间图片和帧内图片、帧间块和帧内块)以及其他因素,符号313的重建可能涉及多个不同单元。涉及哪些单元以及涉及方式可以通过由解析器304从已编码视频序列解析的子群组控制信息来控制。为了简洁起见,未描绘解析器304与下面的多个单元之间的这种子群组控制信息流。
除了已经提及的功能块之外,解码器300可以在构思上细分成如下所述的多个功能单元。在商业约束下操作的实际实现方式中,这些单元中的许多单元彼此紧密地相互作用并且可以至少部分地彼此集成。然而,出于描述所公开的主题的目的,在构思上细分为下面的功能单元是适当的。
第一单元是缩放器/逆变换单元305。缩放器/逆变换单元305从解析器304接收作为符号313的量化变换系数以及控制信息,包括使用哪种变换、块大小、量化因子、量化缩放矩阵等。缩放器/逆变换单元305可以输出包括样本值的块,所述样本值可以输入至聚合器310中。
在一些情况下,缩放器/逆变换305的输出样本可以属于帧内编码块;即:不使用来自先前重建的图片的预测性信息,但是可以使用来自当前图片的先前重建的部分的预测性信息的块。这样的预测性信息可以由帧内图片预测单元307提供。在一些情况下,帧内图片预测单元307使用从当前(部分重建的)图片309提取的周围已经重建的信息来生成与重建下的块相同大小和形状的块。在一些情况下,聚合器310基于每个样本将帧内预测单元307已经生成的预测信息添加至如由缩放器/逆变换单元305提供的输出样本信息。
在其他情况下,缩放器/逆变换单元305的输出样本可以属于已帧间编码的并且可能已运动补偿的块。在这种情况下,运动补偿预测单元306可以访问参考图片存储器308以提取用于预测的样本。在根据属于块的符号313对提取的样本进行运动补偿之后,这些样本可以由聚合器310添加至缩放器/逆变换单元的输出(在这种情况下被称为残差样本或残差信号),以生成输出样本信息。运动补偿单元从其提取预测样本的参考图片存储器内的地址可以由运动矢量控制,所述运动矢量以符号313的形式供运动补偿单元使用,所述符号313可以具有例如X分量、Y分量和参考图片分量。运动补偿还可以包括在使用子样本精确运动矢量时从参考图片存储器中提取的样本值的插值、运动矢量预测机制等。
聚合器310的输出样本可以在环路滤波器单元311中经受各种环路滤波技术。视频压缩技术可以包括环路内滤波器技术,该环路内滤波器技术由被包括在已编码视频比特流中并且作为来自解析器304的符号313可用于环路滤波器单元311的参数来控制,但是视频压缩技术还可以响应于在对已编码图片或已编码视频序列的先前(按解码顺序)部分进行解码期间获得的元信息,以及响应于先前重建并且经环路滤波的样本值。
环路滤波器单元311的输出可以是样本流,该样本流可以输出至可以是渲染设备的显示器312以及存储在参考图片存储器(557)中,以用于将来的帧间图片预测。
一旦完全重建,某些已编码图片就可以用作参考图片以用于将来预测。一旦已编码图片被完全重建并且该已编码图片已经被识别为参考图片(通过例如解析器304),则当前参考图片309就可以变为参考图片缓冲器308的一部分,并且可以在开始重建后续已编码图片之前重新分配新的当前图片存储器。
视频解码器300可以根据可以记录在诸如ITU-T(InternationalTelecommunication Union-Telecommunication Standardization Sector,ITU-T)H.265建议书的标准中的预定视频压缩技术执行解码操作。在已编码视频序列遵循视频压缩技术或标准的语法的意义上,已编码视频序列可以符合由正使用的视频压缩技术或标准指定的语法,如在视频压缩技术文档或标准中且明确地在其中的简档文档中指定的语法。对于合规性,还要求已编码视频序列的复杂度在由视频压缩技术或标准的层级所限定的范围内。在一些情况下,层级限制最大图片大小、最大帧速率、最大重建样本速率(以例如每秒兆(mega)个样本为单位进行测量)、最大参考图片大小等。在一些情况下,由层级设置的限制可以通过假设参考解码器(Hypothetical Reference Decoder,HRD)规范以及在已编码视频序列中用信号表示的HRD缓冲器管理的元数据来进一步限制。
在实施方式中,接收器302可以与已编码视频一起接收附加(冗余)数据。附加数据可以被包括为(一个或多个)已编码视频序列的一部分。附加数据可以被视频解码器300用于对数据进行适当解码以及/或者更准确地重建原始视频数据。附加数据可以呈例如时间、空间或信噪比(Signal-to-Noise Ratio,SNR)增强层、冗余切片、冗余图片、前向纠错码等形式。
图4可以是根据本公开内容的实施方式的视频编码器400的功能框图。
编码器400可以从视频源401(其并非编码器的一部分)接收视频样本,该视频源401可以捕获要由编码器400编码的视频图像。
视频源401可以提供要由编码器(303)编码的呈数字视频样本流形式的源视频序列,该数字视频样本流可以具有任何合适的比特深度(例如:8比特、10比特、12比特、……)、任何色彩空间(例如,BT.601Y CrCB、RGB、……)和任何合适的采样结构(例如Y CrCb 4:2:0、Y CrCb 4:4:4)。在媒体服务系统中,视频源401可以是存储先前准备的视频的存储设备。在视频会议系统中,视频源401可以是捕获本地图像信息作为视频序列的摄像装置。可以将视频数据提供为在按顺序观看时被赋予运动的多个单独的图片。图片自身可以被组织为空间像素阵列,其中,取决于所使用的采样结构、颜色空间等,每个像素可以包括一个或更多个样本。本领域技术人员可以容易地理解像素与样本之间的关系。以下描述侧重于样本。
根据实施方式,编码器400可以实时地或者按照应用要求的任何其他时间约束将源视频序列的图片编码并压缩成已编码视频序列410。实施适当的编码速度是控制器402的一个功能。控制器控制如下所述的其他功能单元并且在功能上耦接至这些单元。为了清楚起见,未描绘耦接。由控制器设置的参数可以包括:速率控制相关参数(图片跳过、量化器、率失真优化技术的λ值、……)、图片大小、图片群组(GOP)布局、最大运动矢量搜索范围等。本领域技术人员可以容易地识别控制器402的其他功能,这是因为这些功能可能属于针对特定系统设计优化的视频编码器400。
一些视频编码器以本领域技术人员容易识别为的“编码回路”的方式进行操作。作为过于简化的描述,编码回路可以包括:编码器(例如源编码器403)的编码部分(负责基于要被编码的输入图片和参考图片创建符号);以及嵌入在编码器400中的(本地)解码器406,该(本地)解码器406重建符号以创建(远程)解码器也将创建的样本数据(因为在所公开的主题中考虑的视频压缩技术中,符号与已编码视频比特流之间的任何压缩都是无损的)。将该重建的样本流输入至参考图片存储器405。由于对符号流的解码导致独立于解码器位置(本地或远程)的比特精确结果,因此参考图片缓冲器内容在本地编码器与远程编码器之间也是比特精确的。换句话说,编码器的预测部分“看到”的参考图片样本与解码器在解码期间使用预测时将“看到”的样本值完全相同。该参考图片同步性的基本原理(以及如果例如由于信道误差而不能保持同步性,则导致漂移)是本领域技术人员公知的。
“本地”解码器406的操作可以与已经在上面结合图3详细描述的“远程”解码器300的操作相同。然而,还简要地参照图4,当符号可用并且熵编码器408和解析器304可以无损地将符号编码/解码为已编码视频序列时,在本地解码器406中可以不完全实现包括信道301、接收器302、缓冲器303和解析器304的解码器300的熵解码部分。
此时可以观察到,除了存在于解码器中的解析/熵解码之外的任何解码器技术也必定以基本上相同的功能形式存在于对应的编码器中。由于编码器技术与已全面描述的解码器技术互逆,因此可以简化对编码器技术的描述。下面仅在某些地方需要并提供更详细的描述。
作为其操作的一部分,源编码器403可以执行运动补偿预测编码,该运动补偿预测编码参考来自视频序列中被指定为“参考帧”的一个或更多个先前已编码帧来对输入帧进行预测性编码。以这样的方式,编码引擎407对输入帧的像素块与参考帧的像素块之间的差异进行编码,所述参考帧可以被选作所述输入帧的预测参考。
本地视频解码器406可以基于由源编码器403创建的符号对可以指定为参考帧的帧的已编码视频数据进行解码。编码引擎407的操作可以有利地为有损处理。当已编码视频数据可以在视频解码器(图4中未示出)处被解码时,重建的视频序列通常可以是具有一些误差的源视频序列的副本。本地视频解码器406复制可以由视频解码器对参考帧执行的解码处理,并且可以使重建的参考帧存储在可以是例如高速缓存存储器的参考图片存储器405中。以这样的方式,编码器400可以在本地存储重建的参考帧的副本,所述副本与将由远端视频解码器获得的重建参考帧具有共同内容(不存在传输误差)。
预测器404可以针对编码引擎407执行预测搜索。也就是说,对于要被编码的新帧,预测器404可以在参考图片存储器405中搜索可以用作用于新图片的适当预测参考的样本数据(作为候选参考像素块)或某些元数据例如参考图片运动矢量、块形状等。预测器404可以基于样本块逐像素块进行操作,以找到适当的预测参考。在一些情况下,如由预测器404获得的搜索结果所确定的,输入图片可以具有从参考图片存储器405中存储的多个参考图片提取的预测参考。
控制器402可以管理视频编码器403的编码操作,包括例如设置用于对视频数据进行编码的参数和子群组参数。
对所有以上提及的功能单元的输出可以在熵编码器408中经受熵编码。熵编码器通过根据本领域技术人员已知的技术例如霍夫曼编码、可变长度编码、算术编码等对由各种功能单元生成的符号进行无损压缩来将这些符号转换为已编码视频序列。
传输器409可以缓冲由熵编码器408创建的(一个或多个)已编码视频序列,以为经由通信信道411进行传输做准备,该通信信道411可以是到将存储已编码视频数据的存储设备的硬件/软件链路。传输器409可以将来自视频编码器403的已编码视频数据与要传输的其他数据例如已编码音频数据和/或辅助数据流(未示出源)合并。
控制器402可以管理编码器400的操作。在编码期间,控制器405可以为每个已编码图片分配某个已编码图片类型,这可能影响可以应用于相应的图片的编码技术。例如,通常可以将图片分配为以下帧类型中之一:
帧内图片(I图片),其可以是不将序列中的任何其他帧用作预测源就可以被编码和解码的图片。一些视频编解码器允许不同类型的帧内图片,包括例如独立解码器刷新图片。本领域技术人员了解I图片的这些变型及其相应的应用和特征。
预测性图片(P图片),其可以是可以使用用至多一个运动矢量和参考索引来预测每个块的样本值的帧内预测或帧间预测进行编码和解码的图片。
双向预测性图片(B图片),其可以是可以使用用至多两个运动矢量和参考索引来预测每个块的样本值的帧内预测或帧间预测进行编码和解码的图片。类似地,多预测性图片可以使用多于两个参考图片和相关联的元数据以用于重建单个块。
源图片通常可以在空间上细分为多个样本块(例如,分别为4×4、8×8、4×8或16×16样本的块),并且在逐块的基础上进行编码。这些块可以参考其他(已编码)块进行预测性编码,所述其他块通过应用于块的相应图片的编码分配来确定。例如,可以对I图片的块进行非预测性编码,或者可以参考同一图片的已编码块对I图片的块进行预测性编码(空间预测或帧内预测)。可以参考一个先前已编码参考图片经由空间预测或经由时间预测对P图片的像素块进行非预测性编码。可以参考一个或两个先前已编码参考图片经由空间预测或经由时间预测对B图片的块进行非预测性编码。
视频编码器400可以根据诸如ITU-T H.265建议书的预定视频编码技术或标准执行编码操作。在视频编码器400的操作中,视频编码器400可以执行各种压缩操作,包括利用输入视频序列中的时间冗余和空间冗余的预测性编码操作。因此,已编码视频数据可以符合由所使用的视频编码技术或标准指定的语法。
在实施方式中,传输器409可以与已编码视频一起传输附加数据。源编码器403可以包括这样的数据作为已编码视频序列的一部分。附加数据可以包括时间/空间/SNR增强层、其他形式的冗余数据例如冗余图片和切片、辅助增强信息(SEI)消息、视觉可用性信息(Video Usability Information,VUI)参数集片段等。
图5是根据示例性实施方式的用于独立AR(Stand-alone AR,STAR)设备的端到端架构的示例500,该端到端架构示出了5G STAR用户设备(User Equipment,UE)接收器600、网络/云501和5G UE(发送器)700。图6是根据示例性实施方式的用于STAR UE接收器600的一个或更多个配置的进一步详细示例600,并且图7是根据示例性实施方式的用于5G UE发送器700的一个或更多个配置的进一步详细示例700。3GPP TR26.998限定了在5G网络中对玻璃型增强现实/混合现实(AR/MR)设备的支持。并且根据本文的示例性实施方式,考虑至少两种设备类别:1)完全能够解码和播放复杂AR/MR内容的设备(独立AR或STAR);以及2)具有较小计算资源和/或较小物理大小(并且因此电池)并且仅在大部分计算在5G边缘服务器、网络或云上而不是在设备(边缘相关AR或EDGAR)上执行的情况下才能够运行此类应用的设备。
并且根据示例性实施方式,如下所述,可以体验共享对话用例,在该共享对话用例中共享AR对话体验的所有参与者具有AR设备,每个参与者在AR场景中看到其他参与者,其中参与者被覆盖在本地物理场景中,场景中参与者的布置在所有接收设备中是一致的,例如,每个本地空间中的人相对于彼此具有相同的位置/座位布置,并且这样的虚拟空间产生处于相同空间中的感觉,但是房间因参与者而异,因为房间是每个人物理上所处的实际房间或空间。
例如,根据关于图5至图7示出的示例性实施方式,网络/云501上的沉浸式媒体处理功能接收来自各种设备的上行链路流,并且组成限定各个参与者在单个虚拟会议室中的布置的场景描述。场景描述以及编码的媒体流被递送至每个接收参与者。接收参与者的5GSTAR UE 600接收、解码和处理3D视频和音频流,并且使用接收到的场景描述和从其AR运行时接收的信息来渲染它们,与所有其他参与者一起创建虚拟会议室的AR场景。虽然参与者的虚拟房间基于他们自己的物理空间,但是房间中所有其他参与者的座位/位置布置与该会议中所有其他参与者的虚拟房间一致。
根据示例性实施方式,还参见图8示出关于EDGAR设备架构的示例800,其中诸如5GEDGARUE 900的设备本身不能进行繁重处理。因此,在云/边缘801中对接收到的内容执行场景解析和媒体解析,并且然后将具有少量媒体组件的简化AR场景递送至设备以进行处理和渲染。图9还示出了AR/MR(混合现实)应用提供器802。图9示出了根据示例性实施方式的5GEDGAR UE 900的更详细的示例。
然而,即使具有关于图5至图9的示例性实施方式的这种能力,也可能存在关于在沉浸式媒体功能中构建公共虚拟空间场景描述(如果有的话)的一个或更多个技术问题。并且如下所述,这样的实施方式在沉浸式媒体处理功能的上下文中被技术改进,以生成将被提供给所有参与者的场景描述,使得所有参与者可以在本地AR场景中体验参与者的相同相对布置。
图10示出了示例1000,其中,用户A 10、用户B11和用户T12将参与AR会议室,并且所述用户中的一个或更多个用户可以不具有AR设备。如所示出的,用户A 10在他们的办公室1001中,坐在具有各种数目的椅子的会议室中,并且用户A 10正在使用这些椅子。用户B11在他们的起居室1002中,坐在双人沙发上,在他的起居室中还有一个或更多个供两个人使用的沙发以及其他家具例如椅子和桌子。用户T12在机场候机室1003处在长凳上,长凳横跨一个或更多个其他咖啡桌中的一个咖啡桌。
并且在AR环境中看到,其中,在办公室1001中,用户A 10的AR向该用户A 10显示与用户B11对应的虚拟用户B11v1以及与用户T12对应的虚拟用户T12v1,并且使得虚拟用户B11v1和虚拟用户T12v1向用户A 10显示为与用户A10一样坐在办公室1001中的家具、办公椅上。并且在示例1200中的起居室1202中看到,其中,用户B11的AR显示与用户T12对应但是坐在起居室1202中的沙发上的虚拟用户T12v2,以及与用户A10对应、也坐在起居室1202中的家具上而不是办公室1201中的办公椅上的虚拟用户A10v1。在机场候机室1203中还看到,其中,用户T12的AR显示与用户A 10对应但是坐在机场候机室1203的桌子处的虚拟用户A10v2,以及也坐在虚拟用户A10v2对面的桌子处的虚拟用户B11v2。并且在这些办公室1201、起居室1202和机场候机室1203中的每一个中,每个房间的更新的场景描述在位置/座位布置方面与其他房间一致。例如,每个房间中,用户A 10被显示为逆时针相对于用户11或其虚拟表示,用户11也顺时针相对于用户T12或其虚拟表示。
但是AR技术在为不支持AR但可以解析VR(Virtual Reality,VR)或2D视频的设备整合虚拟空间的创建和使用的任何尝试中都受到限制,并且本文的实施方式提供了在这样的设备参与共享AR对话服务时用于创建与AR场景一致的虚拟场景的改进的技术过程。
图11示出了具有根据示例性实施方式的非AR设备1101和云/边缘1102的端到端架构的示例1100。并且图12示出了非AR设备1101的进一步详细的框图示例。
如图11和图12所示,非AR UE 1101是能够渲染360视频或2D视频但不具有任何AR能力的设备。然而,云/边缘1102上的边缘功能能够AR渲染在对接收到的场景、渲染场景以及从库中选择的虚拟房间中的沉浸式视觉和音频对象。然后,整个视频被编码并递送至设备1101以用于解码和渲染。
因此,可以存在多视图能力,例如边缘/云1102上的AR处理可以生成同一虚拟房间的多个视频:来自不同角度并且具有不同视口。并且设备1101可以接收这些视频中的一个或更多个,当期望时在所述视频之间切换,或者向边缘/云处理发送命令以仅流式传输期望的视口/角度。
此外,可以存在改变背景能力,其中,设备1101上的用户可以从所提供的库(例如不同会议室或者甚至起居室和布局中的一个)中选择期望的房间背景。并且云/边缘1102使用所选背景并且相应地创建虚拟房间。
图13示出了用于接收非AR UE 1101的沉浸式AR会话的示例呼叫流的示例时序图1300。出于说明的目的,在该图中仅显示了一个发送方,而没有显示其详细的呼叫流程。
示出了AR应用模块21、媒体播放模块22和媒体访问功能模块23,所述模块可以被认为是接收非AR UE 1101的模块。还示出了云/边缘分割渲染模块24。还示出了网络云1102中的每一个的媒体递送模块25和场景图合成器模块26。还示出了5G发送器UE模块700。
S1至S6可以被认为是会话建立阶段。AR应用模块21可以在S1处请求启动到媒体访问功能模块23的会话,并且媒体访问功能模块23可以在S2处请求启动到云/边缘分割渲染模块24的会话。
云/边缘分割渲染模块24可以在S3处与场景图合成器模块26实现会话协商,场景图合成器模块26可以相应地与5G发送器UE 700协商。如果成功,则在S5处,云/边缘分割渲染模块可以向媒体访问功能模块23发送确认,并且媒体访问功能模块23可以向AR应用模块21发送确认。
之后,S7可以被认为是媒体流水线配置阶段,其中,媒体访问功能模块23和云/边缘分割渲染模块24各自配置相应的流水线。然后,在该流水线配置之后,会话可以由信号开始,在S8处从AR应用模块到媒体播放器模块22,并且在S9处从媒体播放器模块22到媒体访问功能模块23,并且在S10处从媒体访问功能模块23到云/边缘分割渲染模块24。
然后,可以存在从S11至S13的姿势循环阶段,其中,在S11处,姿势数据可以从媒体播放器模块22提供给AR应用模块21,并且在S12处,AR应用模块可以将姿势数据12提供给媒体访问功能模块23,之后媒体访问功能模块23可以将姿势数据提供给云/边缘分割渲染模块24。
S14至S16可以被认为是共享体验流阶段,其中,在S14处,5G发送器UE 700可以在S14处将媒体流提供给媒体递送模块25,并且在S15处将AR数据提供给场景图合成器模块26。然后,场景图合成器模块25可以基于接收到的AR数据合成一个或更多个场景,并且在S16处将场景和场景更新提供给云/边缘分割渲染模块24,并且媒体递送模块25还可以在S17处将媒体流提供给云/边缘分割渲染模块。根据示例性实施方式,这可以包括从不渲染AR场景的非AR设备获得AR场景描述符,并且通过解析和渲染从非AR设备获得的场景描述,由云设备生成虚拟场景。
S18至S19可以被认为是媒体上行链路阶段,其中,媒体播放器模块22捕获并处理来自其本地用户的媒体数据,并且在S18处将该媒体数据提供给媒体访问功能模块23。然后,媒体访问模块23可以对媒体进行编码,并且在S19处将媒体流提供给云/边缘分割渲染模块24。
在S19与S20之间可以考虑媒体下行链路阶段,其中,云/边缘分割渲染模块24可以实现场景解析并且完成AR渲染,在此之后,S20和S21可以被认为组成媒体流循环阶段。在S20处,云/边缘分割渲染模块24可以将媒体流提供给媒体访问功能模块23,然后媒体访问功能模块23可以对媒体进行解码,并且在S21处将媒体渲染提供给媒体播放器22。
通过根据示例性实施方式的这种特征,非AR UE 1101即使不具有透明显示器并且因此不能创建AR场景,但是也可以利用其可以渲染VR或2D视频的显示器。因此,其沉浸式媒体处理功能仅生成描述每个参与者相对于其他人和场景的相对位置的共同场景描述。如上所述,在被渲染为AR场景之前,场景本身需要在每个设备处用姿势信息进行调整。并且边缘或云上的AR渲染处理可以解析AR场景并且创建简化的VR-2D场景。
根据示例性实施方式,本公开内容将EDGAR设备的类似分割渲染处理用于非AR设备例如VR或2D视频设备、具有例如边缘/云AR渲染处理在这种情况下不产生任何AR场景的特征。相反,其通过针对给定背景(例如会议室)解析和渲染从沉浸式媒体处理功能接收的场景描述来生成虚拟场景,然后在会议室中由场景描述所描述的位置中渲染每个参与者。
此外,取决于接收非AR设备的能力,所得到的视频可以是360视频或2D视频,并且根据示例性实施方式,考虑从非AR设备接收的姿势信息来生成所得到的视频。
此外,具有非AR设备的每个其他参与者被添加为会议室的360/2D视频上的2D视频覆盖,例如图10所示,并且房间可以具有专用于使用这些叠加诸如图10所示的虚拟图像被叠加的家具的叠加的区域。
此外,根据示例性实施方式,来自所有参与者的音频信号可以在必要时混合以创建携带房间中的语音的单通道音频,视频可以被编码为单个360视频或2D视频并且被递送至设备,并且可选地,可以创建多个视频(多视图)源,视频源中的每个视频源从不同的视图捕获相同的虚拟会议室并且将这些视图提供给设备。
此外,非AR UE设备1101可以接收360视频和/或选择的一个或更多个多视图视频以及音频并且在设备显示器上渲染,并且用户可以在不同视图之间切换,或者通过移动或旋转观看设备,改变360视频的视口,并且因此能够在观看视频的同时在虚拟房间中导航。
虽然上述实施方式被提供有这种5G媒体流架构(5G Media StreamArchitecture,5GMS)扩展以在其架构中使用边缘服务器并且尽管其规范可以具有许多特征,但是这样的特征在技术上无法作为一组软件开发工具包(Software Development Kit,SDK)部署在设备上或者作为一组微服务部署在云上,并且这样的技术缺陷由下面进一步描述的实施方式来解决。
例如,当前媒体服务使能器技术报告没有限定将规范与SDK相关的框架并且也没有包括微服务的任何概念。
参见图14的示例1400示出了根据示例性实施方式的具有边缘扩展的5G媒体流式传输架构。如所示出的,存在用户设备(UE)1401和数据网络(Data Network,DN)1411。UE1401可以包括5GMS客户端1403和5GMS感知应用1405,例如上述AR或非AR实施方式,这些这样的应用不限于此。5GMS客户端1403还可以包括媒体流处理器1403和媒体会话处理器。DN1411可以包括5GMS应用服务器(Application Server,AS)1412、5GMS应用功能(Application Function,AF)1414和5GMS应用提供器1413。5GMS AF 1414还可以与网络开放功能(Network Exposure Function,NEF)1415以及策略和计费功能(Policy andCharging Function,PCF)1416通信。本文描述的改进可以在UE 1401、5GMS感知应用1405、5GMS应用提供器1413、NEF 1415和PCF 1416中的至少任何一个或更多个的上下文中理解;也就是说,不是具有缺少针对每个功能或功能组的媒体服务使能器(Media ServiceEnabler,MSE)的定义的单一规范,而是这些元件中的一个或更多个元件可以生成其自己的规范,并且在符合请求时向这些元件中的另一个提供这样的规范,这些元件中的另一个进而可以根据诸如下面进一步描述的各种可能性来进一步配置初始元件规范,并且这样的处理可以通过所示的多个开放的应用编程接口(Application Programming Interface,API)1420和接口M1、M2、M4、M5、M6、M7、M8、N33和N5中的任何一个或更多个来进行。
图15示出了其中由5G服务器本身而不仅是通过5G服务器运行的应用不能经由添加至EDGAR客户端的新的能力和性能发现(Capability and Performance Discovery,CPD)模块1501获得发现而引起的技术缺陷的示例1500。该CPD模块1501负责提供特征列表、由特征支持的参数、它们的性能以及设备的整体电力状态(例如剩余电池)。该模块可以收集关于每个可用功能例如各种编码器和解码器的统计数据,并且测量它们的资源消耗,即cpu/gpu周期、存储器带宽、存储器和电池消耗,以及提供功能的详细特征例如最大视频编码器配置文件和级别、最大支持宽度和高度以及其他相关信息。此外,EDGAR设备架构中的CPD模块1501允许由设备上的应用、边缘网络上的应用或者由诸如应用服务提供器的任何授权的应用通过无线网络进行的查询。
图16示出了根据示例性实施方式的CPD模块1501的示例,该CPD模块1501具有本地应用编程接口(API),用于设备上的本地应用对其进行访问,以及用于通过5G系统接口向边缘服务器上的应用或应用服务提供器本身而不是所述应用提供信息。例如,控制5G EDGAR设备以发现该5G EDGAR设备的特征包括通过网络API控制该5G EDGAR设备,并且获得5GEDGAR设备的特征的索引包括通过网络API获得所述索引。
CPD模块1501被配置成通过其API提供以下功能中的任一功能的特征的索引,根据示例性实施方式,这些是功能的非穷举性示例:(1)提供由下述设备支持的特征的列表:(a)媒体编码器和解码器以及其最大支持的配置文件和级别(图像、视频、音频);(b)设备捕获能力(摄像装置、麦克风和其他传感器),其可以是制造商规范、当前状态例如使用或未使用、应用功能等;(c)设备渲染能力(扬声器、显示器和其他传感器),其可以是制造商规范、当前状态例如使用或未使用、应用功能等;(d)设备网络协议栈(各种通信协议),其可以是制造商规范、当前状态、应用功能等;(e)原始硬件能力例如CPU基准和GPU基准、存储器、存储器带宽和设备上的存储,其可以是制造商规范、当前状态、应用功能等;(f)每个功能的效率,即基于该功能的参数的每个功能的相对能量消耗的量,所述量可以由EDGAR设备通过在功能运行时基于每个参数来确定;(g)关于设备的电力状态和耗尽电池的速度;以及(2)组合配置文件评估,例如功能的特定配置是否可以实时运行以及该组合的总电池消耗。
因此,本文的示例性实施方式提供了用于使用发现和性能功能来发现由5G设备支持的功能的方法,该发现和性能功能具有本地设备接口以及网络接口,通过所述接口,该发现和性能功能可以提供:由设备支持的媒体功能的列表;原始硬件能力包括捕获、渲染;网络协议栈;原始硬件能力;每个功能的效率;以及最终的电力状态和消耗率,其中,可以要求该功能来评估功能的特定组合是否可以实时运行,并且如果可以实时运行,则报告电力消耗率。
例如,参见图17的示例流程图1700,其中,在S1701处的5G服务可以在S1702处向CPD模块1501要求进行发现,并且作为响应,CPD模块1501可以在S1704处通过其各种API发现和索引以下功能中的任一者,根据示例性实施方式,这些是通过其API的功能的非穷举性示例:(1)提供由下述设备支持的特征列表:(a)媒体编码器和解码器以及其最大支持的配置文件和级别(图像、视频、音频);(b)设备捕获能力(摄像装置、麦克风和其他传感器);(c)设备渲染能力(扬声器、显示器和其他传感器);(d)设备网络协议栈(各种通信协议);(e)原始硬件能力例如CPU基准和GPU基准、存储器、存储器带宽和设备上的存储;(f)每个功能的效率,即基于该功能的参数的每个功能的相对能量消耗的量(这可以是任何特定的编解码器或任何特定的媒体流或者甚至提供给被发现的设备的其对象的);(g)关于设备的电力状态和耗尽电池的速度;以及(2)组合配置文件评估,例如功能的特定配置是否可以实时运行以及该组合的总电池消耗。
然后,可以在S1705处作出关于索引的报告,或者在S1707处作出作为由联网应用或联网服务器本身而不是由通过这样的服务器运行的联网应用所请求的那些索引的功能中的一个或更多个的组合的报告。
另外,S1702处进行的发现可以根据请求被连续地提供为实时报告和索引。并且在S1706处,可以将所发现的信息提供给网络服务器或者通过联网服务器运行的应用,该网络服务器和应用中的任一者然后可以决定是否将5G服务或其部分卸载至更多个5G联网设备中或者更多个5G联网设备中的一个联网设备,例如上面在AR或非AR的上下文中描述的那些设备,然而本文的实施方式不限于此。
上述技术可以使用计算机可读指令实现为计算机软件,并且被物理地存储在一个或更多个计算机可读介质中,或者通过特别配置的一个或更多个硬件处理器来实现。例如,图18示出了适合于实现所公开的主题的某些实施方式的计算机系统1800。
可以使用任何合适的机器代码或计算机语言对计算机软件进行编码,机器代码或计算机语言可以经受汇编、编译、链接等机制以创建包括指令的代码,所述指令可以由计算机中央处理单元(Central Processing Unit,CPU)、图形处理单元(Graphics ProcessingUnit,GPU)等直接执行或者通过解译、微代码执行等来执行。
指令可以在各种类型的计算机或其部件包括例如个人计算机、平板计算机、服务器、智能电话、游戏设备、物联网设备等上执行。
图18中示出的用于计算机系统1800的部件本质上是示例性的,并且不旨在对实现本公开内容的实施方式的计算机软件的使用范围或功能提出任何限制。部件的配置也不应当被解释为具有与计算机系统1800的示例性实施方式中示出的部件中的任何一个部件或部件的组合有关的任何依赖性或要求。
计算机系统1800可以包括某些人机接口输入设备。这样的人机接口输入设备可以对由一个或更多个人类用户通过例如触觉输入(例如:击键、滑动、数据手套移动)、音频输入(例如:语音、拍打)、视觉输入(例如:姿势)、嗅觉输入(未描绘)进行的输入作出响应。人机接口设备还可以用于捕获不一定与人类的意识输入直接相关的某些媒体,例如音频(例如:语音、音乐、环境声音)、图像(例如:扫描的图像、从静态图像摄像装置获得的摄影图像)、视频(例如二维视频、包括立体视频的三维视频)。
输入人机接口设备可以包括下述中的一个或更多个(描绘了每者中的仅一个):键盘1801、鼠标1802、触控板1803、触摸屏1810、操纵杆1805、麦克风1806、扫描仪1808、摄像装置1807。
计算机系统1800还可以包括某些人机接口输出设备。这样的人机接口输出设备可以通过例如触觉输出、声音、光和气味/味道来刺激一个或更多个人类用户的感官。这样的人机接口输出设备可以包括:触觉输出设备(例如,通过触摸屏1810、或操纵杆1805进行的触觉反馈但是也可以存在不用作输入设备的触觉反馈设备);音频输出设备(例如:扬声器1809、头戴式耳机(未描绘));视觉输出设备(例如,屏幕1810,包括CRT(Cathode Ray Tube,CRT)屏幕、LCD(Liquid Crystal Display,LCD)屏幕、等离子屏幕、OLED(Organic LightEmitting Diode,OLED)屏幕,每者均具有或不具有触摸屏输入能力,每者均具有或不具有触觉反馈能力——其中的一些可能能够通过诸如立体图像输出的方式输出二维视觉输出或多于三维输出;虚拟现实眼镜(未描绘);全息显示器和烟罐(未描绘));以及打印机(未描绘)。
计算机系统1800还可以包括人类可以访问的存储设备及其相关联的介质,例如包括具有CD/DVD 1811等介质的CD/DVD ROM(Read Only Memory,ROM)/RW 1820的光学介质、拇指驱动器1822、可移除硬盘驱动器或固态驱动器1823、传统磁介质例如磁带和软盘(未描绘)、基于专用ROM/ASIC(Application Specific Integrated Circuit,ASIC)/PLD(Programmable Logic Device,PLD)的设备例如安全加密狗(未描绘)等。
本领域技术人员还应当理解,结合当前公开的主题使用的术语“计算机可读介质”不包括传输介质、载波或其他瞬态信号。
计算机系统1800还可以包括到一个或更多个通信网络1898的网络接口1899。网络1898可以例如是无线的、有线的、光学的。网络1898还可以是局域的、广域的、城域的、车载和工业的、实时的、延时容忍的等。网络1898的示例包括:局域网例如以太网;无线LAN(Local Area Network,LAN);包括GSM(Global System for Mobile Communications,GSM)、3G(the Third Generation,3G)、4G(the Fourth Generation,4G)、5G(the FifthGeneration,5G)、LTE(Long Term Evolution,LTE)等的蜂窝网络;包括线缆TV、卫星TV和地面广播TV的TV有线或无线广域数字网络;包括CANBus的车辆和工业网络等。某些网络1898通常需要附接至某些通用数据端口或外围总线(1850和1851)(诸如,例如计算机系统1800的USB(Universal Serial Bus,USB)端口)的外部网络接口适配器;其他网络通常通过附接至如下所述的系统总线(例如,到PC计算机系统中的以太网接口或者到智能电话计算机系统中的蜂窝网络接口)集成到计算机系统1800的核中。使用这些网络1898中的任何网络,计算机系统1800可以与其他实体进行通信。这样的通信可以是仅单向接收的(例如,广播TV)、仅单向发送的(例如,到某些CAN总线设备的CAN总线)、或者双向的例如到使用局域数字网络或广域数字网络的其他计算机系统。可以在如上所述的这些网络和网络接口中的每一个上使用某些协议和协议栈。
上面提及的人机接口设备、人类可访问的存储设备和网络接口可以附接至计算机系统1800的核1840。
核1840可以包括一个或更多个中央处理单元(CPU)1841、图形处理单元(GPU)1842、图形适配器1817、现场可编程门区域(Field Programmable Gate Area,FPGA)形式的专用可编程处理单元1843、用于某些任务的硬件加速器1844等。这些设备连同只读存储器(ROM)1845、随机存取存储器1846、内部大容量存储装置1847例如内部非用户可访问的硬盘驱动器、SSD(Solid State Drive,SSD)等可以通过系统总线1848连接。在一些计算机系统中,系统总线1848可以以一个或更多个物理插头的形式访问,以允许通过附加的CPU、GPU等进行扩展。外围设备可以直接地或通过外围总线1851附接至核的系统总线1848。外围总线的架构包括PCI(Peripheral Component Interconnect/Interface,PCI)、USB等。
CPU 1841、GPU 1842、FPGA 1843和加速器1844可以执行某些指令,这些指令组合起来可以构成上述计算机代码。该计算机代码可以存储在ROM 1845或RAM(Random AccessMemory,RAM)1846中。暂态数据也可以存储在RAM 1846中,而永久数据可以存储在例如内部大容量存储装置1847中。可以通过使用缓存存储器来实现对存储设备中的任何存储设备的快速存储和检索,该缓存存储器可以与一个或更多个CPU 1841、GPU 1842、大容量存储装置1847、ROM 1845、RAM 1846等紧密相关联。
计算机可读介质在其上可以具有用于执行各种计算机实现的操作的计算机代码。介质和计算机代码可以是出于本公开内容的目的而专门设计和构造的介质和计算机代码,或者介质和计算机代码可以具有计算机软件领域的技术人员公知且可用的类型。
作为示例而通过非限制的方式,对应于计算机系统1800的架构并且特别是核1840可以由于处理器(包括CPU、GPU、FPGA、加速器等)执行包含在一个或更多个有形计算机可读介质中的软件而提供功能。这样的计算机可读介质可以是与如以上所介绍的用户可访问的大容量存储装置相关联的介质,以及具有非暂态性的核1840的某些存储装置例如核内部大容量存储装置1847或ROM 1845。实现本公开内容的各种实施方式的软件可以存储在这样的设备中并且由核1840执行。根据特定需要,计算机可读介质可以包括一个或更多个存储器设备或者芯片。软件可以使核1840并且特别是其中的处理器(包括CPU、GPU、FPGA等)执行本文中描述的特定处理或特定处理的特定部分,包括限定存储在RAM 1846中的数据结构以及根据由软件限定的处理修改这样的数据结构。另外地或作为替选方案,计算机系统可以由于逻辑硬连线或以其他方式实施在电路(例如:加速器1844)中而提供功能,该电路可以代替软件或与软件一起操作以执行本文中描述的特定处理或特定处理的特定部分。在适当的情况下,对软件的引用可以包含逻辑,并且对逻辑的引用也可以包含软件。在适当的情况下,对计算机可读介质的引用可以包含存储用于执行的软件的电路(例如集成电路(IC(Integrated Circuit,IC)))、实施用于执行的逻辑的电路或两者。本公开内容包含硬件和软件的任何合适的组合。
虽然本公开内容已经描述了若干示例性实施方式,但是存在落入本公开内容的范围内的改变、置换和各种替代等同方案。因此将认识到,本领域技术人员将能够设想出许多系统和方法,虽然这些系统和方法未在本文中明确示出或描述,但是体现了本公开内容的原理并因此在本公开内容的精神和范围内。

Claims (20)

1.一种用于媒体流式传输的方法,所述方法包括:
控制5G边缘相关增强现实(EDGAR)设备以发现所述5G EDGAR设备的至少一部分特征;
获得所述5G EDGAR设备的所述至少一部分特征的索引;以及
根据所述5G EDGAR设备的所述至少一部分特征的所述索引来控制5G媒体流式传输(5GMS)服务的实施。
2.根据权利要求1所述的方法,
其中,控制所述5G EDGAR设备以发现所述5G EDGAR设备的所述至少一部分特征包括控制所述5G EDGAR设备以通过所述5G EDGAR设备的多个应用编程接口(API)中的复数个应用编程接口来发现所述至少一部分特征。
3.根据权利要求2所述的方法,其中,
控制所述5G EDGAR设备以发现所述5G EDGAR设备的所述至少一部分特征包括通过网络API控制所述5G EDGAR设备,并且
获得所述5G EDGAR设备的所述至少一部分特征的所述索引包括通过所述网络API获得所述索引。
4.根据权利要求3所述的方法,
其中,所述至少一部分特征包括媒体编码器和媒体解码器中的至少一者的参数。
5.根据权利要求3所述的方法,
其中,所述至少一部分特征包括所述5G EDGAR设备的设备捕获能力,所述设备捕获能力包括摄像装置能力和麦克风能力中的任意项。
6.根据权利要求3所述的方法,
其中,所述至少一部分特征包括所述5G EDGAR设备的设备渲染能力,所述设备渲染能力包括扬声器能力和显示器能力中的任意项。
7.根据权利要求3所述的方法,
其中,所述至少一部分特征包括所述5G EDGAR设备的原始硬件能力,所述原始硬件能力包括CPU基准、GPU基准、存储器带宽和设备上的存储中的任意项。
8.根据权利要求3所述的方法,
其中,所述至少一部分特征包括所述5G EDGAR设备的功能效率,所述功能效率指示每个功能的相对电力消耗的量并且与每个功能的参数有关。
9.根据权利要求3所述的方法,
其中,所述至少一部分特征包括关于所述5G EDGAR设备的电力状态和所述5G EDGAR设备的电池的耗尽速度中的任意项。
10.根据权利要求3所述的方法,
其中,所述索引指示所述至少一部分特征的组合是否能够在所述5GEDGAR设备上实时运行以及所述组合的估计的总电池消耗中的任意项。
11.一种用于媒体流式传输的装置,所述装置包括:
至少一个存储器,所述至少一个存储器被配置成存储计算机程序代码;以及
至少一个处理器,所述至少一个处理器被配置成访问所述计算机程序代码并且如由所述计算机程序代码所指示的进行操作,所述计算机程序代码包括:
第一控制代码,所述第一控制代码被配置成使所述至少一个处理器控制5G边缘相关增强现实(EDGAR)设备以发现所述5G EDGAR设备的至少一部分特征;
获得代码,所述获得代码被配置成使所述至少一个处理器获得所述5G EDGAR设备的所述至少一部分特征的索引;以及
第二控制代码,所述第二控制代码被配置成使所述至少一个处理器根据所述5G EDGAR设备的所述至少一部分特征的所述索引来控制5G媒体流式传输(5GMS)服务的实施。
12.根据权利要求11所述的装置,
其中,所述第一控制代码被配置成使所述至少一个处理器控制所述5G EDGAR设备以通过所述5G EDGAR设备的多个应用编程接口(API)中的复数个应用编程接口来发现所述至少一部分特征。
13.根据权利要求12所述的装置,其中,
所述第一控制代码被配置成使所述至少一个处理器通过网络API来控制所述5G EDGAR设备,并且
所述获得代码被配置成使所述至少一个处理器通过所述网络API获得所述索引。
14.根据权利要求13所述的装置,
其中,所述至少一部分特征包括媒体编码器和媒体解码器中的至少一者的参数。
15.根据权利要求13所述的装置,
其中,所述至少一部分特征包括所述5G EDGAR设备的设备捕获能力,所述设备捕获能力包括摄像装置能力和麦克风能力中的任意项。
16.根据权利要求13所述的装置,
其中,所述至少一部分特征包括所述5G EDGAR设备的设备渲染能力,所述设备渲染能力包括扬声器能力和显示器能力中的任意项。
17.根据权利要求13所述的装置,
其中,所述至少一部分特征包括所述5G EDGAR设备的原始硬件能力,所述原始硬件能力包括CPU基准、GPU基准、存储器带宽和设备上的存储中的任意项。
18.根据权利要求13所述的装置,
其中,所述至少一部分特征包括所述5G EDGAR设备的功能效率,所述功能效率指示每个功能的相对电力消耗的量并且与每个功能的参数有关。
19.根据权利要求13所述的装置,
其中,所述至少一部分特征包括关于所述5G EDGAR设备的电力状态和所述5G EDGAR设备的电池的耗尽速度中的任意项。
20.一种非暂态计算机可读介质,其存储有程序,所述程序在由至少一个处理器执行时使所述至少一个处理器执行:
控制5G边缘相关增强现实(EDGAR)设备以发现所述5G EDGAR设备的至少一部分特征;
获得所述5G EDGAR设备的所述至少一部分特征的索引;以及
根据所述5G EDGAR设备的所述至少一部分特征的所述索引来控制5G媒体流式传输(5GMS)服务的实施。
CN202380011104.XA 2022-05-05 2023-04-04 用于发现5g edgar设备的能力和性能的过程 Pending CN117356083A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US63/338,767 2022-05-05
US18/192,328 2023-03-29
US18/192,328 US20230362257A1 (en) 2022-05-05 2023-03-29 Procedure for discovery of capabilities and performance of 5g edgar devices
PCT/US2023/017386 WO2023215059A1 (en) 2022-05-05 2023-04-04 Procedure for discovery of capabilities and performance of 5g edgar devices

Publications (1)

Publication Number Publication Date
CN117356083A true CN117356083A (zh) 2024-01-05

Family

ID=89359893

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202380011104.XA Pending CN117356083A (zh) 2022-05-05 2023-04-04 用于发现5g edgar设备的能力和性能的过程

Country Status (1)

Country Link
CN (1) CN117356083A (zh)

Similar Documents

Publication Publication Date Title
JP7104178B2 (ja) マルチラインフレーム内予測のための方法、装置、及びコンピュータプログラム
JP7436721B2 (ja) タイル及びサブ画像の分割
US11962794B2 (en) Hierarchical tiles
CN112005549B (zh) 一种帧内-帧间预测控制方法、装置、设备及存储介质
JP2023538548A (ja) オーディオミキシングのための方法および装置
CN112715032A (zh) 帧内预测中的帧内模式选择
JP2024516634A (ja) クラウドソーシングを使用したホログラフィックまたはライトフィールド・ビューの生成のための方法、装置および媒体
US11295541B2 (en) Method and apparatus of 360 degree camera video processing with targeted view
JP2023501664A (ja) Dashコンテンツのインタラクティブ再生のための用途を意図したインタラクティブな選択情報
CN117356083A (zh) 用于发现5g edgar设备的能力和性能的过程
US20230362759A1 (en) Method for describing and configuring the 5g media service enablers
US20230362257A1 (en) Procedure for discovery of capabilities and performance of 5g edgar devices
US20230252735A1 (en) Apparatus for creating shared virtual conversational space with ar and non-ar devices using edge processing
US20230252734A1 (en) Apparatus for creating shared virtual ar conversational space on the network for multiple participants
CN117378183A (zh) 描述和配置5g媒体服务使能器的方法
RU2775391C1 (ru) Разбиение на тайлы и подизображения
KR102600572B1 (ko) 원격 단말들을 위한 몰입형 원격회의 및 원격현전을 위하여 rtcp 뷰포트의 시그널링을 위한 이벤트-기반 트리거 간격
CN110636296B (zh) 视频解码方法、装置、计算机设备以及存储介质
CN116762343A (zh) 用于注释dash中vvc子画面的方法
CN118118667A (zh) 视频编码、解码的方法和计算机设备
CN113542209A (zh) 用于视频信令的方法、装置和可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication