CN114514745B - 视频信号发送方法、装置、计算机设备及存储介质 - Google Patents

视频信号发送方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN114514745B
CN114514745B CN202180005429.8A CN202180005429A CN114514745B CN 114514745 B CN114514745 B CN 114514745B CN 202180005429 A CN202180005429 A CN 202180005429A CN 114514745 B CN114514745 B CN 114514745B
Authority
CN
China
Prior art keywords
event
based feedback
feedback
time
triggering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202180005429.8A
Other languages
English (en)
Other versions
CN114514745A (zh
Inventor
罗伊特·阿比什克
伊拉吉·索达加
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent America LLC
Original Assignee
Tencent America LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent America LLC filed Critical Tencent America LLC
Publication of CN114514745A publication Critical patent/CN114514745A/zh
Application granted granted Critical
Publication of CN114514745B publication Critical patent/CN114514745B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/155Conference systems involving storage of or access to video conference sessions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/65Network streaming protocols, e.g. real-time transport protocol [RTP] or real-time control protocol [RTCP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/6437Real-time Transport Protocol [RTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本申请实施例公开了一种视频信号发送方法、装置、计算机设备及存储介质。该方法包括:建立视频会议呼叫;针对所述视频会议呼叫,设置基于事件的阈值;根据所述基于事件的阈值,确定是否已触发基于事件的反馈,以及从触发所述基于事件的反馈开始逝去的时间量是否小于预定的时间量;及,当确定出从触发所述基于事件的反馈开始逝去的时间量不小于所述预定的时间量时,触发基于时间的反馈。

Description

视频信号发送方法、装置、计算机设备及存储介质
交叉引用
本申请要求于2020年5月8日提交美国专利局、申请号为63/022,394的美国临时申请的优先权,以及于2020年11月11日提交美国专利局、申请号为17/095,282的美国正式申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请实施例涉及数据传输技术,尤其涉及一种视频信号发送方法、装置、计算机设备及存储介质。
背景技术
沉浸式远程会议为会议提供亲身参与的、高清晰度视频和音频体验。其支持头戴式设备(HMD)/视频播放器上的沉浸式视频的实时、多连接流传输。沉浸式远程会议允许体验具有高清晰度视频和音频服务的逼真通信。其目的是为远程参与会议的用户创建沉浸式体验。
用于IMS的多媒体电话服务(MTSI)和基于IMS的远程呈现中的VR支持,能够为加入远程会议和远程呈现会话的远程终端,提供沉浸式体验。这能够实现双向音频和单向沉浸式视频,例如,佩戴HMD的远程用户参与会议,并接收由会议室中的全向相机捕获的沉浸式音频和视频,而只发送音频和可选的2D视频。
由于HMD空间定向是实时地远程更新的,带宽和其它技术限制妨碍了对传送关于视点边距更新(viewpoint margin update)的沉浸式视频进行改进。因此,需要一种技术方案来解决反馈视口定向信息的延迟以及带宽开销问题。
发明内容
为了解决至少一个不同的技术问题,本申请提供了技术解决方案,涉及一种视频信号发送方法、装置、计算机设备及存储介质。
根据本申请的一个方面,提供了一种视频信号发送方法,包括:
建立视频会议呼叫;
针对所述视频会议呼叫,设置基于事件的阈值;
根据所述基于事件的阈值,确定是否已触发基于事件的反馈,以及从触发所述基于事件的反馈开始逝去的时间量是否小于预定的时间量;及,
当确定出从触发所述基于事件的反馈开始逝去的时间量不小于所述预定的时间量时,触发基于时间的反馈。
根据本申请的另一方面,提供了一种视频信号发送装置,包括:
建立模块,用于建立视频会议呼叫;
设置模块,用于针对所述视频会议呼叫,设置基于事件的阈值;
确定模块,用于根据所述基于事件的阈值,确定是否已触发基于事件的反馈,以及从触发所述基于事件的反馈开始逝去的时间量是否小于预定的时间量;及,
控制模块,用于当确定出从触发所述基于事件的反馈开始逝去的时间量不小于所述预定的时间量时,触发基于时间的反馈。
根据本申请的另一方面,提供了一种计算机设备,包括处理器和存储器,所述存储器中存储有至少一条指令,所述至少一条指令由所述处理器加载并执行,以实现上述视频信号发送方法。
根据本申请的另一方面,提供了一种非暂时性计算机可读介质,其上存储有程序,所述程序使得计算机执行上述视频信号发送方法。
根据本申请的另一方面,还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述视频信号发送方法。
由上述技术方案可见,本发明实施例提供的方法,能够在视口改变时,触发基于事件的反馈,这有助于将针对反馈而发送的RTCP分组最小化,因此,对带宽具有最小的影响,并且基于事件的反馈不受群组大小的影响。这种混合使用的方式,与仅使用定期的RTCP反馈相比,能够降低反馈延迟,满足针对RTCP反馈的带宽使用规则。
附图说明
根据以下详细描述和附图,所公开的主题的其他特征、性质和各种优点将进一步明确,其中:
图1示出了根据本申请实施例的通信系统的简化示意图;
图2示出了根据本申请实施例的视频编码器和视频解码器在流传输环境中的放置方式的简化示意图;
图3示出了根据本申请实施例的关于视频解码器的简化框图;
图4示出了根据本申请实施例的关于视频编码器的简化框图;
图5示出了根据本申请实施例的关于视频会议呼叫的简化示意图;
图6示出了根据本申请实施例的关于消息格式的简化示意图;
图7示出了根据本申请实施例的关于视口以及容限度的简化框图;
图8示出了根据本申请实施例的在视频会议呼叫中信号交互的简化流程图;
图9示出了根据本申请实施例的视频信号发送方法的简化流程图;
图10示出了根据本申请一实施例的基于事件的RTCP反馈的比特率性能图;
图11示出了根据本申请一实施例的基于事件的RTCP反馈的数量性能图;
图12示出了根据本申请另一实施例的基于事件的RTCP反馈的数量性能图;
图13示出了根据本申请另一实施例的基于事件的RTCP反馈的比特率性能图;以及
图14示出了根据本申请实施例的计算机设备的示意图。
具体实施方式
下面所讨论的击杀特征可以分别使用或者以任何顺序组合使用。并且,各个实施例可以由处理电路执行(例如,至少一个处理器,或者,至少一个集成电路)。在一个示例中,至少一个处理器执行存储在非易失性计算机可读介质上存储的程序。
图1是根据本申请公开的实施例的通信系统100的简化框图。通信系统100包括至少两个终端装置102和103,经由网络105互相连接。对于单向数据传输,第一终端103在本地位置上对视频数据进行编码,然后通过网络105传输到第二终端102。第二终端102从网络105接收另一终端已编码的视频数据,对已编码视频数据进行解码,并显示恢复的视频数据。单向数据传输在媒体服务等应用中是较常见的。
图1示出能够支持已编码视频的双向传输的第二对终端101和104,所述双向传输例如发生在视频会议期间。对于双向数据传输,每个终端101和104在本地位置上对采集的视频数据进行编码,然后通过网络105传输到另一终端。每个终端101和104还可接收由另一终端发送的已编码视频数据,对已编码视频数据进行解码,并在本地显示设备上显示恢复的视频数据。
在图1中,终端101、102、103、104可为服务器、个人计算机和智能电话,但本申请公开的原理可不限于此。本申请公开的实施例适用于膝上型计算机、平板电脑、媒体播放器和/或专用视频会议设备。网络105表示在终端101、102、103、104之间传送已编码视频数据的任何数目的网络,包括例如有线和/或无线通信网络。通信网络105可在电路交换和/或分组交换信道中交换数据。代表性网络可包括电信网络、局域网、广域网和/或互联网。出于本申请的目的,除非在下文中有所解释,否则网络105的架构和拓扑对于本申请公开的操作来说可能是无关紧要的。
作为本申请所公开的主题的一个示例,图2示出视频编码器和视频解码器在流式环境中的放置方式。本申请所公开主题可同等地适用于其它支持视频的应用,包括例如视频会议、数字TV、在包括CD、DVD、存储棒等的数字介质上存储压缩视频等等。
流式传输系统可包括采集子系统203,所述采集子系统可包括数码相机等视频源201,所述视频源创建未压缩的视频样本流213。相较于已编码的视频码流,样本流213被描绘为粗线以强调高数据量的视频样本流,可由耦接到摄像机201的编码器202来处理。视频编码器202可包括硬件、软件或软硬件组合以实现或实施如下文更详细地描述的所公开主题的各方面。相较于样本流,已编码的视频码流204被描绘为细线以强调较低的数据量,其可存储在流式传输服务器205上以供将来使用。至少一个流式传输客户端子系统212和207可访问流式传输服务器205以检索已编码的视频比特流204的副本208和206。客户端212包括视频解码器211,视频解码器211对已编码的视频比特流的传入副本208进行解码,且产生可在显示器209或另一呈现装置(未描绘)上呈现的输出视频样本流210。在一些流式传输系统中,可根据某些视频编码/压缩标准,对视频码流204、206、208进行编码。该些标准的实施例如上所述,并将下文中进行描述。
图3是根据本申请公开的实施例的视频解码器300的框图。
接收器302可接收将由视频解码器300解码的至少一个已编码视频序列;在同一实施例或另一实施例中,一次接收一个已编码视频序列,其中每个已编码视频序列的解码独立于其它已编码视频序列。可从信道301接收已编码视频序列,所述信道可以是通向存储已编码的视频数据的存储装置的硬件/软件链路。接收器302可接收已编码的视频数据以及其它数据,例如,可转发到它们各自的使用实体(未标示)的已编码音频数据和/或辅助数据流。接收器302可将已编码视频序列与其它数据分开。为了防止网络抖动,缓冲存储器303可耦接在接收器302与熵解码器/解析器304(此后称为“解析器304”)之间。当接收器302从具有足够带宽和可控性的存储/转发装置或从等时同步网络接收数据时,也可能不需要配置缓冲存储器303,或可以将所述缓冲存储器做得较小。为了在互联网等业务分组网络上使用,也可能需要缓冲存储器303,所述缓冲存储器可相对较大且可具有自适应性大小。
视频解码器300可包括解析器304以根据已编码视频序列重建符号313。这些符号的类别包括用于管理视频解码器300的操作的信息,以及用以控制显示装置312等显示装置的潜在信息,所述显示装置不是解码器的组成部分,但可耦接到解码器,如图12中所示。用于显示装置的控制信息可以是辅助增强信息(Supplemental Enhancement Information,SEI消息)或视频可用性信息(Video Usability Information,VUI)的参数集片段(未标示)。解析器304可对接收到的已编码视频序列进行解析/熵解码。已编码视频序列的编码可根据视频编码技术或标准进行,且可遵循各种原理,包括可变长度编码、霍夫曼编码(Huffman coding)、具有或不具有上下文灵敏度的算术编码等等。解析器304可基于对应于群组的至少一个参数,从已编码视频序列提取用于视频解码器中的像素的子群中的至少一个子群的子群参数集。子群可包括图片群组(Group of Pictures,GOP)、图片、图块、分片、宏块、编码单元(Coding Unit,CU)、块、变换单元(Transform Unit,TU)、预测单元(Prediction Unit,PU)等等。熵解码器/解析器还可从已编码视频序列提取信息,例如变换系数、量化器参数值、运动矢量等等。
解析器304可对从缓冲存储器303接收的视频序列执行熵解码/解析操作,从而创建符号313。解析器304可接收已编码数据,选择对特定的符号313进行解码。进一步,解析器304可确定是否可以将特定的符号313提供给运动补偿预测单元306、缩放器/逆变换单元305、帧内图片预测单元307,或者,环路滤波311。
取决于已编码视频图片或一部分已编码视频图片(例如:帧间图片和帧内图片、帧间块和帧内块)的类型以及其它因素,符号313的重建可涉及至少两个不同单元。涉及哪些单元以及涉及方式可由解析器304从已编码视频序列解析的子群控制信息控制。为了简洁起见,未描述解析器304与下文的至少两个单元之间的此类子群控制信息流。
除已经提及的功能块以外,视频解码器300可在概念上细分成如下文所描述的数个功能单元。在商业约束下运行的实际实施例中,这些单元中的许多单元彼此紧密交互并且可以彼此集成。然而,出于描述所公开主题的目的,概念上细分成下文的功能单元是适当的。
第一单元是缩放器/逆变换单元305。缩放器/逆变换单元305从解析器304接收作为符号313的量化变换系数以及控制信息,包括使用哪种变换方式、块大小、量化因子、量化缩放矩阵等。缩放器/逆变换单元305可输出包括样本值的块,所述样本值可输入到聚合器310中。
在一些情况下,缩放器/逆变换单元305的输出样本可属于帧内编码块;即:不使用来自先前重建的图片的预测性信息,但可使用来自当前图片的先前重建部分的预测性信息的块。此类预测性信息可由帧内图片预测单元307提供。在一些情况下,帧内图片预测单元307采用从当前(已部分重建)图片309提取的已重建信息,生成大小和形状与正在重建的块相同的周围块。在一些情况下,聚合器310基于每个样本,将帧内预测单元307生成的预测信息添加到由缩放器/逆变换单元305提供的输出样本信息中。
在其它情况下,缩放器/逆变换单元305的输出样本可属于帧间编码和潜在运动补偿块。在此情况下,运动补偿预测单元306可访问参考图片存储器308以提取用于预测的样本。在根据符号313对提取的样本进行运动补偿之后,这些样本可由聚合器310添加到缩放器/逆变换单元的输出(在这种情况下被称作残差样本或残差信号),从而生成输出样本信息。运动补偿预测单元从参考图片存储器内的地址获取预测样本可受到运动矢量控制,且所述运动矢量以所述符号313的形式而供运动补偿预测单元使用,所述符号313例如是包括X、Y和参考图片分量。运动补偿还可包括在使用子样本精确运动矢量时,从参考图片存储器提取的样本值的内插、运动矢量预测机制等等。
聚合器310的输出样本可在环路滤波器单元311中被各种环路滤波技术采用。视频压缩技术可包括环路内滤波器技术,所述环路内滤波器技术受控于包括在已编码视频序列(也称作已编码视频码流)中的参数,且所述参数作为来自解析器304的符号313可用于环路滤波器单元311。然而,在其他实施例中,视频压缩技术还可响应于在解码已编码图片或已编码视频序列的先前(按解码次序)部分期间获得的元信息,以及响应于先前重建且经过环路滤波的样本值。
环路滤波器单元311的输出可以是样本流,所述样本流可输出到显示设备312以及存储在参考图片存储器557,以用于后续的帧间图片预测。
一旦完全重建,某些已编码图片就可用作参考图片以用于将来预测。举例来说,一旦对应于当前图片的已编码图片被完全重建,且已编码图片(通过例如解析器304)被识别为参考图片,则当前图片309可变为参考图片存储器308的一部分,且可在开始重建后续已编码图片之前重新分配新的当前图片缓冲器。
视频解码器300可根据例如ITU-T H.265标准中的预定视频压缩技术执行解码操作。在已编码视频序列遵循视频压缩技术或标准的语法以及视频压缩技术或标准中记录的配置文件的意义上,已编码视频序列可符合所使用的视频压缩技术或标准指定的语法。具体地说,配置文件可从视频压缩技术或标准中可用的所有工具中选择某些工具作为在所述配置文件下可供使用的仅有工具。对于合规性,还要求已编码视频序列的复杂度处于视频压缩技术或标准的层级所限定的范围内。在一些情况下,层级限制最大图片大小、最大帧率、最大重建取样率(以例如每秒兆(mega)个样本为单位进行测量)、最大参考图片大小等。在一些情况下,由层级设定的限制可通过假想参考解码器(Hypothetical ReferenceDecoder,HRD)规范和在已编码视频序列中用信号表示的HRD缓冲器管理的元数据来进一步限定。
在一实施例中,接收器302可连同已编码视频一起接收附加(冗余)数据。所述附加数据可以是已编码视频序列的一部分。所述附加数据可由视频解码器300用以对数据进行适当解码和/或较准确地重建原始视频数据。附加数据可呈例如时间、空间或信噪比(signal noise ratio,SNR)增强层、冗余分片、冗余图片、前向纠错码等形式。
图4是根据本申请公开的实施例的视频编码器400的框图。
视频编码器400可从视频源401(并非编码器的一部分)接收视频样本,所述视频源可采集将由视频编码器400编码的视频图像。
视频源401可提供将由视频编码器400编码的呈数字视频样本流形式的源视频序列,所述数字视频样本流可具有任何合适位深度(例如:8位、10位、12位……)、任何色彩空间(例如BT.601Y CrCB、RGB……)和任何合适取样结构(例如YCrCb 4:2:0、Y CrCb 4:4:4)。在媒体服务系统中,视频源401可以是存储先前已准备的视频的存储装置。在视频会议系统中,视频源401可以是采集本地图像信息作为视频序列的相机。可将视频数据提供为至少两个单独的图片,当按顺序观看时,这些图片被赋予运动。图片自身可构建为空间像素阵列,其中取决于所用的取样结构、色彩空间等,每个像素可包括至少一个样本。所属领域的技术人员可以很容易理解像素与样本之间的关系。下文侧重于描述样本。
根据本申请实施例,视频编码器400可实时或在由应用所要求的任何其它时间约束下,将源视频序列的图片编码且压缩成已编码视频序列410。施行适当的编码速度是控制器402的一个功能。为了简洁起见,图中未标示耦接。由控制器设置的参数可包括速率控制相关参数(图片跳过、量化器、率失真优化技术的λ值等)、图片大小、图片群组(group ofpictures,GOP)布局,最大运动矢量搜索范围等。控制器402可用于具有其它合适的功能,这些功能涉及针对某一系统设计优化的视频编码器400。
一些视频编码器在本领域技术人员所称的“编码环路”中进行操作。作为简单的描述,在一实施例中,编码环路可包括编码器402中的编码部分(之后称为“源编码器”)(负责基于待编码的输入图片和参考图片创建符号)和嵌入于编码器402中的(本地)解码器406。解码器406以类似于(远程)解码器创建样本数据的方式重建符号以创建样本数据(因为在本申请所考虑的视频压缩技术中,符号与已编码视频码流之间的任何压缩是无损的)。将重建的样本流(样本数据)输入到参考图片存储器405。由于符号流的解码产生与解码器位置(本地或远程)无关的位精确结果,因此参考图片存储器内容在本地编码器与远程编码器之间也是按比特位精确对应的。换句话说,编码器的预测部分“看到”的参考图片样本与解码器将在解码期间使用预测时所“看到”的样本值完全相同。这种参考图片同步性基本原理(以及在例如因信道误差而无法维持同步性的情况下产生的漂移)也用于一些相关技术。
“本地”解码器406的操作可与例如已在上文结合图3详细描述视频解码器300的“远程”解码器相同。然而,另外简要参考图4,当符号可用且熵编码器408和解析器304能够无损地将符号编码/解码为已编码视频序列时,视频解码器300的熵解码部分,包括信道301、接收器302、缓冲存储器303和解析器304,可能无法完全在本地解码器406中实施。
此时可以观察到,除存在于解码器中的解析/熵解码之外的任何解码器技术,也必定以基本上相同的功能形式存在于对应的编码器中。出于此原因,本申请侧重于解码器操作。可简化编码器技术的描述,因为编码器技术与全面地描述的解码器技术互逆。仅在某些区域中需要更详细的描述,并且在下文提供。
在操作期间,在一些实施例中,源编码器403可执行运动补偿预测编码。参考来自视频序列中被指定为“参考图片”的至少一个先前已编码图片,所述运动补偿预测编码对输入图片进行预测性编码。以此方式,编码引擎407对输入图片的像素块与参考图片的像素块之间的差异进行编码,所述参考图片可被选作所述输入图片的预测参考。
本地视频解码器406可基于源编码器403创建的符号,对可指定为参考图片的图片的已编码视频数据进行解码。编码引擎407的操作可为有损过程。当已编码视频数据可在视频解码器(图4中未示)处被解码时,重建的视频序列通常可以是带有一些误差的源视频序列的副本。本地视频解码器406复制解码过程,所述解码过程可由视频解码器对参考图片执行,且可使重建的参考图片存储在参考图片存储器405中。以此方式,视频编码器400可在本地存储重建的参考图片的副本,所述副本与将由远端视频解码器获得的重建参考图片具有共同内容(不存在传输误差)。
预测器404可针对编码引擎407执行预测搜索。即,对于将要编码的新图片,预测器404可在参考图片存储器405中搜索可作为所述新图片的适当预测参考的样本数据(作为候选参考像素块)或某些元数据,例如参考图片运动矢量、块形状等。预测器404可基于样本块逐像素块操作,以找到合适的预测参考。在一些情况下,根据预测器404获得的搜索结果,可确定输入图片可具有从参考图片存储器405中存储的至少两个参考图片取得的预测参考。
控制器402可管理源编码器403的编码操作,包括例如设置用于对视频数据进行编码的参数和子群参数。
可在熵编码器408中对所有上述功能单元的输出进行熵编码。熵编码器根据例如霍夫曼编码、可变长度编码、算术编码等技术对各种功能单元生成的符号进行无损压缩,从而将所述符号转换成已编码视频序列。
传输器409可缓冲由熵编码器408创建的已编码视频序列,从而为通过通信信道411进行传输做准备,所述通信信道可以是通向将存储已编码的视频数据的存储设备的硬件/软件链路。传输器409可将来自视频编码器403的已编码视频数据与要传输的其它数据合并,所述其它数据例如是已编码音频数据和/或辅助数据流(未示出来源)。
控制器402可管理视频编码器400的操作。在编码期间,控制器402可以为每个已编码图片分配某一已编码图片类型,但这可能影响可应用于相应的图片的编码技术。例如,通常可将图片分配为以下任一种图片类型:
帧内图片(I图片),其可以是不将序列中的任何其它图片用作预测源就可被编码和解码的图片。一些视频编解码器容许不同类型的帧内图片,包括例如独立解码器刷新(Independent Decoder Refresh,“IDR”)图片。所属领域的技术人员了解I图片的变体及其相应的应用和特征。
预测性图片(P图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多一个运动矢量和参考索引来预测每个块的样本值。
双向预测性图片(B图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多两个运动矢量和参考索引来预测每个块的样本值。类似地,至少两个预测性图片可使用多于两个参考图片和相关联元数据以用于重建单个块。
源图片通常可在空间上细分成至少两个样本块(例如,4×4、8×8、4×8或16×16个样本的块),且逐块进行编码。这些块可参考其它(已编码)块进行预测编码,根据应用于块的相应图片的编码分配来确定所述其它块。举例来说,I图片的块可进行非预测编码,或所述块可参考同一图片的已编码的块来进行预测编码(空间预测或帧内预测)。P图片的像素块可参考一个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。B图片的块可参考一个或两个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。
视频编码器400可根据例如ITU-T H.265建议书的预定视频编码技术或标准执行编码操作。在操作中,视频编码器400可执行各种压缩操作,包括利用输入视频序列中的时间和空间冗余的预测编码操作。因此,已编码视频数据可符合所用视频编码技术或标准指定的语法。
图5图示了根据示例性实施例的呼叫500,诸如360度会议呼叫。参考图5,在房间501中组织会议呼叫。房间501包括物理上存在于房间501中的人员、全向相机505和观看屏幕502。还有两人503和504加入会议,并且根据示例性实施例,人员503可以使用VR和/或AR耳机,而人员504可以使用智能电话或平板电脑。人员503和504经由全向相机505接收会议室的360度视图,并且所接收的视图可以是面向人员503和504的视图,例如,人员503和504可能正在观看或没有观看,360度视图中与他们特定的观看屏幕定向不同的部分。远程参与者,例如人员503和504,也可以选择对焦彼此的相机馈入(camera feed)。在图5中,人员503和504将他们的视口(viewport)信息507和508分别发送到房间501或者除了全向相机505和观看屏幕502的其它联网设备,全向相机505和观看屏幕502又向它们分别发送视口相关的视频509和510。
远程用户,例如,加入会议的佩戴头戴式显示器(HMD)的人员503,远程地从会议室接收由全向相机捕获的立体声或沉浸式语音/音频和沉浸式视频。人员504还可以佩戴HMD或使用诸如智能电话或平板电脑之类的手持移动设备。
根据示例性实施例,全向媒体格式(OMAF)定义了两种类型的媒体简档(mediaprofile):(i)与视口无关的,以及(ii)与视口相关的。当使用视口无关流传输(VIS)时,不管用户的视口如何,都以高质量发送整个视频。当使用VIS时,在HMD移动期间没有经历任何延时;然而,带宽需求可能相对较高。
由于对网络带宽的限制、解码复杂度和端设备的计算限制,以期望的质量传输整个高分辨率沉浸式视频,效率较低,这是因为用户的视场(FoV)是有限的。因此,根据示例性实施例,在全向媒体格式(OMAF)中定义了视口相关流传输(VDS)。当使用VDS时,只有用户的当前视口以高质量进行流传输,而其余的以相对较低的质量进行流传输。这有助于节省大量的带宽。
当使用VDS时,远程用户(例如人员503和504)可以通过RTCP报告,发送他们的视口定向信息。这些报告可以以固定间隔来发送,或者基于事件的触发来发送,或使用混合方案来发送,包括定期的间隔(regular interval)以及基于事件的触发。
根据示例性实施例,只要视口改变并且发送了即时反馈,就触发了基于事件的反馈。RTCP报告的频率取决于HMD的速度,并且将随着HMD速度的增加而增加。
现在,如果HMD速度较大,并且反馈触发角度相对较短,则将生成大量基于事件的RTCP报告,并将其发送到服务器。这可能导致所需带宽超过了RTCP 5%带宽限制。例如,参考图10,对于20Mbps视频的点对点场景的图示1000,当反馈触发是0.1度,并且HMD速度超过每秒125度时,要发送的RTCP报告所需的带宽超过1Mbps的RTCP带宽限制。图10指的是,在0.1、0.5、1和2度触发时,每秒生成的基于事件的RTCP反馈。
除了用于IMS的标准多媒体电话服务(MTSI)呼叫信令之外,例如,图8中的S803处,在会议室801和远程用户802之间的呼叫建立期间,在会话描述协议(SDP)中发信号通知用户的初始视口定向、解码/呈现元数据和所捕获的视野。在呼叫建立之后,远程方经由RTCP报告发送他们的视口定向信息。
根据示例性实施例,RTCP反馈可以遵循5%带宽使用规则。因此,RTCP的频率取决于群组大小或远程参与者的数量。随着群组大小的增加,可以较不频繁地发送反馈以遵守带宽使用限制。当远程参与者的数量较小时,可以使用即时反馈。随着参与者数量的增加,可以使用早期(early)RTCP反馈。然而,如果群组大小变大,则应发送定期的RTCP反馈。根据互联网工程任务组(IETF)请求注解(RFC)3550,RTCP的最小传输间隔可以是五秒。随着群组大小的增加,RTCP反馈间隔也会增加,从而导致额外的延迟。根据本申请的示例性实施例,并且例如用于沉浸式视频中,可以基于固定间隔和基于事件中的任一种,来发送RTCP报告,这可以由每个远程人员(诸如图5中的人员503和/或人员504)的视口定向的改变来触发。
根据示例性实施例,RTCP反馈分组可以是由状态报告和反馈(FB)消息组成的复合分组。此外,发送方报告(SR)/接收报告(RR)分组包含状态报告,该状态报告作为复合RTCP分组的一部分,并且以定期的间隔发送,除了其它消息之外,该复合RTCP分组还包括源描述。
根据示例性实施例,包含FB消息的复合RTCP分组中的RTCP分组的顺序是:
-OPTIONAL加密前缀,
-MANDATORY SR或RR,
-MANDATORY SDES,
-至少一个FB消息。
在复合分组中,FB消息可以被放置在RR和源描述RTCP分组(SDES)之后。
可以定义携带反馈分组的两个复合RTCP分组:最小复合RTCP反馈分组和全复合RTCP反馈分组。
RTCP反馈消息在IETF 4585中指定。它可以由PT(有效载荷类型)=PSFB(206)来标识,其指的是有效载荷特定的反馈消息。根据示例性实施例,反馈消息涉及基于定期的间隔和基于事件二者来发信号通知视口信息。
当任何远程参与者,诸如图1中的人员503和人员504之一,改变其各自的视口(诸如通过改变其各自的显示设备的空间定向)时,RTCP视口反馈应当被及时递送,否则它将引起延迟,并影响该用户的高质量VR体验。当远程参与者的数量增加时,RTCP反馈间隔增加。如果发送定期的RTCP反馈间隔,诸如仅在5秒的基础上,则它随着远程参与者的数量增加而延迟。因此,根据示例性实施例,RTCP间隔可以是定期的反馈间隔和基于事件的间隔的组合,以便改进这些技术缺陷。
根据示例性实施例,定期的RTCP反馈间隔应该作为遵循RTP规则的复合RTCP分组来发送,其中,连续传输之间的最小RTCP间隔(Tmin)应为五秒。该RTCP间隔可以由RTCP分组大小和可用RTCP带宽导出。全复合分组包含任何附加的RTCP分组,诸如附加的接收器报告、附加的SDES项等。
当视口改变时,基于事件的反馈被触发。在这种情况下,可以发送最小的复合RTCP分组。最小复合RTCP反馈分组仅包含强制信息,诸如必要的加密前缀、确切地一个SR或RR、确切地一个SDES(仅存在CNAME项)以及至少一个FB消息之类。这有助于将针对反馈而发送的RTCP分组最小化,因此,对带宽具有最小的影响。与定期的RTCP反馈间隔不同,基于事件的反馈不受群组大小的影响。
当用户改变视口701时,如图7中所示,基于事件的反馈被触发,并且定期的反馈间隔应该在最小间隔(Tmin)之后开始。现在,如果用户在最小间隔之前改变其视口701,则再次触发基于事件的反馈。如果这些事件连续发生,则这可能影响5%带宽规则。然而,对基于事件的反馈施加最小间隔约束,将会降低用户的体验。因此,不应该针对要发送的基于事件的反馈,定义一个最小的间隔。为了遵守针对RTCP反馈的带宽使用,可以增加定期反馈的间隔,并且因此,它应该取决于基于事件的反馈的频率和它们之间的间隔。
考虑到本申请描述的示例性实施例,用户能够请求在视口701周围的附加的更高质量的边距,诸如图7的图示700中的702,以便最小化延迟,诸如M2HQ延迟,并增强用户体验。视口701可以是图5中远程人员503和504的任何设备的视口。在远程人员503或504正在执行小的头部运动扰动时,这是非常有用的。然而,在呼叫期间,诸如在图8中的S805处,当用户移动其头部,超出视口边距702(可忽略的)很小程度时,不应触发基于事件的反馈,因为超出边距的视口区域相对可忽略,因此应等待发送定期的反馈。因此,在触发基于事件的反馈之前,可以有一个针对偏航(yaw)、俯仰(pitch)和滚动(roll)定义的容限度(degreeof tolerance)703。参见图8中的S804,可以将容限信息从远程用户802发送到会议室801。容限度703,包括基于事件的反馈的容限边距(tolerance margin)705的容限信息,可以被定义为来自用户视口的旋转角偏航(tyaw)、俯仰(tpitch)和滚动(troll)中的至少一个,该容限信息可以作为触发基于事件的反馈的阈值。可以在初始SDP会话S804期间,协商这样的信息,如图8所示,或者根据实施例,在会话之间协商这样的信息,诸如在S806处。
图6图示了根据示例性实施例的本申请所描述的这种反馈消息的格式600。
图6示出了RTCP反馈消息格式600。在图6中,FMT表示反馈消息类型,PT表示有效载荷类型。对于RTCP反馈消息,FMT可以被设置为值‘9’,而PT被设置为206。FCI(反馈消息控制信息)包含视口信息,根据示例性实施例,由以下参数组成:Viewport_azimuth;Viewport_elevation;Viewport_tilt;Viewport_azimuth_range;Viewport_elevation_range;Viewport_stereoscopic。
图9图示了流程图900。在S901,建立视频会议呼叫。这个过程包括初始化,如图8中S803所示,并且根据实施例,还提供这些信息:用户的视口定向、解码/呈现元数据以及所捕获的视野,除了用于IMS的标准多媒体电话服务(MTSI)呼叫信令之外,在呼叫建立期间,这些信息在会话描述协议(SDP)中发信号通知。
在S902处,针对视频会议呼叫,设置基于事件的阈值。如上所述,设置容限边距705。
在呼叫建立之后,随着呼叫开始,远程方通过RTCP报告发送他们的视口定向信息。在S903处,根据基于事件的阈值,确定是否已触发基于事件的反馈,以及从触发基于事件的反馈开始逝去的时间量是否小于预定的时间量;当确定出从触发基于事件的反馈开始逝去的时间量不小于预定的时间量时,触发基于时间的反馈。也就是说,确定是否触发了基于事件的反馈以及是否触发了定期的基于时间的反馈。从触发基于事件的反馈开始逝去的时间量是否小于预定的时间量是指,确定某个时间段是否已经过去,诸如5秒,来触发定期的反馈间隔,作为基于时间的反馈。可以通过远程用户的视口是否已经在空间定向上有所改变,来确定基于事件的反馈,并且如果已经改变,则确定该改变是在预设的容限范围内还是超出预设的容限范围,诸如相对于图7中的容限边距705。
如果确定出基于时间的反馈,则在S905处,可以发送复合RTCP分组。根据示例性实施例,定期的RTCP反馈间隔,应该作为遵循RTP规则的复合RTCP分组来发送,其中连续传输之间的最小RTCP间隔(Tmin)应为五秒。该RTCP间隔可以由RTCP分组大小和可用RTCP带宽导出。全复合分组包含任何附加的RTCP分组,诸如附加的接收器报告、附加的SDES项等。
之后,在S904处可以确定是否存在用户输入或更新容限信息的其它输入,如果不存在,则该过程可以循环执行,或者在S902处继续呼叫,依照S905中接收复合RTCP分组的任何通信。
在S905,还可以重置定时器,以对另一时间段(诸如大于5秒)进行计数。
如果确定出基于事件的反馈,则在S906处,可以发送最小RTCP分组。例如,当视口改变时,触发基于事件的反馈。在这种情况下,可以发送最小的复合RTCP分组。最小复合RTCP反馈分组仅包含强制信息,诸如必要的加密前缀、确切地一个SR或RR、确切地一个SDES(仅存在CNAME项)以及至少一个FB消息之类。这有助于最小化针对反馈而发送的RTCP分组,因此,对带宽具有最小的影响。与定期的RTCP反馈间隔不同,基于事件的反馈不受群组大小的影响。之后,可以在S904处,确定是否存在用户输入或更新容限信息的其它输入,如果不存在,则该过程可以循环执行,或者在S902处继续呼叫,依照S905中接收复合RTCP分组的任何通信。在S904,基于S906的处理,确定是否更新定时器,以对增大的逝去时间进行计数,在这种情况下,在S906处还确定出基于事件触发的频率超过阈值,例如根据诸如关于图10、图11、图12和图13进一步描述的实施例,导致超过了RTCP的5%带宽规则。
在示例性实施例中,引入参数用于定义两个连续的基于事件的RTCP反馈之间的最小间隔,例如从S906到S906而没有中间S905,使得带宽需求不超过RTCP带宽限制,并且可以在S904处考虑更新或其它方式。
当在S906处,相对短的反馈触发被用于较大的HMD运动时,RTCP带宽需求可能超过RTCP带宽限制。因此,根据示例性实施例,基于事件的RTCP报告的带宽需求,可以取决于HMD速度和反馈触发程度。
基于事件的反馈间隔是指两个连续触发之间的时间间隔。当HMD速度增加时,基于事件的反馈间隔减小,导致带宽需求的增加。基于事件的反馈可以如下定义:
因此,为了限制带宽需求以满足5%RTCP规则,定义了阈值参数。该阈值参数可以取决于基于事件的反馈间隔。
根据示例性实施例可以做出以下假设:
带宽(bps)=B, (等式2)
RTCP分配带宽(bps)=RB (等式3)
RTCP分组大小(字节)=P (等式4)
RTCP最小间隔=Imin (等式5)
根据RTCP规则,RTCP带宽不应超过5%带宽。因此,
RB=0.05B (等式6)
而Imin如下所示,
假设总带宽为20Mbps,当反馈程度为0.1度且HMD速度超过125度/秒时,带宽值超过5%RTCP带宽限制。从图10中的图示1000可以看出。然而,当触发增加到0.5、1和2时,该值完全处于限制内。
在图11的图示1100中,示出了针对0.1、0.5、1和2度触发,每秒发送的基于事件的RTCP反馈的数量。因此,为了遵守RTCP带宽限制,示例性实施例可以增加基于RTCP事件的反馈间隔,并且引入参数Imin,其可以被定义为两个连续RTCP反馈之间的最小间隔,并且可以选择
当HMD速度增加时,每秒的触发数量也增加,导致触发间隔的减少以及RTCP比特率的增加。当触发间隔达到最小点Imin时,不应继续降低,并且因此,达到了触发/秒的最大数量,如图12的图1200中用虚线曲线所示。根据实施例,图12指的是在引入Imin参数之后,对于0.1、0.5、1和2度触发,每秒生成的基于事件的RTCP反馈。当RTCP带宽(RB)接近带宽的5%但没有更大时,将达到该最小值点。因此,Imin参数将取决于所允许的RTCP带宽。在图13的图示1300中示出了在引入用于0.1度触发的Imin参数之前和之后的比特率。因此,在达到最小点Imin之后,曲线变平。
进一步参考图13,对于恒定头部速度,计算Imin,并且根据实施例,Imin指的是在引入Imin参数之前和之后对于0.1度触发的比特率。然而,由于头部的行进时间相对短,平均头部速度和恒定头部速度之差是可忽略的。
根据示例性实施例,当使用这种混合报告方案,包括定期的间隔和基于事件的触发时:
(i)定期的间隔必须等于或大于RTCP最小间隔(通常是RTCP最小间隔的倍数);
(ii)应该选择触发阈值角度和RTCP最小间隔,使得
以上关于图10、图11、图12和图13描述的这种计算中的至少一个,可以在图9中的S904处执行。
因此,通过本申请描述的示例性实施例,可以通过这些技术方案中的至少一个方案来有利地改进上述技术问题。例如,应当为基于事件的RTCP反馈,引入参数Imin,其定义为两个连续触发之间的最小间隔。这有助于通过限制每秒发送的基于事件的触发的数量,来限制带宽需求。因此,当头部运动增加并且RTCP间隔达到最小(Imin)值时,比特率将饱和,并且不再进一步增加。
进一步,上述提出的方法可以由处理电路(例如,至少一个处理器,或者,至少一个集成电路)实施。在一个实施例中,至少一个处理器执行存储在非暂时性计算机可读介质中的程序,以执行上述提出的至少一个方法。
上述技术可以通过计算机可读指令实现为计算机软件,并且物理地存储在至少一个计算机可读介质中。例如,图14示出了计算机设备1400,其适于实现所公开主题的某些实施例。
所述计算机软件可通过任何合适的机器代码或计算机语言进行编码,通过汇编、编译、链接等机制创建包括指令的代码,所述指令可由至少一个计算机中央处理单元(CPU),图形处理单元(GPU)等直接执行或通过译码、微代码等方式执行。
所述指令可以在各种类型的计算机或其组件上执行,包括例如个人计算机、平板电脑、服务器、智能手机、游戏设备、物联网设备等。
图14所示的用于计算机设备1400的组件本质上是示例性的,并不用于对实现本申请实施例的计算机软件的使用范围或功能进行任何限制。也不应将组件的配置解释为与计算机设备1400的示例性实施例中所示的任一组件或其组合具有任何依赖性或要求。
计算机设备1400可以包括某些人机界面输入设备。这种人机界面输入设备可以通过触觉输入(如:键盘输入、滑动、数据手套移动)、音频输入(如:声音、掌声)、视觉输入(如:手势)、嗅觉输入(未示出),对至少一个人类用户的输入做出响应。所述人机界面设备还可用于捕获某些媒体,气与人类有意识的输入不必直接相关,如音频(例如:语音、音乐、环境声音)、图像(例如:扫描图像、从静止影像相机获得的摄影图像)、视频(例如二维视频、包括立体视频的三维视频)。
人机界面输入设备可包括以下中的至少一个(仅绘出其中一个):键盘1401、鼠标1402、触控板1403、触摸屏1410、数据手套1204、操纵杆1405、麦克风1406、扫描仪1407、照相机1408。
计算机设备1400还可以包括某些人机界面输出设备。这种人机界面输出设备可以通过例如触觉输出、声音、光和嗅觉/味觉来刺激至少一个人类用户的感觉。这样的人机界面输出设备可包括触觉输出设备(例如通过触摸屏1410或操纵杆1405的触觉反馈,但也可以有不用作输入设备的触觉反馈设备)、音频输出设备(例如,扬声器1409、耳机(未示出))、视觉输出设备(例如,屏幕1410,包括阴极射线管(CRT)屏幕、液晶显示(LCD)屏幕、等离子屏幕、有机发光二极管(OLED)屏幕),其中每一个都具有或没有触摸屏输入功能、每一个都具有或没有触觉反馈功能——其中一些可通过诸如立体画面输出的手段输出二维视觉输出或三维以上的输出;虚拟现实眼镜(未示出)、全息显示器和放烟箱(未示出))以及打印机(未示出)。
计算机设备1400还可以包括人可访问的存储设备及其相关介质,如包括具有CD/DVD的高密度只读/可重写式光盘(CD/DVD ROM/RW)或类似介质1421的光学介质、拇指驱动器1422、可移动硬盘驱动器或固体状态驱动器1423,诸如磁带和软盘(未示出)的传统磁介质,诸如安全软件保护器(未示出)等的基于ROM/ASIC/PLD的专用设备,等等。
本领域技术人员还应当理解,结合所公开的主题使用的术语“计算机可读介质”不包括传输介质、载波或其它瞬时信号。
计算机设备1400还可以包括通往至少一个通信网络1498的接口1499。例如,网络1498可以是无线的、有线的、光学的。网络1498还可为局域网、广域网、城域网、车载网络和工业网络、实时网络、延迟容忍网络等等。网络1498还包括以太网、无线局域网、蜂窝网络(GSM、3G、4G、5G、LTE等)等局域网、电视有线或无线广域数字网络(包括有线电视、卫星电视、和地面广播电视)、车载和工业网络(包括CANBus)等等。某些网络1498通常需要外部网络接口适配器,用于连接到某些通用数据端口或外围总线(1450和1451)(例如,计算机设备1400的USB端口);其它系统通常通过连接到如下所述的系统总线集成到计算机设备1400的核心(例如,以太网接口集成到PC计算机设备或蜂窝网络接口集成到智能电话计算机设备)。通过使用这些网络1498中的任何一个,计算机设备1400可以与其它实体进行通信。所述通信可以是单向的,仅用于接收(例如,无线电视),单向的仅用于发送(例如CAN总线到某些CAN总线设备),或双向的,例如通过局域或广域数字网络到其它计算机设备。上述的每个网络和网络接口可使用某些协议和协议栈。
上述的人机界面设备、人可访问的存储设备以及网络接口可以连接到计算机设备1400的核心1440。
核心1440可包括至少一个中央处理单元(CPU)1441、图形处理单元(GPU)1442、图像适配器1417、以现场可编程门阵列(FPGA)1443形式的专用可编程处理单元、用于特定任务的硬件加速器1444等。这些设备以及只读存储器(ROM)1445、随机存取存储器1446、内部大容量存储器(例如内部非用户可存取硬盘驱动器、固态硬盘等)1447等可通过系统总线1448进行连接。在某些计算机设备中,可以以至少一个物理插头的形式访问系统总线1448,以便可通过额外的中央处理单元、图形处理单元等进行扩展。外围装置可直接附接到核心的系统总线1448,或通过外围总线1451进行连接。外围总线的体系结构包括外部控制器接口PCI、通用串行总线USB等。
CPU 1441、GPU 1442、FPGA 1543和加速器1444可以执行某些指令,这些指令组合起来可以构成上述计算机代码。该计算机代码可以存储在ROM 1445或RAM 1446中。过渡数据也可以存储在RAM 1446中,而永久数据可以存储在例如内部大容量存储器1447中。通过使用高速缓冲存储器可实现对任何存储器设备的快速存储和检索,高速缓冲存储器可与至少一个CPU 1441、GPU 1442、大容量存储器1447、ROM 1445、RAM 1446等紧密关联。
所述计算机可读介质上可具有计算机代码,用于执行各种计算机实现的操作。介质和计算机代码可以是为本申请的目的而特别设计和构造的,也可以是计算机软件领域的技术人员所熟知和可用的介质和代码。
作为实施例而非限制,具有体系结构的计算机设备1400,特别是核心1440,可以作为处理器(包括CPU、GPU、FPGA、加速器等)提供执行包含在至少一个有形的计算机可读介质中的软件的功能。这种计算机可读介质可以是与上述的用户可访问的大容量存储器相关联的介质,以及具有非易失性的核心1540的特定存储器,例如核心内部大容量存储器1447或ROM 1445。实现本申请的各种实施例的软件可以存储在这种设备中并且由核心1440执行。根据特定需要,计算机可读介质可包括一个或一个以上存储设备或芯片。该软件可以使得核心1440特别是其中的处理器(包括CPU、GPU、FPGA等)执行本申请所述的特定过程或特定过程的特定部分,包括定义存储在RAM 1446中的数据结构以及根据软件定义的过程来修改这种数据结构。另外或作为替代,计算机设备可以提供逻辑硬连线或以其它方式包含在电路(例如,加速器1444)中的功能,该电路可以代替软件或与软件一起运行以执行本申请所述的特定过程或特定过程的特定部分。在适当的情况下,对软件的引用可以包括逻辑,反之亦然。在适当的情况下,对计算机可读介质的引用可包括存储执行软件的电路(如集成电路(IC)),包含执行逻辑的电路,或两者兼备。本申请包括任何合适的硬件和软件组合。
虽然本申请已对至少两个示例性实施例进行了描述,但实施例的各种变更、排列和各种等同替换均属于本申请的范围内。因此应理解,本领域技术人员能够设计多种系统和方法,所述系统和方法虽然未在本申请中明确示出或描述,但其体现了本申请的原则,因此属于本申请的精神和范围之内。

Claims (19)

1.一种视频信号发送方法,其特征在于,包括:
建立视频会议呼叫;
针对所述视频会议呼叫,设置基于事件的阈值,所述基于事件的阈值至少包括在视口的空间定向上变化的程度;
根据所述基于事件的阈值,确定是否已触发基于事件的反馈,以及从触发所述基于事件的反馈开始所经过的时间量是否小于预定的时间量;及,
当确定出从触发所述基于事件的反馈开始所经过的时间量不小于所述预定的时间量时,触发基于时间的反馈;
其中,所述基于事件的反馈的时间间隔大于或等于预设的触发基于事件的反馈的最小时间间隔,所述触发基于事件的反馈的最小时间间隔为参与所述视频会议呼叫的用户使用的头戴式设备HMD的触发阈值角度与所述HMD速度之间的比值;
所述预定的时间量基于触发基于事件的反馈的时间间隔确定,使得所述预定的时间量大于或等于所述触发基于事件的反馈的最小时间间隔。
2.根据权利要求1所述的方法,其中,所述根据所述基于事件的阈值,确定是否已触发基于事件的反馈,包括:
确定所述视口的空间定向被改变的程度,是否已经超过了所述基于事件的阈值。
3.根据权利要求2所述的方法,还包括:
当确定出所述视口的空间定向被改变的程度已经超过了所述基于事件的阈值时,至少向所述视口发送所述视频会议呼叫的附加边距。
4.根据权利要求1所述的方法,还包括:
根据是否已触发所述基于时间的反馈,或者是否已触发所述基于事件的反馈,处理不同长度的分组。
5.根据权利要求4所述的方法,其中,在不同长度的分组中,已触发所述基于时间的反馈时的第一分组比已触发所述基于事件的反馈时的第二分组长。
6.根据权利要求1所述的方法,还包括:
当确定出从触发所述基于事件的反馈开始所经过的时间量小于所述预定的时间量时,确定触发所述基于事件的反馈的事件的频率是否超过频率阈值。
7.根据权利要求6所述的方法,还包括:
当确定出触发所述基于事件的反馈的事件的频率超过所述频率阈值时,更新定时器。
8.根据权利要求1所述的方法,其中,所述视口是头戴式设备HMD和手持移动设备中的至少一个显示器。
9.根据权利要求1所述的方法,其中,所述视频会议呼叫包括全向相机的360度视频数据。
10.一种视频信号发送装置,其特征在于,包括:
建立模块,用于建立视频会议呼叫;
设置模块,用于针对所述视频会议呼叫,设置基于事件的阈值,所述基于事件的阈值至少包括在视口的空间定向上变化的程度;
确定模块,用于根据所述基于事件的阈值,确定是否已触发基于事件的反馈,以及从触发所述基于事件的反馈开始所经过的时间量是否小于预定的时间量; 及,
控制模块,用于当确定出从触发所述基于事件的反馈开始所经过的时间量不小于所述预定的时间量时,触发基于时间的反馈;
其中,所述基于事件的反馈的时间间隔大于或等于预设的触发基于事件的反馈的最小时间间隔,所述触发基于事件的反馈的最小时间间隔为参与所述视频会议呼叫的用户使用的头戴式设备HMD的触发阈值角度与所述HMD速度之间的比值;
所述预定的时间量基于触发基于事件的反馈的时间间隔确定,使得所述预定的时间量大于或等于触发基于事件的反馈的最小时间间隔。
11.根据权利要求10所述的装置,其中,所述确定模块用于,确定所述视口的空间定向被改变的程度,是否已经超过了所述基于事件的阈值。
12.根据权利要求11所述的装置,其中,所述控制模块进一步用于,当确定出所述视口的空间定向被改变的程度已经超过了所述基于事件的阈值时,至少向所述视口发送所述视频会议呼叫的附加边距。
13.根据权利要求10所述的装置,其中,所述控制模块进一步用于,根据是否已触发所述基于时间的反馈,或者是否已触发所述基于事件的反馈,处理不同长度的分组。
14.根据权利要求13所述的装置,其中,在不同长度的分组中,已触发所述基于时间的反馈时的第一分组比已触发所述基于事件的反馈时的第二分组长。
15.根据权利要求10所述的装置,其中,所述控制模块进一步用于,当确定出从触发所述基于事件的反馈开始所经过的时间量小于所述预定的时间量时,确定触发所述基于事件的反馈的事件的频率是否超过频率阈值。
16.根据权利要求15所述的装置,还包括:
更新模块,用于当确定出触发所述基于事件的反馈的事件的频率超过所述频率阈值时,更新定时器。
17.根据权利要求11所述的装置,其中,所述视口是头戴式设备HMD和手持移动设备中的至少一个显示器。
18.一种计算机设备,其特征在于,包括处理器和存储器,所述存储器中存储有至少一条指令,所述至少一条指令由所述处理器加载并执行,以实现如权利要求 1-9中任一项所述的方法。
19.一种非暂时性计算机可读介质,其上存储有程序,所述程序使得计算机执行如权利要求 1-9中任一项所述的方法。
CN202180005429.8A 2020-05-08 2021-04-12 视频信号发送方法、装置、计算机设备及存储介质 Active CN114514745B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202063022394P 2020-05-08 2020-05-08
US63/022,394 2020-05-08
US17/095,282 US11470300B2 (en) 2020-05-08 2020-11-11 Event-based trigger interval for signaling of RTCP viewport for immersive teleconferencing and telepresence for remote terminals
US17/095,282 2020-11-11
PCT/US2021/026792 WO2021225753A1 (en) 2020-05-08 2021-04-12 Event-based trigger interval for signaling of rtcp viewport for immersive teleconferencing and telepresence for remote terminals

Publications (2)

Publication Number Publication Date
CN114514745A CN114514745A (zh) 2022-05-17
CN114514745B true CN114514745B (zh) 2024-05-17

Family

ID=78413288

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180005429.8A Active CN114514745B (zh) 2020-05-08 2021-04-12 视频信号发送方法、装置、计算机设备及存储介质

Country Status (6)

Country Link
US (2) US11470300B2 (zh)
EP (1) EP4000259A4 (zh)
JP (2) JP7408798B2 (zh)
KR (1) KR102600572B1 (zh)
CN (1) CN114514745B (zh)
WO (1) WO2021225753A1 (zh)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105532008A (zh) * 2013-08-29 2016-04-27 Vid拓展公司 用户自适应的视频电话

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8451994B2 (en) 2010-04-07 2013-05-28 Apple Inc. Switching cameras during a video conference of a multi-camera mobile device
CN102547214B (zh) 2012-02-22 2013-05-29 腾讯科技(深圳)有限公司 一种多人视频通信中的视频编码方法以及终端
US9860296B2 (en) 2012-03-23 2018-01-02 Avaya Inc. System and method for end-to-end call quality indication
US9386275B2 (en) * 2014-01-06 2016-07-05 Intel IP Corporation Interactive video conferencing
US10560660B2 (en) 2017-01-04 2020-02-11 Intel Corporation Rectilinear viewport extraction from a region of a wide field of view using messaging in video transmission
WO2018131832A1 (ko) * 2017-01-10 2018-07-19 엘지전자 주식회사 360 비디오를 전송하는 방법, 360 비디오를 수신하는 방법, 360 비디오 전송 장치, 360 비디오 수신 장치
US20190104326A1 (en) * 2017-10-03 2019-04-04 Qualcomm Incorporated Content source description for immersive media data
WO2019118617A1 (en) * 2017-12-15 2019-06-20 Pcms Holdings, Inc. A method for using viewing paths in navigation of 360° videos
US10848978B2 (en) * 2018-04-30 2020-11-24 Qualcomm Incorporated Radio (NR) for spectrum sharing
US11032590B2 (en) 2018-08-31 2021-06-08 At&T Intellectual Property I, L.P. Methods, devices, and systems for providing panoramic video content to a mobile device from an edge server
US11228622B2 (en) * 2019-04-08 2022-01-18 Imeve, Inc. Multiuser asymmetric immersive teleconferencing
US20210029326A1 (en) * 2019-10-15 2021-01-28 Intel Corporation Session description protocol (sdp) based signaling of camera calibration parameters
US11190802B2 (en) * 2020-03-27 2021-11-30 Nokia Technologies Oy Apparatus, a method and a computer program for omnidirectional video

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105532008A (zh) * 2013-08-29 2016-04-27 Vid拓展公司 用户自适应的视频电话

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
3GPP. "On ITT4RT Systems and Operations(S4-191120)".3GPP tsg_sa\wg4_codec.2019,同上. *
3GPP. "On ITT4RT Systems and Operations(S4-191120)".3GPP tsg_sa\wg4_codec.2019,正文第1-4页第1-3章节. *

Also Published As

Publication number Publication date
EP4000259A4 (en) 2022-08-31
JP7408798B2 (ja) 2024-01-05
JP2024019620A (ja) 2024-02-09
JP2023500936A (ja) 2023-01-11
US11470300B2 (en) 2022-10-11
KR102600572B1 (ko) 2023-11-10
KR20220054656A (ko) 2022-05-03
US20210352256A1 (en) 2021-11-11
US20220394232A1 (en) 2022-12-08
CN114514745A (zh) 2022-05-17
EP4000259A1 (en) 2022-05-25
US11838489B2 (en) 2023-12-05
WO2021225753A1 (en) 2021-11-11

Similar Documents

Publication Publication Date Title
CN112292859B (zh) 一种用于解码至少一个视频流的方法和装置
CN113273185A (zh) 视频编码中的段类型
US11677972B2 (en) Identifying tile from network abstraction unit header
CN113273152B (zh) 媒体解码的方法、装置与计算机可读介质
US11711492B2 (en) Signaling of the RTCP viewport feedback for immersive teleconferencing and telepresence for remote terminals
US20230075516A1 (en) System and method for decoding including network abstraction layer unit structure with picture header
CN114514745B (zh) 视频信号发送方法、装置、计算机设备及存储介质
US10904545B2 (en) Method for syntax controlled decoded picture buffer management
CN113542209B (zh) 用于视频信令的方法、装置和可读存储介质
CN114270329A (zh) 清单内更新事件
CN114073084A (zh) 在视频码流中有效发信号通知图片大小和分区信息的方法和装置
CN110636296A (zh) 视频解码方法、装置、计算机设备以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40067907

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant