CN113497932B - 测量视频传输时延的方法、系统及介质 - Google Patents

测量视频传输时延的方法、系统及介质 Download PDF

Info

Publication number
CN113497932B
CN113497932B CN202010265928.8A CN202010265928A CN113497932B CN 113497932 B CN113497932 B CN 113497932B CN 202010265928 A CN202010265928 A CN 202010265928A CN 113497932 B CN113497932 B CN 113497932B
Authority
CN
China
Prior art keywords
time delay
delay
action
calculation formula
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010265928.8A
Other languages
English (en)
Other versions
CN113497932A (zh
Inventor
徐异凌
王恒超
陈浩
张旭
马展
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN202010265928.8A priority Critical patent/CN113497932B/zh
Publication of CN113497932A publication Critical patent/CN113497932A/zh
Application granted granted Critical
Publication of CN113497932B publication Critical patent/CN113497932B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/647Control signaling between network components and server or clients; Network processes for video distribution between server and clients, e.g. controlling the quality of the video stream, by dropping packets, protecting content from unauthorised alteration within the network, monitoring of network load, bridging between two different networks, e.g. between IP and wireless
    • H04N21/64723Monitoring of network processes or resources, e.g. monitoring of network load

Abstract

本发明提供了一种测量视频传输时延的方法、系统及介质,包括:第一动作时延模型生成步骤:将视频序列进行第一动作处理,并测量得到第一测量结果,将第一测量结果进行拟合得到第一调节参数并代入第一动作时延计算公式得到第一动作时延模型;第二动作时延模型生成步骤:将视频序列进行第二动作处理,并测量得到第二测量结果,将第二测量结果进行拟合得到第二调节参数并将代入第二动作时延计算公式得到第二动作时延模型;计算步骤:将第一动作时延模型和第二动作时延模型进行计算得出视频传输时延总模型。本发明根据用户需求,修正评价指标,指导源端选择适应的参数组合进行视频的获取与编码,提升了用户的总体体验质量。

Description

测量视频传输时延的方法、系统及介质
技术领域
本发明涉及计算机应用技术领域,具体地,涉及一种测量视频传输时延的方法、系统及介质。
背景技术
随着信息技术中,互联网技术和视频压缩和传输技术的日益发展,交互直播、云游戏、云桌面等应用开始出现了广阔的市场需求。在这类应用场景中,信息的主要传播载体时视频,而这些应用都对于视频传输的实时性有着极高的要求。例如,带有交互的视频直播,主播与观众之间的延迟应低于0.5秒,而云游戏、云桌面等服务的时延容忍度在毫秒级别,一般的需求要达到50毫秒以内,大于100毫秒的服务对于用户的体验来说就是灾难级的。
目前的现有技术主要针对的是秒级别时延的网络传输时延进行优化,而随着5G等互联网技术飞速的发展,传输时延将极大的降低,整体视频的传输也进入了毫秒级“锱铢必较”的局面。不同的视频发送参数,会影响视频在捕获、编码、发送、解码、渲染、刷新等阶段的耗时,这些时间对最终的整体时延都会有影响。为了能够提前根据视频发送参数计算出预计所需的时延,就可以根据当前场景下对于时延要求,选择合适的视频参数进行发送,从而达到满足交互直播、云游戏、云桌面等实时性要求极高的以视频传输为主要服务内容的应用需求。
本发明的目的是提供一种测量视频传输时延的方法,在从视频在源端生成到在终端呈现的过程中,对视频的捕获、编码、解码、渲染以及屏幕刷新的时延进行预测计算,从而可以被用来根据用户对当前应用场景的时延敏感度调整其用户体验质量标准。
专利文献CN108234997B(申请号:201711320836.X)公开了一种直播视频的时延测量方法、设备、系统及计算机可读介质。其方法包括:根据编码后的目标视频帧的PTS、以及预先建立的目标视频帧的PTS与采集目标视频帧的采集时间戳的关联关系,获取目标视频帧的采集时间戳;将采集时间戳封装在码流中;向CDN端传输封装有编码后的目标视频帧的数据以及对应的采集时间戳的码流,以供CDN端向播放端传输目标视频帧的数据的同时,传输目标视频帧的采集时间戳,由播放端在播放目标视频帧时,测量直播的时延。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种测量视频传输时延的方法、系统及介质。
根据本发明提供的测量视频传输时延的方法,包括:
第一动作时延模型生成步骤:将视频序列进行第一动作处理,测量第一动作处理的时延得到第一测量结果,将第一测量结果进行拟合得到第一调节参数,将第一调节参数代入第一动作时延计算公式得到第一动作时延模型;
第二动作时延模型生成步骤:将视频序列进行第二动作处理,测量第二动作处理的时延得到第二测量结果,将第二测量结果进行拟合得到第二调节参数,将第二调节参数代入第二动作时延计算公式得到第二动作时延模型;
计算步骤:将第一动作时延模型和第二动作时延模型进行计算得出视频传输时延总模型。
优选地,所述第一动作包括:编码,解码和渲染中的任一种或多种;
所述第二动作包括:捕获、刷新和网络中的任一种或多种;
所述第一动作时延模型包括:编码时延模型,解码时延模型和渲染时延模型中的任一种或多种;
所述第二动作时延模型包括:捕获时延模型、刷新时延模型和网络时延模型中的任一种或多种;
所述第一动作时延计算公式包括:编码时延计算公式、解码时延计算公式和渲染时延计算公式中的任一种或多种;
所述第二动作时延计算公式包括:捕获时延计算公式、刷新时延计算公式和网络时延计算公式中的任一种或多种。
优选地,所述编码时延包括:YUV序列通过编码器编码为流化传输的视频帧序列的时延;
所述解码时延包括:将流化传输的视频帧序列通过解码器恢复为YUV基本帧的时延;
所述渲染时延包括:将YUV基本帧渲染至屏幕中每一个像素点并传送到屏幕缓存器中所需的时延;
所述捕获时延包括:将屏幕上或摄像头中的内容转化为未编码的YUV基本视频帧的时延;
所述刷新时延包括:屏幕将缓存器中的数据取出,呈现在屏幕上的时延;
所述网络时延包括:将经过编码的视频流由服务端传输至客户端所需的时延。
优选地,所述编码时延计算公式包括:
Figure BDA0002441255260000031
Figure BDA0002441255260000032
其中,α、σ、μ和δ为调节参数,smax为最大分辨率尺寸的像素数量,F为帧大小,s为空间分辨率;
所述解码时延计算公式包括:
Figure BDA0002441255260000033
Figure BDA0002441255260000034
其中,β、ω、θ、λ、β’、ω’和θ’为调节参数;
所述渲染时延计算公式包括:
Figure BDA0002441255260000035
其中,γ、ρ和φ为调节参数。
优选地,所述捕获时延计算公式包括:
Figure BDA0002441255260000036
其中,t为时间分辨率;
所述刷新时延计算公式包括:
Figure BDA0002441255260000037
其中,t为时间分辨率,r为屏幕刷新率;
所述网络时延计算公式包括:
Figure BDA0002441255260000041
其中,F为帧大小,B为当前网络传输带宽。
优选地,所述第一动作时延模型包括转移时延模型。
优选地,所述述转移时延模型的生成步骤包括:将视频序列进行第一动作处理,测量经过第一动作处理的时延并得到样本测量结果,从第一测量结果中提取样本,得到样本第一动作时延测量结果,将样本第一动作时延测量结果和样本测量结果进行拟合得到转移因子,将转移因子代入转移时延计算公式得到转移时延模型。
优选地,所述转移时延计算公式包括:
TCPU_x=k×TCPU_base
或TGPU_x=k×TGPU_base
其中,TCPU_base、TGPU_base为经过序列测试得到的含调节参数的时延模型,TCPU_x、TGPU_x为转移时延模型,k为线性转移因子。
根据本发明提供的测量视频传输时延的系统,包括:
第一动作时延模型生成模块:将视频序列进行第一动作处理,测量第一动作处理的时延得到第一测量结果,将第一测量结果进行拟合得到第一调节参数,将第一调节参数代入第一动作时延计算公式得到第一动作时延模型;
第二动作时延模型生成模块:将视频序列进行第二动作处理,测量第二动作处理的时延得到第二测量结果,将第二测量结果进行拟合得到第二调节参数,将第二调节参数代入第二动作时延计算公式得到第二动作时延模型;
计算模块:将第一动作时延模型和第二动作时延模型进行计算得出视频传输时延总模型。
与现有技术相比,本发明具有如下的有益效果:
1、本发明可以针对不用实时性需求的应用场景,根据场景下用户对视频传输实时性的敏感度需求,用于修正用户体验质量的评价指标,指导源端选择适应的参数组合进行视频的获取与编码,提升用户的总体体验质量;
2、当应用场景存在对时延要求极其严格时,本发明所提供的时延模型可以单独作为一个服务端码率控制的一个限制条件,使总体时延严格低于当前应用场景所容忍的最大限制。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为视频传输时延模型建立流程图;
图2为转移时延模型跨设备快速建模方法流程图;
图3为利用时延模型修正视频传输质量评价模型流程图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
根据本发明提供的测量视频传输时延的方法,图1为视频传输时延模型建立流程图,包括:
需要采集、传输、呈现的视频,具有以下几个自有参数:
空间分辨率s:指视频一帧中所含的像素个数,通常由长乘宽的像素值表示。
时间分辨率t:指视频单位时间(一秒)中采集或播放的帧的数量。
量化参数q:指视频在编码时编码器中所设置的QP值。
帧大小F:指一帧编码后的帧的大小(字节)。由于对于每帧视频计算时,计算量较大,可以用较短时间内的平均帧大小来代替计算。
用于构建编码、解码时延模型的视频序列,由若干较短时间的原始视频YUV序列组成,具有相同的空间分辨率大小和相同的帧数。
构建步骤:使用编码器,将原始视频YUV序列编码成几种s、几种t、几种q的组合的码流,再使用相应的解码器进行解码为YUV序列。并分别测量编码后的平均帧大小、编码时间和解码时间。
其中,单独一组参数的组合与单独一个原始视频YUV序列的编码、解码时间,应由多次重复测量后,剔除离群值后,取其平均值,以降低偶然性对之后模型建立的准确性。
根据选择的不同的编解码器(H.264、H.265)和编解码硬件类型(CPU、GPU),选择前述相应的模型公式进行拟合,分别得到编、解码时延模型中的α、σ、μ、δ、β、ω、θ、λ、β’、ω’和θ’等调节参数的值。
得到基础设备的调节参数后,对于相同硬件类型单不同的具体硬件型号的目标设备,进行测试时仅用选择最小的t、最大的q和所有的s的组合,与相同s、t、q组合的编、解码时间进行线性拟合,得到线性转移因子k,可以快速获取不同设备的编码时延模型和解码时延模型。
用于构建渲染模型的序列,为解码后得到的不同的s的YUV序列,将其渲染至屏幕上,并记录渲染时间。
网络发送时延根据编码后得到的平均帧大小与实际环境中的网络带宽计算得到;网络传输时延由现有算法测量得到。
捕获时延与刷新时延直接根据自有参数计算得到。
将所有的捕获、编码、网络、解码、渲染、刷新时延模型相加后,得到总时延模型。
本发明中的测量视频传输时延的方法,具体为:定义了视频捕获、编码、解码、渲染和刷新的时延模型,每项模型都由一项或几项视频的空间分辨率s(一帧视频的像素数量)、时间分辨率t(每秒有多少帧)、量化参数q、帧大小F(字节)等视频自有参数和其他调节参数决定。其中,其他调节参数因具体设备的不同会有差异。
本发明中,所提供的各类时延模型包括:
捕获时延(Tcapture):将屏幕上的内容或摄像头中取景的内容转化为未编码的YUV基本视频帧的时延。捕获时延可直接计算得出:
Figure BDA0002441255260000061
编码时延(Tencode):YUV序列通过编码器编码为可以流化传输的视频帧序列的时延。
H.264编码器使用中央处理器(CPU)进行编码的编码时延为:
Figure BDA0002441255260000062
其中,α、σ和μ为调节参数,smax为最大分辨率尺寸的像素数量。
H.264、H.265编码器使用图形加速处理器(GPU)进行编码的编码时延均为:
Figure BDA0002441255260000063
其中,δ同样为调节参数。
网络时延(Tnetwork):将编码好的视频流经过互联网由服务端传输至客户端所需的时延。网络时延分为发送时延(Ttransmission)和环路时延(Tpropagation)两部分。环路时延主要随网络波动性影响,且已有相当完备的模型,可根据实际引用场景选择合适的网络环路时延模型。但综合整体时延需要一并计算。若B为当前网络传输带宽,网络发送时延可以直接计算得出:
Figure BDA0002441255260000071
解码时延(Tdecode):将流化视频帧通过解码器恢复为YUV基本帧的时延。
H.264解码器使用中央处理器(CPU)进行解码的解码时延为:
Figure BDA0002441255260000072
其中,β、ω和θ为调节参数。
H.264、H.265解码器使用图形加速处理器(GPU)进行解码的解码时延均为:
Figure BDA0002441255260000073
其中,λ、β’、ω’和θ’同样为调节参数。
渲染时延(Trender):将YUV基本帧渲染至屏幕中每一个像素点应该显示的内容,并传送到屏幕缓存器就绪为止所需的时延。
Figure BDA0002441255260000074
其中,γ、ρ和φ为调节参数。
刷新时延(Trefresh):屏幕将缓存器中的数据取出,呈现在屏幕上的时延。
Figure BDA0002441255260000075
在上述编码时延和解码时延中,调节参数由一组标准视频序列经相应编码器、解码器设置不同的固有参数(s、t、q)组合进行测量得到。渲染时延的调节参数仅由标准视频序列中不同的s进行测量得到。
在实际过程中,在特定的硬件设备上通过测试完整的标准序列计算量较大。不同设备之间的性能差异(编解码器相同、硬件类型相同但具体硬件型号不同)对编解码时延的结果的影响为线性关系。可利用此线性关系为不同的具体硬件型号之间建立转移模型,仅需在目标设备上测量极小部分的标准视频序列(例如但不限于仅测试所有的s、最小的t和最大的q的各种组合),通过转移时延模型得到目标设备的编码时延和解码时延。图2为转移时延模型跨设备快速建模方法流程图。
转移时延模型为:
TCPU_x=k×TCPU_base
TGPU_x=k×TGPU_base
其中,TCPU_base、TGPU_base为基础设备经过完整标准序列测试所得到的含调节参数的编、解码时延模型,TCPU_x、TGPU_x为目标设备的编、解码实验模型,k为线性转移因子,通过在基础设备和目标设备测试相同的极小部分的标准视频序列进行测量得到。
综上,本发明给出的视频传输时延的总模型为:
TLatency=Tcapture+Tencode+Tnetwork+Tdecode+Trender+Trefresh
该时延模型可作为视频传输质量评价模型中的惩罚因子,来修正为纳入时延敏感度的质量评价体系,可根据应用对时延的敏感度,调整惩罚因子的惩罚系数。
本发明中的测量视频传输时延的系统,包括:视频传输时延总模型运算模块:对第一动作时延模型和第二动作时延模型进行运算,得到视频传输时延总模型;第一动作处理模块:对视频信息进行第一动作处理;测量第一动作时延模块:对处理第一动作的时延进行测量并得到测量结果;测量结果拟合模块:对测量结果进行拟合得到调节参数;第一动作时延计算模块:根据第一动作时延计算公式计算第一动作时延模型;第二动作时延计算模块:根据第二动作时延计算公式计算第二动作时延模型。
进一步地,还包括时延模型转移系统。时延模型转移系统包括:第一动作处理模块:对视频自有参数样本组合的视频序列进行第一动作处理;时延测量模块:测量所述经过第一动作处理的时延并得到样本测量结果;样本第一动作时延测量结果提取模块:从第一动作时延测量结果中提取样本得到样本第一动作时延测量结果;样本测量结果拟合模块:对所述样本第一动作时延测量结果和所述样本测量结果进行拟合得到转移因子;转移时延计算模块:将所述调节参数和所述转移因子代入转移时延计算公式得到所述转移时延模型。
本发明的测量视频传输时延的系统更具体的:视频捕获设备(包括但不限于摄像机、计算机屏幕等)、具备视频编码功能的服务器、计算机或便携式设备(其中,编码模块定义为编码器,具体可分为使用中央处理器(CPU)或图形处理器(GPU)两类)、具备视频解码功能的计算机或便携式设备(其中,解码码模块定义为解码器,具体可分为使用中央处理器(CPU)或图形处理器(GPU)两类)、具备视频播放功能的计算机或便携式设备(其中,渲染模块定义为渲染器)、视频显示设备(包括但不限于计算机屏幕、便携式设备屏幕等)。
在上述各设备中,视频捕获设备、编码服务器/计算机/便携设备作为本系统的发送端,解码、播放计算机/便携设备作为本系统的接受端,两者之间通过网络进行连接(包括但不限于局域网、广域网、互联网、移动互联网等)。
在传输开始之前,需将标准视频序列通过发送端和接收端进行编码、解码和渲染过程,测量相应的时延后拟合的到相应的调节参数的值。将调节参数和自有参数的具体数值带入方法中的模型公示中,得到具体的模型。特别的,如果相同类型、相同编解码方法,而具体硬件型号不同的编码器或解码器的编码时延或解码时延中的调节参数已经通过完整的标准序列的结果拟合得到,可以利用已经得到的编码或解码时延中的调节参数,通过对少量的标准视频序列中的样本进行测试,通过拟合得到线性转移因子而得到未知的编码器或解码器的编码时延或解码时延模型。
所得的模型可以根据需要在发送端控制或接收端请求时使用。
模型的使用方法包括但不限于:将整体时延作为引入用户评价模型中的一项惩罚因子使用;或将整体时延直接作为发送端选择发送视频版本的参数选择时的一项限制因素。
基于上述表述,以下给出具体应用实例:
以上所表述的几种不同的空间分辨率,在本实例中,分别为1920*1080,1280*720,854*480和640*360。
以上所表述的几种不同的时间分辨率,在本实例中,分别为120fps,60fps,30fps和15fps。
以上所表述的几种不同的量化参数,在本实例中,分别为22,27,32,37和42。
以上表述的标准视频序列,在本实例中,为8个120帧长度,大小为1920*1080的录制游戏视频YUV序列。
编码后的视频长度始终为1秒,即,对于含有120fps的组合,每一帧都将进行编码;对于含有60fps的组合,进行隔帧取帧编码;对于含有30fps的组合,在60fps选取的帧的基础上进行隔帧取帧编码;对于含有15fps的组合,在30fps选取的帧的基础上进行隔帧取帧编码。
对于每一个视频序列,每一种编码器和每一种硬件,均有4*4*5=80组自有参数(s,t,q)的组合。
对于前述每一个视频序列的每一种组合的多次重复实验,选取10次以上的重复次数,并在结果中剔除离群值。本实例剔除依据为剔除与均值相差超过三倍标准差的值。
图3为利用时延模型修正视频传输质量评价模型流程图。
视频的码率(R)与平均帧大小(F)的关系为R=F*t。
若以一般的将视频码率R作为其质量的通用评价模型,则纳入总时延T作为惩罚因子的更新修正之后的质量评价模型为:
Q=R-a*T
其中,a为惩罚系数,a*T为惩罚因子项。
具体地,可以应用个性化视频直播、云游戏、云桌面等实时性要求较高的视频传输。视频直播,即通过摄像头等视频捕获设备采集主播用户的画面,经实时编码后通过互联网传输至各用户端,再进行实时解码与渲染,供用户观看,其中,主播和用户之间可能存在交互行为。云游戏、云桌面即用客户终端连接鼠标、键盘等输入设备与屏幕等显示设备,服务端为高性能计算机,运行用户需要的游戏画面或一般电脑桌面内容,通过将用户的输入指令通过互联网传输至服务端,根据用户指令操作服务端计算机,将的到的内容响应(游戏画面或一般桌面内容)实时采集为视频信息,并编码为视频流下行传输至用户端,解码渲染后呈现在用户端的屏幕上供用户观看。上述场景中,对于视频从采集到呈现的时延的敏感度很高,极大影响着用户体验。
本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的系统、装置及其各个模块以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的系统、装置及其各个模块以逻辑门、开关、专用集成电路、可编程逻辑控制器以及嵌入式微控制器等的形式来实现相同程序。所以,本发明提供的系统、装置及其各个模块可以被认为是一种硬件部件,而对其内包括的用于实现各种程序的模块也可以视为硬件部件内的结构;也可以将用于实现各种功能的模块视为既可以是实现方法的软件程序又可以是硬件部件内的结构。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。

Claims (7)

1.一种测量视频传输时延的方法,其特征在于,包括:
第一动作时延模型生成步骤:将视频序列进行第一动作处理,测量第一动作处理的时延得到第一测量结果,将第一测量结果进行拟合得到第一调节参数,将第一调节参数代入第一动作时延计算公式得到第一动作时延模型;
第二动作时延模型生成步骤:将视频序列进行第二动作处理,测量第二动作处理的时延得到第二测量结果,将第二测量结果进行拟合得到第二调节参数,将第二调节参数代入第二动作时延计算公式得到第二动作时延模型;
计算步骤:将第一动作时延模型和第二动作时延模型进行计算得出视频传输时延总模型;
所述第一动作包括:编码,解码和渲染中的任一种或多种;
所述第二动作包括:捕获、刷新和网络中的任一种或多种;
所述第一动作时延模型包括:编码时延模型,解码时延模型和渲染时延模型中的任一种或多种;
所述第二动作时延模型包括:捕获时延模型、刷新时延模型和网络时延模型中的任一种或多种;
所述第一动作时延计算公式包括:编码时延计算公式、解码时延计算公式和渲染时延计算公式中的任一种或多种;
所述第二动作时延计算公式包括:捕获时延计算公式、刷新时延计算公式和网络时延计算公式中的任一种或多种;
所述编码时延计算公式包括:
Figure FDA0003737892800000011
Figure FDA0003737892800000012
其中,α、σ、μ和δ为调节参数,smax为最大分辨率尺寸的像素数量,F为帧大小,s为空间分辨率;
所述解码时延计算公式包括:
Figure FDA0003737892800000013
Figure FDA0003737892800000021
其中,β、ω、θ、λ、β’、ω’和θ’为调节参数;
所述渲染时延计算公式包括:
Figure FDA0003737892800000022
其中,γ、ρ和φ为调节参数。
2.根据权利要求1所述的测量视频传输时延的方法,其特征在于,所述编码时延包括:YUV序列通过编码器编码为流化传输的视频帧序列的时延;
所述解码时延包括:将流化传输的视频帧序列通过解码器恢复为YUV基本帧的时延;
所述渲染时延包括:将YUV基本帧渲染至屏幕中每一个像素点并传送到屏幕缓存器中所需的时延;
所述捕获时延包括:将屏幕上或摄像头中的内容转化为未编码的YUV基本视频帧的时延;
所述刷新时延包括:屏幕将缓存器中的数据取出,呈现在屏幕上的时延;
所述网络时延包括:将经过编码的视频流由服务端传输至客户端所需的时延。
3.根据权利要求2所述的测量视频传输时延的方法,其特征在于,所述捕获时延计算公式包括:
Figure FDA0003737892800000023
其中,t为时间分辨率;
所述刷新时延计算公式包括:
Figure FDA0003737892800000024
其中,t为时间分辨率,r为屏幕刷新率;
所述网络时延计算公式包括:
Figure FDA0003737892800000025
其中,F为帧大小,B为当前网络传输带宽。
4.根据权利要求1所述的测量视频传输时延的方法,其特征在于,所述第一动作时延模型包括转移时延模型;
所述转移时延模型的生成步骤包括:
获取基础设备的编、解码模型的调节参数,对于与基础设备相同硬件类型但不同型号的目标设备,选择空间分辨率s、时间分辨率t、量化参数q的参数组合中的部分参数组合的编、解码时间与基础设备相同的参数组合的编、解码时间进行拟合,得到转移因子,将调节参数和转移因子代入转移时延计算公式得到转移时延模型。
5.根据权利要求4所述的测量视频传输时延的方法,其特征在于,所述转移时延计算公式包括:
TCPU_x=k×TCPU_base
或TGPU_x=k×TGPU_base
其中,TCPU_base、TGPU_base为基础设备经过完整标准序列测试所得到的含调节参数的编、解码时延模型,TCPU_x、TGPU_x为目标设备的编、解码时延模型,k为线性转移因子,通过在基础设备和目标设备测试相同的极小部分的标准视频序列进行测量得到。
6.一种测量视频传输时延的系统,其特征在于,包括:
第一动作时延模型生成模块:将视频序列进行第一动作处理,测量第一动作处理的时延得到第一测量结果,将第一测量结果进行拟合得到第一调节参数,将第一调节参数代入第一动作时延计算公式得到第一动作时延模型;
第二动作时延模型生成模块:将视频序列进行第二动作处理,测量第二动作处理的时延得到第二测量结果,将第二测量结果进行拟合得到第二调节参数,将第二调节参数代入第二动作时延计算公式得到第二动作时延模型;
计算模块:将第一动作时延模型和第二动作时延模型进行计算得出视频传输时延总模型;
所述第一动作包括:编码,解码和渲染中的任一种或多种;
所述第二动作包括:捕获、刷新和网络中的任一种或多种;
所述第一动作时延模型包括:编码时延模型,解码时延模型和渲染时延模型中的任一种或多种;
所述第二动作时延模型包括:捕获时延模型、刷新时延模型和网络时延模型中的任一种或多种;
所述第一动作时延计算公式包括:编码时延计算公式、解码时延计算公式和渲染时延计算公式中的任一种或多种;
所述第二动作时延计算公式包括:捕获时延计算公式、刷新时延计算公式和网络时延计算公式中的任一种或多种;
所述编码时延计算公式包括:
Figure FDA0003737892800000041
Figure FDA0003737892800000042
其中,α、σ、μ和δ为调节参数,smax为最大分辨率尺寸的像素数量,F为帧大小,s为空间分辨率;
所述解码时延计算公式包括:
Figure FDA0003737892800000043
Figure FDA0003737892800000044
其中,β、ω、θ、λ、β’、ω’和θ’为调节参数;
所述渲染时延计算公式包括:
Figure FDA0003737892800000045
其中,γ、ρ和φ为调节参数。
7.一种存储有计算机程序的计算机可读存储介质,其特征在于,所述计算机程序被处理器执行时实现权利要求1至5中任一项所述的方法的步骤。
CN202010265928.8A 2020-04-07 2020-04-07 测量视频传输时延的方法、系统及介质 Active CN113497932B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010265928.8A CN113497932B (zh) 2020-04-07 2020-04-07 测量视频传输时延的方法、系统及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010265928.8A CN113497932B (zh) 2020-04-07 2020-04-07 测量视频传输时延的方法、系统及介质

Publications (2)

Publication Number Publication Date
CN113497932A CN113497932A (zh) 2021-10-12
CN113497932B true CN113497932B (zh) 2022-10-18

Family

ID=77995509

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010265928.8A Active CN113497932B (zh) 2020-04-07 2020-04-07 测量视频传输时延的方法、系统及介质

Country Status (1)

Country Link
CN (1) CN113497932B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114827104B (zh) * 2022-05-17 2024-02-23 咪咕文化科技有限公司 时延调整方法、装置、设备及计算机可读存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102316363A (zh) * 2011-09-09 2012-01-11 华南理工大学 非介入式双端采集的视频端到端延迟测量方法及装置
CN103326903A (zh) * 2013-07-05 2013-09-25 华北电力大学 基于隐马尔科夫的Internet网络时延预测方法
CN103686444A (zh) * 2012-09-20 2014-03-26 中国科学院声学研究所 一种MIMO OFDM系统中具有端到端QoS保证的视频传输方案
CN106162188A (zh) * 2015-04-28 2016-11-23 北京大学 视频码率自适应调整方法及装置
CN107820227A (zh) * 2017-10-23 2018-03-20 北京航空航天大学 一种车路无线通信网络服务质量参数测试装置
CN110177027A (zh) * 2019-05-29 2019-08-27 深圳华锐金融技术股份有限公司 网络时延抖动度量方法、装置、计算机设备及存储介质
CN110743164A (zh) * 2019-10-21 2020-02-04 南开大学 一种用于降低云游戏中响应延迟的动态资源划分方法
CN110769269A (zh) * 2019-11-08 2020-02-07 北京工业大学 一种局域网屏幕直播延迟优化方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5196666B2 (ja) * 2009-10-03 2013-05-15 Kddi株式会社 期限時刻までにデータの送信を完了するデータ送信装置、プログラム及び方法
WO2012154152A1 (en) * 2011-05-06 2012-11-15 Google Inc. Apparatus and method for rendering video with retransmission delay
ES2958967T3 (es) * 2011-06-30 2024-02-16 Microsoft Technology Licensing Llc Reducción de latencia en codificación y descodificación de vídeo
US10742707B2 (en) * 2016-04-29 2020-08-11 Ittiam Systems (P) Ltd. Low latency multimedia streaming system and method
CN109120924B (zh) * 2018-10-30 2020-06-02 宁波菊风系统软件有限公司 一种实时视频通信的质量评价方法
CN110069342B (zh) * 2019-04-11 2021-01-15 西安交通大学 一种移动云计算环境下融合视频直播频道部署方法
CN110855400B (zh) * 2019-11-29 2022-02-25 江苏方天电力技术有限公司 基于纠错码的自适应丢包恢复方法、计算设备及存储介质
CN110944200B (zh) * 2019-12-10 2022-03-15 南京大学 一种评估沉浸式视频转码方案的方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102316363A (zh) * 2011-09-09 2012-01-11 华南理工大学 非介入式双端采集的视频端到端延迟测量方法及装置
CN103686444A (zh) * 2012-09-20 2014-03-26 中国科学院声学研究所 一种MIMO OFDM系统中具有端到端QoS保证的视频传输方案
CN103326903A (zh) * 2013-07-05 2013-09-25 华北电力大学 基于隐马尔科夫的Internet网络时延预测方法
CN106162188A (zh) * 2015-04-28 2016-11-23 北京大学 视频码率自适应调整方法及装置
CN107820227A (zh) * 2017-10-23 2018-03-20 北京航空航天大学 一种车路无线通信网络服务质量参数测试装置
CN110177027A (zh) * 2019-05-29 2019-08-27 深圳华锐金融技术股份有限公司 网络时延抖动度量方法、装置、计算机设备及存储介质
CN110743164A (zh) * 2019-10-21 2020-02-04 南开大学 一种用于降低云游戏中响应延迟的动态资源划分方法
CN110769269A (zh) * 2019-11-08 2020-02-07 北京工业大学 一种局域网屏幕直播延迟优化方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Delay-Power-Rate-Distortion Model for Wireless Video Communication Under Delay and Energy Constraints;Chenglin Li,Dapeng Wu,Hongkai Xiong;《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》;20140730;第24卷(第7期);全文 *
End-to-end Delay Analysis of Video conferencing over Packet Switched Networks;Mario Baldi,Yoram Ofek;《IEEE INFOCOM》;19980129;全文 *
T-Gaming:A Cost-Efficient Cloud Gaming System at Scale;Hao Chen,Xu Zhang,Yiling Xu,Ju Ren,Jingtao Fan,Zhan Ma;《IEEE TRANSACTIONS ON PARALLEL AND DISTRIBUTED SYSTEMS》;20191206;第30卷(第12期);全文 *
低时延高清视频编解码技术研究;汪洋;《计算机与网络》;20190312;第45卷(第5期);第2节 *
华志翔,白光伟,沈航,黄中平.基于Docker的混合云视频直播体系.《小型微型计算机系统》.2017,第38卷(第10期),2312-2316. *
基于Docker的混合云视频直播体系;华志翔,白光伟,沈航,黄中平;《小型微型计算机系统》;20171031;第38卷(第10期);第2节-第4.4节 *

Also Published As

Publication number Publication date
CN113497932A (zh) 2021-10-12

Similar Documents

Publication Publication Date Title
CN109510990B (zh) 图像处理方法及装置、计算机可读存储介质、电子设备
US6989868B2 (en) Method of converting format of encoded video data and apparatus therefor
TWI587693B (zh) 用於減少視訊編碼及解碼中之延遲的方法、系統及電腦可讀取媒體
US8687702B2 (en) Remote transmission and display of video data using standard H.264-based video codecs
US11265599B2 (en) Re-encoding predicted picture frames in live video stream applications
CN111263154B (zh) 一种视频数据处理方法、装置及存储介质
US20130022116A1 (en) Camera tap transcoder architecture with feed forward encode data
CN110198492B (zh) 一种视频的水印添加方法、装置、设备及存储介质
US20100061443A1 (en) Method and system for video streaming of a graphical display of an application
US9277218B2 (en) Video processor with lossy and lossless frame buffer compression and methods for use therewith
US9877056B1 (en) Compressed media with still images selected from a video stream
CN114513655A (zh) 直播视频质量评价方法、视频质量的调整方法及相关装置
CN112165653B (zh) 一种视频播放方法、装置及设备
CN113497932B (zh) 测量视频传输时延的方法、系统及介质
EP2770743B1 (en) Methods and systems for processing content
US20170221174A1 (en) Gpu data sniffing and 3d streaming system and method
CN113784118A (zh) 视频质量评估方法及装置、电子设备和存储介质
TWI806479B (zh) 點雲編解碼方法、裝置、電腦可讀介質及電子設備
CN117440209B (zh) 一种基于演唱场景的实现方法及系统
WO2013163221A1 (en) Systems and methods for adaptive streaming with augmented video stream transitions
US20130287092A1 (en) Systems and Methods for Adaptive Streaming with Augmented Video Stream Transitions
CN117714700A (zh) 一种视频编码方法、装置、设备、可读存储介质及产品
CN110798715A (zh) 基于图像串的视频播放方法及系统
CN116437073A (zh) 一种面向tvos终端的动态视频质量计算方法、保证方法及其分析和动态控制业务系统
CN114745590A (zh) 视频帧编码方法、装置、电子设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant