具体实施方式
以下描述和附图充分地示出本发明的具体实施方案,以使本领域的技术人员能够实践它们。其他实施方案可以包括结构的、逻辑的、电气的、过程的以及其他的改变。实施例仅代表可能的变化。除非明确要求,否则单独的部件和功能是可选的,并且操作的顺序可以变化。一些实施方案的部分和特征可以被包括在或替换其他实施方案的部分和特征。本发明的实施方案的范围包括权利要求书的整个范围,以及权利要求书的所有可获得的等同物。在本文中,本发明的这些实施方案可以被单独地或总地用术语“发明”来表示,这仅仅是为了方便,并且如果事实上公开了超过一个的发明,不是要自动地限制该应用的范围为任何单个发明或发明构思。
如图1所示,为云媒体资源分配的方法的流程图,该方法包括如下步骤:
步骤S109:根据云媒体任务请求的参数以及当前的云媒体资源的属性参数之间的关联关系得到第一综合效用值。
步骤S111:利用第一综合效用值分配云媒体资源。
其中,关联关系的运算过程包括:
其中,U为第一综合效用值, 为任务请求的最小效用值; 为资源的最小效用值;ωCR+ωCP=1,ωCR和ωCP分别为第二综合效用值和第三综合效用值的权重;任务请求的参数包括:调整系数PCR、响应时间RTCR和带宽BCR;资源的属性参数的参数包括:调整系数PCP、响应时间RTCP和带宽BCP。
在一些说明性实施例中,云媒体任务请求包括以下参数:调整系数PCR、响应时间RTCR和带宽BCR。优选的,该调整系数可以是价格。
由于云媒体服务请求需要支付一定的代价,适中的调整系数可以很好的反映出云媒体服务的效用;又因为云媒体服务如:媒体的实时播放,视频的同步播放等对时间具有很高的要求,因此云媒体服务具有一定的时效性,合理的响应时间会反映出云媒体服务较高的效用;又因为云媒体的传输需要大量的调整系数,适中的带宽会提高云媒体服务的效用。因此,把对云媒体服务的调整系数、响应时间和带宽作为所考虑的QoS(Quality ofService,服务质量)参数集合,通过计算每个参数的效用值来获得云媒体服务的综合效用值,进而提高云媒体服务效用。
在一些说明性实施例中,步骤S102之前还包括:
步骤S101:接收云媒体任务请求。
步骤S103:运算第二综合效用值,其过程包括:
其中, 和分别为任务请求的调整系数PCR的效用值响应时间RTCR的效用值和带宽BCR的效用值的权重。
步骤S103之前包括如下的步骤:
步骤S102A:运算得到任务请求的调整系数PCR的效用值
其中,表示所述云媒体任务请求的调整系数最低效用值,和分别代表所述云媒体服务请求者的最佳期望调整系数和最差期望调整系数;
步骤S102B:运算得到任务请求的响应时间RTCR的效用值
其中,表示所述任务请求的响应时间的最低效用值,和分别代表任务请求的最佳期望响应时间和最差期望响应时间;
步骤S102C:运算得到任务请求的带宽BCR的效用值
其中,表示所述任务请求的最低效用值,和分别代表任务请求的最佳期望带宽和最差期望带宽。
在一些说明性实施例中,u(BCR)、采用下式得到:
其中ω表示控制函数形状的参数,X为BCR、和
通过云媒体资源的属性运算得到,具体步骤如下:
步骤S108:通过以下公式获得第三综合效用值
其中, 和分别为资源的调整系数PCP的效用值响应时间RTCP的效用值和带宽BCP的效用值的权重。
在一些说明性实施例中,步骤S108之前又包括:
步骤S107A:运算得到资源的调整系数PCP的效用值。
其中,表示资源的调整系数PCP的最低效用值,和分别代表资源的调整系数PCP的初始调整系数和保留调整系数。
步骤S107B:运算得到资源的响应时间RTCP的效用值。
其中,表示资源的响应时间的最低效用值,和分别代表资源的初始响应时间和保留响应时间。
步骤S107C:运算得到资源的带宽BCP的效用值。
其中,表示资源的带宽的最低效用值,和分别代表资源的初始带宽和保留带宽。
在一些说明性实施例中,步骤S111之前包括:
步骤S110:将第二综合效用值和第一综合效用值进行比较。
在一些说明性实施例中,步骤S111具体还包括:如果第一综合效用值不小于第二综合效用值,则将当前云媒体资源分配给云媒体任务请求。
在一些说明性实施例中,步骤S111还包括如下的情况:如果有多个云媒体资源,则云媒体任务请求对应于多个第一综合效用值,每个第一综合效用值对应一个云媒体资源;如果多个第一综合效用值中的最大值不小于第二综合效用值,则将最大值对应的云媒体资源分配给云媒体任务请求。
在一些说明性实施例中,步骤S103之后还包括如下步骤:
步骤S104:如果第二综合效用值为0,则检查任务请求是否超时。
步骤S105:判断任务请求是否超时。
如果任务请求超时,则云媒体资源分配结束。如果任务请求没有超时,则执行让步策略重新确定第二综合效用值,直到第二综合效用值不为0。
步骤S106:执行让步策略,具体过程包括:
由该次任务请求的第二综合效用值得到下一次任务请求的第二综合效用值
其中,为该次任务请求的第二综合效用值,为让步步长。
当下一次任务请求的第二综合效用值不为0时,则执行后续的步骤。
在一些说明性实施例中,让步步长其中,τ为截止时间(通过τ确定最大协商次数),t为协商次数,λ为对让步速率控制的参数,0≤λ≤10。
针对于上述方法,本发明提供了一种云媒体资源分配的装置。如图3所示,该装置包括:
服务协商模块202,用于根据云媒体任务请求的参数以及当前的云媒体资源的属性参数之间的关联关系得到第一综合效用值;
资源分配模块203,用于利用所述第一综合效用值分配云媒体资源;
其中,所述关联关系的运算过程包括:
其中,U为第一综合效用值, 为任务请求的最小效用值; 为资源的最小效用值;ωCR+ωCP=1,ωCR和ωCP分别为第二综合效用值和第三综合效用值的权重;任务请求的参数包括:调整系数PCR、响应时间RTCR和带宽BCR;资源的属性参数的参数包括:调整系数PCP、响应时间RTCP和带宽BCP。
上述装置从提高云媒体服务效用的角度出发,其目标函数不再是最小化响应时间,而是以达到最大效用为目标,充分提高云用户的满意度。
在一些说明性实施例中,云媒体任务请求包括以下参数:调整系数PCR、响应时间RTCR和带宽BCR。
由于云媒体服务请求需要支付一定的代价,适中的调整系数可以很好的反映出云媒体服务的效用;又因为云媒体服务如:媒体的实时播放,视频的同步播放等对时间具有很高的要求,因此云媒体服务具有一定的时效性,合理的响应时间会反映出云媒体服务较高的效用;又因为云媒体的传输需要大量的调整系数,适中的带宽会提高云媒体服务的效用。因此,把对云媒体服务的调整系数、响应时间和带宽作为所考虑的QoS参数集合,通过计算每个参数的效用值来获得云媒体服务的综合效用值,进而提高云媒体服务效用。
在一些说明性实施例中,该装置还包括:第二模块204。第二模块204用于运算第二综合效用值。
在一些说明性实施例中,第二模块204用于运算第二综合效用值的过程包括:
其中, 和分别为任务请求的调整系数PCR的效用值响应时间RTCR的效用值和带宽BCR的效用值的权重。
在一些说明性实施例中,第二模块204包括:任务请求的调整系数模块2041、任务请求的响应时间模块2042和任务请求的带宽模块2043。
任务请求的调整系数模块2041,用于按照下式运算任务请求的调整系数PCR的效用值,
其中,表示云媒体任务请求的调整系数最低效用值,和分别代表云媒体服务请求者的最佳期望调整系数和最差期望调整系数。
任务请求的响应时间模块2042,用于按照下式运算任务请求的响应时间RTCR的效用值,
其中,表示任务请求的响应时间的最低效用值,和分别代表任务请求的最佳期望响应时间和最差期望响应时间。
任务请求的带宽模块2043,用于按照下式运算任务请求的带宽BCR的效用值
其中,表示任务请求的最低效用值,和分别代表任务请求的最佳期望带宽和最差期望带宽。
在一些说明性实施例中,u(BCR)、采用下式得到:
其中ω表示控制函数形状的参数,X为BCR、和
在一些说明性实施例中,该装置还包括:第三模块205。第三模块205用于通过以下公式获得第三综合效用值
其中, 和分别为资源的调整系数PCP的效用值响应时间RTCP的效用值和带宽BCP的效用值的权重。
在一些说明性实施例中,第三模块205包括:资源的调整系数模块2051、资源的响应时间模块2052和资源的带宽模块2053
资源的调整系数模块2051,用于按照下式运算资源的调整系数PCP的效用值
其中,表示资源的调整系数PCP的最低效用值,和分别代表资源的调整系数PCP的初始调整系数和保留调整系数。
资源的响应时间模块2052,用于按照下式运算资源的响应时间RTCP的效用值
其中,表示资源的响应时间的最低效用值,和分别代表资源的初始响应时间和保留响应时间;
资源的带宽模块2053,用于按照下式运算资源的带宽BCP的效用值
其中,表示资源的带宽的最低效用值,和分别代表资源的初始带宽和保留带宽。
在一些说明性实施例中,该装置还包括:任务调度模块201,用于接收云媒体任务请求。
在一些说明性实施例中,如果服务协商模块202判断到第一综合效用值不小于第二综合效用值,则资源分配模块203将当前云媒体资源分配给云媒体任务请求。
在一些说明性实施例中,如果有多个云媒体资源,则云媒体任务请求对应于多个第一综合效用值,每个第一综合效用值对应一个云媒体资源;如果服务协商模块202判断到多个第一综合效用值中的最大值不小于第二综合效用值,则资源分配模块203将最大值对应的云媒体资源分配给云媒体任务请求。
在一些说明性实施例中,该装置还包括:超时判断模块206。如果第二综合效用值为0,超时判断模块206检查任务请求是否超时;如果任务请求超时,则云媒体资源分配结束;如果任务请求没有超时,则执行让步策略。
在一些说明性实施例中,该装置还包括:让步策略模块207。让步策略模块207用于重新确定第二综合效用值,直到第二综合效用值不为0。
在一些说明性实施例中,让步策略模块207执行让步策略的过程包括:
由该次任务请求的第二综合效用值得到下一次任务请求的第二综合效用值
其中,为该次任务请求的第二综合效用值,为让步步长。
在一些说明性实施例中,让步步长其中,τ为截止时间(通过τ可以确定最大协商次数),t为协商次数,λ为对让步速率控制的参数,0≤λ≤10。
下面,以一仿真实例具体描述上述方法。
该仿真实例采用CloudSim云仿真平台作为仿真环境,利用云媒体任务请求的参数和云媒体资源的属性参数作为输入,评估本发明的方法与贪婪分配算法GA(GreedyAllocation)以及随机分配算法RA(Random Allocation)的性能。
(1)仿真参数设置
仿真分别将云媒体任务请求的任务数目由100增至700对算法进行评价,其中云媒体任务请求的参数由仿真平台在一定范围内随机生成,生成的随机数满足以下条件:
其中Se和So分别对应云媒体任务请求的作业可执行文件的大小和作业执行后需要传输的结果文件大小,α为相应系数,0≤α≤1,通过对α的设置可以反映云媒体服务调整系数、响应时间和带宽之间的关系。云媒体资源属性首先划分不同等级,分别对应不同的调整系数、响应时间和带宽的范围,参数设置满足公式其它参数设置如表1所示。该实例中,选择价格作为调整系数。
表1其他参数设置
(2)云媒体服务响应时间分析
服务的执行时间可以评价整个云媒体资源分配的性能,因此本仿真实例对云媒体服务的执行时间进行了性能分析。执行时间定义为分别将云媒体任务请求数量由100增至700。本算法采用了响应时间、传输带宽作为云媒体资源分配的参数,并对参数的效用值进行了最大化选择,因此可以获得较好的服务响应时间效果。具体仿真结果如图3所示。图3说明了云媒体服务开始时,任务请求较少,资源较为充足,三种方法的响应时间基本相同,但随着任务请求的增加,本发明的方法表现出良好的稳定性,而且响应时间要优于其他两种方法。
(3)云媒体服务效用分析
云媒体服务的效用值可以反映出云媒体的服务满意度,将云媒体任务请求数量从100增至700对云媒体服务的效用值进行性能分析。本发明的方法通过对参数的效用计算,得出最大化的云媒体资源分配效用,因此可以获得很好的云媒体服务效用值。仿真结果如表2所示。
表2云媒体服务效用值比较
本发明方法 |
0.51 |
0.51 |
0.52 |
0.50 |
0.50 |
0.51 |
0.51 |
GA |
0.31 |
0.29 |
0.29 |
0.30 |
0.29 |
0.30 |
0.31 |
RA |
0.23 |
0.24 |
0.28 |
0.30 |
0.30 |
0.3 |
0.30 |
表2表明了随着云媒体任务请求数量的增加,本发明的方法的云媒体服务平均效用值高于其他两种算法,因此可以更好的满足SLAs(服务水平协议,Service LevelAgreements)协议,从而提高云媒体服务的满意度。
(4)对本发明的方法的协商参数不同权重值的性能分析
分别对云媒体服务的价格、响应时间和带宽参数的权值进行设置,其中设置的权重值如表3所示。
表3不同的云媒体服务权重值
图4和表4分别表示对于不同权重值的本发明的方法的云媒体服务的响应时间和效用值。图4表明了当对响应时间的权重加大,云媒体服务的响应时间随之减小。表4表明对参数权值改变,本发明的方法的总效用值仍然比较稳定。从而说明了本发明的方法的稳定性。
表4对于不同协商参数权重值的云媒体服务效用值比较
综上所述,通过本发明的方法进行云媒体的资源分配,从而获得较高的服务效用值,进而可以更好的满足SLAs协议,实现较高的服务等级,提高云媒体服务的满意度。
本领域技术人员还应当理解,结合本文的实施例描述的各种说明性的逻辑框、模块、电路和算法步骤均可以实现成电子硬件、计算机软件或其组合。为了清楚地说明硬件和软件之间的可交换性,上面对各种说明性的部件、框、模块、电路和步骤均围绕其功能进行了一般地描述。至于这种功能是实现成硬件还是实现成软件,取决于特定的应用和对整个装置所施加的设计约束条件。熟练的技术人员可以针对每个特定应用,以变通的方式实现所描述的功能,但是,这种实现决策不应解释为背离本公开的保护范围。