CN117278556A - 算力资源调度方法和装置 - Google Patents
算力资源调度方法和装置 Download PDFInfo
- Publication number
- CN117278556A CN117278556A CN202311227100.3A CN202311227100A CN117278556A CN 117278556 A CN117278556 A CN 117278556A CN 202311227100 A CN202311227100 A CN 202311227100A CN 117278556 A CN117278556 A CN 117278556A
- Authority
- CN
- China
- Prior art keywords
- data
- execution
- flow request
- terminal
- decision result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000004364 calculation method Methods 0.000 claims abstract description 102
- 238000013139 quantization Methods 0.000 claims abstract description 25
- 238000009826 distribution Methods 0.000 claims abstract description 20
- 238000012545 processing Methods 0.000 claims abstract description 17
- 238000004422 calculation algorithm Methods 0.000 claims description 30
- 230000005540 biological transmission Effects 0.000 claims description 28
- 230000008569 process Effects 0.000 claims description 12
- 238000003860 storage Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 238000004590 computer program Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 6
- 238000005457 optimization Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011480 coordinate descent method Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/70—Admission control; Resource allocation
- H04L47/78—Architectures of resource allocation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/60—Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
- H04L67/63—Routing a service request depending on the request content or context
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本说明书一个或多个实施例公开了一种算力资源调度方法和装置。所述方法包括:获取针对目标业务的本次流量请求之前的至少一次历史流量请求下的用户信息、执行设备的类型、执行设备的算力数据和执行设备的延时数据;基于用户信息、执行设备的类型、执行设备的算力数据、执行设备的延时数据,通过数据量化处理确定用于进行算力资源调度的约束参数;获取对约束参数进行优化处理得到的用于进行算力资源调度的第一调和参数和第二调和参数,并根据获取的第一调和参数和第二调和参数确定终端本次流量请求的执行决策结果数据;根据终端本次流量请求的执行决策结果数据,对终端、边缘服务器和云端服务器进行算力分配,得到执行本次流量请求的设备。
Description
技术领域
本说明书涉及计算机技术领域,尤其涉及一种算力资源调度方法和装置。
背景技术
当前,随着计算机技术的不断发展,针对目标业务的场景算法模型尺寸规模迅速增长,业务场景对算力资源的需求呈数量级式上涨,仅凭不断增加机器预算和硬件的升级演化已经不能满足针对目标业务流量请求的诉求。
相关技术中,现有的算力资源调度系统在降低终端计算压力时将终端收到的流量请求发送至边缘服务器进行算力卸载。但在算力资源卸载时,如果边缘服务器的算力资源出现过载报警,算力资源调度系统会停止终端到边缘服务器的算力资源卸载,终端的流量请求只能在终端完成,从而使得算力资源利用率低。因此,需要一种对终端收到的流量请求进行精细化调度的方法。
发明内容
一方面,本说明书一个或多个实施例提供一种算力资源调度方法,包括:获取针对目标业务的本次流量请求之前的至少一次历史流量请求下的用户信息、执行所述历史流量请求的执行设备的类型、所述执行设备的算力数据和所述执行设备的延时数据。基于所述用户信息、所述执行设备的类型、所述执行设备的算力数据、所述执行设备的延时数据,通过数据量化处理确定用于进行算力资源调度的约束参数,所述约束参数包括流量价值约束参数、算力约束参数和延时约束参数。获取对所述约束参数进行优化处理得到的用于进行算力资源调度的第一调和参数和第二调和参数,并根据获取的第一调和参数和第二调和参数确定终端本次流量请求的执行决策结果数据,所述第一调和参数和第二调和参数用于终端本次流量请求的执行决策结果数据计算的量纲标准化。根据终端本次流量请求的执行决策结果数据,对所述终端、边缘服务器和云端服务器进行算力分配,得到执行本次流量请求的设备。
另一方面,本说明书一个或多个实施例提供一种算力资源调度装置,包括:流量请求信息获取模块,获取针对目标业务的本次流量请求之前的至少一次历史流量请求下的用户信息、执行所述历史流量请求的执行设备的类型、所述执行设备的算力数据和所述执行设备的延时数据。约束参数计算模块,基于所述用户信息、所述执行设备的类型、所述执行设备的算力数据、所述执行设备的延时数据,通过数据量化,确定用于进行算力资源调度的约束参数,所述约束参数包括流量价值约束参数、算力约束参数和延时约束参数。调和参数计算模块,获取对所述约束参数进行优化处理得到的用于进行算力资源调度的量纲标准化的第一调和参数和第二调和参数。执行决策结果数据计算模块,根据获取的第一调和参数和第二调和参数确定终端本次流量请求的执行决策结果数据,所述第一调和参数和第二调和参数用于终端本次流量请求的执行决策结果数据计算的量纲标准化。算力分配模块,根据终端本次流量请求的执行决策结果数据,对所述终端、边缘服务器和云端服务器进行算力分配,得到执行本次流量请求的设备。
再一方面,本说明书一个或多个实施例提供一种电子设备,包括:处理器;以及被安排成存储计算机可执行指令的存储器,在所述可执行指令被执行时,能够使得所述处理器:获取针对目标业务的本次流量请求之前的至少一次历史流量请求下的用户信息、执行所述历史流量请求的执行设备的类型、所述执行设备的算力数据和所述执行设备的延时数据。基于所述用户信息、所述执行设备的类型、所述执行设备的算力数据、所述执行设备的延时数据,通过数据量化,确定用于进行算力资源调度的约束参数,所述约束参数包括流量价值约束参数、算力约束参数和延时约束参数。获取对所述约束参数进行优化处理得到的用于进行算力资源调度的量纲标准化的第一调和参数和第二调和参数,并根据获取的第一调和参数和第二调和参数确定终端本次流量请求的执行决策结果数据,所述第一调和参数和第二调和参数用于终端本次流量请求的执行决策结果数据计算的量纲标准化。根据终端本次流量请求的执行决策结果数据,对所述终端、边缘服务器和云端服务器进行算力分配,得到执行本次流量请求的设备。
再一方面,本说明书实施例提供一种存储介质,用于存储计算机程序,所述计算机程序能够被处理器执行以实现以下流程:获取针对目标业务的本次流量请求之前的至少一次历史流量请求下的用户信息、执行所述历史流量请求的执行设备的类型、所述执行设备的算力数据和所述执行设备的延时数据。基于所述用户信息、所述执行设备的类型、所述执行设备的算力数据、所述执行设备的延时数据,通过数据量化,确定用于进行算力资源调度的约束参数,所述约束参数包括流量价值约束参数、算力约束参数和延时约束参数。获取对所述约束参数进行优化处理得到的用于进行算力资源调度的量纲标准化的第一调和参数和第二调和参数,并根据获取的第一调和参数和第二调和参数确定终端本次流量请求的执行决策结果数据,所述第一调和参数和第二调和参数用于终端本次流量请求的执行决策结果数据计算的量纲标准化。根据终端本次流量请求的执行决策结果数据,对所述终端、边缘服务器和云端服务器进行算力分配,得到执行本次流量请求的设备。
附图说明
为了更清楚地说明本说明书一个或多个实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书一个或多个实施例中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本说明书一实施例的一种算力资源调度方法的示意性流程图;
图2是根据本说明书另一实施例的一种算力资源调度方法的示意性流程图;
图3是根据本说明书另一实施例的一种算力资源调度方法的示意性流程图;
图4是根据本说明书另一实施例的一种算力资源调度方法的示意性流程图;
图5是根据本说明书另一实施例的一种算力资源调度方法的示意性流程图;
图6是根据本说明书一实施例的一种算力资源调度装置的示意性框图;
图7是根据本说明书一实施例的一种电子设备的示意性框图。
具体实施方式
本说明书一个或多个实施例提供一种算力资源调度方法和装置,以解决目前算力资源调度系统对算力资源利用率低,无法对终端收到的流量请求进行精细化调度的问题。
为了使本技术领域的人员更好地理解本说明书一个或多个实施例中的技术方案,下面将结合本说明书一个或多个实施例中的附图,对本说明书一个或多个实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书一个或多个实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本说明书一个或多个实施例保护的范围。
现有的算力资源调度系统在降低终端计算压力时将终端收到的流量请求发送至边缘服务器进行算力卸载。但在算力资源卸载时,如果边缘服务器的算力资源出现过载报警,算力资源调度系统会停止终端到边缘服务器的算力资源卸载,终端的流量请求只能在终端完成。在实际应用中,终端会存在流量请求的峰值时刻,在峰值时刻,系统的算力资源会因为大量到来的流量请求变得愈发紧张。此时,现有的算力资源调度系统会将终端收到的流量请求卸载至边缘服务器,当边缘服务器出现算力资源过载报警时,算力资源调度系统便会停止终端到边缘服务器的算力卸载,因此会造成大量的终端流量请求被挂起延迟处理。此外,算力调度系统在面对多个业务场景出现算力资源不足的情况,尤其是不同的业务场景的流量请求在同一触发点时,算力调度系统如何进行流量请求的排队处理顺序同样尤为重要。终端如何对业务场景的流量请求进行精细化调度是目前的算力资源调度系统无法解决的。为此,本说明书实施例提供一种算力资源调度方法和装置,根据业务场景的流量请求价值大小以及终端、云端服务器和边缘服务器的算力资源大小以及流量请求在终端、边缘服务器和云端服务器进行卸载的延时成本进行统筹优化的精细化调度,从根本上提高了算力资源调度系统算力资源利用率。下面进行详细说明。
图1是根据本说明书一实施例的一种算力资源调度方法的示意性流程图。如图1所示,该方法可以包括:
S102,获取针对目标业务的本次流量请求之前的至少一次历史流量请求下的用户信息、执行历史流量请求的执行设备的类型、执行设备的算力数据和执行设备的延时数据。
本实施例中,终端在收到针对目标业务的流量请求后可以选择以下三种执行方式:终端执行,即终端完成数据的采集后在终端执行,执行结果上传至云端服务器;边缘服务器执行,即终端完成数据的采集后将数据发送至边缘服务器执行,边缘服务器具备cpu资源,边缘服务器执行完毕后将结果数据上传至云端服务器;云端服务器执行,即终端完成数据采集后将数据发送至云端服务器,云端具备cpu/gpu资源,云端通过其具备的资源完成对数据的处理。
表1
终端 | 边缘服务器 | 云端服务器 | |
脚本执行速度 | 3 | 2 | 1 |
传输耗时 | 1 | 3 | 2 |
算力开支 | 1 | 3 | 2 |
上述表1是三种执行方式的相对比较表格。三种执行方式在执行速度、算力资源耗费和通信延时维度各有利弊,如表1所示,脚本执行速度维度,云端服务器>边缘服务器>终端;传输耗时维度,边缘服务器>云端服务器>终端;算力开支维度,边缘服务器>云端服务器>终端。终端收到的流量请求无法在终端和边缘服务器执行时会转到云端服务器执行,虽然增加了传输耗时成本和云端服务器算力资源成本,但云端服务器的脚本执行速度最快,能够解决部分流量请求耗时长尾的问题。终端虽然具有最慢的脚本执行速度,但终端执行几乎不需要传输耗时成本。因此,终端收到的针对目标业务的流量请求具体选择哪种执行方式需要多维度进行综合考虑。
终端在收到针对目标业务的本次流量请求时便会读取存储在终端的至少一次历史流量请求下的用户信息、执行历史流量请求的执行设备的类型、执行设备的算力数据和执行设备的延时数据。用户信息包括该次历史流量请求下的用户设备和用户账户信息。执行设备的类型为执行该次历史流量请求的设备类型,本实施例中,具体为终端、边缘服务器和云端服务器中的一种,根据具体的设备类型进行不同的赋值。执行设备的算力数据具体为终端、边缘服务器和云端服务器的算力资源大小数据。执行设备的延时数据为选择终端执行时,终端的脚本执行耗时数据和传输耗时数据(此时为0);选择边缘服务器执行时,边缘服务器的脚本执行耗时数据以及终端、边缘服务器的传输耗时数据两部分之和;选择云端服务器执行时,云端服务器的脚本执行耗时数据以及终端、云端服务器的传输耗时数据两部分之和。
S104,基于用户信息、执行设备的类型、执行设备的算力数据、执行设备的延时数据,通过数据量化处理确定用于进行算力资源调度的约束参数,约束参数包括流量价值约束参数、算力约束参数和延时约束参数。
流量价值预估数据用来量化针对目标业务的流量请求的流量价值,流量价值是指用户的当前流量请求为业务场景带来的价值。算力约束参数用来量化终端、边缘服务器和云端服务器的算力资源数据。延时约束参数用来量化终端的脚本延时数据、边缘服务器的脚本延时数据、云端服务器的脚本执行耗时、终端和边缘服务器的传输耗时数据、终端和云端服务器的传输耗时数据。
S106,获取对约束参数进行优化处理得到的用于进行算力资源调度的第一调和参数和第二调和参数。
基于用户信息、执行设备的类型、执行设备的算力数据、执行设备的延时数据,通过数据量化处理确定用于进行算力资源调度的约束参数,通过预设的算力资源调度算法对约束参数进行优化处理得到第一调和参数和第二调和参数,算力资源调度算法的核心为在算力约束和延时约束的前提下实现流量价值的最大化优化目标。可以选择线性优化或者其他优化算法进行具体求解。
S108,根据获取的第一调和参数和第二调和参数确定终端本次流量请求的执行决策结果数据,第一调和参数和第二调和参数用于终端本次流量请求的执行决策结果数据计算的量纲标准化。
终端在收到针对目标业务的本次流量请求时为了确定本次流量请求采取哪一种执行方式,需要考虑本次流量请求的流量价值、执行设备的算力数据和执行设备的延时数据,由于三个参数的数据量纲不同,需要对不同量纲的参数进行标准化处理,第一调和系数和第二调和系数即为量纲标准化系数,将求解的第一调和参数和第二调和参数代入加权算法里分别计算终端的本次流量请求的执行决策结果数据。
S110,根据终端本次流量请求的执行决策结果数据,对终端、边缘服务器和云端服务器进行算力分配,得到执行本次流量请求的设备。
终端每一次收到针对目标业务的流量请求,都会采集至少一次历史流量请求下的用户信息、执行历史流量请求的执行设备的类型、执行设备的算力数据和执行设备的延时数据。终端将至少一次历史流量请求下的用户信息、执行历史流量请求的执行设备的类型、执行设备的算力数据和执行设备的延时数据上传至云端服务器,云端服务器根据预设的算力资源调度算法求解用于确定本次流量请求执行决策结果的第一调和参数和第二调和参数。终端根据求解的第一调和参数和第二调和参数确定本次流量请求的执行决策结果数据,并根据本次流量请求的执行决策结果数据对终端和边缘服务器进行算力分配,得到本次流量请求的执行设备。
采用本说明书一个或多个实施例的技术方案,算力资源调度系统在收到针对目标业务的流量请求时都会结合历史流量请求数据进行算力分配。算力资源调度系统根据业务场景的流量请求价值大小以及终端、云端服务器和边缘服务器的算力资源大小以及流量请求在终端、边缘服务器和云端服务器进行卸载的延时成本进行统筹优化的精细化调度,从根本上解决算力资源调度系统算力资源利用率低的问题。本说明书一个或多个实施例的技术方案提供的方法,能够实现有算力资源约束情况下对不同价值流量进行算力差异化分配,使得全局业务效果达到较佳。算力资源调度系统将流量请求在终端、边缘服务器和云端服务器之间进行算力卸载,能够在满足系统整体算力资源情况下保证高价值的流量请求的优先执行,避免了现有的终端和边缘服务器两者之间进行算力卸载带来的长尾耗时问题。
在一个实施例中,获取针对目标业务的本次流量请求之前的至少一次历史流量请求下的用户信息,包括:
获取终端针对目标业务的本次流量请求之前的至少一次历史流量请求下的目标业务交易数据。
如果用户信息中包括用户群体数据,则获取针对目标业务的本次流量请求之前的至少一次流量请求下的用户信息数据,包括:根据用户群体设定规则对目标业务交易数据进行赋值,确定用户群体数据。
如果用户信息中包括会员等级数据,则获取针对目标业务的本次流量请求之前的至少一次流量请求下的用户信息数据,包括:根据会员等级设定规则对目标业务交易数据进行赋值,确定会员等级数据。
如果用户信息中包括用户使用的设备的设备信息,则获取针对目标业务的本次流量请求之前的至少一次流量请求下的用户信息数据,包括:根据设备信息设定规则对目标业务交易数据进行赋值,确定用户使用的设备的设备信息。
如果用户信息中包括触发点信息,则获取针对目标业务的本次流量请求之前的至少一次流量请求下的用户信息数据,包括:根据触发点信息设定规则对所述目标业务交易数据进行赋值,确定触发点信息数据。
在一个实施例里,基于用户信息和预设的量化算法,对用户信息进行量化处理,得到流量价值约束参数;基于执行设备的类型、执行设备的算力数据和预设的量化算法,对执行设备的算力数据进行量化处理,得到算力约束参数;基于执行设备的类型、执行设备的延时数据和预设的量化算法,对执行设备的延时数据进行量化处理,得到延时约束参数。
在一个实施例里,基于用户信息,通过数据量化处理确定流量价值约束参数,包括:
基于用户群体数据、会员等级数据、设备信息数据和触发点信息数据,通过加权计算,确定用于算力资源调度算法流量价值约束的流量价值约束参数。
在一个实施例里,计算流量价值约束参数的加权公式如下:用户群体数据x1+会员等级数据x2+设备信息数据x3+触发点信息数据x4。
用户群体数据分为10个级别:每个级别分别对应y11~y110;
会员等级数据分为5个级别:每个级别分别对应y21~y25;
设备信息数据分为100个级别:每个级别分别对应y31~y3100;
触发点信息数据分为30个级别:每个级别分别对应y41~y430;
其中,
在一个实施例中,如图2所示,针对任一次历史流量请求,基于执行设备的类型、执行设备的算力数据,通过数据量化处理确定算力约束参数,可以执行为如下S1042-S1044:
S1042,根据执行设备的类型获取历史流量请求下的执行设备的算力数据,执行设备的算力数据为执行本次流量请求的设备的算力大小数据。
可选地,执行设备为终端时,由于终端的算力是用户的终端自身所具备的算力,终端算力数据默认为0;当执行设备为边缘服务器时,边缘服务器的算力数据为单机当前业务QPS上限数据或单机当前业务实际QPS数据。当执行设备为云端服务器时,云端服务器的算力数据为为单机当前业务QPS上限数据或单机当前业务实际QPS数据。
S1044,对设定周期和/或流量请求次数内终端的流量请求的执行设备类型数据和执行设备算力数据进行乘积求和运算,得到用于算力资源调度算法算力约束的算力约束参数。
采用本说明书一个或多个实施例的技术方案,算力资源调度系统在收到针对目标业务的流量请求时都会结合历史流量请求数据进行算力分配。算力资源调度系统根据业务场景的流量请求价值大小以及终端、云端服务器和边缘服务器的算力资源大小以及流量请求在终端、边缘服务器和云端服务器进行卸载的延时成本进行统筹优化的精细化调度,从根本上解决算力资源调度系统算力资源利用率低的问题。本说明书一个或多个实施例的技术方案提供的方法,能够实现有算力资源约束情况下对不同价值流量进行算力差异化分配,使得全局业务效果达到较佳。算力资源调度系统将流量请求在终端、边缘服务器和云端服务器之间进行算力卸载,能够在满足系统整体算力资源情况下保证高价值的流量请求的优先执行,避免了现有的终端和边缘服务器两者之间进行算力卸载带来的长尾耗时问题。
在一个实施例中,如图3所示,针对任一次历史流量请求,基于执行设备的类型、执行设备的延时数据,通过数据量化处理确定延时约束参数,可以执行为如下S1046-S1048:
S1046,根据执行设备的类型获取历史流量请求下的执行设备的延时数据。
S1048,对设定周期和/或流量请求次数内终端的执行设备类型数据和执行设备延时数据进行乘积求和并求取平均值,得到用于算力资源调度算法延时约束的延时约束参数。
在一个实施例里,如图4所示,执行设备的延时数据包括执行设备的脚本延时数据、执行设备和终端的传输耗时数据,根据执行设备的类型获取历史流量请求下的执行设备的延时数据(即S1046),可以执行为如下S462-S4612:
S462,分别获取在设定周期和/或流量请求次数内终端、边缘服务器和云端服务器的流量请求对应的脚本延时数据。
S464,根据执行设备的类型、终端的流量请求对应的脚本延时数据、边缘服务器的流量请求对应的脚本延时数据和云端服务器的流量请求对应的脚本延时数据确定执行本次历史流量请求的执行设备的脚本延时数据。
S466,获取在设定周期和/或流量请求次数内终端到边缘服务器的传输耗时数据,确定在设定周期和/或次数内的传输耗时数据的平均值作为端边传输耗时数据。
S468,获取在设定周期和/或流量请求次数内终端到云端服务器的传输耗时数据,确定在设定周期和/或次数内的传输耗时数据的平均值作为端云传输耗时数据。
S4610,根据执行设备的类型、端边传输耗时数据和端云传输耗时数据确定执行本次历史流量请求的执行设备和终端的传输耗时数据。
S4612,根据执行本次历史流量请求的执行设备的脚本延时数据、执行设备和终端的传输耗时数据确定执行设备的延时数据。
采用本说明书一个或多个实施例的技术方案,算力资源调度系统在收到针对目标业务的流量请求时都会结合历史流量请求数据进行算力分配。算力资源调度系统根据业务场景的流量请求价值大小以及终端、云端服务器和边缘服务器的算力资源大小以及流量请求在终端、边缘服务器和云端服务器进行卸载的延时成本进行统筹优化的精细化调度,从根本上解决算力资源调度系统算力资源利用率低的问题。本说明书一个或多个实施例的技术方案提供的方法,能够实现有算力资源约束情况下对不同价值流量进行算力差异化分配,使得全局业务效果达到较佳。算力资源调度系统将流量请求在终端、边缘服务器和云端服务器之间进行算力卸载,能够在满足系统整体算力资源情况下保证高价值的流量请求的优先执行,避免了现有的终端和边缘服务器两者之间进行算力卸载带来的长尾耗时问题。
在一个实施例里,算力资源调度算法的核心为在算力约束和延时约束前提下实现流量价值的最大化优化目标。数学抽象表达如下:
其中,xij表示对于第i个流量请求采用第j种执行方式,j取值为0,1,2(代表终端在收到针对目标业务的流量请求后可以选择三种执行方式)举例如下:xi0=1表示第i个流量请求在终端执行;xi1=1表示第i个流量请求在边缘服务器执行;xi2=1表示第i个流量请求在云端服务器执行。valueij代表流量价值预估数据、costij代表算力约束参数、latencyij代表延时约束参数。C代表算力约束最大值参数,L代表延时约束最大值参数。通过给定三个约束参数,进而求解xij的具体取值,可以选择线性优化或者其他优化算法进行具体求解。
一个实施例里,上述目标优化求解转换为拉普拉斯对偶问题进行求解。引入一组拉格朗日系数λ1和λ2(即第一调和参数和第二调和参数)每个参数都对应全局约束,通过搜索一对解(x,λ),使得给定λ,进而求解x,从而确定本次流量请求的具体执行方式。
其中,参数p即参数valueij,B1即参数C,B2即参数L,bi,j,1即参数costij,bi,j,2即参数latencyij。(x,λ)满足最优解条件,λk表示第k个背包资源的影子价格或者边际效用。
给定参数λ可以并行求解多个流量请求问题。通过在终端上独立求解将大规模问题分解为相同形式的许多子问题,然后独立解决每个子问题。亿级用户的子问题解后,根据每种渠道所消耗的总资源量,使用对偶下降更新λ(其中是t当前迭代轮数,α是步长)
另一个实施例里,可以通过同步坐标下降法求解primal-dual(原始-对偶)问题,此算法是现有成熟算法,不再进行赘述。
采用本说明书一个或多个实施例的技术方案,算力资源调度系统在收到针对目标业务的流量请求时都会结合历史流量请求数据进行算力分配。算力资源调度系统根据业务场景的流量请求价值大小以及终端、云端服务器和边缘服务器的算力资源大小以及流量请求在终端、边缘服务器和云端服务器进行卸载的延时成本进行统筹优化的精细化调度,从根本上解决算力资源调度系统算力资源利用率低的问题。本说明书一个或多个实施例的技术方案提供的方法,能够实现有算力资源约束情况下对不同价值流量进行算力差异化分配,使得全局业务效果达到较佳。算力资源调度系统将流量请求在终端、边缘服务器和云端服务器之间进行算力卸载,能够在满足系统整体算力资源情况下保证高价值的流量请求的优先执行,避免了现有的终端和边缘服务器两者之间进行算力卸载带来的长尾耗时问题。
在一个实施例中,如图5所示,根据获取的第一调和参数和第二调和参数确定终端本次流量请求的执行决策结果数据(即步骤S108),可以执行为如下S1082-S1088:
S1082,通过预设的终端执行加权算法,基于第一调和参数和第二调和参数确定终端执行决策结果数据。
计算终端本次流量请求的流量价值约束参数、本次流量请求在终端执行的算力约束参数和本次流量请求在终端执行的延时约束参数,将第一调和参数和第二调和参数代入加权公式计算终端执行决策数据。加权公式如下:
value-λ0*cost-λ1*latency
其中,value为流量价值约束参数,cost为算力约束参数,latency为延时约束参数,λ0为第一调和参数,λ1为第二调和参数。
S1084,通过预设的边缘服务器执行加权算法,基于第一调和参数和第二调确定边缘服务器执行决策结果数据。
计算终端本次流量请求的流量价值约束参数、本次流量请求在边缘服务器执行的算力约束参数和本次流量请求在边缘服务器执行的延时约束参数,将第一调和参数和第二调和参数代入加权公式计算边缘服务器执行决策数据。加权公式同上。
S1086,通过预设的云端服务器执行加权算法,基于第一调和参数和第二调和参数确定云端服务器执行决策结果数据。
计算终端本次流量请求的流量价值约束参数、本次流量请求在云端服务器执行的算力约束参数和本次流量请求在云端服务器执行的延时约束参数,将第一调和参数和第二调和参数代入加权公式计算云端服务器执行决策数据。加权公式同上。
S1088,基于终端执行决策结果数据、边缘服务器执行决策结果数据和云端服务器执行决策结果数据,确定本次流量请求的执行决策结果数据。
在一个实施例里,将终端执行决策结果数据、边缘服务器执行决策结果数据和云端服务器执行决策结果数据中较优的执行结果数据作为本次流量请求的执行决策结果数据。
可选地,将终端执行决策结果数据、边缘服务器执行决策结果数据和云端服务器执行决策结果数据中的较大值作为本次流量请求的执行决策结果数据。若终端执行决策结果数据作为输出值给执行决策结果数据进行赋值,则本次流量请求选择终端执行;若边缘服务器执行决策结果数据作为输出值给执行决策结果数据进行赋值,则本次流量请求选择边缘服务器执行;若云端服务器执行决策结果数据作为输出值给执行决策结果数据进行赋值,则本次流量请求选择云端服务器执行。
采用本说明书一个或多个实施例的技术方案,算力资源调度系统在收到针对目标业务的流量请求时都会结合历史流量请求数据进行算力分配。算力资源调度系统根据业务场景的流量请求价值大小以及终端、云端服务器和边缘服务器的算力资源大小以及流量请求在终端、边缘服务器和云端服务器进行卸载的延时成本进行统筹优化的精细化调度,从根本上解决算力资源调度系统算力资源利用率低的问题。本说明书一个或多个实施例的技术方案提供的方法,能够实现有算力资源约束情况下对不同价值流量进行算力差异化分配,使得全局业务效果达到较佳。算力资源调度系统将流量请求在终端、边缘服务器和云端服务器之间进行算力卸载,能够在满足系统整体算力资源情况下保证高价值的流量请求的优先执行,避免了现有的终端和边缘服务器两者之间进行算力卸载带来的长尾耗时问题。
综上,已经对本主题的特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作可以按照不同的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序,以实现期望的结果。在某些实施方式中,多任务处理和并行处理可以是有利的。
以上为本说明书一个或多个实施例提供的算力资源调度方法,基于同样的思路,本说明书一个或多个实施例还提供一种算力资源调度装置。
图6是根据本说明书一实施例的一种算力资源调度装置的示意性框图。参考图6,一种算力资源调度装置,包括:
流量请求信息获取模块610,获取针对目标业务的本次流量请求之前的至少一次历史流量请求下的用户信息、执行所述历史流量请求的执行设备的类型、执行设备的算力数据和执行设备的延时数据。
约束参数计算模块620,基于用户信息、执行设备的类型、执行设备的算力数据、执行设备的延时数据,通过数据量化,确定用于进行算力资源调度的约束参数,约束参数包括流量价值约束参数、算力约束参数和延时约束参数。
调和参数计算模块630,获取对约束参数进行优化处理得到的用于进行算力资源调度的量纲标准化的第一调和参数和第二调和参数。
执行决策结果数据计算模块640,根据获取的第一调和参数和第二调和参数确定终端本次流量请求的执行决策结果数据,第一调和参数和第二调和参数用于终端本次流量请求的执行决策结果数据计算的量纲标准化。
算力分配模块650,根据终端本次流量请求的执行决策结果数据,对终端、边缘服务器和云端服务器进行算力分配,得到执行本次流量请求的设备。
在一个实施例里,约束参数计算模块620包括:
算力数据获取单元,根据执行设备的类型获取历史流量请求下的执行设备的算力数据,执行设备的算力数据为执行本次流量请求的设备的算力大小数据。
算力约束参数计算单元,对设定周期和/或流量请求次数内终端的流量请求的执行设备类型数据和执行设备算力数据进行乘积求和运算,得到用于算力资源调度算法算力约束的算力约束参数。
在一个实施例里,约束参数计算模块620包括:
延时数据获取单元,根据执行设备的类型获取历史流量请求下的执行设备的延时数据。
延时约束参数计算单元,对设定周期和/或流量请求次数内终端的执行设备类型数据和执行设备延时数据进行乘积求和并求取平均值,得到用于算力资源调度算法延时约束的延时约束参数。
在一个实施例里,执行决策结果数据计算模块640包括:
终端执行决策结果数据计算单元,通过预设的终端执行加权算法,基于所述第一调和参数和第二调和参数确定终端执行决策结果数据。
边缘服务器执行决策结果数据计算单元,通过预设的边缘服务器执行加权算法,基于所述第一调和参数和第二调确定边缘服务器执行决策结果数据。
云端服务器执行决策结果数据计算单元,通过预设的云端服务器执行加权算法,基于所述第一调和参数和第二调和参数确定云端服务器执行决策结果数据。
执行决策结果数据计算单元,基于所述终端执行决策结果数据、边缘服务器执行决策结果数据和云端服务器执行决策结果数据,确定本次流量请求的执行决策结果数据。
采用本说明书一个或多个实施例的技术方案,算力资源调度系统在收到针对目标业务的流量请求时都会结合历史流量请求数据进行算力分配。算力资源调度系统根据业务场景的流量请求价值大小以及终端、云端服务器和边缘服务器的算力资源大小以及流量请求在终端、边缘服务器和云端服务器进行卸载的延时成本进行统筹优化的精细化调度,从根本上解决算力资源调度系统算力资源利用率低的问题。本说明书一个或多个实施例的技术方案提供的方法,能够实现有算力资源约束情况下对不同价值流量进行算力差异化分配,使得全局业务效果达到较佳。算力资源调度系统将流量请求在终端、边缘服务器和云端服务器之间进行算力卸载,能够在满足系统整体算力资源情况下保证高价值的流量请求的优先执行,避免了现有的终端和边缘服务器两者之间进行算力卸载带来的长尾耗时问题。
本领域的技术人员应可理解,上述算力资源调度装置能够用来实现前文所述的算力资源调度方法,其中的细节描述应与前文方法部分描述类似,为避免繁琐,此处不另赘述。
基于同样的思路,本说明书一个或多个实施例还提供一种电子设备,如图7所示。电子设备可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上的处理器1001和存储器1002,存储器1002中可以存储有一个或一个以上存储应用程序或数据。其中,存储器1002可以是短暂存储或持久存储。存储在存储器1002的应用程序可以包括一个或一个以上模块(图示未示出),每个模块可以包括对电子设备中的一系列计算机可执行指令。更进一步地,处理器1001可以设置为与存储器1002通信,在电子设备上执行存储器1002中的一系列计算机可执行指令。电子设备还可以包括一个或一个以上电源1003,一个或一个以上有线或无线网络接口1004,一个或一个以上输入输出接口1005,一个或一个以上键盘1006。
具体在本实施例中,电子设备包括有存储器,以及一个或一个以上的程序,其中一个或者一个以上程序存储于存储器中,且一个或者一个以上程序可以包括一个或一个以上模块,且每个模块可以包括对电子设备中的一系列计算机可执行指令,且经配置以由一个或者一个以上处理器执行该一个或者一个以上程序包含用于进行以下计算机可执行指令:
获取针对目标业务的本次流量请求之前的至少一次历史流量请求下的用户信息、执行历史流量请求的执行设备的类型、执行设备的算力数据和所述执行设备的延时数据。
基于用户信息、执行设备的类型、执行设备的算力数据、执行设备的延时数据,通过数据量化,确定用于进行算力资源调度的约束参数,约束参数包括流量价值约束参数、算力约束参数和延时约束参数。
获取对约束参数进行优化处理得到的用于进行算力资源调度的量纲标准化的第一调和参数和第二调和参数。
根据获取的第一调和参数和第二调和参数确定终端本次流量请求的执行决策结果数据,第一调和参数和第二调和参数用于终端本次流量请求的执行决策结果数据计算的量纲标准化。
根据终端本次流量请求的执行决策结果数据,对终端、边缘服务器和云端服务器进行算力分配,得到执行本次流量请求的设备。
本说明书一个或多个实施例还提出了一种存储介质,该存储介质存储一个或多个计算机程序,该一个或多个计算机程序包括指令,该指令当被包括多个应用程序的电子设备执行时,能够使该电子设备执行上述算力资源调度方法实施例的各个过程,并具体用于执行:
获取针对目标业务的本次流量请求之前的至少一次历史流量请求下的用户信息、执行历史流量请求的执行设备的类型、执行设备的算力数据和所述执行设备的延时数据。
基于用户信息、执行设备的类型、执行设备的算力数据、执行设备的延时数据,通过数据量化,确定用于进行算力资源调度的约束参数,约束参数包括流量价值约束参数、算力约束参数和延时约束参数。
获取对约束参数进行优化处理得到的用于进行算力资源调度的量纲标准化的第一调和参数和第二调和参数。
根据获取的第一调和参数和第二调和参数确定终端本次流量请求的执行决策结果数据,第一调和参数和第二调和参数用于终端本次流量请求的执行决策结果数据计算的量纲标准化。
根据终端本次流量请求的执行决策结果数据,对终端、边缘服务器和云端服务器进行算力分配,得到执行本次流量请求的设备。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于上述一种存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书一个或多个实施例时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书一个或多个实施例可提供为方法、系统、或计算机程序产品。因此,本说明书一个或多个实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书一个或多个实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书一个或多个实施例是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(trans itory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本说明书一个或多个实施例可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书一个或多个实施例而已,并不用于限制本申请。对于本领域技术人员来说,本说明书一个或多个实施例可以有各种更改和变化。凡在本说明书一个或多个实施例的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书一个或多个实施例的权利要求范围之内。
Claims (10)
1.一种算力资源调度方法,包括:
获取针对目标业务的本次流量请求之前的至少一次历史流量请求下的用户信息、执行所述历史流量请求的执行设备的类型、所述执行设备的算力数据和所述执行设备的延时数据;
基于所述用户信息、所述执行设备的类型、所述执行设备的算力数据、所述执行设备的延时数据,通过数据量化处理确定用于进行算力资源调度的约束参数,所述约束参数包括流量价值约束参数、算力约束参数和延时约束参数;
获取对所述约束参数进行优化处理得到的用于进行算力资源调度的第一调和参数和第二调和参数,并根据获取的第一调和参数和第二调和参数确定终端本次流量请求的执行决策结果数据,所述第一调和参数和第二调和参数用于终端本次流量请求的执行决策结果数据计算的量纲标准化;
根据终端本次流量请求的执行决策结果数据,对所述终端、边缘服务器和云端服务器进行算力分配,得到执行本次流量请求的设备。
2.根据权利要求1所述的方法,所述方法还包括:
获取终端针对目标业务的本次流量请求之前的至少一次历史流量请求下的目标业务交易数据;
如果所述用户信息中包括用户群体数据,则所述获取针对目标业务的本次流量请求之前的至少一次流量请求下的用户信息数据,包括:
根据用户群体设定规则对所述目标业务交易数据进行赋值,确定用户群体数据;
如果所述用户信息中包括会员等级数据,则所述获取针对目标业务的本次流量请求之前的至少一次流量请求下的用户信息数据,包括:
根据会员等级设定规则对所述目标业务交易数据进行赋值,确定会员等级数据;
如果所述用户信息中包括用户使用的设备的设备信息,则所述获取针对目标业务的本次流量请求之前的至少一次流量请求下的用户信息数据,包括:
根据设备信息设定规则对所述目标业务交易数据进行赋值,确定用户使用的设备的设备信息;
如果所述用户信息中包括触发点信息,则所述获取针对目标业务的本次流量请求之前的至少一次流量请求下的用户信息数据,包括:
根据触发点信息设定规则对所述目标业务交易数据进行赋值,确定触发点信息数据。
3.根据权利要求2所述的方法,基于所述用户信息,通过数据量化处理确定流量价值约束参数,包括:
基于所述用户群体数据、会员等级数据、设备信息数据和触发点信息数据,通过加权计算,确定用于算力资源调度算法流量价值约束的流量价值约束参数。
4.根据权利要求1所述的方法,针对任一次历史流量请求,基于所述执行设备的类型、所述执行设备的算力数据,通过数据量化处理确定算力约束参数,包括:
根据所述执行设备的类型获取所述历史流量请求下的所述执行设备的算力数据,所述执行设备的算力数据为执行本次流量请求的设备的算力大小数据;
对设定周期和/或流量请求次数内终端的流量请求的执行设备类型数据和执行设备算力数据进行乘积求和运算,得到用于算力资源调度算法算力约束的算力约束参数。
5.根据权利要求1所述的方法,针对任一次历史流量请求,基于所述执行设备的类型、所述执行设备的延时数据,通过数据量化处理确定延时约束参数包括:
根据所述执行设备的类型获取所述历史流量请求下的所述执行设备的延时数据;
对设定周期和/或流量请求次数内终端的执行设备类型数据和执行设备延时数据进行乘积求和并求取平均值,得到用于算力资源调度算法延时约束的延时约束参数。
6.根据权利要求5所述的方法,所述执行设备的延时数据包括执行设备的脚本延时数据、执行设备和终端的传输耗时数据,所述根据所述执行设备的类型获取所述历史流量请求下的所述执行设备的延时数据,包括:
分别获取在设定周期和/或流量请求次数内终端、边缘服务器和云端服务器的流量请求对应的脚本延时数据;
根据所述执行设备的类型、终端的流量请求对应的脚本延时数据、边缘服务器的流量请求对应的脚本延时数据和云端服务器的流量请求对应的脚本延时数据确定执行本次历史流量请求的执行设备的脚本延时数据;
获取在设定周期和/或流量请求次数内终端到边缘服务器的传输耗时数据,确定在设定周期和/或次数内的传输耗时数据的平均值作为端边传输耗时数据;
获取在设定周期和/或流量请求次数内终端到云端服务器的传输耗时数据,确定在设定周期和/或次数内的传输耗时数据的平均值作为端云传输耗时数据;
根据所述执行设备的类型、端边传输耗时数据和端云传输耗时数据确定执行本次历史流量请求的执行设备和终端的传输耗时数据;
根据执行本次历史流量请求的执行设备的脚本延时数据、执行设备和终端的传输耗时数据确定所述执行设备的延时数据。
7.根据权利要求1所述的方法,所述根据获取的第一调和参数和第二调和参数确定终端本次流量请求的执行决策结果数据,包括:
通过预设的终端执行加权算法,基于所述第一调和参数和第二调和参数确定终端执行决策结果数据;
通过预设的边缘服务器执行加权算法,基于所述第一调和参数和第二调确定边缘服务器执行决策结果数据;
通过预设的云端服务器执行加权算法,基于所述第一调和参数和第二调和参数确定云端服务器执行决策结果数据;
基于所述终端执行决策结果数据、边缘服务器执行决策结果数据和云端服务器执行决策结果数据,确定本次流量请求的执行决策结果数据。
8.根据权利要求7所述的方法,所述基于所述终端执行决策结果数据、边缘服务器执行决策结果数据和云端服务器执行决策结果数据,确定本次流量请求的执行决策结果数据,包括:
将所述终端执行决策结果数据、边缘服务器执行决策结果数据和云端服务器执行决策结果数据中较优的执行结果数据作为本次流量请求的执行决策结果数据。
9.一种算力资源调度装置,包括:
流量请求信息获取模块,获取针对目标业务的本次流量请求之前的至少一次历史流量请求下的用户信息、执行所述历史流量请求的执行设备的类型、所述执行设备的算力数据和所述执行设备的延时数据;
约束参数计算模块,基于所述用户信息、所述执行设备的类型、所述执行设备的算力数据、所述执行设备的延时数据,通过数据量化,确定用于进行算力资源调度的约束参数,所述约束参数包括流量价值约束参数、算力约束参数和延时约束参数;
调和参数计算模块,获取对所述约束参数进行优化处理得到的用于进行算力资源调度的量纲标准化的第一调和参数和第二调和参数;
执行决策结果数据计算模块,根据获取的第一调和参数和第二调和参数确定终端本次流量请求的执行决策结果数据,所述第一调和参数和第二调和参数用于终端本次流量请求的执行决策结果数据计算的量纲标准化;
算力分配模块,根据终端本次流量请求的执行决策结果数据,对所述终端、边缘服务器和云端服务器进行算力分配,得到执行本次流量请求的设备。
10.一种电子设备,包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,在所述可执行指令被执行时,能够使得所述处理器:
获取针对目标业务的本次流量请求之前的至少一次历史流量请求下的用户信息、执行所述历史流量请求的执行设备的类型、所述执行设备的算力数据和所述执行设备的延时数据;
基于所述用户信息、所述执行设备的类型、所述执行设备的算力数据、所述执行设备的延时数据,通过数据量化,确定用于进行算力资源调度的约束参数,所述约束参数包括流量价值约束参数、算力约束参数和延时约束参数;
获取对所述约束参数进行优化处理得到的用于进行算力资源调度的量纲标准化的第一调和参数和第二调和参数,并根据获取的第一调和参数和第二调和参数确定终端本次流量请求的执行决策结果数据,所述第一调和参数和第二调和参数用于终端本次流量请求的执行决策结果数据计算的量纲标准化;
根据终端本次流量请求的执行决策结果数据,对所述终端、边缘服务器和云端服务器进行算力分配,得到执行本次流量请求的设备。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311227100.3A CN117278556A (zh) | 2023-09-21 | 2023-09-21 | 算力资源调度方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311227100.3A CN117278556A (zh) | 2023-09-21 | 2023-09-21 | 算力资源调度方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117278556A true CN117278556A (zh) | 2023-12-22 |
Family
ID=89219093
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311227100.3A Pending CN117278556A (zh) | 2023-09-21 | 2023-09-21 | 算力资源调度方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117278556A (zh) |
-
2023
- 2023-09-21 CN CN202311227100.3A patent/CN117278556A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Bahreini et al. | Efficient placement of multi-component applications in edge computing systems | |
CN108667878A (zh) | 服务器负载均衡方法及装置、存储介质、电子设备 | |
CN109981744B (zh) | 数据的分发方法、装置、存储介质及电子设备 | |
CN104901989A (zh) | 一种现场服务提供系统及方法 | |
CN110968366A (zh) | 一种基于有限mec资源的任务卸载方法、装置及设备 | |
CN103988179A (zh) | 用于在地理分布数据中心中降低延迟和改善弹性的优化机制 | |
CN115134371A (zh) | 包含边缘网络算力资源的调度方法、系统、设备及介质 | |
CN116708451B (zh) | 一种边云协同调度方法及系统 | |
CN111158893B (zh) | 应用于雾计算网络的任务卸载方法、系统、设备及介质 | |
Tiwary et al. | CPS: a dynamic and distributed pricing policy in cyber foraging systems for fixed state cloudlets | |
US9501321B1 (en) | Weighted service requests throttling | |
CN113010317A (zh) | 联合服务部署与任务卸载方法、装置、计算机设备及介质 | |
Guo | Ant colony optimization computing resource allocation algorithm based on cloud computing environment | |
CN110856183A (zh) | 基于异构负载互补的边缘服务器部署方法及应用 | |
CN109450684B (zh) | 一种网络切片系统物理节点容量扩充方法及装置 | |
CN117278556A (zh) | 算力资源调度方法和装置 | |
CN116248676A (zh) | 边缘云节点组合确定方法及装置 | |
CN115858147A (zh) | 成本建模方法和装置 | |
CN108762938A (zh) | 一种云计算平台中的任务处理方法、装置及系统 | |
CN115309520A (zh) | 任务迁移方法、装置、电子设备及存储介质 | |
CN114035940A (zh) | 资源分配方法以及装置 | |
CN113709817A (zh) | 多基站多服务器场景下的任务卸载和资源调度方法及装置 | |
Saravanan et al. | Cloud resource optimization based on Poisson linear deep gradient learning for mobile cloud computing | |
KR101718206B1 (ko) | 로드 분산을 위한 동적 스펙트럼 할당 방식 | |
CN116909758B (zh) | 算力任务的处理方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |