CN116684349A - 算力网络资源分配方法、系统、电子设备及存储介质 - Google Patents
算力网络资源分配方法、系统、电子设备及存储介质 Download PDFInfo
- Publication number
- CN116684349A CN116684349A CN202310658190.5A CN202310658190A CN116684349A CN 116684349 A CN116684349 A CN 116684349A CN 202310658190 A CN202310658190 A CN 202310658190A CN 116684349 A CN116684349 A CN 116684349A
- Authority
- CN
- China
- Prior art keywords
- routing
- node
- computing
- time delay
- service
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000001934 delay Effects 0.000 claims abstract description 12
- 238000012163 sequencing technique Methods 0.000 claims abstract description 7
- 230000005540 biological transmission Effects 0.000 claims description 30
- 238000004364 calculation method Methods 0.000 claims description 29
- 230000008447 perception Effects 0.000 claims description 19
- 238000004422 calculation algorithm Methods 0.000 claims description 18
- 230000015654 memory Effects 0.000 claims description 18
- 238000013468 resource allocation Methods 0.000 claims description 14
- 238000010586 diagram Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 8
- 238000010276 construction Methods 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L45/00—Routing or path finding of packets in data switching networks
- H04L45/12—Shortest path evaluation
- H04L45/121—Shortest path evaluation by minimising delays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/60—Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
- H04L67/63—Routing a service request depending on the request content or context
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本公开提供一种多链路切换方法、装置、电子设备及存储介质,以解决边缘网络的算力资源使用不合理的技术问题,所述方法包括:接收用户的待处理业务,并将所述待处理业务发送至初始路由节点;计算将用户业务从初始路由节点分别路由至各个计算节点的最短时延Dmin;对得到的多个最短时延Dmin按时延从低到高进行排序;选择其中时延最短的计算节点作为目标计算节点,并将目标计算节点及时延最短所对应的路由路径作为路由调度策略。本公开可以使业务在最短时延的计算节点处理,满足业务的时延要求,并且提高网络的存储资源和计算资源利用率。
Description
技术领域
本公开涉及通信技术领域,具体涉及一种算力网络资源分配方法,一种算力网络资源分配系统,一种电子设备以及一种计算机可读存储介质。
背景技术
云计算的出现满足了计算密集型业务的处理需求,但是,云计算还无法满足对于超低时延有要求的业务需求。边缘计算设备和智能终端设备的大量部署,虽然解决了网络中海量数据上传至云计算中心导致的带宽紧缺、网络拥塞、时延过长的问题,但也使得算力资源呈现泛在部署的趋势,不可避免地出现了“算力孤岛”效应。一方面,边缘计算节点没有进行有效的协同处理任务,单一节点的算力资源无法满足如图像渲染等超大型的计算密集型任务的算力资源需求,仍然无法解决同时具有计算密集和时延敏感特性的新型业务的超低时延需求问题;另一方面,虽然一些边缘计算节点出现超负载无法有效处理计算任务的情况,但是由于网络负载的不均衡,势必会有一些计算节点仍然处于空闲的状态,导致边缘网络的算力资源无法得到充分的利用。
发明内容
为了至少解决现有技术中存在的边缘网络的算力资源使用不合理的技术问题,本公开提供一种算力网络资源分配方法、算力网络资源分配系统、电子设备及计算机可读存储介质,可以使业务在最短时延的计算节点处理,满足业务的时延要求,并且提高网络的存储资源和计算资源利用率。
第一方面,本公开提供一种算力网络资源分配方法,所述方法包括:
接收用户的待处理业务,并将所述待处理业务发送至初始路由节点;
计算将用户业务从初始路由节点分别路由至各个计算节点的最短时延Dmin;
对得到的多个最短时延Dmin按时延从低到高进行排序;
选择其中时延最短的计算节点作为目标计算节点,并将目标计算节点及时延最短所对应的路由路径作为路由调度策略。
进一步的,所述方法还包括:
根据所述路由调度策略,如果待处理业务被分配的目标计算节点已经过载,则按照最短时延Dmin的排序顺序将待处理业务调度到下一个有剩余算力资源的计算节点。
进一步的,所述计算将用户业务从初始路由节点分别路由至各个计算节点的最短时延Dmin包括:
构建终端设备、路由节点、计算节点和动态的链路时延组成的多源点加权图;
遍历该多源点加权图,基于Floyd算法计算将用户业务从初始路由节点分别路由至各个计算节点的最短时延Dmin。
进一步的,所述构建终端设备、路由节点、计算节点和动态的链路时延组成的多源点加权图包括:
获取网络感知信息,所述网络感知信息包括待处理业务的资源数量,以及各个传输路径的传输速率;
根据网络感知信息计算出用户待处理业务经过网络中任意一条链路的传输时延;
根据所述任意一条链路的传输时延构建终端设备、路由节点、计算节点和动态的链路时延组成的多源点加权图。
第二方面,本公开提供一种算力网络资源分配系统,所述系统包括:
接收模块,其设置为接收用户的待处理业务,并将所述待处理业务发送至初始路由节点;
计算模块,其设置为计算将用户业务从初始路由节点分别路由至各个计算节点的最短时延Dmin;
排序模块,其设置为对得到的多个最短时延Dmin按时延从低到高进行排序;
选择模块,其设置为选择其中时延最短的计算节点作为目标计算节点,并将目标计算节点及时延最短所对应的路由路径作为路由调度策略。
进一步的,所述系统还包括调度模块;
所述调度模块设置为根据所述路由调度策略,如果待处理业务被分配的目标计算节点已经过载,则按照最短时延Dmin的排序顺序将待处理业务调度到下一个有剩余算力资源的计算节点。
进一步的,所述计算模块包括:
构建单元,其设置为构建终端设备、路由节点、计算节点和动态的链路时延组成的多源点加权图;
计算单元,其设置为遍历该多源点加权图,基于Floyd算法计算将用户业务从初始路由节点分别路由至各个计算节点的最短时延Dmin。
进一步的,所述构建单元具体设置为:
获取网络感知信息,所述网络感知信息包括待处理业务的资源数量,以及各个传输路径的传输速率;
根据网络感知信息计算出用户待处理业务经过网络中任意一条链路的传输时延;以及,
根据所述任意一条链路的传输时延构建终端设备、路由节点、计算节点和动态的链路时延组成的多源点加权图。
第三方面,本公开提供一种电子设备,包括存储器和处理器,所述存储器中存储有计算机程序,当所述处理器运行所述存储器存储的计算机程序时,所述处理器执行如第一方面中任一所述的算力网络资源分配方法。
第四方面,本公开提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面中任一所述的算力网络资源分配方法。
有益效果:
本公开提供的算力网络资源分配方法、算力网络资源分配系统、电子设备及存储介质,能够选择时延最短的计算节点作为最佳计算节点,以最短传输时延的路径对用户业务进行处理,并且对路由策略与算力资源进行统筹考虑,可以提高网络的存储资源和计算资源利用率。
附图说明
图1为本公开实施例一提供的一种算力网络资源分配方法的流程示意图;
图2为本公开实施例二提供的一种算力网络资源分配方法的流程示意图;
图3为本公开实施例三提供的一种算力网络资源分配系统的架构图;
图4为本公开实施例四提供的一种电子设备的架构图。
具体实施方式
为使本领域技术人员更好地理解本公开的技术方案,下面结合附图和实施例对本公开作进一步详细描述。应当理解的是,此处描述的具体实施例和附图仅仅用于解释本发明,而非对本发明的限定。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序;并且,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互任意组合。
其中,在本公开实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本公开。在本公开实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本公开的说明,其本身没有特定的意义。因此,“模块”、“部件”或“单元”可以混合地使用。
下面以具体地实施例对本公开的技术方案以及本公开的技术方案如何解决现有技术中存在的上述技术问题进行详细说明。可以理解的,本申请实施例中,执行主体可以执行本申请实施例中的部分或全部步骤,这些步骤或操作仅是示例,本申请实施例还可以执行其它操作或者各种操作的变形。此外,各个步骤可以按照本申请实施例呈现的不同的顺序来执行,并且有可能并非要执行本申请实施例中的全部操作。并且,下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。
图1为本公开实施例一提供的一种算力网络资源分配方法的流程示意图,如图1所示,所述方法包括:
步骤S101:接收用户的待处理业务,并将所述待处理业务发送至初始路由节点;
步骤S102:计算将用户业务从初始路由节点分别路由至各个计算节点的最短时延Dmin;
步骤S103:对得到的多个最短时延Dmin按时延从低到高进行排序;
步骤S104:选择其中时延最短的计算节点作为目标计算节点,并将目标计算节点及时延最短所对应的路由路径作为路由调度策略。
算力感知网络中计算任务调度策略的优化目标之一便是最短传输时延的路径选择,算力网络中具有多个计算节点,并且从终端路由到各个计算节点可以经过多个路由节点,并且相应的路由路径也可以不同,为了通过最短传输时延的路径对用户业务进行处理,算力服务系统接收用户的待处理业务后将所述待处理业务发送至初始路由节点,并且计算将用户业务从初始路由节点分别路由至各个计算节点的最短时延Dmin,每一个Dmin对应一个计算节点的最短路径。对得到的多个最短时延Dmin按时延从低到高进行排序,将排第一的Dmin(即其中Dmin最小)对应的计算节点作为目标计算节点,并按该排第一的Dmin所对应的路由路径作为路由调度策略,将用户的待处理业务路由到目标计算节点,使业务能够在最短传输时延得到处理,并通过计算时延避免网络堵塞,防止形成算力孤岛。
进一步的,所述方法还包括:
根据所述路由调度策略,如果待处理业务被分配的目标计算节点已经过载,则按照最短时延Dmin的排序顺序将待处理业务调度到下一个有剩余算力资源的计算节点。
如果一个计算任务被分配的计算节点已经过载,则将计算任务循环调度到下一个有剩余算力资源的计算节点。如排序后Dmin排第二对应的计算节点有剩余算力资源,则将用户的计算任务直接调度到该计算节点,并且路由路径也选择计算得到该计算节点最短时延Dmin的路由路径。为了保证用户的公平性,计算任务按照标签顺序优先获取网络的算力资源;标签显示网络资源,即哪些网络资源空闲,哪些已经超负荷;为降低算法的计算复杂度,计算任务在重新选择计算节点时,默认循环至下一个有剩余算力资源的计算节点即可,不需要重新计算。
进一步的,所述计算将用户业务从初始路由节点分别路由至各个计算节点的最短时延Dmin包括:
构建终端设备、路由节点、计算节点和动态的链路时延组成的多源点加权图;
遍历该多源点加权图,基于Floyd算法计算将用户业务从初始路由节点分别路由至各个计算节点的最短时延Dmin。
据Floyd算法利用动态规划的思想寻找给定的加权图中多源点之间最短路径的算法;基于Floyd算法可以计算出将用户业务路由至各个节点的最短时延以及其对应的具体调度路径,进而选择时延最短的计算节点作为最佳计算节点及根据Floyd算法确定的路径作为最优路由策略。
进一步的,所述构建终端设备、路由节点、计算节点和动态的链路时延组成的多源点加权图包括:
获取网络感知信息,所述网络感知信息包括待处理业务的资源数量,以及各个传输路径的传输速率;
根据网络感知信息计算出用户待处理业务经过网络中任意一条链路的传输时延;
根据所述任意一条链路的传输时延构建终端设备、路由节点、计算节点和动态的链路时延组成的多源点加权图。
通过获取网络感知信息,可以实时获取网络传输状况,然后构建终端设备、路由节点、计算节点和动态的链路时延组成的多源点加权图,更好的进行时延计算。
本公开实施例根据网络感知的信息计算出用户业务经过网络中任意一条链路的传输时延,所有的终端设备、路由节点、计算节点和动态的链路时延构成一个实时变化的多源点加权图。利用动态规划的思想寻找给定的加权图中多源点之间最短路径的算法解决算力资源调度的问题,并且通过将路由策略与算力资源进行统筹考虑,提高了网络的存储资源和计算资源利用率。
为了更加清楚的描述本公开技术方案,本公开实施例二还提供一种算力网络资源分配的方法,基于Floyd算法可以计算出将用户业务路由至各个节点的最短时延以及其对应的具体调度路径,进而选择时延最短的计算节点作为最佳计算节点及根据Floyd算法确定的路径作为最优路由策略。如图2所示,所述方法包括:
S1、将终端设备、路由节点、计算节点和动态的链路时延构成一个实时变化的多源点加权图;
S2、遍历该加权图,基于Floyd算法计算将用户业务路由至各个计算节点的最短时延Dmin;
S3、根据Dmin选择时延最短的计算节点以及对应路径作为调度策略,计算最短路径;
S4、根据上述路由分配策略,如果一个计算任务被分配的计算节点已经过载,则按照标签顺序优先获取网络的算力资源将计算任务循环调度到下一个有剩余算力资源的计算节点;
S5、循环执行上一步,直到所有的计算资源完全被利用,输出最佳计算节点N和最优调度路径P。
根据Floyd算法已经确定的路由分配策略,如果一个计算任务被分配的计算节点已经过载,则将计算任务循环调度到下一个有剩余算力资源的计算节点。为的是保证用户的公平性,计算任务按照标签顺序优先获取网络的算力资源;为降低算法的计算复杂度,计算任务在重新选择计算节点时,默认循环至下一个有剩余算力资源的计算节点即可,无需再次基于Floyd算法优化调度策略。
本公开实施例三还提供一种算力网络资源分配系统,如图3所示,所述系统包括:
接收模块11,其设置为接收用户的待处理业务,并将所述待处理业务发送至初始路由节点;
计算模块12,其设置为计算将用户业务从初始路由节点分别路由至各个计算节点的最短时延Dmin;
排序模块13,其设置为对得到的多个最短时延Dmin按时延从低到高进行排序;
选择模块14,其设置为选择其中时延最短的计算节点作为目标计算节点,并将目标计算节点及时延最短所对应的路由路径作为路由调度策略。
进一步的,所述系统还包括调度模块15;
所述调度模块15设置为根据所述路由调度策略,如果待处理业务被分配的目标计算节点已经过载,则按照最短时延Dmin的排序顺序将待处理业务调度到下一个有剩余算力资源的计算节点。
进一步的,所述计算模块12包括:
构建单元,其设置为构建终端设备、路由节点、计算节点和动态的链路时延组成的多源点加权图;
计算单元,其设置为遍历该多源点加权图,基于Floyd算法计算将用户业务从初始路由节点分别路由至各个计算节点的最短时延Dmin。
进一步的,所述构建单元具体设置为:
获取网络感知信息,所述网络感知信息包括待处理业务的资源数量,以及各个传输路径的传输速率;
根据网络感知信息计算出用户待处理业务经过网络中任意一条链路的传输时延;以及,
根据所述任意一条链路的传输时延构建终端设备、路由节点、计算节点和动态的链路时延组成的多源点加权图。
本公开实施例的算力网络资源分配系统用于实施方法实施例一和实施例二中的算力网络资源分配方法,所以描述的较为简单,具体可以参见前面方法实施例一和实施例二中的相关描述,此处不再赘述。
此外,如图4所示,本公开实施例四还提供一种电子设备,包括存储器100和处理器200,所述存储器100中存储有计算机程序,当所述处理器200运行所述存储器100存储的计算机程序时,所述处理器200执行上述各种可能的方法。
其中,存储器100与处理器200连接,存储器100可采用闪存或只读存储器或其他存储器,处理器200可采用中央处理器或单片机。
此外,本公开实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行上述各种可能的方法。
该计算机可读存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、计算机程序模块或其他数据)的任何方法或技术中实施的易失性或非易失性、可移除或不可移除的介质。计算机可读存储介质包括但不限于RAM(Random Access Memory,随机存取存储器),ROM(Read-Only Memory,只读存储器),EEPROM(Electrically ErasableProgrammable read only memory,带电可擦可编程只读存储器)、闪存或其他存储器技术、CD-ROM(Compact Disc Read-Only Memory,光盘只读存储器),数字多功能盘(DVD,DigitalVideo Disc)或其他光盘存储、磁盒、磁带、磁盘存储或其他磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其他的介质。
可以理解的是,以上实施方式仅仅是为了说明本公开的原理而采用的示例性实施方式,然而本公开并不局限于此。对于本领域内的普通技术人员而言,在不脱离本公开的精神和实质的情况下,可以做出各种变型和改进,这些变型和改进也视为本公开的保护范围。
Claims (10)
1.一种算力网络资源分配方法,其特征在于,所述方法包括:
接收用户的待处理业务,并将所述待处理业务发送至初始路由节点;
计算将用户业务从初始路由节点分别路由至各个计算节点的最短时延Dmin;
对得到的多个最短时延Dmin按时延从低到高进行排序;
选择其中时延最短的计算节点作为目标计算节点,并将目标计算节点及时延最短所对应的路由路径作为路由调度策略。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述路由调度策略,如果待处理业务被分配的目标计算节点已经过载,则按照最短时延Dmin的排序顺序将待处理业务调度到下一个有剩余算力资源的计算节点。
3.根据权利要求1所述的方法,其特征在于,所述计算将用户业务从初始路由节点分别路由至各个计算节点的最短时延Dmin包括:
构建终端设备、路由节点、计算节点和动态的链路时延组成的多源点加权图;
遍历该多源点加权图,基于Floyd算法计算将用户业务从初始路由节点分别路由至各个计算节点的最短时延Dmin。
4.根据权利要求3所述的方法,其特征在于,所述构建终端设备、路由节点、计算节点和动态的链路时延组成的多源点加权图包括:
获取网络感知信息,所述网络感知信息包括待处理业务的资源数量,以及各个传输路径的传输速率;
根据网络感知信息计算出用户待处理业务经过网络中任意一条链路的传输时延;
根据所述任意一条链路的传输时延构建终端设备、路由节点、计算节点和动态的链路时延组成的多源点加权图。
5.一种算力网络资源分配系统,其特征在于,所述系统包括:
接收模块,其设置为接收用户的待处理业务,并将所述待处理业务发送至初始路由节点;
计算模块,其设置为计算将用户业务从初始路由节点分别路由至各个计算节点的最短时延Dmin;
排序模块,其设置为对得到的多个最短时延Dmin按时延从低到高进行排序;
选择模块,其设置为选择其中时延最短的计算节点作为目标计算节点,并将目标计算节点及时延最短所对应的路由路径作为路由调度策略。
6.根据权利要求5所述的系统,其特征在于,所述系统还包括调度模块;
所述调度模块设置为根据所述路由调度策略,如果待处理业务被分配的目标计算节点已经过载,则按照最短时延Dmin的排序顺序将待处理业务调度到下一个有剩余算力资源的计算节点。
7.根据权利要求5所述的系统,其特征在于,所述计算模块包括:
构建单元,其设置为构建终端设备、路由节点、计算节点和动态的链路时延组成的多源点加权图;
计算单元,其设置为遍历该多源点加权图,基于Floyd算法计算将用户业务从初始路由节点分别路由至各个计算节点的最短时延Dmin。
8.根据权利要求7所述的系统,其特征在于,所述构建单元具体设置为:
获取网络感知信息,所述网络感知信息包括待处理业务的资源数量,以及各个传输路径的传输速率;
根据网络感知信息计算出用户待处理业务经过网络中任意一条链路的传输时延;以及,
根据所述任意一条链路的传输时延构建终端设备、路由节点、计算节点和动态的链路时延组成的多源点加权图。
9.一种电子设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机程序,当所述处理器运行所述存储器存储的计算机程序时,所述处理器执行如权利要求1-4中任一项所述的算力网络资源分配方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1-4中任一项所述的算力网络资源分配方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310658190.5A CN116684349A (zh) | 2023-06-05 | 2023-06-05 | 算力网络资源分配方法、系统、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310658190.5A CN116684349A (zh) | 2023-06-05 | 2023-06-05 | 算力网络资源分配方法、系统、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116684349A true CN116684349A (zh) | 2023-09-01 |
Family
ID=87780519
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310658190.5A Pending CN116684349A (zh) | 2023-06-05 | 2023-06-05 | 算力网络资源分配方法、系统、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116684349A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117648175A (zh) * | 2024-01-30 | 2024-03-05 | 之江实验室 | 一种基于动态算法选择的业务执行方法、装置及电子设备 |
-
2023
- 2023-06-05 CN CN202310658190.5A patent/CN116684349A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117648175A (zh) * | 2024-01-30 | 2024-03-05 | 之江实验室 | 一种基于动态算法选择的业务执行方法、装置及电子设备 |
CN117648175B (zh) * | 2024-01-30 | 2024-04-12 | 之江实验室 | 一种基于动态算法选择的业务执行方法、装置及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109802998B (zh) | 一种基于博弈的雾网络协同调度激励方法及系统 | |
Shen et al. | Probabilistic network-aware task placement for mapreduce scheduling | |
CN115421930B (zh) | 任务处理方法、系统、装置、设备及计算机可读存储介质 | |
CN116684349A (zh) | 算力网络资源分配方法、系统、电子设备及存储介质 | |
CN116700993B (zh) | 一种负载均衡方法、装置、设备及可读存储介质 | |
CN115277429B (zh) | 基于灵活以太网的电力通信业务资源分配方法及装置 | |
KR20170014804A (ko) | 클라우드 서비스를 위한 가상 머신 프로비저닝 시스템 및 방법 | |
US9654333B2 (en) | Application allocation in datacenters | |
Bensalem et al. | Scaling Serverless Functions in Edge Networks: A Reinforcement Learning Approach | |
Alameddine et al. | Low-latency service schedule orchestration in NFV-based networks | |
CN110365588A (zh) | 数据流调度方法、装置及sdn控制器 | |
Wu et al. | Multi-objective provisioning of network slices using deep reinforcement learning | |
CN114296828B (zh) | 数据计算任务的卸载方法及装置、存储介质、设备 | |
CN114338503B (zh) | 一种通信网中的分域资源调整方法和装置 | |
Jmila et al. | A self-stabilizing framework for dynamic bandwidth allocation in virtual networks | |
Xu et al. | QoS oriented embedding for network virtualization | |
CN118394488B (zh) | 一种任务调度方法、装置、设备、系统、程序产品及介质 | |
Zhang et al. | Task assignment optimization in geographically distributed data centers | |
Mohamaddiah et al. | Resource Selection Mechanism For Brokering Services In Multi-cloud Environment | |
Dong et al. | Two-phase computation and data scheduling algorithms for workflows in the grid | |
Fadahunsi | Task Allocation and Scheduling Algorithms for Network Edge Applications | |
Yi | Joint resource provisioning in optical cloud networks | |
CN117336225A (zh) | 一种时间敏感网络规划方法以及装置 | |
Maiti et al. | Multi-tier Fog Network Planning in Internet of Things Infrastructure for Delay Sensitive Applications | |
Ma et al. | Service Function Chain Placement in Edge Computing: A Topological Dependency-Informed Approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |