CN117834560A - 基于算力网络的资源分配方法以及相关设备 - Google Patents
基于算力网络的资源分配方法以及相关设备 Download PDFInfo
- Publication number
- CN117834560A CN117834560A CN202311589121.XA CN202311589121A CN117834560A CN 117834560 A CN117834560 A CN 117834560A CN 202311589121 A CN202311589121 A CN 202311589121A CN 117834560 A CN117834560 A CN 117834560A
- Authority
- CN
- China
- Prior art keywords
- service
- computing
- candidate
- target service
- resources
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000013468 resource allocation Methods 0.000 title claims abstract description 46
- 238000004364 calculation method Methods 0.000 claims abstract description 27
- 238000012216 screening Methods 0.000 claims abstract description 7
- 230000005540 biological transmission Effects 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 5
- 230000004044 response Effects 0.000 claims description 5
- 238000013528 artificial neural network Methods 0.000 description 21
- 238000004422 calculation algorithm Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 5
- 239000013598 vector Substances 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000013178 mathematical model Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 239000002699 waste material Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012384 transportation and delivery Methods 0.000 description 1
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请提供一种基于算力网络的资源分配方法以及相关设备,所述方法包括:提取目标业务的业务属性特征,将所述业务属性特征输入到预先构建的资源预测模型中,得到所述目标业务所需的业务资源需求;确定算力网络的剩余带宽资源以及算力节点的剩余计算资源,根据所述业务资源需求、所述剩余带宽资源以及所述剩余计算资源确定满足所述业务资源需求的候选算力节点;根据所述候选算力节点生成针对所述目标业务的候选业务路径;根据预设算力阈值对所述候选业务路径进行筛选,从所述候选业务路径中确定目标业务路径,通过所述目标业务路径对所述目标业务进行资源分配。
Description
技术领域
本申请涉及网络资源分配技术领域,尤其涉及一种基于算力网络的资源分配方法以及相关设备。
背景技术
在数字经济时代,算力正在成为新的生产力。5G、云计算、大数据等技术的出现,使数据量激增,运算复杂度不断提升。应用场景的多元化推动着算力需求的不断升级,智慧城市、智慧安防、自动驾驶等领域的应用不断扩大促使云计算、边缘计算的算力的需求日益增加。
目前关于算力网络中计算任务资源分配的研究仅限于路由和频谱分配或大多考虑CPU/GPU一种计算资源类型,没有考虑多种算力类型和资源使用效率,不合理的资源分配将导致资源浪费和较低的用户体验,并使节点热点数量增加,降低系统稳定性。
发明内容
有鉴于此,本申请的目的在于提出一种基于算力网络的资源分配方法以及相关设备,以解决或部分解决上述问题。
基于上述目的,本申请提供了一种基于算力网络的资源分配方法,包括:
提取目标业务的业务属性特征,将所述业务属性特征输入到预先构建的资源预测模型中,得到所述目标业务所需的业务资源需求;
确定算力网络的剩余带宽资源以及算力节点的剩余计算资源,根据所述业务资源需求、所述剩余带宽资源以及所述剩余计算资源确定满足所述业务资源需求的候选算力节点;
根据所述候选算力节点生成针对所述目标业务的候选业务路径;
根据预设算力阈值对所述候选业务路径进行筛选,从所述候选业务路径中确定目标业务路径,通过所述目标业务路径对所述目标业务进行资源分配。
在一种可能的实现方式中,所述目标业务的业务属性特征包括以下至少一种:目标业务类型、目标业务优先级、目标业务对应的算力服务类型、目标业务的汇节点、目标业务的源节点、目标业务的数据量、目标业务的带宽要求、目标业务的计算量、目标业务的传输起始时间、目标业务的传输结束时间、目标业务的时延要求。
在一种可能的实现方式中,所述方法还包括通过以下方式构建资源预测模型:
获取初始RNN网络模型;
获取历史业务的历史属性特征,根据所述历史属性特征训练所述初始RNN网络模型,得到所述资源预测模型;其中,所述初始RNN网络模型的训练阶段的输入为所述历史属性特征,输出为所述历史业务的历史业务资源需求。
在一种可能的实现方式中,所述确定算力网络的剩余带宽资源以及算力节点的剩余计算资源,包括:
确定所述算力网络中的算力节点;
对所述算力节点进行检测和查询,确定所述算力网络的链路的已用带宽资源以及所述算力节点的已用计算资源;
根据所述已用带宽资源以及所述已用计算资源确定算力网络的剩余带宽资源以及算力节点的剩余计算资源。
在一种可能的实现方式中,所述根据所述候选算力节点生成针对所述目标业务的候选业务路径,包括:
确定所述目标业务的源节点和汇节点;
计算从所述源节点到所述汇节点的所有路径,得到所述候选业务路径。
在一种可能的实现方式中,所述根据预设算力阈值对所述候选业务路径进行筛选,从所述候选业务路径中确定目标业务路径,包括:
计算所述候选业务路径的距离;
响应于所述距离不大于预设距离且算力不小于预设算力阈值,确定该候选业务路径为目标业务路径。
基于同样的目的,本申请还提出了一种基于算力网络的资源分配装置,包括:
提取模块,被配置为提取目标业务的业务属性特征,将所述业务属性特征输入到预先构建的资源预测模型中,得到所述目标业务所需的业务资源需求;
计算模块,被配置为确定算力网络的剩余带宽资源以及算力节点的剩余计算资源,根据所述业务资源需求、所述剩余带宽资源以及所述剩余计算资源确定满足所述业务资源需求的候选算力节点;
选择模块,被配置为根据所述候选算力节点生成针对所述目标业务的候选业务路径;
分配模块,被配置为根据预设算力阈值对所述候选业务路径进行筛选,从所述候选业务路径中确定目标业务路径,通过所述目标业务路径对所述目标业务进行资源分配。
基于上述目的,本申请还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任意一项所述的方法。
基于上述目的,本申请还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行上述任意一项所述的方法。
基于上述目的,本申请提供了一种计算机程序产品,包括计算机程序指令,当所述计算机程序指令在计算机上运行时,使得计算机执行上述任意一项所述的方法。
从上面所述可以看出,本申请提供的一种基于算力网络的资源分配方法以及相关设备,首先提取目标业务的业务属性特征,将业务属性特征输入到预先构建的资源预测模型中,得到目标业务所需的业务资源需求,进一步地,确定算力网络的剩余带宽资源以及算力节点的剩余计算资源,根据业务资源需求、剩余带宽资源以及剩余计算资源确定满足业务资源需求的候选算力节点,根据候选算力节点生成针对目标业务的候选业务路径,最后,根据预设算力阈值对候选业务路径进行筛选,从候选业务路径中确定目标业务路径,通过目标业务路径对目标业务进行资源分配。本申请通过对业务资源需求的预测,为在线和离线业务精细化的定制和分配算力资源,并研究如何兼顾服务质量的同时,为业务合理分配资源,在网络资源和计算资源容量的限制下,提高资源使用效率并避免产生热点,提高了网络整体的稳定性和业务服务质量。
附图说明
为了更清楚地说明本申请或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的基于算力网络的资源分配框架示意图。
图2为本申请实施例提供的基于算力网络的资源分配方法流程示意图。
图3为本申请实施例提供的LSTM神经网络结构示意图。
图4为本申请实施例提供的RNN神经网络结构示意图。
图5为本申请实施例提供的基于算力网络的资源分配示例图。
图6为本申请实施例提供的基于算力网络的资源分配装置示意图。
图7为本申请实施例提供的电子设备硬件结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本申请进一步详细说明。
需要说明的是,除非另外定义,本申请使用的技术术语或者科学术语应当为本申请所属领域内具有一般技能的人士所理解的通常意义。本申请中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
如背景技术部分所述,计算能力网络(Computing Power Network,简称算力网络)可以解决云计算、边缘计算和网络资源之间的协作问题。CPN中存在多种类型的算力资源,如CPU、GPU、TPU和NPU。根据所运行算法和涉及的数据计算类型,算力可被分为逻辑运算能力(如CPU)、并行计算能力(如GPU)和神经网络计算能力(如TPU和NPU)。因此,部署不同的计算任务所需的算力类型和量级也不尽相同。
CPN中计算任务从实时性角度可以分为两种类型,在线业务和离线业务。在线业务主要是指那些对实时性要求高、需要持续提供服务的应用,例如搜索引擎、直播视频的画质增强、实时视频的处理等。为了保障在线业务的服务质量,会给在线任务分配较多的计算资源,但其实际使用的资源过小,导致资源利用率普遍较低。离线业务指对实时性要求不高、可以批量处理的任务,如大数据分析、机器学习等。这些任务通常需要运行一段时间,并且可以在任意时间开始执行,因为它们不受严格的时间限制。离线业务可以充分利用计算资源,提高计算效率。
服务提供商需要为在线和离线业务分配计算和网络资源,做好精细化分配和降本增效,用有限的算力资源尽可能部署更多的业务。服务提供商既要根据业务优先级进一步提升在线业务的服务质量,如超高清视频直播、VR/AR视频、视频会议等,也需要根据业务流量的瞬时增长,弹性扩张计算资源,优化资源分配,减少部署成本,并避免节点热点(将CPU或内存超过80%定义为热点)的产生。因此,为在线业务和离线业务合理分配资源非常重要,需要充分考虑业务需求、性能、成本和网络资源状态等多个因素,制定科学、合理的资源分配计划。
但是,目前关于算力网络中计算任务资源分配的研究仅限于路由和频谱分配或大多考虑CPU/GPU一种计算资源类型,没有考虑多种算力类型和资源使用效率,不合理的资源分配将导致资源浪费和较低的用户体验,并使节点热点数量增加,降低系统稳定性。
因此,本申请提出一种基于算力网络的资源分配方法以及相关设备,首先提取目标业务的业务属性特征,将业务属性特征输入到预先构建的资源预测模型中,得到目标业务所需的业务资源需求,进一步地,确定算力网络的剩余带宽资源以及算力节点的剩余计算资源,根据业务资源需求、剩余带宽资源以及剩余计算资源确定满足业务资源需求的候选算力节点,根据候选算力节点生成针对目标业务的候选业务路径,最后,根据预设算力阈值对候选业务路径进行筛选,从候选业务路径中确定目标业务路径,通过目标业务路径对目标业务进行资源分配。本申请通过对业务资源需求的预测,为在线和离线业务精细化的定制和分配算力资源,并研究如何兼顾服务质量的同时,为业务合理分配资源,在网络资源和计算资源容量的限制下,提高资源使用效率并避免产生热点,提高了网络整体的稳定性和业务服务质量。
以下,通过具体的实施例进一步详细说明本申请的技术方案。
参考图1,为本申请实施例提供的基于算力网络的资源分配框架示意图。
本申请主要提出了一种启发式的资源分配算法来解决算力网络下对于在线业务和离线业务资源分配不合理导致产生热点的问题。算法包含两个关键步骤,一是根据网络中节点不同类型资源的状态,通过业务资源需求预测来部署在线和离线业务。二是根据网络状态判断部署业务是否会导致产生节点热点,并尝试选择避免产生热点的部署策略。
在现有的资源分配方法中,计算任务在CPN中的资源分配通常遵循以下步骤:
资源发现:在CPN中,需要首先进行资源发现,即确定可用的计算资源。这可以通过网络拓扑结构和网络管理系统来完成。网络管理系统可以检测和监控网络中的计算资源,并将其注册到资源状态信息中。
任务描述:将待处理的任务进行描述和抽象,包括任务类型、优先级、业务计算需求、执行时间等信息。
资源选择:根据任务描述和可用资源的属性进行资源选择和匹配。这可以基于资源的性能指标(如处理能力、延迟等)、可用性、成本等方面进行考虑。资源选择可以通过算法和策略来实现,如最佳适配算法、贪心算法等。
资源分配:将选择的计算资源分配给任务。资源分配可以是静态的,即任务一经分配就一直保持在指定的计算资源上执行;也可以是动态的,即根据任务的执行情况和资源的变化进行实时调整和重新分配。
任务调度:对已经分配的任务进行调度和管理。任务调度可以基于不同的策略,如先来先服务、最短作业优先、优先级调度等,以满足任务执行的要求和优化性能。本发明中采用优先级的调度策略。
在本申请整个资源分配框架流程中,首先需要根据目标业务的属性预测目标业务的资源需求,进一步地,在算力网络中寻找满足任务需求算力类型的计算节点,根据迪杰斯特拉算法(Dijkstra)计算K条候选路径,若找不到候选路径,则任务部署宣告失败,若可以找到候选路径,则选取K条候选路径中满足算力网络和计算需求的成本最小的路径,判断该路径进行资源分配过程中是否导致算力节点产生热点,若会使算力节点产生热点,则去除此条候选路径,对其它的候选路径进行验证,若不会使算力节点产生热点,则根据该条路径为目标业务分配资源。
参考图2,为本申请实施例提供的基于算力网络的资源分配方法流程示意图。
步骤S201,提取目标业务的业务属性特征,将所述业务属性特征输入到预先构建的资源预测模型中,得到所述目标业务所需的业务资源需求。
在具体实施中,目标业务包括在线业务和离线业务。
在线业务通常需要实时或较快速的响应,对用户来说,需要快速获得数据结果。例如,视频直播、网上购物、社交网络等。在线业务对计算效率要求较高,需要在极短内完成数据处理并返回结果。为此,在线业务一般采用实时流式计算的方式,通过流式处理将数据源发送给同步计算引擎,计算引擎立即对数据进行加工处理,并将处理结果发送回用户终端。
离线业务主要针对数据分析、机器学习等领域,对计算效率要求不高,主要注重数据量和数据质量的优化。离线业务处理的数据通常是大规模数据,需要花费较长时间进行批量处理,例如,批量生成报表、数据挖掘等。
此外,算力的统一量化是算力网络调度和使用的基础。算力的需求可分为3类,即逻辑运算能力、并行计算能力以及神经网络加速能力。
针对异构算力的CPN,目标业务所需的业务资源需求(即算力需求)如下述公式所示:
其中,Cbr为目标业务的算力需求,f(x)为映射函数,α、β和γ为映射比例系数,q为冗余算力,a、b和c分别为逻辑计算芯片资源、并行计算芯片资源以及神经网络计算芯片资源,则进一步地,f(bj)表示算力节点j并行计算芯片b可提供的并行计算能力的函数,q2表示并行计算能力的冗余算力。
在CPN中,任务的冗余算力指的是在任务执行过程中,由于任务本身或系统资源的不确定性而导致计算资源额外消耗的情况。换句话说,即使任务本身只需要一定的计算资源,但由于某些原因,系统可能需要更多的计算资源来确保任务的正确性和可靠性。
批量的业务可能会在不同的时刻到达网络,每个目标业务都有自己的任务属性。
目标业务的业务属性可以由属性集表示其中,m为目标业务类型、p为目标业务优先级、n目标业务对应的算力服务类型、Si为目标业务的汇节点或者目标业务的源节点、di为目标业务的数据量、bi为目标业务的带宽要求、ci为目标业务的计算量、/>为目标业务的传输起始时间、/>为目标业务的传输结束时间、tQos为目标业务的时延要求。
将在线业务和离线业务在CPN中进行部署,其中,不是所有的算力节点都有计算能力,只有部分节点有计算能力,并且计算节点提供CPU、GPU、TPU、NPU四种计算资源的其中几种,为了简化模型设置,本申请实施例设置不同节点的相同类型的计算资源的计算能力是相同的,其余节点都只是传输节点,没有计算能力,连接所有节点的链路是光纤链路。
此外,节点不同类型算力资源的计算能力不相同。在CPN中,对于相同的源节点和目标节点,可以将多个任务请求聚合到一个波长信道中进行数据传输,以提高网络资源的利用率。
作为一个可选的实施例,可以通过以下方式构建资源预测模型:
首先获取初始RNN网络模型,获取历史业务的历史属性特征,根据历史属性特征训练初始RNN网络模型,得到资源预测模型;其中,初始RNN网络模型的训练阶段的输入为历史属性特征,输出为历史业务的历史业务资源需求。
考虑到资源需求预测将影响资源分配方案的性能,本申请应用LSTM神经网络来预测每个任务的未来资源需求,因为它在预测各种需求模式方面的精度较高。LSTM神经网络的基本单元是人工神经网络(ANN)。它包含一个输入层、至少一个隐藏层和一个输出层。每一层至少包含一个神经元。相邻两层之间的每一对神经元都由一条加权有向边连接起来,输入和输出之间的关系由这些权值决定。
参考图3,为本申请实施例提供的LSTM神经网络结构示意图。
其中,X表示输入层,Y表示输出层,h表示隐藏层,W和U分别表示相邻两层之间对应的权重向量。
递归神经网络(RNN)是一种基于基本ANN的基础上构建的神经网络,LSTM神经网络被称为RNN的一种。RNN神经网络结构的基本单位为ANN。
参考图4,为本申请实施例提供的RNN神经网络结构示意图。
与ANN不同的是,在RNN中,隐藏层中的每个神经元不仅接收当前的输入向量Xt,还接收上一步隐藏层中的输出向量ht-1,RNN神经网络模型对应的数学模型可以通过以下方式表示:
Yt=g2(W·ht+by)
ht=g1(U·Xt+V·ht-1+bh)
其中,V为两个连续时间步长的隐藏层之间的权值向量,bh和by分别为两个偏差,g1和g2分别为两个激活函数,典型的激活函数是线性和s型传递函数。
从上述RNN神经网络模型对应的数学模型可以看出,当前时间步长的输出(即Yt)是由当前隐藏层的输出ht决定的。我们可以进一步看到,当前隐藏层的输出ht不仅由当前输入Xt决定,还由上一个时间步长的隐藏层输出ht-1决定,因此,RNN预测模型的输出由当前时间步长的工作负载和历史工作负载共同决定。这与传统的神经网络有不同,传统神经网络假设训练和测试数据是完全独立的。一旦训练完成,人工神经网络的当前输出只从当前的输入中决定,并且与之前的输入无关。
作为一个可选的实施例,利用LSTM神经网络预测模型,本申请预测每个目标业务的资源需求。
首先收集历史业务的计算资源需求数据和相关的历史业务属性,如业务类型、算力亲和性、计算量、QoS等,以获得模型的所有权重。然后,将最近的历史工作负载Xt输入到模型中,并找到输出的Yt,这也是下一个时间步长的预测值,然后,将Yt视为Xt+1,并将其输入到初始RNN网络模型中,得到Yt+1。重复这些步骤,直到获得所有所需的预测为止。
需要说明的是,使用RNN神经网络模型来进行预测。对于在线业务,可以基于历史数据训练RNN模型,预测未来一段时间的资源需求,包括CPU、内存、网络等等。对于离线业务,可以根据任务的特征提取相应的特征,比如任务类型、数据量等等,用于训练RNN模型。这些特征可以包括任务类型、数据大小、迭代次数等。可以将这些特征作为模型的输入,同时也可以使用类似于在线业务的方法,用于预测任务所需的资源,以便可以优化任务调度和资源分配。而对于离线业务,再输入到RNN模型中进行预测。这样就可以更加准确地估计资源需求,从而有效地管理资源和优化系统性能。
步骤S202,确定算力网络的剩余带宽资源以及算力节点的剩余计算资源,根据所述业务资源需求、所述剩余带宽资源以及所述剩余计算资源确定满足所述业务资源需求的候选算力节点。
作为一个可选的实施例,首先可以确定算力网络中的算力节点,进一步地,对算力节点进行检测和查询,确定算力网络的链路的已用带宽资源以及算力节点的已用计算资源,根据已用带宽资源以及已用计算资源确定算力网络的剩余带宽资源以及算力节点的剩余计算资源。
具体地,可以通过监测和查询与算力节点之间的链路和资源利用情况来获取算力网络链路剩余带宽和节点剩余计算资源。通过监测算力节点的资源状态,可以获取诸如CPU、GPU、TPU、NPU利用率、内存利用率、网络带宽等指标。这些指标可以反映出算力节点当前的负载情况以及资源的可用性。基于这些信息,可以根据任务需求和算力节点可用资源的情况进行智能的任务调度和资源调配,以优化资源利用和提高计算性能。
步骤S203,根据所述候选算力节点生成针对所述目标业务的候选业务路径。
作为一个可选的实施例,可以确定目标业务的源节点和汇节点,计算从所述源节点到汇节点的所有路径,得到候选业务路径。
具体地,选择K条候选路径是一种常见的策略。这种策略可以增加网络的冗余性、提高网络性能、分摊网络流量等。使用最短路径算法计算出网络拓扑中的最短路径,并选择其中K条作为候选路径。最短路径基于源节点和目的节点的距离选择。
作为一个可选的实施例,可以计算候选业务路径的距离,响应于距离不大于预设距离且算力不小于预设算力阈值,确定该候选业务路径为目标业务路径。
具体地,在选择K条候选路径的过程中,Dijkstra算法首先从算力网络中搜索满足业务需求的所有路径,并计算每条路径的距离长短。然后,从这些路径中选择源节点到计算节点距离最少的K条路径作为候选,通过提供候选路径,可以提高网络的可靠性和鲁棒性。
步骤S204,根据预设算力阈值对所述候选业务路径进行筛选,从所述候选业务路径中确定目标业务路径,通过所述目标业务路径对所述目标业务进行资源分配。
根据资源预测结果找到满足任务需求资源类型的算力节点以及找到避免产生热点的计算节点,并检查到其目的算力节点的带宽资源是否足够支持任务的数据传输需求。通过综合考虑这些节点的资源情况,可以判断是否满足任务要求,从而做出合理的资源分配和部署决策,若不满足,去除此部署策略寻找次优解。遍历完所有候选路径后都无法满足任务需求,认为任务部署失败。
参考图5,为本申请实施例提供的基于算力网络的资源分配示例图。
本申请假设在一个6个节点组成的算力网络上为在线业务和离线业务分配资源,并且所有的算力节点都有CPU资源,有部分算力节点还有GPU资源和NPU,另一部分节点还有GPU资源和TPU资源。实线代表光纤链路,假设每条链路拥有80个波长通道,每个波长通道的带宽大小为100Gbps。
本实施例中,假设每个算力节点中拥有3个CPU板卡,每个CPU的计算能力为3TFLOPs,部分算力节点拥有2个GPU板卡,每个GPU的计算能力为5TFLOPs,部分算力节点拥有2个TPU或NPU板卡,其计算能力分别为10TFLOPs和12TFLOPs。
为业务分配资源时需要考虑业务的属性和算力资源的服务质量,即独占型,共享型和抢占型。不同部署方案的成本不同,所产生的热点数量也不同,因此,需要综合考虑部署方案,提高资源使用效率并减少部署成本,避免节点热点产生。
算力资源通过不同的模式来满足不同业务需求。主要可以分为以下三种资源占用模式:
独占型:这种模式主要针对敏感、保密等特殊需求的业务,可以通过独占集群或独占节点的方式进行部署,确保这些业务在资源使用上不会受到其他业务的影响。
共享型:这种模式面向混部队列的共享池,可以满足在线和离线业务的共享需求。相比于独占型,共享型资源的价格更便宜(0.8倍于独占型),但是可能会存在资源竞争的情况。
抢占型:这种模式专门为离线业务设计,其质量相对较低,但价格也最为便宜(可能仅为独占型的0.1或者免费)。在资源使用上,抢占型可能会优先满足在线业务的需求,而离线业务则需要等待空闲时间才能使用。
进一步地,在本申请实施例执行过程中,假设节点2产生了一个在线业务和离线业务,他们的资源需求类型是CPU和NPU,业务对于资源服务质量的要求是共享型。当目标业务任务产生后,算法寻找满足计算需求的节点的前K个候选路径,假设K=3,那么寻找到3个候选路径,以节点5为例,分别是:2-3-5;2-6-5;2-1-6-5。然后算法从第一条路径判断从源节点到目的节点的传输和计算资源是否能够保证任务的QoS要求,并计算每条部署路径的计算成本,开始遍历3条候选路径,选择出部署成本最小的路径,如果部署方式会产生节点热点,则视为成本无穷大,选择其他路径或节点部署。
从上面所述可以看出,本申请提供的一种基于算力网络的资源分配方法以及相关设备,首先提取目标业务的业务属性特征,将业务属性特征输入到预先构建的资源预测模型中,得到目标业务所需的业务资源需求,进一步地,确定算力网络的剩余带宽资源以及算力节点的剩余计算资源,根据业务资源需求、剩余带宽资源以及剩余计算资源确定满足业务资源需求的候选算力节点,根据候选算力节点生成针对目标业务的候选业务路径,最后,根据预设算力阈值对候选业务路径进行筛选,从候选业务路径中确定目标业务路径,通过目标业务路径对目标业务进行资源分配。本申请通过对业务资源需求的预测,为在线和离线业务精细化的定制和分配算力资源,并研究如何兼顾服务质量的同时,为业务合理分配资源,在网络资源和计算资源容量的限制下,提高资源使用效率并避免产生热点,提高了网络整体的稳定性和业务服务质量。
需要说明的是,本申请实施例的方法可以由单个设备执行,例如一台计算机或服务器等。本实施例的方法也可以应用于分布式场景下,由多台设备相互配合来完成。在这种分布式场景的情况下,这多台设备中的一台设备可以只执行本申请实施例的方法中的某一个或多个步骤,这多台设备相互之间会进行交互以完成所述的方法。
需要说明的是,上述对本申请的一些实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于上述实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
基于同一发明构思,与上述任意实施例提供的方法相对应的,本申请还提供了一种基于算力网络的资源分配装置。
参考图6,为本申请实施例提供的基于算力网络的资源分配装置示意图。
所述基于算力网络的资源分配装置,包括:提取模块601、计算模块602、选择模块603以及分配模块604:
提取模块601,被配置为提取目标业务的业务属性特征,将所述业务属性特征输入到预先构建的资源预测模型中,得到所述目标业务所需的业务资源需求;
计算模块602,被配置为确定算力网络的剩余带宽资源以及算力节点的剩余计算资源,根据所述业务资源需求、所述剩余带宽资源以及所述剩余计算资源确定满足所述业务资源需求的候选算力节点;
选择模块603,被配置为根据所述候选算力节点生成针对所述目标业务的候选业务路径;
分配模块604,被配置为根据预设算力阈值对所述候选业务路径进行筛选,从所述候选业务路径中确定目标业务路径,通过所述目标业务路径对所述目标业务进行资源分配。
可选的,所述目标业务的业务属性特征包括以下至少一种:目标业务类型、目标业务优先级、目标业务对应的算力服务类型、目标业务的汇节点、目标业务的源节点、目标业务的数据量、目标业务的带宽要求、目标业务的计算量、目标业务的传输起始时间、目标业务的传输结束时间、目标业务的时延要求。
可选的,提取模块601,还被配置为:
通过以下方式构建资源预测模型:
获取初始RNN网络模型;
获取历史业务的历史属性特征,根据所述历史属性特征训练所述初始RNN网络模型,得到所述资源预测模型;其中,所述初始RNN网络模型的训练阶段的输入为所述历史属性特征,输出为所述历史业务的历史业务资源需求。
可选的,计算模块602,还被配置为:
确定所述算力网络中的算力节点;
对所述算力节点进行检测和查询,确定所述算力网络的链路的已用带宽资源以及所述算力节点的已用计算资源;
根据所述已用带宽资源以及所述已用计算资源确定算力网络的剩余带宽资源以及算力节点的剩余计算资源。
可选的,选择模块603,还被配置为:
确定所述目标业务的源节点和汇节点;
计算从所述源节点到所述汇节点的所有路径,得到所述候选业务路径。
可选的,分配模块604,还被配置为:
计算所述候选业务路径的距离;
响应于所述距离不大于预设距离且算力不小于预设算力阈值,确定该候选业务路径为目标业务路径。
为了描述的方便,描述以上系统时以功能分为各种模块分别描述。当然,在实施本申请时可以把各模块的功能在同一个或多个软件和/或硬件中实现。
上述实施例的系统用于实现前述任一实施例中相应的方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
基于同一发明构思,与上述任意实施例方法相对应的,本申请还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上任意一实施例所述的方法。
图7示出了本实施例所提供的一种更为具体的电子设备硬件结构示意图,该设备可以包括:处理器710、存储器720、输入/输出接口730、通信接口740和总线750。其中处理器710、存储器720、输入/输出接口730和通信接口740通过总线750实现彼此之间在设备内部的通信连接。
处理器710可以采用通用的CPU(Central Processing Unit,中央处理器)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本说明书实施例所提供的技术方案。
存储器720可以采用ROM(Read Only Memory,只读存储器)、RAM(Random AccessMemory,随机存取存储器)、静态存储设备,动态存储设备等形式实现。存储器720可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器720中,并由处理器710来调用执行。
输入/输出接口730用于连接输入/输出模块,以实现信息输入及输出。输入/输出模块可以作为组件配置在设备中(图中未示出),也可以外接于设备以提供相应功能。其中输入设备可以包括键盘、鼠标、触摸屏、麦克风、各类传感器等,输出设备可以包括显示器、扬声器、振动器、指示灯等。
通信接口740用于连接通信模块(图中未示出),以实现本设备与其他设备的通信交互。其中通信模块可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信。
总线750包括一通路,在设备的各个组件(例如处理器710、存储器720、输入/输出接口730和通信接口740)之间传输信息。
需要说明的是,尽管上述设备仅示出了处理器710、存储器720、输入/输出接口730、通信接口740以及总线750,但是在具体实施过程中,该设备还可以包括实现正常运行所必需的其他组件。此外,本领域的技术人员可以理解的是,上述设备中也可以仅包含实现本说明书实施例方案所必需的组件,而不必包含图中所示的全部组件。
上述实施例的电子设备用于实现前述任一实施例中相应的方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
基于同一发明构思,与上述任意实施例方法相对应的,本申请还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行如上任一实施例所述的方法。
上述非暂态计算机可读存储介质可以是计算机能够存取的任何可用介质或数据存储设备,包括但不限于磁性存储器(例如软盘、硬盘、磁带、磁光盘(MO)等)、光学存储器(例如CD、DVD、BD、HVD等)、以及半导体存储器(例如ROM、EPROM、EEPROM、非易失性存储器(NAND FLASH)、固态硬盘(SSD))等。
上述实施例的存储介质存储的计算机指令用于使所述计算机执行如上示例性方法部分中任一实施例所述的方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
基于同一发明构思,与上述任意实施例所述的方法相对应的,本申请还提供了一种计算机程序产品,其包括计算机程序指令。在一些实施例中,所述计算机程序指令可以由计算机的一个或多个处理器执行以使得所述计算机和/或所述处理器执行所述的方法。对应于所述的方法各实施例中各步骤对应的执行主体,执行相应步骤的处理器可以是属于相应执行主体的。
上述实施例的计算机程序产品用于使所述计算机和/或所述处理器执行如上任一实施例所述的方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
此外,尽管在附图中以特定顺序描述了本申请方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。相反,流程图中描绘的步骤可以改变执行顺序。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
需要说明的是,除非另外定义,本申请实施例使用的技术术语或者科学术语应当为本申请所属领域内具有一般技能的人士所理解的通常意义。本申请实施例中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
虽然已经参考若干具体实施方式描述了本申请的精神和原理,但是应该理解,本申请并不限于所公开的具体实施方式,对各方面的划分也不意味着这些方面中的特征不能组合以进行受益,这种划分仅是为了表述的方便。本申请旨在涵盖所附权利要求的精神和范围内所包括的各种修改和等同布置。所附权利要求的范围符合最宽泛的解释,从而包含所有这样的修改及等同结构和功能。
Claims (10)
1.一种基于算力网络的资源分配方法,其特征在于,包括:
提取目标业务的业务属性特征,将所述业务属性特征输入到预先构建的资源预测模型中,得到所述目标业务所需的业务资源需求;
确定算力网络的剩余带宽资源以及算力节点的剩余计算资源,根据所述业务资源需求、所述剩余带宽资源以及所述剩余计算资源确定满足所述业务资源需求的候选算力节点;
根据所述候选算力节点生成针对所述目标业务的候选业务路径;
根据预设算力阈值对所述候选业务路径进行筛选,从所述候选业务路径中确定目标业务路径,通过所述目标业务路径对所述目标业务进行资源分配。
2.根据权利要求1所述的方法,其特征在于,所述目标业务的业务属性特征包括以下至少一种:目标业务类型、目标业务优先级、目标业务对应的算力服务类型、目标业务的汇节点、目标业务的源节点、目标业务的数据量、目标业务的带宽要求、目标业务的计算量、目标业务的传输起始时间、目标业务的传输结束时间、目标业务的时延要求。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括通过以下方式构建资源预测模型:
获取初始RNN网络模型;
获取历史业务的历史属性特征,根据所述历史属性特征训练所述初始RNN网络模型,得到所述资源预测模型;其中,所述初始RNN网络模型的训练阶段的输入为所述历史属性特征,输出为所述历史业务的历史业务资源需求。
4.根据权利要求1所述的方法,其特征在于,所述确定算力网络的剩余带宽资源以及算力节点的剩余计算资源,包括:
确定所述算力网络中的算力节点;
对所述算力节点进行检测和查询,确定所述算力网络的链路的已用带宽资源以及所述算力节点的已用计算资源;
根据所述已用带宽资源以及所述已用计算资源确定算力网络的剩余带宽资源以及算力节点的剩余计算资源。
5.根据权利要求2所述的方法,其特征在于,所述根据所述候选算力节点生成针对所述目标业务的候选业务路径,包括:
确定所述目标业务的源节点和汇节点;
计算从所述源节点到所述汇节点的所有路径,得到所述候选业务路径。
6.根据权利要求5所述的方法,其特征在于,所述根据预设算力阈值对所述候选业务路径进行筛选,从所述候选业务路径中确定目标业务路径,包括:
计算所述候选业务路径的距离;
响应于所述距离不大于预设距离且算力不小于预设算力阈值,确定该候选业务路径为目标业务路径。
7.一种基于算力网络的资源分配装置,其特征在于,包括:
提取模块,被配置为提取目标业务的业务属性特征,将所述业务属性特征输入到预先构建的资源预测模型中,得到所述目标业务所需的业务资源需求;
计算模块,被配置为确定算力网络的剩余带宽资源以及算力节点的剩余计算资源,根据所述业务资源需求、所述剩余带宽资源以及所述剩余计算资源确定满足所述业务资源需求的候选算力节点;
选择模块,被配置为根据所述候选算力节点生成针对所述目标业务的候选业务路径;
分配模块,被配置为根据预设算力阈值对所述候选业务路径进行筛选,从所述候选业务路径中确定目标业务路径,通过所述目标业务路径对所述目标业务进行资源分配。
8.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至6任意一项所述的方法。
9.一种非暂态计算机可读存储介质,其特征在于,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行权利要求1至6任一所述方法。
10.一种计算机程序产品,包括计算机程序指令,当所述计算机程序指令在计算机上运行时,使得计算机执行如权利要求1至6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311589121.XA CN117834560A (zh) | 2023-11-24 | 2023-11-24 | 基于算力网络的资源分配方法以及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311589121.XA CN117834560A (zh) | 2023-11-24 | 2023-11-24 | 基于算力网络的资源分配方法以及相关设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117834560A true CN117834560A (zh) | 2024-04-05 |
Family
ID=90519721
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311589121.XA Pending CN117834560A (zh) | 2023-11-24 | 2023-11-24 | 基于算力网络的资源分配方法以及相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117834560A (zh) |
-
2023
- 2023-11-24 CN CN202311589121.XA patent/CN117834560A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7094352B2 (ja) | タスク並列処理の実現方法、装置、機器及び媒体 | |
Schardong et al. | NFV resource allocation: A systematic review and taxonomy of VNF forwarding graph embedding | |
Adabi et al. | Bi-level fuzzy based advanced reservation of Cloud workflow applications on distributed Grid resources | |
Velasquez et al. | A rank-based mechanism for service placement in the fog | |
CN115033340A (zh) | 一种宿主机的选择方法及相关装置 | |
CN113553160A (zh) | 用于人工智能物联网的边缘计算节点任务调度方法及系统 | |
CN106104527B (zh) | 流式查询资源控制 | |
CN114625500A (zh) | 云环境下拓扑感知的微服务应用调度的方法及应用 | |
Azimzadeh et al. | Placement of IoT services in fog environment based on complex network features: a genetic-based approach | |
CN115220916A (zh) | 视频智能分析平台的自动算力调度方法、装置及系统 | |
Soto et al. | Towards autonomous VNF auto-scaling using deep reinforcement learning | |
Wang et al. | Multi-queue request scheduling for profit maximization in IaaS clouds | |
CN117271101B (zh) | 一种算子融合方法、装置、电子设备及存储介质 | |
Kim et al. | Partition placement and resource allocation for multiple DNN-based applications in heterogeneous IoT environments | |
Pham-Nguyen et al. | Dynamic resource provisioning on fog landscapes | |
Garg et al. | Optimal virtual machine scheduling in virtualized cloud environment using VIKOR method | |
Khanh et al. | Fuzzy‐Based Mobile Edge Orchestrators in Heterogeneous IoT Environments: An Online Workload Balancing Approach | |
CN116896591A (zh) | 网络数据分析模型调度方法、装置和计算机设备 | |
CN114978913B (zh) | 一种基于切链的服务功能链跨域部署方法及系统 | |
Sheikh et al. | Machine learning-driven task scheduling with dynamic K-means based clustering algorithm using fuzzy logic in FOG environment | |
CN117834560A (zh) | 基于算力网络的资源分配方法以及相关设备 | |
CN115509715A (zh) | 一种分布式任务调度方法、装置和电子设备 | |
Liu | Animation art design online system based on mobile edge computing and user perception | |
Abdellah et al. | RAP-G: Reliability-aware service placement using genetic algorithm for deep edge computing | |
Fadlallah et al. | Scheduling problems from workshop to collaborative mobile computing: A state of the art |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |