CN118093183A - 算力资源分配方法、装置、设备、存储介质及产品 - Google Patents
算力资源分配方法、装置、设备、存储介质及产品 Download PDFInfo
- Publication number
- CN118093183A CN118093183A CN202410238645.2A CN202410238645A CN118093183A CN 118093183 A CN118093183 A CN 118093183A CN 202410238645 A CN202410238645 A CN 202410238645A CN 118093183 A CN118093183 A CN 118093183A
- Authority
- CN
- China
- Prior art keywords
- computing
- power
- calculation
- information
- service node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013468 resource allocation Methods 0.000 title claims abstract description 66
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000004364 calculation method Methods 0.000 claims abstract description 281
- 230000004044 response Effects 0.000 claims abstract description 10
- 238000004590 computer program Methods 0.000 claims abstract description 7
- 238000012545 processing Methods 0.000 claims description 51
- 238000005265 energy consumption Methods 0.000 claims description 16
- 230000006978 adaptation Effects 0.000 claims description 13
- 230000004927 fusion Effects 0.000 claims description 12
- 239000013598 vector Substances 0.000 claims description 11
- 238000000354 decomposition reaction Methods 0.000 claims description 10
- 230000036962 time dependent Effects 0.000 claims description 7
- 230000006399 behavior Effects 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 4
- 230000001419 dependent effect Effects 0.000 claims 1
- 230000008569 process Effects 0.000 description 12
- 238000013527 convolutional neural network Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000010606 normalization Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000002441 reversible effect Effects 0.000 description 6
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000007726 management method Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/5038—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/5021—Priority
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及算力资源分配技术领域,公开了一种算力资源分配方法、装置、设备、存储介质及计算机程序产品,该方法包括:响应于接收到的计算任务请求,确定计算任务信息以及算力需求信息;获取候选算力服务节点的算力信息,并基于候选算力服务节点的算力信息、计算任务信息以及算力需求信息进行算力匹配,得到目标算力服务节点;通过目标算力服务节点对计算任务进行算力资源分配。本发明通过进行算力匹配确定的目标算力服务节点对计算任务进行算力资源分配,解决了算力资源利用率低以及时延与信息安全性问题导致应用范围受限的问题,提高了算力资源的利用率,减少时延影响,保证了信息的安全性。
Description
技术领域
本发明涉及算力资源分配技术领域,尤其涉及一种算力资源分配方法、装置、设备、存储介质及计算机程序产品。
背景技术
当前的技术方案多将数据处理的任务布置在边缘计算网络中,以达到减少时延、降低带宽使用成本的目的,此类方案在本地边缘服务器上进行工业现场数据的存储、分析和转发,通过调用驱动接口的方式独占算力资源,算力资源与硬件设备捆绑,无法剥离使用。另一类方案则基于算力网络架构实现:云端服务器或者数据中心等算力网络管理调度平台按照终端数据处理任务的需求,为其进行算力资源分配,在算力服务节点上完成数据处理任务,大大提高了算力资源利用率。但由于存在不可避免的时延,此类方案不适宜应用于对数据现实性要求较高的工业场景。
发明内容
本发明的主要目的在于提供一种算力资源分配方法、装置、设备、存储介质及计算机程序产品,旨在解决现有技术算力资源利用率低以及时延与信息安全性问题导致应用范围受限的技术问题。
为实现上述目的,本发明提供了一种算力资源分配方法,所述方法包括以下步骤:
响应于接收到的计算任务请求,确定计算任务信息以及算力需求信息;
获取候选算力服务节点的算力信息,并基于所述候选算力服务节点的算力信息、计算任务信息以及算力需求信息进行算力匹配,得到目标算力服务节点;
通过所述目标算力服务节点对计算任务进行算力资源分配。
可选地,所述获取算力服务节点的算力信息,并基于所述算力服务节点的算力信息、计算任务信息以及算力需求信息进行算力匹配,得到目标算力服务节点,具体包括:
通过算力需求预测网络基于所述计算任务信息进行预测,得到计算任务的算力需求预测值;
将所述算力需求预测值和所述算力需求信息中的算力需求期望值进行对比,得到对比结果,并根据所述对比结果判断终端是否存在恶意占用算力资源行为;
若不存在,则执行所述获取算力服务节点的算力信息,并基于所述算力服务节点的算力信息、计算任务信息以及算力需求信息进行算力匹配,得到目标算力服务节点的步骤;
若存在,则向所述终端发送质询请求并根据所述质询请求对所述终端进行校验,得到校验结果,在所述校验结果为校验通过时,执行所述获取算力服务节点的算力信息,并基于所述算力服务节点的算力信息、计算任务信息以及算力需求信息进行算力匹配,得到目标算力服务节点的步骤。
可选地,所述通过算力需求预测网络基于所述计算任务信息进行预测,得到计算任务的算力需求预测值,包括:
基于所述计算任务信息中的历史计算任务分配的历史计算资源类型、历史计算资源的资源数值以及历史计算任务的处理时间分别确定计算任务处理时间随历史计算资源类型、历史计算资源的资源数值以及历史计算任务大小变化的趋势图;
将所述趋势图输入至所述算力需求预测网络进行算力需求预测,得到计算任务的算力需求预测值。
可选地,所述算力需求预测网络包括趋势图分解模块、特征依赖模块以及时间依赖融合金字塔注意力模块;则
所述将所述趋势图输入至所述算力需求预测网络进行算力需求预测,得到计算任务的算力需求预测值,包括:
通过所述趋势图分解模块对所述趋势图进行分解,得到平稳趋势序列和非平稳趋势序列,并分别获取平稳趋势序列和非平稳趋势序列对应的特征向量;
通过所述特征依赖模块对所述特征向量进行分析,得到所述趋势图的目标特征信息和目标特征依赖性;
通过所述时间依赖融合金字塔注意力模块根据所述目标特征信息和目标特征依赖性进行计算,得到计算任务的算力需求预测值。
可选地,所述获取候选算力服务节点的算力信息,并基于所述候选算力服务节点的算力信息、计算任务信息以及算力需求信息进行算力匹配,得到目标算力服务节点,包括:
基于所述计算任务信息中的算力需求类型进行匹配,得到候选算力服务节点;
获取所述候选算力服务节点的算力信息;
基于所述候选算力服务节点的算力信息进行计算,得到候选算力服务节点的折衷值;
基于所述折衷值确定所述候选算力服务节点中的目标算力服务节点。
可选地,所述基于所述候选算力服务节点的算力信息进行计算,得到候选算力服务节点的折衷值,包括:
根据所述算力信息计算候选算力服务节点的运行能耗、执行延迟以及处理成本;
根据所述执行延迟以及所述计算任务信息中的优先级信息计算所述候选算力服务节点与终端的时延适配度;
根据所述运行能耗、执行延迟、处理成本以及所述时延适配度进行计算,得到候选算力服务节点的折衷值。
此外,为实现上述目的,本发明还提出一种算力资源分配装置,所述算力资源分配装置包括:
确定模块,用于响应于接收到的计算任务请求,确定计算任务信息以及算力需求信息;
匹配模块,用于获取候选算力服务节点的算力信息,并基于所述候选算力服务节点的算力信息、计算任务信息以及算力需求信息进行算力匹配,得到目标算力服务节点;
分配模块,用于通过所述目标算力服务节点对计算任务进行算力资源分配。
此外,为实现上述目的,本发明还提出一种算力资源分配设备,所述算力资源分配设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的算力资源分配程序,所述算力资源分配程序配置为实现如上文所述的算力资源分配方法的步骤。
此外,为实现上述目的,本发明还提出一种存储介质,所述存储介质上存储有算力资源分配程序,所述算力资源分配程序被处理器执行时实现如上文所述的算力资源分配方法的步骤。
此外,为实现上述目的,本发明还提供一种计算机程序产品,计算机程序产品包括算力资源分配程序,算力资源分配程序被处理器执行时实现如上文的算力资源分配方法的步骤。
本发明通过响应于接收到的计算任务请求,确定计算任务信息以及算力需求信息;获取候选算力服务节点的算力信息,并基于候选算力服务节点的算力信息、计算任务信息以及算力需求信息进行算力匹配,得到目标算力服务节点;通过目标算力服务节点对计算任务进行算力资源分配。通过上述方式,通过进行算力匹配确定的目标算力服务节点对计算任务进行算力资源分配,解决了算力资源利用率低以及时延与信息安全性问题导致应用范围受限的问题,提高了算力资源的利用率,减少时延影响,保证了信息的安全性。
附图说明
图1是本发明实施例方案涉及的硬件运行环境的算力资源分配设备的结构示意图;
图2为本发明算力资源分配方法第一实施例的流程示意图;
图3为本发明算力资源分配方法一实施例的算力需求预测网络的结构示意图;
图4为本发明算力资源分配方法一实施例的整体流程图;
图5为本发明算力资源分配方法第二实施例的流程示意图;
图6为本发明算力资源分配装置第一实施例的结构框图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
参照图1,图1为本发明实施例方案涉及的硬件运行环境的算力资源分配设备结构示意图。
如图1所示,该算力资源分配设备可以包括:处理器1001,例如中央处理器(Central Processing Unit,CPU),通信总线1002、用户接口1003,网络接口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如无线保真(Wireless-Fidelity,Wi-Fi)接口)。存储器1005可以是高速的随机存取存储器(RandomAccess Memory,RAM),也可以是稳定的非易失性存储器(Non-Volatile Memory,NVM),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的结构并不构成对算力资源分配设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及算力资源分配程序。
在图1所示的算力资源分配设备中,网络接口1004主要用于与网络服务器进行数据通信;用户接口1003主要用于与用户进行数据交互;本发明算力资源分配设备中的处理器1001、存储器1005可以设置在算力资源分配设备中,所述算力资源分配设备通过处理器1001调用存储器1005中存储的算力资源分配程序,并执行本发明实施例提供的算力资源分配方法。
本发明实施例提供了一种算力资源分配方法,参照图2,图2为本发明算力资源分配方法第一实施例的流程示意图。
本实施例中,所述算力资源分配方法包括以下步骤:
步骤S10:响应于接收到的计算任务请求,确定计算任务信息以及算力需求信息。
需要说明的是,本实施例的执行主体为算力资源分配设备,还可以为其他实现相同或相似功能的设备,本实施例对此不作具体限制,本实施例以算力资源分配设备为例进行说明。
可以理解的是,终端向专网算力控制中心发起计算任务请求,请求中携带计算任务信息以及算力需求信息,其中,计算任务信息至少包括任务优先级(或者可容忍时延),算力需求信息至少包括算力需求类型、期望的算力需求数值等,本实施例对此不作具体限制。
在具体实现中,专网算力控制中心接收到终端发送的计算任务请求,并对计算任务请求进行解析,得到计算任务信息以及算力需求信息,其中,计算任务请求中可以携带任务编号、任务优先级、终端名称、终端IP以及算力需求等信息。其中,算力需求信息包括算力需求类型(比如,CPU、GPU等)、算力需求单位(比如,GFLOPS)以及期望的算力需求数值。
如表1所示,表1为计算任务请求携带信息示例,终端IP为11.1.2.3的终端S1发送计算任务请求中计算任务编号为1;任务优先级为3,紧急程度最高,需优先处理;所需算力信息为10个GFLOPS单位的CPU算力。
表1
进一步地,为了提高资源分配准确性,所述获取算力服务节点的算力信息,并基于所述算力服务节点的算力信息、计算任务信息以及算力需求信息进行算力匹配,得到目标算力服务节点,具体包括:通过算力需求预测网络基于所述计算任务信息进行预测,得到计算任务的算力需求预测值;将所述算力需求预测值和所述算力需求信息中的算力需求期望值进行对比,得到对比结果,并根据所述对比结果判断终端是否存在恶意占用算力资源行为;若不存在,则执行所述获取算力服务节点的算力信息,并基于所述算力服务节点的算力信息、计算任务信息以及算力需求信息进行算力匹配,得到目标算力服务节点的步骤;若存在,则向所述终端发送质询请求并根据所述质询请求对所述终端进行校验,得到校验结果,在所述校验结果为校验通过时,执行所述获取算力服务节点的算力信息,并基于所述算力服务节点的算力信息、计算任务信息以及算力需求信息进行算力匹配,得到目标算力服务节点的步骤。
需要说明的是,专网算力控制中心接收到终端的计算任务请之后,先基于计算任务信息,通过预设的算力需求预测网络对计算任务的算力需求数值进行预估,得到预测的算力需求数值,即计算任务的算力需求预测值。
可以理解的是,由于在进行算力资源分配时,通常是终端发送自己所需的算力资源需求值,然后算力平台直接根据终端期望的期望算力资源需求值向终端分配对应的算力资源,未考虑终端申请的期望算力资源需求值是否与终端的待处理任务匹配,从而可能出现终端恶意申请大量算力资源,恶意占用算力资源行为,因此,专网算力控制中心接收到终端的计算任务申请之后,还可以先基于任务编号信息,通过预设的算力需求预测网络对计算任务的算力需求数值进行预估;然后基于算力需求预估值和终端发送的期望算力需求值进行比对,以确定终端是否存在恶意占用算力资源行为。
在具体实现中,专网算力控制中心基于预测得到的预测算力需求数值和终端的期望算力需求数值进行比对,若预测算力需求数值和期望算力需求数值之间的差值在预设范围内,则认为终端未恶意申请算力资源并进行算力匹配;若期望算力需求数值和预测算力需求数值之间的差值大于预设范围阈值,则认为终端存在恶意申请算力资源嫌疑,进而向终端发送质询请求,若终端通过质询请求则进行算力匹配,若终端未通过质询请求则拒绝向终端分配算力资源,或者在终端向专网算力控制中心抵押大于算力资源对应价值的算力资源申请费用后,向终端分配算力资源。
进一步地,为了提高算力预测的准确性,所述通过算力需求预测网络基于所述计算任务信息进行预测,得到计算任务的算力需求预测值,包括:基于所述计算任务信息中的历史计算任务分配的历史计算资源类型、历史计算资源的资源数值以及历史计算任务的处理时间分别确定计算任务处理时间随历史计算资源类型、历史计算资源的资源数值以及历史计算任务大小变化的趋势图;将所述趋势图输入至所述算力需求预测网络进行算力需求预测,得到计算任务的算力需求预测值。
需要说明的是,根据终端的历史计算任务信息中的历史计算任务分配的历史计算资源类型、历史计算资源的资源数值以及历史计算任务的处理时间分别确定计算任务处理时间随历史计算资源类型、历史计算资源的资源数值以及历史计算任务大小变化的趋势图。
如图3所示,图3为算力需求预测网络的结构示意图,算力需求预测网络包括趋势图分解模块、特征依赖模块以及时间依赖融合金字塔注意力模块,特征依赖模块包括多个堆叠卷积神经网络层layer,每个堆叠卷积神经网络层中包括3个时间卷积神经网络,时间依赖融合金字塔注意力模块包括多个堆栈块satck和一个全连接层liner,每个堆栈块satck包括一个可逆归一化层、一个多尺度特征注意力金字塔、一个去规范化注意力层和一个反可逆化归一层。
进一步地,为了提高算力预测的准确性,所述算力需求预测网络包括趋势图分解模块、特征依赖模块以及时间依赖融合金字塔注意力模块;则所述将所述趋势图输入至所述算力需求预测网络进行算力需求预测,得到计算任务的算力需求预测值,包括:通过所述趋势图分解模块对所述趋势图进行分解,得到平稳趋势序列和非平稳趋势序,并分别获取平稳趋势序列和非平稳趋势序列对应的特征向量;通过所述特征依赖模块对所述特征向量进行分析,得到所述趋势图的目标特征信息和目标特征依赖性;通过所述时间依赖融合金字塔注意力模块根据所述目标特征信息和目标特征依赖性进行计算,得到计算任务的算力需求预测值。
需要说明的是,特征依赖模块用于基于终端的历史计算任务信息,历史计算任务分配的历史计算资源类型、历史计算资源的资源数值以及历史计算任务的处理时间,分别计算任务、计算资源、计算资源数量以及处理时间之间的特征依赖性,特征依赖模块包括多个堆叠卷积神经网络层,每个堆叠卷积神经网络层中包括3个时间卷积神经网络,采用多个堆叠卷积神经网络层,是为了可以基于终端的历史计算任务信息,历史计算任务分配的历史计算资源类型以及历史计算资源的资源数等信息提取不同层次和抽象层次的特征,从而提高算力需求预测网络的泛化能力。
可以理解的是,时间依赖融合金字塔注意力模块包括多个堆栈块和一个全连接层,用于获取处理时间随历史计算任务、计算资源以及计算资源数量变化的时间特征以及获取预测结果,时间特征可以理解为计算任务-计算资源-处理时间的趋势依赖性,每个堆栈块包括一个可逆归一化层、一个多尺度特征注意力金字塔、一个去规范化注意力层和一个反可逆化归一层,其中,可逆归一化层用于减少终端的历史计算任务信息,历史计算任务分配的历史计算资源类型、历史计算资源的资源数值以及历史计算任务的处理时间的分布偏移的影响,并使预测结果更加准确,多尺度特征注意力金字塔去规范化注意力用于消除终端的历史计算任务信息,包括历史计算任务分配的历史计算资源类型、历史计算资源的资源数值以及历史计算任务的处理时间中的非平稳因子,并且赋予历史计算任务信息,包括历史计算任务分配的历史计算资源类型、历史计算资源的资源数值以及历史计算任务的处理时间中具有重要特征信息的子序列更大的权重。
在具体实现中,将趋势图输入至趋势图分解模块进行分解,分别得到平稳趋势序列和非平稳趋势序列,其中,平稳趋势序列是指趋势图中趋势平稳的数据信息,非平稳趋势序列是指趋势图中趋势波动大于预设波动阈值的数据信息;分别获取平稳趋势序列和非平稳趋势序列对应的特征向量,并将平稳趋势序列和非平稳趋势序列对应的特征向量,输入至算力需求预测网络中的特征依赖模块;特征依赖模块接收到对应的特征向量之后,可以通过多个堆叠卷积神经网络层分析趋势图的平稳趋势序列和非平稳趋势序列,获取趋势图的最终特征信息和最终特征依赖性;将趋势图的最终特征信息和最终特征依赖性输入至时间依赖融合金字塔注意力模块,以便可以根据终端的历史计算任务信息,包括历史计算任务分配的历史计算资源类型、历史计算资源的资源数值以及历史计算任务的处理时间,通过多个堆栈块动态获取计算任务、计算资源、计算资源数量以及处理时间之间的特征依赖性;基于历史计算任务的计算资源、计算资源数量以及处理时间之间的特征依赖性、计算任务的任务大小、任务优先级(或可容忍延迟差)、所需算力资源类型,预测计算任务的算力需求数值。
值得说明的是,堆栈块接收到趋势图的最终特征信息和最终特征依赖性之后,可以先采用可逆归一化进行处理,以减少各趋势图分布偏移的影响,使预测结果更加准确,再通过去规范化注意力消除各序列的非平稳因子,并且赋予计算任务、计算资源、计算资源数量以及处理时间中重要信息更大的权重,最后,再进行反可逆归一化处理,从而得到计算任务、计算资源、计算资源数量以及处理时间之间的特征依赖性。
值得说明的是,在预测计算任务的算力需求数值时,由于同一个计算任务,若采用的算力资源类型不同和任务优先级不同,则可能导致所需的算力需求数值不同,因此,需要考虑计算任务的优先级和所需算力资源类型。比如,当一个计算任务的优先级较低或者可容忍延迟较高时,则可以分配相对较少的算力资源缓慢对计算任务进行处理,从而空余出更多的算力资源去处理计算任务优先级较高或者可容忍延迟较低的计算任务。因此,在预测计算任务的算力需求数值时,可以同时考虑算力资源类型以及可容忍延迟,保证预测得到的算力需求数值更符合实际情况,更准确。
步骤S20:获取候选算力服务节点的算力信息,并基于所述候选算力服务节点的算力信息、计算任务信息以及算力需求信息进行算力匹配,得到目标算力服务节点。
需要说明的是,专网算力控制中心基于算力服务节点的算力信息以及算力需求类型、期望的算力需求数值、任务优先级(或者可容忍时延)等信息,按照预设方式匹配最优算力,即目标算力服务节点。
步骤S30:通过所述目标算力服务节点对计算任务进行算力资源分配。
需要说明的是,专网算力控制中心向终端发送最优算力匹配结果;终端向目标算力服务节点发起连接建立请求;目标算力服务节点向终端发送连接建立响应;连接建立后,目标算力服务节点向中心发送匹配算力下线请求;专网算力控制中心更新算力标识列表;计算任务结束,目标算力服务节点向终端发送连接释放请求;终端向目标算力服务节点发送连接释放响应;连接释放后,目标算力服务节点向中心发送算力重新上线请求;中心再次更新算力标识列表,以实现算力资源分配。
在具体实现中,专网算力控制中心将与计算任务匹配的最优算力(也即目标算力服务节点)的标识信息发送给终端;终端在接收来自专网算力控制中心的最优匹配算力结果后,通过标识信息获取最优匹配算力所在专网算力服务节点信息,并向其发起连接建立请求;最优匹配算力所在专网算力服务节点在接收来自终端的连接建立请求后,向终端发送连接建立响应,若可信验证通过,则与之建立连接,否则连接建立失败;专网算力服务节点与终端成功建立连接后,专网算力服务节点开始计算任务处理过程,同时向专网算力控制中心发送匹配算力下线请求;专网算力控制中心接收来自专网算力服务节点的算力下线请求,通过解析标识,在算力标识列表中匹配对应算力资源,并更新算力标识列表,将其从算力标识列表下线,下线算力资源将暂时不可被其他计算任务调用;计算任务结束,专网算力服务节点向终端发送连接释放请求;终端接收来自专网算力服务节点的连接释放请求,若可信验证通过,则与之释放连接,否则仍保持连接建立状态;专网算力服务节点与终端之间的连接释放后,专网算力服务节点向专网算力控制中心发送下线算力资源的重新上线请求,请求中包含算力标识信息;专网算力控制中心接收来自专网算力服务节点的算力资源重新上线请求,更新算力标识列表中对应算力资源的在线状态,使之可以被其他计算任务调用。
如图4所示,图4为本发明算力资源分配方法的整体流程图,终端向专网算力控制中心发起计算任务请求;专网算力控制中心接收到终端的计算任务请求后,先基于计算任务信息,通过预设的算力需求预测网络对计算任务的算力需求数值进行预估;专网算力控制中心基于预测得到的预测算力需求数值和终端的期望算力需求数值进行比对,若预测算力需求数值和期望算力需求数值之间的差值在预设范围内,则认为终端未恶意申请算力资源;专网算力控制中心获取专网内部的算力服务节点的算力信息;专网算力控制中心基于算力服务节点的算力信息,以及算力需求类型、算力需求数值、任务优先级(或者可容忍时延)等信息,按照预设方式匹配最优算力;专网算力控制中心向终端发送最优算力匹配结果;终端向目标算力服务节点发起连接建立请求;目标算力服务节点向终端发送连接建立响应;连接建立后,目标算力服务节点向中心发送匹配算力下线请求;专网算力控制中心更新算力标识列表;计算任务结束,目标算力服务节点向终端发送连接释放请求;终端向目标算力服务节点发送连接释放响应;连接释放后,目标算力服务节点向中心发送算力重新上线请求;中心再次更新算力标识列表。
本实施例通过响应于接收到的计算任务请求,确定计算任务信息以及算力需求信息;获取候选算力服务节点的算力信息,并基于候选算力服务节点的算力信息、计算任务信息以及算力需求信息进行算力匹配,得到目标算力服务节点;通过目标算力服务节点对计算任务进行算力资源分配。通过上述方式,通过进行算力匹配确定的目标算力服务节点对计算任务进行算力资源分配,解决了算力资源利用率低以及时延与信息安全性问题导致应用范围受限的问题,提高了算力资源的利用率,减少时延影响,保证了信息的安全性。
参考图5,图5为本发明算力资源分配方法第二实施例的流程示意图。
基于上述第一实施例,本实施例算力资源分配方法中所述步骤S20,包括:
步骤S201:基于所述计算任务信息中的算力需求类型进行匹配,得到候选算力服务节点。
需要说明的是,基于计算任务的算力需求类型,从算力服务节点中选取算力资源类型匹配的候选算力服务节点,例如,假设计算任务的算力需求类型包括CPU算力,则从算力服务节点中排除GPU算力、TPU算力、NPU算力以及FPGA算力等算力服务节点。
步骤S202:获取所述候选算力服务节点的算力信息。
需要说明的是,专网算力控制中心获取专网内部的算力服务节点的算力信息,其中,专网内部的各个算力服务节点对应工作范围内的各个服务器。算力服务节点的算力信息包括算力编号、算力资源的在线状态、算力资源所在的服务器名称、服务器中提供算力资源的容器名称、服务器的IP地址、算力资源的类型、单位、数值等,本实施例对此不作具体限制。
可以理解的是,算力编号可以作为算力资源的身份标识信息,可以根据算力资源请求到达专网算力控制中心的顺序为算力资源进行编号。在线状态,表示当前算力资源是否可用,初始值为1,表示算力资源在线可使用,若值为0,则表示算力资源下线不可使用。算力资源所在的服务器名称,也即算力服务节点名称,同一算力服务节点内可存在多个算力资源,通过算力编号进行区分。算力类型表示算力资源的种类,如CPU算力、GPU算力、TPU算力、NPU算力以及FPGA算力等;算力单位可以作为算力的度量标准,可以用每秒浮点运算的吉次数GFLOPS表示,G代表10亿;“算力数值”表示算力资源在当前算力单位下计算能力的大小。通过算力单位和算力数值,可以将算力资源进行量化,便于实现对算力资源的精细化管理和使用。
步骤S203:基于所述候选算力服务节点的算力信息进行计算,得到候选算力服务节点的折衷值。
需要说明的是,候选算力服务节点的算力信息计算执行延迟、运行能耗、时延适配度以及处理成本,从而根据执行延迟、运行能耗、时延适配度以及处理成本计算候选算力服务节点的折衷值。
进一步地,为了提高计算准确度,所述基于所述候选算力服务节点的算力信息进行计算,得到候选算力服务节点的折衷值,包括:根据所述算力信息计算候选算力服务节点的运行能耗、执行延迟以及处理成本;根据所述执行延迟以及所述计算任务信息中的优先级信息计算所述候选算力服务节点与终端的时延适配度;根据所述运行能耗、执行延迟、处理成本以及所述时延适配度进行计算,得到候选算力服务节点的折衷值。
需要说明的是,根据候选算力服务节点的计算能力、处理时间以及计算任务所需的算力资源,计算候选算力服务节点的运行能耗,如下式1:
在式1中,表示候选算力服务节点的运行能耗;γi表示候选算力服务节点i的计算能力;δi表示候选算力服务节点i的处理时间;xi表示候选算力服务节点i处理计算任务的任务数据量;Di表示候选算力服务节点i处理计算任务所需的算力资源。
根据候选算力服务节点与终端建立通信连接的连接时间、候选算力服务节点处理计算任务的处理时间,以及终端的等待处理的排队时间,分别计算各候选算力服务节点的执行延迟,如下式2:
ti=minγi*maxTi+t1+t2 (式2)
在式2中,ti表示候选算力服务节点i的执行延迟;maxTi表示候选算力服务节点i中的瞬时最大任务量。t1表示候选算力服务节点i与终端建立通信连接的连接时间;t2表示选择候选算力服务节点i处理任务时终端等待处理的排队时间。
根据各候选算力服务节点的执行延迟、计算任务的优先级(或可容忍时延)以及预设适应度函数,计算各候选算力服务节点与终端的时延适配度,如下式3:
在式3中,fiti表示预设的适应度函数,即候选算力服务节点与终端的时延适配度;Γi表示候选算力服务节点的执行延迟与终端的任务优先级(或可容忍时延)之间的时间差。
根据候选算力服务节点的处理时间,计算候选算力服务节点的处理成本,如下式4:
Ccost(Ti,λi)=Ptime(Ti,λi)*Pi (式4)
在式4中,Ccost(Ti,λi)表示候选算力服务节点i处理计算任务j的处理成本;Ti表示候选算力服务节点i处理计算任务的处理时间;Pi表示单位时间内候选算力服务节点i的使用成本。
根据执行延迟、运行能耗、时延适配度以及处理成本,通过执行延迟、运行能耗、时延适配度以及处理成本之间的预设方式计算候选算力服务节点的折衷值,如下式5:
在式5中,表示候选算力服务节点i的折衷值;ti表示候选算力服务节点i的执行延迟;λt和λe均为预设权重值,具体可以根据运行能耗和执行延迟的重要性确定;/>表示算力服务节点i的总能源消耗值;fiti表示候选算力服务节点与终端的时延适配度;Ccost(Ti,λi)表示候选算力服务节点i处理计算任务j的处理成本。
步骤S204:基于所述折衷值确定所述候选算力服务节点中的目标算力服务节点。
需要说明的是,从候选算力服务节点中选取折衷值满足预设条件的算力服务节点,作为目标算力服务节点。
本实施例通过基于所述计算任务信息中的算力需求类型进行匹配,得到候选算力服务节点;获取所述候选算力服务节点的算力信息;基于所述候选算力服务节点的算力信息进行计算,得到候选算力服务节点的折衷值;基于所述折衷值确定所述候选算力服务节点中的目标算力服务节点。通过上述方式,根据算力需求类型匹配候选算力服务节点,根据候选算力服务节点的算力信息计算折衷值,从而确定目标算力服务节点进行算力资源分配,提高了算力资源分配效率。
参照图6,图6为本发明算力资源分配装置第一实施例的结构框图。
如图6所示,本发明实施例提出的算力资源分配装置包括:
确定模块10,用于响应于接收到的计算任务请求,确定计算任务信息以及算力需求信息。
匹配模块20,用于获取候选算力服务节点的算力信息,并基于所述候选算力服务节点的算力信息、计算任务信息以及算力需求信息进行算力匹配,得到目标算力服务节点。
分配模块30,用于通过所述目标算力服务节点对计算任务进行算力资源分配。
本实施例通过响应于接收到的计算任务请求,确定计算任务信息以及算力需求信息;获取候选算力服务节点的算力信息,并基于候选算力服务节点的算力信息、计算任务信息以及算力需求信息进行算力匹配,得到目标算力服务节点;通过目标算力服务节点对计算任务进行算力资源分配。通过上述方式,通过进行算力匹配确定的目标算力服务节点对计算任务进行算力资源分配,解决了算力资源利用率低以及时延与信息安全性问题导致应用范围受限的问题,提高了算力资源的利用率,减少时延影响,保证了信息的安全性。
在一实施例中,所述匹配模块20,还用于通过算力需求预测网络基于所述计算任务信息进行预测,得到计算任务的算力需求预测值;将所述算力需求预测值和所述算力需求信息中的算力需求期望值进行对比,得到对比结果,并根据所述对比结果判断终端是否存在恶意占用算力资源行为;若不存在,则执行所述获取算力服务节点的算力信息,并基于所述算力服务节点的算力信息、计算任务信息以及算力需求信息进行算力匹配,得到目标算力服务节点的步骤;若存在,则向所述终端发送质询请求并根据所述质询请求对所述终端进行校验,得到校验结果,在所述校验结果为校验通过时,执行所述获取算力服务节点的算力信息,并基于所述算力服务节点的算力信息、计算任务信息以及算力需求信息进行算力匹配,得到目标算力服务节点的步骤。
在一实施例中,所述匹配模块20,还用于基于所述计算任务信息中的历史计算任务分配的历史计算资源类型、历史计算资源的资源数值以及历史计算任务的处理时间分别确定计算任务处理时间随历史计算资源类型、历史计算资源的资源数值以及历史计算任务大小变化的趋势图;将所述趋势图输入至所述算力需求预测网络进行算力需求预测,得到计算任务的算力需求预测值。
在一实施例中,所述算力需求预测网络包括趋势图分解模块、特征依赖模块以及时间依赖融合金字塔注意力模块;则所述匹配模块20,还用于通过所述趋势图分解模块对所述趋势图进行分解,得到平稳趋势序列和非平稳趋势序列,并分别获取平稳趋势序列和非平稳趋势序列对应的特征向量;通过所述特征依赖模块对所述特征向量进行分析,得到所述趋势图的目标特征信息和目标特征依赖性;通过所述时间依赖融合金字塔注意力模块根据所述目标特征信息和目标特征依赖性进行计算,得到计算任务的算力需求预测值。
在一实施例中,所述分配模块30,还用于基于所述计算任务信息中的算力需求类型进行匹配,得到候选算力服务节点;获取所述候选算力服务节点的算力信息;基于所述候选算力服务节点的算力信息进行计算,得到候选算力服务节点的折衷值;基于所述折衷值确定所述候选算力服务节点中的目标算力服务节点。
在一实施例中,所述分配模块30,还用于根据所述算力信息计算候选算力服务节点的运行能耗、执行延迟以及处理成本;根据所述执行延迟以及所述计算任务信息中的优先级信息计算所述候选算力服务节点与终端的时延适配度;根据所述运行能耗、执行延迟、处理成本以及所述时延适配度进行计算,得到候选算力服务节点的折衷值。
此外,为实现上述目的,本发明还提出一种算力资源分配设备,所述算力资源分配设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的算力资源分配程序,所述算力资源分配程序配置为实现如上文所述的算力资源分配方法的步骤。
由于本算力资源分配设备采用了上述所有实施例的全部技术方案,因此至少具有上述实施例的技术方案所带来的所有有益效果,在此不再一一赘述。
此外,本发明实施例还提出一种存储介质,所述存储介质上存储有算力资源分配程序,所述算力资源分配程序被处理器执行时实现如上文所述的算力资源分配方法的步骤。
由于本存储介质采用了上述所有实施例的全部技术方案,因此至少具有上述实施例的技术方案所带来的所有有益效果,在此不再一一赘述。
此外,本发明实施例还提出一种计算机程序产品,包括算力资源分配程序,算力资源分配程序被处理器执行时实现如上文所述的算力资源分配方法的步骤。
由于本发明计算机程序产品采用了上述所有实施例的全部技术方案,因此至少具有上述实施例的技术方案所带来的所有有益效果,在此不再一一赘述。
应当理解的是,以上仅为举例说明,对本发明的技术方案并不构成任何限定,在具体应用中,本领域的技术人员可以根据需要进行设置,本发明对此不做限制。
需要说明的是,以上所描述的工作流程仅仅是示意性的,并不对本发明的保护范围构成限定,在实际应用中,本领域的技术人员可以根据实际的需要选择其中的部分或者全部来实现本实施例方案的目的,此处不做限制。
另外,未在本实施例中详尽描述的技术细节,可参见本发明任意实施例所提供的算力资源分配方法,此处不再赘述。
此外,需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
应该理解的是,虽然本申请实施例中的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如只读存储器(Read Only Memory,ROM)/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种算力资源分配方法,其特征在于,所述方法包括:
响应于接收到的计算任务请求,确定计算任务信息以及算力需求信息;
获取候选算力服务节点的算力信息,并基于所述候选算力服务节点的算力信息、计算任务信息以及算力需求信息进行算力匹配,得到目标算力服务节点;
通过所述目标算力服务节点对计算任务进行算力资源分配。
2.如权利要求1所述的方法,其特征在于,所述获取算力服务节点的算力信息,并基于所述算力服务节点的算力信息、计算任务信息以及算力需求信息进行算力匹配,得到目标算力服务节点,具体包括:
通过算力需求预测网络基于所述计算任务信息进行预测,得到计算任务的算力需求预测值;
将所述算力需求预测值和所述算力需求信息中的算力需求期望值进行对比,得到对比结果,并根据所述对比结果判断终端是否存在恶意占用算力资源行为;
若不存在,则执行所述获取算力服务节点的算力信息,并基于所述算力服务节点的算力信息、计算任务信息以及算力需求信息进行算力匹配,得到目标算力服务节点的步骤;
若存在,则向所述终端发送质询请求并根据所述质询请求对所述终端进行校验,得到校验结果,在所述校验结果为校验通过时,执行所述获取算力服务节点的算力信息,并基于所述算力服务节点的算力信息、计算任务信息以及算力需求信息进行算力匹配,得到目标算力服务节点的步骤。
3.如权利要求2所述的方法,其特征在于,所述通过算力需求预测网络基于所述计算任务信息进行预测,得到计算任务的算力需求预测值,包括:
基于所述计算任务信息中的历史计算任务分配的历史计算资源类型、历史计算资源的资源数值以及历史计算任务的处理时间分别确定计算任务处理时间随历史计算资源类型、历史计算资源的资源数值以及历史计算任务大小变化的趋势图;
将所述趋势图输入至所述算力需求预测网络进行算力需求预测,得到计算任务的算力需求预测值。
4.如权利要求3所述的方法,其特征在于,所述算力需求预测网络包括趋势图分解模块、特征依赖模块以及时间依赖融合金字塔注意力模块;则
所述将所述趋势图输入至所述算力需求预测网络进行算力需求预测,得到计算任务的算力需求预测值,包括:
通过所述趋势图分解模块对所述趋势图进行分解,得到平稳趋势序列和非平稳趋势序列,并分别获取平稳趋势序列和非平稳趋势序列对应的特征向量;
通过所述特征依赖模块对所述特征向量进行分析,得到所述趋势图的目标特征信息和目标特征依赖性;
通过所述时间依赖融合金字塔注意力模块根据所述目标特征信息和目标特征依赖性进行计算,得到计算任务的算力需求预测值。
5.如权利要求1所述的方法,其特征在于,所述获取候选算力服务节点的算力信息,并基于所述候选算力服务节点的算力信息、计算任务信息以及算力需求信息进行算力匹配,得到目标算力服务节点,包括:
基于所述计算任务信息中的算力需求类型进行匹配,得到候选算力服务节点;
获取所述候选算力服务节点的算力信息;
基于所述候选算力服务节点的算力信息进行计算,得到候选算力服务节点的折衷值;
基于所述折衷值确定所述候选算力服务节点中的目标算力服务节点。
6.如权利要求5所述的方法,其特征在于,所述基于所述候选算力服务节点的算力信息进行计算,得到候选算力服务节点的折衷值,包括:
根据所述算力信息计算候选算力服务节点的运行能耗、执行延迟以及处理成本;
根据所述执行延迟以及所述计算任务信息中的优先级信息计算所述候选算力服务节点与终端的时延适配度;
根据所述运行能耗、执行延迟、处理成本以及所述时延适配度进行计算,得到候选算力服务节点的折衷值。
7.一种算力资源分配装置,其特征在于,所述算力资源分配装置包括:
确定模块,用于响应于接收到的计算任务请求,确定计算任务信息以及算力需求信息;
匹配模块,用于获取候选算力服务节点的算力信息,并基于所述候选算力服务节点的算力信息、计算任务信息以及算力需求信息进行算力匹配,得到目标算力服务节点;
分配模块,用于通过所述目标算力服务节点对计算任务进行算力资源分配。
8.一种算力资源分配设备,其特征在于,所述算力资源分配设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的算力资源分配程序,所述算力资源分配程序配置为实现如权利要求1至7中任一项所述的算力资源分配方法。
9.一种存储介质,其特征在于,所述存储介质上存储有算力资源分配程序,所述算力资源分配程序被处理器执行时实现如权利要求1至7中任一项所述的算力资源分配方法。
10.一种计算机程序产品,其特征在于,所述计算机程序产品包括算力资源分配程序,所述算力资源分配程序被处理器执行时实现如权利要求1至6中任一项所述的算力资源分配方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410238645.2A CN118093183A (zh) | 2024-03-01 | 2024-03-01 | 算力资源分配方法、装置、设备、存储介质及产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410238645.2A CN118093183A (zh) | 2024-03-01 | 2024-03-01 | 算力资源分配方法、装置、设备、存储介质及产品 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN118093183A true CN118093183A (zh) | 2024-05-28 |
Family
ID=91158544
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410238645.2A Pending CN118093183A (zh) | 2024-03-01 | 2024-03-01 | 算力资源分配方法、装置、设备、存储介质及产品 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118093183A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118484313A (zh) * | 2024-07-16 | 2024-08-13 | 北京安联通科技有限公司 | 基于数据特征的智能算力调用管理系统及方法 |
CN118535346A (zh) * | 2024-07-24 | 2024-08-23 | 杭州视洞科技有限公司 | 一种通用的音视频ai应用系统平台 |
-
2024
- 2024-03-01 CN CN202410238645.2A patent/CN118093183A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118484313A (zh) * | 2024-07-16 | 2024-08-13 | 北京安联通科技有限公司 | 基于数据特征的智能算力调用管理系统及方法 |
CN118535346A (zh) * | 2024-07-24 | 2024-08-23 | 杭州视洞科技有限公司 | 一种通用的音视频ai应用系统平台 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sefati et al. | Load balancing in cloud computing environment using the Grey wolf optimization algorithm based on the reliability: performance evaluation | |
Maleki et al. | Mobility-aware computation offloading in edge computing using machine learning | |
US8321870B2 (en) | Method and system for distributed computation having sub-task processing and sub-solution redistribution | |
CN109918201B (zh) | 任务卸载的控制方法和系统 | |
CN118093183A (zh) | 算力资源分配方法、装置、设备、存储介质及产品 | |
KR101471749B1 (ko) | 클라우드 서비스의 가상자원 할당을 위한 퍼지 로직 기반의 자원평가 장치 및 방법 | |
Dewangan et al. | Workload aware autonomic resource management scheme using grey wolf optimization in cloud environment | |
CN111782383A (zh) | 任务分配方法、服务器、电子终端及计算机可读存储介质 | |
WO2022100861A1 (en) | Device and method for classifying input data | |
CN117407160A (zh) | 一种边缘计算场景下在线任务和离线任务的混合部署方法 | |
CN109062683B (zh) | 主机资源分配的方法、装置及计算机可读存储介质 | |
CN113055199A (zh) | 网关访问方法、装置及网关设备 | |
Patel et al. | A survey on load balancing in cloud computing | |
CN114564313A (zh) | 负载调整方法、装置、电子设备及存储介质 | |
Murad et al. | Comparative study on job scheduling using priority rule and machine learning | |
CN117827374A (zh) | 基于云边协同的算法任务分配处理方法和系统 | |
CN116126475A (zh) | 一种安全驱动的云数据中心容器迁移方法 | |
CN112363831B (zh) | 风控处理方法、装置、计算机设备和存储介质 | |
CN113282417B (zh) | 任务分配方法、装置、计算机设备和存储介质 | |
CN116107732A (zh) | 面向协同任务系统的任务分解方法及系统 | |
CN112118135A (zh) | 云边协同架构工业互联网平台的最小资源配置方法和装置 | |
CN113672356A (zh) | 计算资源调度方法和装置、存储介质和电子设备 | |
CN115033358B (zh) | 一种作业调度的方法、装置、计算机设备和存储介质 | |
US20240070569A1 (en) | System and method for clustered pricing for task price estimates | |
CN113391850B (zh) | 基于边云协同的任务调度方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |