CN115408122A - 一种去中心化的分布式并行计算框架及计算方法 - Google Patents
一种去中心化的分布式并行计算框架及计算方法 Download PDFInfo
- Publication number
- CN115408122A CN115408122A CN202210914872.3A CN202210914872A CN115408122A CN 115408122 A CN115408122 A CN 115408122A CN 202210914872 A CN202210914872 A CN 202210914872A CN 115408122 A CN115408122 A CN 115408122A
- Authority
- CN
- China
- Prior art keywords
- task
- node
- computing
- serial
- parallel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/5038—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/505—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5066—Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/54—Interprogram communication
- G06F9/542—Event management; Broadcasting; Multicasting; Notifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明涉及一种去中心化的分布式并行计算框架及计算方法,基于最小负载算法确定任务分配方案,对于无法继续拆分的并行任务,以所有并行任务的最大完成时间作为本串行任务包完成时间,计算所有串行任务包的最小完成时间,获得最优分配方案;对于可以继续细分的任务包,递归调用最小负载算法来计算最小时间,简化了算法的复杂度,提高了运算效率;对于计算结果可以预期的串行任务,本发明预先计算得到输出表,当在前任务计算完成后,基于在前任务的结果,直接查表得到在后任务的结果,提高了计算的整体效率。
Description
技术领域
本发明涉及网络计算领域,具体为一种去中心化的分布式并行计算框架及计算方法。
背景技术
并行算法就是用多台处理机联合求解问题的方法和步骤,其执行过程是将给定的问题首先分解成若干个尽量相互独立的子问题,然后使用多台计算机同时求解它,从而最终求得原问题的解。相对于串行计算,并行计算可以划分成时间并行和空间并行。时间并行即流水线技术,空间并行使用多个处理器执行并发计算。由于人们的思维能力以及思考问题的方法对并行不太习惯,且并行算法理论不成熟,所以总是出现了需求再来研究算法,不具有导向性,同时实现并行算法的并行程序性能较差,往往满足不了人们的需求。
现有技术中,存在利用互联网络进行并行计算的技术方案:
(1)CN1550088A公开了一种基于对等式分布计算技术的并行信息传送方法及其系统。具体公开了利用PC等一般用户计算机的CPU、硬盘、网络带宽等闲置资源的分布计算技术和不通过中间服务器而在一般用户PC之间传送数据的对等技术使信息传送并行进行,提高互联网等网络上的信息传送速度,减少服务器及网络产生的负荷,缩短数据传送的途径。
(2)CN102314521A公开了一种基于云计算环境的分布并行Skyline查询方法。具体公开了通过各计算节点对各自的原始数据集进行Skyline查询处理得到 Skyline集合LS,并利用接收到的来自其他所有计算节点的Skyline集合LS’对 Skyline集合LS进行筛选得到最终的Skyline集合,充分利用了计算节点的数据处理能力,充分开发了Skyline查询处理的并行性,实现了Skyline查询的高效分布并行处理。
(3)CN103034475A公开了一种分布式并行计算方法。具体公开了将待处理任务中包括的多个预先分解的具有依赖关系的待处理执行步骤并行地进行处理,能够提高任务处理效率,而且能够使得计算资源得到合理分配。
但是,现有技术中主要存在以下技术问题:
1、现有技术中的并行计算依赖于中心服务器进行任务分配,当中心服务器出现故障时,任务分配将无法进行;并且,中心服务器依赖于预储存分配规则进行任务分配,无法准确知晓各节点的当前状态,无法达到分配最优;
2、现有的并行式计算方法,仅仅是将任务进行划分后分配,各任务的计算时间无法协调,无法计算最短的总时间,难以得到最优分配方案。
3、现有的分布式计算,当面对串行计算时,后续任务必须等待在前任务的计算结果,而无法预先启动计算,造成整体计算时间延长。
发明内容
本发明的目的在于提供一种去中心化的分布式并行计算框架及计算方法,以解决上述背景技术中提出的问题。为实现上述目的,本发明提供如下技术方案:
一种去中心化的分布式计算框架,其特征在于,包括多个计算节点,所述计算节点具有主处理器、广播接口、时序器、任务序列处理器,多个计算节点的所述时序器基于互联网络进行动态对时,所述任务序列处理器建立本节点的时序任务表单,通过所述广播接口向互联网络广播;
计算节点将任务划分为最小任务单元,分别标记串行任务包和并行任务包;所述计算节点基于最小负载算法计算最优节点分配方案,向所述互联网络发布并发起投票,若投票通过,则按照最优节点分配方案向各节点分发任务包;所述最小负载算法满足公式(1):
式中,[T(Mij)]|j=1,2,...,b表示串行任务包,所述T(Mij)表示计算第ij号任务分配给任一任务节点所需要的预估时间,所述预估时间基于任务运算量和各节点的浮点运算能力计算得到,ij表示该任务包为第i组串行任务包中的第j个并行任务,n表示共有n组串行任务包,b表示第i组串行任务包中共有b个并行任务, PINGin和PINGout分别表示节点间传输的输入延迟和输出延迟。
进一步的,所述互联网络为区块链网络,所述投票的通过比例为至少51%。
进一步的,如果所述并行任务包内含串行任务和并行任务,则递归调用所述最小负载算法计算最优节点分配方案。
进一步的,如果一项任务依赖于在前任务的结果,则将其确定为串行任务;否则,将其确定为并行任务。
进一步的,如果一项串行任务的所依赖的在前任务的结果为可以确定范围的离散值,则将该串行任务视为并行任务,并基于可以确定范围的离散值计算在后输出表,当所述在前任务完成后,通过其查表返回在后结果。
一种去中心化的分布式计算方法,基于所述的框架实施,每个计算节点都包含计算能力和存储空间,和其他计算节点组成对等互联网络;所述方法包括以下步骤:
S1、节点发现:动态发现计算节点加入或退出集群,统计和管理各节点的计算和存储能力,用于在分配计算任务时选择最优的节点;
S2、任务分发:计算节点基于任务节点基于最小负载算法计算最优节点分配方案,向所述互联网络发布并发起投票,若投票通过,则按照最优节点分配方案向各节点分发任务包;所述最小负载算法满足公式(1):
式中,[T(Mij)]|j=1,2,...,b表示串行任务包,所述T(Mij)表示计算第ij号任务所需要的预估时间,所述预估时间基于任务运算量和各节点的浮点运算能力计算得到,ij表示该任务包为第i组串行任务包中的第j个并行任务,n表示共有n组串行任务包,b表示第i组串行任务包中共有b个并行任务,PINGin和PINGout分别表示节点间传输的输入延迟和输出延迟;
S3、任务确认:任务节点收到任务执行请求,根据请求判断本节点是否有执行相关计算的资源和环境,如果可以则继续执行任务,否则返回错误信息;
S4、任务环境准备:根据任务配置文件准备当前任务所需要的计算环境,包括计算代码下载或者容器镜像准备;计算需要的数据从远程下载到当前节点;
S5、任务执行:执行任务,向上游节点返回计算结果;
S6、任务清理:计算任务完成执行并返回结果之后,当前节点清理任务,删除不再需要的程序和数据。
进一步的,所述互联网络为区块链网络,所述投票的通过比例为至少51%。
进一步的,如果串行任务包内含串行任务和并行任务,则递归调用所述最小负载算法计算最优节点分配方案。
进一步的,如果一项任务依赖于在前任务的结果,则将其确定为串行任务;否则,将其确定为并行任务。
进一步的,如果一项串行任务的所依赖的在前任务的结果为可以确定范围的离散值,则将该串行任务视为并行任务,并基于可以确定范围的离散值计算在后输出表,当所述在前任务完成后,通过其查表返回在后结果。
与现有技术相比,本发明的有益效果是:
1、本发明基于最小负载算法确定任务分配方案,具体来说,对于无法继续拆分的并行任务,以所有并行任务的最大完成时间作为本串行任务包完成时间,计算所有串行任务包的最小完成时间,获得最优分配方案。
2、本发明对于可以继续细分的任务包,递归调用最小负载算法来计算最小时间,简化了算法的复杂度,提高了运算效率。
3、对于计算结果可以预期的串行任务,本发明预先计算得到输出表,当在前任务计算完成后,基于在前任务的结果,直接查表得到在后任务的结果,提高了计算的整体效率。
附图说明
图1为本发明的网络架构图;
图2为本发明的多组串行任务及并行任务的时间分布示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1-2,一个实施例:
一种去中心化的分布式计算框架,其特征在于,包括多个计算节点,所述计算节点具有主处理器、广播接口、时序器、任务序列处理器,多个计算节点的所述时序器基于互联网络进行动态对时,所述任务序列处理器建立本节点的时序任务表单,通过所述广播接口向互联网络广播;
计算节点将任务划分为最小任务单元,分别标记串行任务包和并行任务包;所述计算节点基于最小负载算法计算最优节点分配方案,向所述互联网络发布并发起投票,若投票通过,则按照最优节点分配方案向各节点分发任务包;所述最小负载算法满足公式(1):
式中,[T(Mij)]|j=1,2,...,b表示串行任务包,所述T(Mij)表示计算第ij号任务分配给任一任务节点所需要的预估时间,所述预估时间基于任务运算量和各节点的浮点运算能力计算得到,ij表示该任务包为第i组串行任务包中的第j个并行任务,n表示共有n组串行任务包,b表示第i组串行任务包中共有b个并行任务, PINGin和PINGout分别表示节点间传输的输入延迟和输出延迟。
具体来说,例如计算任务可以分为3个串行的子任务,分配给3个节点,其中第1个串行子任务包括2个并行子任务,则可能的分配方式为共6种分配方式,每一种分配模式具有不同的计算时间,本发明可以采用排序算法,可以是冒泡排序、插入排序、希尔排序、归并排序、堆排序、桶排序等算法的一种,获得整体用时最短的分配方法,提高了整体运算效率。
另一个实施例
一种去中心化的分布式计算方法,基于所述的框架实施,每个计算节点都包含计算能力和存储空间,和其他计算节点组成对等互联网络;所述方法包括以下步骤:
S1、节点发现:动态发现计算节点加入或退出集群,统计和管理各节点的计算和存储能力,用于在分配计算任务时选择最优的节点;
S2、任务分发:计算节点基于任务节点基于最小负载算法计算最优节点分配方案,向所述互联网络发布并发起投票,若投票通过,则按照最优节点分配方案向各节点分发任务包;所述最小负载算法满足公式(1):
式中,[T(Mij)]|j=1,2,...,b表示串行任务包,所述T(Mij)表示计算第ij号任务所需要的预估时间,所述预估时间基于任务运算量和各节点的浮点运算能力计算得到,ij表示该任务包为第i组串行任务包中的第j个并行任务,n表示共有n组串行任务包,b表示第i组串行任务包中共有b个并行任务,PINGin和PINGout分别表示节点间传输的输入延迟和输出延迟;
S3、任务确认:任务节点收到任务执行请求,根据请求判断本节点是否有执行相关计算的资源和环境,如果可以则继续执行任务,否则返回错误信息;
S4、任务环境准备:根据任务配置文件准备当前任务所需要的计算环境,包括计算代码下载或者容器镜像准备;计算需要的数据从远程下载到当前节点;
S5、任务执行:执行任务,向上游节点返回计算结果;
S6、任务清理:计算任务完成执行并返回结果之后,当前节点清理任务,删除不再需要的程序和数据。
进一步的,所述互联网络为区块链网络,所述投票的通过比例为至少51%。
进一步的,如果串行任务包内含串行任务和并行任务,则递归调用所述最小负载算法计算最优节点分配方案。
进一步的,如果一项任务依赖于在前任务的结果,则将其确定为串行任务;否则,将其确定为并行任务。
进一步的,如果一项串行任务的所依赖的在前任务的结果为可以确定范围的离散值,则将该串行任务视为并行任务,并基于可以确定范围的离散值计算在后输出表,当所述在前任务完成后,通过其查表返回在后结果。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (10)
1.一种去中心化的分布式计算框架,其特征在于,包括多个计算节点,所述计算节点具有主处理器、广播接口、时序器、任务序列处理器,多个计算节点的所述时序器基于互联网络进行动态对时,所述任务序列处理器建立本节点的时序任务表单,通过所述广播接口向互联网络广播;
计算节点将任务划分为最小任务单元,分别标记串行任务包和并行任务包;所述计算节点基于最小负载算法计算最优节点分配方案,向所述互联网络发布并发起投票,若投票通过,则按照最优节点分配方案向各节点分发任务包;所述最小负载算法满足公式(1):
式中,[T(Mij)]|j=1,2,…,b表示串行任务包,所述T(Mij)表示计算第ij号任务分配给任一任务节点所需要的预估时间,所述预估时间基于任务运算量和各节点的浮点运算能力计算得到,ij表示该任务包为第i组串行任务包中的第j个并行任务,n表示共有n组串行任务包,b表示第i组串行任务包中共有b个并行任务,PINGin和PINGout分别表示节点间传输的输入延迟和输出延迟。
2.根据权利要求1所述的一种去中心化的分布式计算框架,其特征在于,所述互联网络为区块链网络,所述投票的通过比例为至少51%。
3.根据权利要求2所述的一种去中心化的分布式计算框架,其特征在于,如果所述并行任务包内含串行任务和并行任务,则递归调用所述最小负载算法计算最优节点分配方案。
4.根据权利要求3所述的一种去中心化的分布式计算框架,其特征在于,如果一项任务依赖于在前任务的结果,则将其确定为串行任务;否则,将其确定为并行任务。
5.根据权利要求4所述的一种去中心化的分布式计算框架,其特征在于,如果一项串行任务的所依赖的在前任务的结果为可以确定范围的离散值,则将该串行任务视为并行任务,并基于可以确定范围的离散值计算在后输出表,当所述在前任务完成后,通过其查表返回在后结果。
6.一种去中心化的分布式计算方法,基于如权利要求1-5任一项所述的框架实施,其特征在于,每个计算节点都包含计算能力和存储空间,和其他计算节点组成对等互联网络;所述方法包括以下步骤:
S1、节点发现:动态发现计算节点加入或退出集群,统计和管理各节点的计算和存储能力,用于在分配计算任务时选择最优的节点;
S2、任务分发:计算节点基于任务节点基于最小负载算法计算最优节点分配方案,向所述互联网络发布并发起投票,若投票通过,则按照最优节点分配方案向各节点分发任务包;所述最小负载算法满足公式(1):
式中,[T(Mij)]|j=1,2,…,b表示串行任务包,所述T(Mij)表示计算第ij号任务分配给任一任务节点所需要的预估时间,,所述预估时间基于任务运算量和各节点的浮点运算能力计算得到,ij表示该任务包为第i组串行任务包中的第j个并行任务,n表示共有n组串行任务包,b表示第i组串行任务包中共有b个并行任务,PINGin和PINGout分别表示节点间传输的输入延迟和输出延迟;
S3、任务确认:任务节点收到任务执行请求,根据请求判断本节点是否有执行相关计算的资源和环境,如果可以则继续执行任务,否则返回错误信息;
S4、任务环境准备:根据任务配置文件准备当前任务所需要的计算环境,包括计算代码下载或者容器镜像准备;计算需要的数据从远程下载到当前节点;
S5、任务执行:执行任务,向上游节点返回计算结果;
S6、任务清理:计算任务完成执行并返回结果之后,当前节点清理任务,删除不再需要的程序和数据。
7.根据权利要求6所述的一种去中心化的分布式计算方法,其特征在于,所述互联网络为区块链网络,所述投票的通过比例为至少51%。
8.根据权利要求7所述的一种去中心化的分布式计算方法,其特征在于,
如果串行任务包内含串行任务和并行任务,则递归调用所述最小负载算法计算最优节点分配方案。
9.根据权利要求8所述的一种去中心化的分布式计算方法,其特征在于,如果一项任务依赖于在前任务的结果,则将其确定为串行任务;否则,将其确定为并行任务。
10.根据权利要求9所述的一种去中心化的分布式计算方法,其特征在于,如果一项串行任务的所依赖的在前任务的结果为可以确定范围的离散值,则将该串行任务视为并行任务,并基于可以确定范围的离散值计算在后输出表,当所述在前任务完成后,通过其查表返回在后结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210914872.3A CN115408122B (zh) | 2022-08-01 | 2022-08-01 | 一种去中心化的分布式并行计算框架及计算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210914872.3A CN115408122B (zh) | 2022-08-01 | 2022-08-01 | 一种去中心化的分布式并行计算框架及计算方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115408122A true CN115408122A (zh) | 2022-11-29 |
CN115408122B CN115408122B (zh) | 2023-05-23 |
Family
ID=84159947
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210914872.3A Active CN115408122B (zh) | 2022-08-01 | 2022-08-01 | 一种去中心化的分布式并行计算框架及计算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115408122B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117955985A (zh) * | 2024-03-26 | 2024-04-30 | 佛山科学技术学院 | 一种基于并行计算的节点压力寻优方法 |
CN117955985B (zh) * | 2024-03-26 | 2024-06-07 | 佛山科学技术学院 | 一种基于并行计算的节点压力寻优方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103617086A (zh) * | 2013-11-20 | 2014-03-05 | 东软集团股份有限公司 | 一种并行计算方法及系统 |
CN106502791A (zh) * | 2016-10-14 | 2017-03-15 | 浪潮电子信息产业股份有限公司 | 一种任务分配方法及装置 |
CN107644063A (zh) * | 2017-08-31 | 2018-01-30 | 西南交通大学 | 基于数据并行的时间序列分析方法与系统 |
CN108154317A (zh) * | 2018-01-25 | 2018-06-12 | 福建师范大学 | 多云环境下基于实例自适应分配整合的工作流组调度方法 |
US20180349212A1 (en) * | 2017-06-06 | 2018-12-06 | Shuhao Liu | System and method for inter-datacenter communication |
CN110321223A (zh) * | 2019-07-03 | 2019-10-11 | 湖南大学 | Coflow协同作业流调度感知的数据流划分方法与装置 |
CN111737021A (zh) * | 2020-08-07 | 2020-10-02 | 腾讯科技(深圳)有限公司 | 并行任务的处理方法、装置、电子设备及存储介质 |
WO2021208786A1 (zh) * | 2020-04-13 | 2021-10-21 | 华为技术有限公司 | 一种线程管理方法及装置 |
-
2022
- 2022-08-01 CN CN202210914872.3A patent/CN115408122B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103617086A (zh) * | 2013-11-20 | 2014-03-05 | 东软集团股份有限公司 | 一种并行计算方法及系统 |
CN106502791A (zh) * | 2016-10-14 | 2017-03-15 | 浪潮电子信息产业股份有限公司 | 一种任务分配方法及装置 |
US20180349212A1 (en) * | 2017-06-06 | 2018-12-06 | Shuhao Liu | System and method for inter-datacenter communication |
CN107644063A (zh) * | 2017-08-31 | 2018-01-30 | 西南交通大学 | 基于数据并行的时间序列分析方法与系统 |
CN108154317A (zh) * | 2018-01-25 | 2018-06-12 | 福建师范大学 | 多云环境下基于实例自适应分配整合的工作流组调度方法 |
CN110321223A (zh) * | 2019-07-03 | 2019-10-11 | 湖南大学 | Coflow协同作业流调度感知的数据流划分方法与装置 |
WO2021208786A1 (zh) * | 2020-04-13 | 2021-10-21 | 华为技术有限公司 | 一种线程管理方法及装置 |
CN111737021A (zh) * | 2020-08-07 | 2020-10-02 | 腾讯科技(深圳)有限公司 | 并行任务的处理方法、装置、电子设备及存储介质 |
Non-Patent Citations (3)
Title |
---|
YICHUAN JIANG 等: "Locality-sensitive task allocation and load balancing in networked multiagent systems: Talent versus centrality" * |
付征叶 等: "遥感影像并行处理中基于优先级的任务分配策略" * |
彭青蓝 等: "一种去中心化的在线边缘任务调度与资源分配方法" * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117955985A (zh) * | 2024-03-26 | 2024-04-30 | 佛山科学技术学院 | 一种基于并行计算的节点压力寻优方法 |
CN117955985B (zh) * | 2024-03-26 | 2024-06-07 | 佛山科学技术学院 | 一种基于并行计算的节点压力寻优方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115408122B (zh) | 2023-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Di et al. | Dynamic optimization of multiattribute resource allocation in self-organizing clouds | |
US9201690B2 (en) | Resource aware scheduling in a distributed computing environment | |
Pham et al. | Towards task scheduling in a cloud-fog computing system | |
Cui et al. | A blockchain-based containerized edge computing platform for the internet of vehicles | |
US7730119B2 (en) | Sub-task processor distribution scheduling | |
Nabi et al. | Resource assignment in vehicular clouds | |
Xue et al. | An ACO-LB Algorithm for Task Scheduling in the Cloud Environment. | |
CN108021435B (zh) | 一种基于截止时间的具有容错能力的云计算任务流调度方法 | |
Zhou et al. | Scheduling frameworks for cloud container services | |
CN111381950A (zh) | 一种面向边缘计算环境基于多副本的任务调度方法和系统 | |
CN108270805B (zh) | 用于数据处理的资源分配方法及装置 | |
CN110347515B (zh) | 一种适合边缘计算环境的资源优化分配方法 | |
Kalyaev et al. | Method of multiagent scheduling of resources in cloud computing environments | |
Malik et al. | Optimistic synchronization of parallel simulations in cloud computing environments | |
CN115134371A (zh) | 包含边缘网络算力资源的调度方法、系统、设备及介质 | |
Kanwal et al. | A genetic based leader election algorithm for IoT cloud data processing | |
Rodrigues et al. | Network-aware container scheduling in multi-tenant data center | |
de Souza Toniolli et al. | Resource allocation for multiple workflows in cloud-fog computing systems | |
Xu et al. | Online learning algorithms for offloading augmented reality requests with uncertain demands in MECs | |
CN114706689A (zh) | 一种基于子任务特性的多核处理器任务调度方法及系统 | |
Ho et al. | Kylin: An efficient and scalable graph data processing system | |
CN111049900B (zh) | 一种物联网流计算调度方法、装置和电子设备 | |
Grigoras et al. | Elastic management of reconfigurable accelerators | |
Onoue et al. | Scheduling of parallel migration for multiple virtual machines | |
CN109254844B (zh) | 一种大规模图的三角形计算方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |