CN111782359B - 分布式计算系统任务分配方法及相关设备 - Google Patents

分布式计算系统任务分配方法及相关设备 Download PDF

Info

Publication number
CN111782359B
CN111782359B CN202010583551.0A CN202010583551A CN111782359B CN 111782359 B CN111782359 B CN 111782359B CN 202010583551 A CN202010583551 A CN 202010583551A CN 111782359 B CN111782359 B CN 111782359B
Authority
CN
China
Prior art keywords
node
task
weight
weight parameter
layer node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010583551.0A
Other languages
English (en)
Other versions
CN111782359A (zh
Inventor
刘宏亚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202010583551.0A priority Critical patent/CN111782359B/zh
Publication of CN111782359A publication Critical patent/CN111782359A/zh
Priority to PCT/CN2021/096643 priority patent/WO2021258988A1/zh
Application granted granted Critical
Publication of CN111782359B publication Critical patent/CN111782359B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明涉及人工智能,提供一种分布式计算系统任务分配方法及相关设备。所述方法包括:确定每个计算节点的权重,计算每个计算节点的权重占比;构建包括输入层、隐藏层和输出层的神经网络模型,每个输入层节点和每个隐藏层节点对应一个计算任务,每个输出层节点对应一个计算节点;计算输入层节点和隐藏层节点之间的第一权值参数之和,根据第一权值参数之和确定隐藏层节点和输出层节点之间的第二权值参数;根据第二权值参数计算每个计算节点的任务分配误差;判断任务分配误差是否满足收敛条件;若任务分配误差不满足收敛条件,则调整第二权值参数;修改第一权值参数。本发明可以将计算任务均衡分配给各个计算节点。

Description

分布式计算系统任务分配方法及相关设备
技术领域
本发明涉及人工智能,具体涉及一种分布式计算系统任务分配方法及相关设备。
背景技术
随着信息技术的飞速发展,基于数据处理和数据分析的应用受到了广泛的欢迎和关注。对数据(如海量数据)进行复杂计算已经远远超过单台计算机的处理能力,由此推动了对分布式系统及其关键技术的研究。分布式计算中把需要进行复杂计算的数据切分成小块后,分交由多个计算节点并行处理,并将局部计算结果整合得出最终结果。因此,如何合理地对分布式计算系统的资源进行分配,使得分布式计算系统的资源的利用率最大化,成了亟待解决的问题。
发明内容
鉴于以上内容,有必要提出一种分布式计算系统任务分配方法、装置、计算机设备及存储介质,其可以将计算任务均衡分配给分布式计算系统中的各个计算节点。
本申请的第一方面提供一种分布式计算系统任务分配方法,所述方法包括:
(a)根据分布式计算系统中每个计算节点的性能影响因素确定每个计算节点的权重,根据每个计算节点的权重计算每个计算节点的权重占比;
(b)构建神经网络模型,所述神经网络模型包括输入层、隐藏层和输出层,所述输入层的每个输入层节点和所述隐藏层的每个隐藏层节点对应一个计算任务,所述输出层的每个输出层节点对应一个计算节点,所述输入层节点和所述隐藏层节点之间一对一连接,所述隐藏层节点和所述输出层节点之间全连接,所述输入层节点和所述隐藏层节点之间的第一权值参数初始化为1,所述第一权值参数取值为1或0,所述第一权值参数为1表示所述输入层节点对应的计算任务参与任务分配,所述第一权值参数为0表示所述输入层节点对应的计算任务不参与任务分配;
(c)根据所述第一权值参数确定所述隐藏层节点和所述输出层节点之间的第二权值参数,所述第二权值参数取值为1或0,所述第二权值参数为1表示所述隐藏层节点对应的计算任务分配给所述输出层节点对应的计算节点,所述第二权值参数为0表示所述隐藏层节点对应的计算任务不分配给所述输出层节点对应的计算节点,所述第二权值参数满足如下约束条件:每个隐藏层节点对应的第二权值参数之和为1,每个输出层节点对应的第二权值参数之和小于第一权值参数之和与所述输出层节点对应的计算节点的权重占比的乘积;
(d)根据所述第二权值参数计算每个计算节点的任务分配误差;
(e)判断所述任务分配误差是否满足收敛条件;
(f)若所述任务分配误差不满足收敛条件,则根据所述任务分配误差调整所述第二权值参数;
(g)修改所述第一权值参数,返回(c)。
另一种可能的实现方式中,所述构建神经网络模型包括:
将所述输入层节点和所述隐藏层节点根据对应的计算任务的任务量进行排列。
另一种可能的实现方式中,所述根据所述第二权值参数计算每个计算节点的任务分配误差包括:
计算每个计算节点的任务分配误差e=(y(n)-y′(n))2/2,其中y(n)为所述计算节点对应的第二权值参数之和,y′(n)为所述第一权值参数之和与所述计算节点的权重占比的乘积。
另一种可能的实现方式中,所述判断所述任务分配误差是否满足收敛条件包括:
计算所述任务分配误差与前一任务分配误差的差值,判断所述差值是否小于或等于第一预设阈值;或者
判断所述任务分配误差是否小于或等于第二预设阈值。
另一种可能的实现方式中,所述修改所述第一权值参数包括:
根据当前参与分配的计算任务的任务量修改所述第一权值参数。
另一种可能的实现方式中,所述根据当前参与分配的计算任务的任务量修改所述第一权值参数包括:
将当前参与分配的计算任务中任务量最大或最小的计算任务对应的第一权值参数从1修改为0。
另一种可能的实现方式中,所述计算节点的性能影响因素包括如下任意一项或多项:内存大小、内存存取速度、CPU数量、主频、硬盘大小、响应时间、吞吐率。
本申请的第二方面提供一种分布式计算系统任务分配装置,所述装置包括:
第一计算模块,用于根据分布式计算系统中每个计算节点的性能影响因素确定每个计算节点的权重,根据每个计算节点的权重计算每个计算节点的权重占比;
构建模块,用于构建神经网络模型,所述神经网络模型包括输入层、隐藏层和输出层,所述输入层的每个输入层节点和所述隐藏层的每个隐藏层节点对应一个计算任务,所述输出层的每个输出层节点对应一个计算节点,所述输入层节点和所述隐藏层节点之间一对一连接,所述隐藏层节点和所述输出层节点之间全连接,所述输入层节点和所述隐藏层节点之间的第一权值参数初始化为1,所述第一权值参数取值为1或0,所述第一权值参数为1表示所述输入层节点对应的计算任务参与任务分配,所述第一权值参数为0表示所述输入层节点对应的计算任务不参与任务分配;
确定模块,用于根据所述第一权值参数确定所述隐藏层节点和所述输出层节点之间的第二权值参数,所述第二权值参数取值为1或0,所述第二权值参数为1表示所述隐藏层节点对应的计算任务分配给所述输出层节点对应的计算节点,所述第二权值参数为0表示所述隐藏层节点对应的计算任务不分配给所述输出层节点对应的计算节点,所述第二权值参数满足如下约束条件:每个隐藏层节点对应的第二权值参数之和为1,每个输出层节点对应的第二权值参数之和小于第一权值参数之和与所述输出层节点对应的计算节点的权重占比的乘积;
第二计算模块,用于根据所述第二权值参数计算每个计算节点的任务分配误差;
判断模块,用于判断所述任务分配误差是否满足收敛条件;
调整模块,用于若所述任务分配误差不满足收敛条件,则根据所述任务分配误差调整所述第二权值参数;
修改模块,用于修改所述第一权值参数。
本申请的第三方面提供一种计算机设备,所述计算机设备包括处理器,所述处理器用于执行存储器中存储的计算机程序时实现所述分布式计算系统任务分配方法。
本申请的第四方面提供一种存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现所述分布式计算系统任务分配方法。
本发明利用神经网络模型进行任务分配,神经网络模型将影响分配结果的内容筛选出来(即不进行分配),使得任务分配更未均衡,实现将计算任务均衡分配给分布式计算系统中的各个计算节点。
附图说明
图1是本发明实施例提供的分布式计算系统任务分配方法的流程图。
图2是本发明实施例提供的分布式计算系统任务分配装置的结构图。
图3是本发明实施例提供的计算机设备的示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施例对本发明进行详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
优选地,本发明的分布式计算系统任务分配方法应用在一个或者多个计算机设备中。所述计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
实施例一
图1是本发明实施例一提供的分布式计算系统任务分配方法的流程图。所述分布式计算系统任务分配方法应用于计算机设备。所述分布式计算系统任务分配方法将计算任务均衡分配给分布式计算系统中的各个计算节点。
如图1所示,所述分布式计算系统任务分配方法包括:
101,根据分布式计算系统中每个计算节点的性能影响因素确定每个计算节点的权重,根据每个计算节点的权重计算每个计算节点的权重占比。
计算节点的性能影响因素是指对计算节点的计算性能有影响的因素。计算节点的计算性能越强,则该计算节点的权重越大。
计算节点的性能影响因素可以包括计算节点的内存大小、内存存取速度、CPU数量、主频、硬盘大小、响应时间、吞吐率等。
可以对每个性能影响因素设置一个权重值范围,例如1-10,确定每个计算节点的每个性能影响因素的权重值,将该计算节点的所有性能影响因素的权重值进行预设运算(例如相加或相乘),得到该计算节点的权重。
每个计算节点的权重占比等于所述计算节点的权重除以所有计算节点的总权重。例如,共有四个计算节点A、B、C、D,权重分别是30、40、20、10(即总权重为100),则计算节点A的权重占比为30/100=0.3,计算节点B的权重占比为40/100=0.4,计算节点C应该的权重占比为20/100=0.2,计算节点D的权重占比为10/100=0.1。
102,构建神经网络模型,所述神经网络模型包括输入层、隐藏层和输出层,所述输入层的每个输入层节点和所述隐藏层的每个隐藏层节点对应一个计算任务,所述输出层的每个输出层节点对应一个计算节点,所述输入层节点和所述隐藏层节点之间一对一连接,所述隐藏层节点和所述输出层节点之间全连接,所述输入层节点和所述隐藏层节点之间的第一权值参数初始化为1,所述第一权值参数取值为1或0,所述第一权值参数为1表示所述输入层节点对应的计算任务参与任务分配,所述第一权值参数为0表示所述输入层节点对应的计算任务不参与任务分配。
所述神经网络模型包括输入层、隐藏层和输出层三层,每一层包括多个节点。每个输入层节点和每个隐藏层节点表示一个计算任务。每个输出层节点表示一个计算节点。
例如,有m个输入层节点和m个隐藏层节点,表示有m个计算任务。有n个输出层节点,表示将计算任务分配给n个计算节点。
从输入层到隐藏层是一对一连接,输入层节点和隐藏层节点之间的第一权值参数取值为0或1。0代表输入层节点对应的计算节点不参与任务分配,1代表输入层节点对应的计算节点参与任务分配。
在一实施例中,在构建所述神经网络模型时,将所述输入层节点和所述隐藏层节点根据对应的计算任务的任务量进行排列。
例如,将所述输入层节点和所述隐藏层节点根据对应的计算任务的任务量从大到小排列,第一个输入层节点/隐藏层节点表示任务量最大的计算任务,第二个输入层节点/隐藏层节点表示任务量第二大的计算任务,……,依此类推。
又如,将所述输入层节点和所述隐藏层节点根据对应的计算任务的任务量从小到大排列,第一个输入层节点/隐藏层节点表示任务量最小的计算任务,第二个输入层节点/隐藏层节点表示任务量第二小的计算任务,……,依此类推。
所述任务量表示计算任务的工作量。可以将待分配的计算任务根据任务量的大小进行升序排序或降序排序。
在一实施例中,所述任务量可以是计算任务的计算量,将待分配的计算任务根据计算量的大小进行排序,例如将待分配的计算任务根据计算量的大小进行降序排序。
在一实施例中,所述方法用于进行音频修正任务分配,所述计算任务为音频修正任务,所述音频修正任务的任务量为音频修正计算量,所述音频修正计算量可以包括语音特征提取计算量、语音识别计算量、模板匹配计算量、变声计算量。
每个计算任务因计算流程、线程的切换、前置任务的依赖等因素,造成运算时间的差异,可以根据每个计算任务的计算时间确定该计算任务的计算量。可以将每个计算任务的计算时间作为该计算任务的计算量。例如,预设计算节点运行一个计算任务的计算时间为20分钟,则该计算任务的计算量为20。
可以利用预设计算节点预先运行每个计算任务来确定每个计算任务的运算时间。
或者,可以统计每个计算任务不同类型的指令的数量,根据不同类型的指令的数量和单指令运算时间计算所述计算任务的运算时间。
在另一实施例中,所述任务量可以是计算任务的数据量。例如,所述方法用于进行文本处理的任务分配,所述计算任务为文本处理任务,所述文本处理任务的任务量为文本大小。
在一具体实施例中,可以将复杂计算任务划分为多个独立计算任务,将所述多个独立计算任务作为待分配的计算任务。例如,所述方法用于进行音频修正的任务分配,将长音频音频修正任务划分为多个短音频音频修正任务作为待分配的计算任务。
103,根据所述第一权值参数确定所述隐藏层节点和所述输出层节点之间的第二权值参数,所述第二权值参数取值为1或0,所述第二权值参数为1表示所述隐藏层节点对应的计算任务分配给所述输出层节点对应的计算节点,所述第二权值参数为0表示所述隐藏层节点对应的计算任务不分配给所述输出层节点对应的计算节点,所述第二权值参数满足如下约束条件:每个隐藏层节点对应的第二权值参数之和为1,每个输出层节点对应的第二权值参数之和小于第一权值参数之和与所述输出层节点对应的计算节点的权重占比的乘积。
第一权值参数之和就是所有的第一权值参数的和。若一个输入层节点对应的计算任务参与任务分配,则该输入层节点和对应的隐藏层节点之间的第一权值参数等于1,若该输入层节点对应的计算任务不参与任务分配,则该输入层节点和对应的隐藏层节点之间的第一权值参数等于0。因此,第一权值参数之和就是实际参与任务分配的计算任务的任务数。第一权值参数之和与所述输出层节点对应的计算节点的权重占比的乘积为所述计算节点应该分配的任务数。
若一个隐藏层节点对应的第一权值参数为0,则该隐藏层节点对应的所有第二权值参数均为0。
每个隐藏层节点与每个输出层节点相连,第二权值参数为1表示隐藏层节点对应的计算任务分配给输出层节点对应的计算节点,第二权值参数为0表示隐藏层节点对应的计算任务不分配给输出层节点对应的计算节点。每个计算任务只分配给一个计算节点,因此,每个隐藏层节点对应的第二权值参数的之和为1。例如,共有四个计算节点A、B、C、D,计算任务M1分配给计算节点A,则代表计算任务M1的隐藏层节点和代表计算节点A的输出层节点之间的第二权值参数为1,代表计算任务M1的隐藏层节点和代表计算节点B、C、D的输出层节点之间的第二权值参数均为0,即满足代表计算任务M1的隐藏层节点对应的第二权值参数之和为1。
每个输出层节点对应的第二权值参数之和就是与所述输出层节点对应的所有第二权值参数的和。
隐藏层到输出层是全连接。一个隐藏层节点和一个输出层节点之间的第二权值参数为0或1。若该隐藏层节点到该输出层节点的第二权值参数为0,则表示该隐藏层节点对应的计算任务不分配给该输出层节点对应的计算节点;若该隐藏层节点到该输出层节点的第二权值参数为1,则表示该隐藏层节点对应的计算任务分配给该输出层节点对应的计算节点。因此,确定每个隐藏层节点到每个输出层节点的权重参数,就是确定每个计算任务分配给哪一个计算节点。
在一实施例中,在满足所述约束条件的情况下对计算任务进行随机分配。
在其他的实施例中,可以在满足所述约束条件的情况下按照一定的分配策略进行任务分配。例如,可以每一轮分配完成后计算每个计算节点实际分配的任务量与应该分配的任务量的比值,将大任务量的计算任务优先分配给所述比值较小的计算节点。又如,可以每一轮分配将大任务量的计算任务优先分配给所述权重占比较大的计算节点。
104,根据所述第二权值参数计算每个计算节点的任务分配误差。
在一实施例中,每个计算节点的任务分配误差e=(y(n)-y′(n))2/2,其中y(n)为所述计算节点实际分配的任务数,y′(n)为所述计算节点应该分配的任务数。所述计算节点实际分配的任务数也就是所述计算节点对应的第二权值参数之和。
每个计算节点应该分配的任务数等于所有计算节点实际分配的任务数与所述计算节点的权重占比的乘积。所有计算节点实际分配的任务数也就是所述第一权值参数之和。
105,判断所述任务分配误差是否满足收敛条件,若所述任务分配误差满足收敛条件,流程结束。
当所述任务分配误差满足收敛条件时,所述输入层节点到所述隐藏层节点的第一权值参数、所述隐藏层节点到所述输出层节点的第二权值参数表示最终的任务分配。
可以计算所述任务分配误差与前一任务分配误差的差值,判断所述差值是否小于或等于第一预设阈值,若所述差值小于或等于第一预设阈值,则满足收敛条件。或者,可以判断所述任务分配误差是否小于或等于第二预设阈值,若所述任务分配误差小于或等于第二预设阈值,则满足收敛条件。
106,若所述任务分配误差不满足收敛条件,则根据所述任务分配误差调整所述第二权值参数。
若所述任务分配误差满足收敛条件,则流程结束。
可以采用反向传播算法调整所述隐藏层节点到所述输出层节点的第二权值参数。反向传播算法可以参看现有技术,此处不再赘述。
在对所述隐藏层节点到所述输出层节点的第二权值参数进行调整时,需要满足所述约束条件。即每个隐藏层节点对应的第二权值参数之和为1,每个输出层节点对应的第二权值参数之和小于第一权值参数之和与所述输出层节点对应的计算节点的权重占比的乘积。
可以对所述隐藏层节点到所述输出层节点的第二权值参数进行多次调整(即重复104-106多次),例如进行十次调整。
107,修改所述第一权值参数,返回103。
在对所述隐藏层节点到所述输出层节点的第二权值参数进行调整之后,修改输入层节点到隐藏层节点的第一权值参数并返回103。例如,对所述隐藏层节点到所述输出层节点的第二权值参数进行多次调整之后,修改输入层节点到隐藏层节点的第一权值参数并返回103。
在一实施例中,根据当前参与分配的计算任务的任务量修改所述输入层节点到所述隐藏层节点的第一权值参数。每次修改所述输入层节点到所述隐藏层节点的第一权值参数时,确定当前参与分配的计算任务中任务量最大或最小的计算任务,将该任务量最大或最小的计算任务对应的第一权值参数从1修改为0。可以交替地修改任务量最大或最小的计算任务对应的第一权值参数。例如,第一次修改将当前任务量最大的计算任务对应的第一权值参数从1修改为0,第二次修改将当前任务量最小的计算任务对应的第一权值参数从1修改为0,第三次修改将当前任务量最大的计算任务对应的第一权值参数从1修改为0,第四次修改将当前任务量最小的计算任务对应的第一权值参数从1修改为0,依此类推。
在修改所述输入层节点到所述隐藏层节点的第一权值参数之后,返回104,重新确定所述隐藏层节点到所述输出层节点的第二权值参数。
所述分布式计算系统任务分配方法利用神经网络模型进行任务分配,神经网络模型将影响分配结果的内容筛选出来(即不进行分配),使得任务分配更未均衡,实现将计算任务均衡分配给分布式计算系统中的各个计算节点。
实施例二
图2是本发明实施例二提供的分布式计算系统任务分配装置的结构图。所述分布式计算系统任务分配装置20应用于计算机设备。所述分布式计算系统任务分配装置20将计算任务均衡分配给分布式计算系统中的各个计算节点。
如图2所示,所述分布式计算系统任务分配装置20可以包括第一计算模块201、构建模块202、确定模块203、第二计算模块204、判断模块205、调整模块206、修改模块207。
第一计算模块201,用于根据分布式计算系统中每个计算节点的性能影响因素确定每个计算节点的权重,根据每个计算节点的权重计算每个计算节点的权重占比。
计算节点的性能影响因素是指对计算节点的计算性能有影响的因素。计算节点的计算性能越强,则该计算节点的权重越大。
计算节点的性能影响因素可以包括计算节点的内存大小、内存存取速度、CPU数量、主频、硬盘大小、响应时间、吞吐率等。
可以对每个性能影响因素设置一个权重值范围,例如1-10,确定每个计算节点的每个性能影响因素的权重值,将该计算节点的所有性能影响因素的权重值进行预设运算(例如相加或相乘),得到该计算节点的权重。
每个计算节点的权重占比等于所述计算节点的权重除以所有计算节点的总权重。例如,共有四个计算节点A、B、C、D,权重分别是30、40、20、10(即总权重为100),则计算节点A的权重占比为30/100=0.3,计算节点B的权重占比为40/100=0.4,计算节点C应该的权重占比为20/100=0.2,计算节点D的权重占比为10/100=0.1。
构建模块202,用于构建神经网络模型,所述神经网络模型包括输入层、隐藏层和输出层,所述输入层的每个输入层节点和所述隐藏层的每个隐藏层节点对应一个计算任务,所述输出层的每个输出层节点对应一个计算节点,所述输入层节点和所述隐藏层节点之间一对一连接,所述隐藏层节点和所述输出层节点之间全连接,所述输入层节点和所述隐藏层节点之间的第一权值参数初始化为1,所述第一权值参数取值为1或0,所述第一权值参数为1表示所述输入层节点对应的计算任务参与任务分配,所述第一权值参数为0表示所述输入层节点对应的计算任务不参与任务分配。
所述神经网络模型包括输入层、隐藏层和输出层三层,每一层包括多个节点。每个输入层节点和每个隐藏层节点表示一个计算任务。每个输出层节点表示一个计算节点。
例如,有m个输入层节点和m个隐藏层节点,表示有m个计算任务。有n个输出层节点,表示将计算任务分配给n个计算节点。
从输入层到隐藏层是一对一连接,输入层节点和隐藏层节点之间的第一权值参数取值为0或1。0代表输入层节点对应的计算节点不参与任务分配,1代表输入层节点对应的计算节点参与任务分配。
在一实施例中,在构建所述神经网络模型时,将所述输入层节点和所述隐藏层节点根据对应的计算任务的任务量进行排列。
例如,将所述输入层节点和所述隐藏层节点根据对应的计算任务的任务量从大到小排列,第一个输入层节点/隐藏层节点表示任务量最大的计算任务,第二个输入层节点/隐藏层节点表示任务量第二大的计算任务,……,依此类推。
又如,将所述输入层节点和所述隐藏层节点根据对应的计算任务的任务量从小到大排列,第一个输入层节点/隐藏层节点表示任务量最小的计算任务,第二个输入层节点/隐藏层节点表示任务量第二小的计算任务,……,依此类推。
所述任务量表示计算任务的工作量。可以将待分配的计算任务根据任务量的大小进行升序排序或降序排序。
在一实施例中,所述任务量可以是计算任务的计算量,将待分配的计算任务根据计算量的大小进行排序,例如将待分配的计算任务根据计算量的大小进行降序排序。
在一实施例中,所述装置20用于进行音频修正任务分配,所述计算任务为音频修正任务,所述音频修正任务的任务量为音频修正计算量,所述音频修正计算量可以包括语音特征提取计算量、语音识别计算量、模板匹配计算量、变声计算量。
每个计算任务因计算流程、线程的切换、前置任务的依赖等因素,造成运算时间的差异,可以根据每个计算任务的计算时间确定该计算任务的计算量。可以将每个计算任务的计算时间作为该计算任务的计算量。例如,预设计算节点运行一个计算任务的计算时间为20分钟,则该计算任务的计算量为20。
可以利用预设计算节点预先运行每个计算任务来确定每个计算任务的运算时间。
或者,可以统计每个计算任务不同类型的指令的数量,根据不同类型的指令的数量和单指令运算时间计算所述计算任务的运算时间。
在另一实施例中,所述任务量可以是计算任务的数据量。例如,所述方法用于进行文本处理的任务分配,所述计算任务为文本处理任务,所述文本处理任务的任务量为文本大小。
在一具体实施例中,可以将复杂计算任务划分为多个独立计算任务,将所述多个独立计算任务作为待分配的计算任务。例如,所述装置20用于进行音频修正的任务分配,将长音频音频修正任务划分为多个短音频音频修正任务作为待分配的计算任务。
确定模块203,用于根据所述第一权值参数确定所述隐藏层节点和所述输出层节点之间的第二权值参数,所述第二权值参数取值为1或0,所述第二权值参数为1表示所述隐藏层节点对应的计算任务分配给所述输出层节点对应的计算节点,所述第二权值参数为0表示所述隐藏层节点对应的计算任务不分配给所述输出层节点对应的计算节点,所述第二权值参数满足如下约束条件:每个隐藏层节点对应的第二权值参数之和为1,每个输出层节点对应的第二权值参数之和小于第一权值参数之和与所述输出层节点对应的计算节点的权重占比的乘积。
第一权值参数之和就是所有的第一权值参数的和。若一个输入层节点对应的计算任务参与任务分配,则该输入层节点和对应的隐藏层节点之间的第一权值参数等于1,若该输入层节点对应的计算任务不参与任务分配,则该输入层节点和对应的隐藏层节点之间的第一权值参数等于0。因此,第一权值参数之和就是实际参与任务分配的计算任务的任务数。第一权值参数之和与所述输出层节点对应的计算节点的权重占比的乘积为所述计算节点应该分配的任务数。
若一个隐藏层节点对应的第一权值参数为0,则该隐藏层节点对应的所有第二权值参数均为0。
每个隐藏层节点与每个输出层节点相连,第二权值参数为1表示隐藏层节点对应的计算任务分配给输出层节点对应的计算节点,第二权值参数为0表示隐藏层节点对应的计算任务不分配给输出层节点对应的计算节点。每个计算任务只分配给一个计算节点,因此,每个隐藏层节点对应的第二权值参数的之和为1。例如,共有四个计算节点A、B、C、D,计算任务M1分配给计算节点A,则代表计算任务M1的隐藏层节点和代表计算节点A的输出层节点之间的第二权值参数为1,代表计算任务M1的隐藏层节点和代表计算节点B、C、D的输出层节点之间的第二权值参数均为0,即满足代表计算任务M1的隐藏层节点对应的第二权值参数之和为1。
每个输出层节点对应的第二权值参数之和就是与所述输出层节点对应的所有第二权值参数的和。
隐藏层到输出层是全连接。一个隐藏层节点和一个输出层节点之间的第二权值参数为0或1。若该隐藏层节点到该输出层节点的第二权值参数为0,则表示该隐藏层节点对应的计算任务不分配给该输出层节点对应的计算节点;若该隐藏层节点到该输出层节点的第二权值参数为1,则表示该隐藏层节点对应的计算任务分配给该输出层节点对应的计算节点。因此,确定每个隐藏层节点到每个输出层节点的权重参数,就是确定每个计算任务分配给哪一个计算节点。
在一实施例中,在满足所述约束条件的情况下对计算任务进行随机分配。
在其他的实施例中,可以在满足所述约束条件的情况下按照一定的分配策略进行任务分配。例如,可以每一轮分配完成后计算每个计算节点实际分配的任务量与应该分配的任务量的比值,将大任务量的计算任务优先分配给所述比值较小的计算节点。又如,可以每一轮分配将大任务量的计算任务优先分配给所述权重占比较大的计算节点。
第二计算模块204,用于根据所述第二权值参数计算每个计算节点的任务分配误差。
在一实施例中,每个计算节点的任务分配误差e=(y(n)-y′(n))2/2,其中y(n)为所述计算节点实际分配的任务数,y′(n)为所述计算节点应该分配的任务数。所述计算节点实际分配的任务数也就是所述计算节点对应的第二权值参数之和。
每个计算节点应该分配的任务数等于所有计算节点实际分配的任务数与所述计算节点的权重占比的乘积。所有计算节点实际分配的任务数也就是所述第一权值参数之和。
判断模块205,用于判断所述任务分配误差是否满足收敛条件。
当所述任务分配误差满足收敛条件时,所述输入层节点到所述隐藏层节点的第一权值参数、所述隐藏层节点到所述输出层节点的第二权值参数表示最终的任务分配。
可以计算所述任务分配误差与前一任务分配误差的差值,判断所述差值是否小于或等于第一预设阈值,若所述差值小于或等于第一预设阈值,则满足收敛条件。或者,可以判断所述任务分配误差是否小于或等于第二预设阈值,若所述任务分配误差小于或等于第二预设阈值,则满足收敛条件。
调整模块206,用于若所述任务分配误差不满足收敛条件,则根据所述任务分配误差调整所述第二权值参数。
可以采用反向传播算法调整所述隐藏层节点到所述输出层节点的第二权值参数。反向传播算法可以参看现有技术,此处不再赘述。
在对所述隐藏层节点到所述输出层节点的第二权值参数进行调整时,需要满足所述约束条件。即每个隐藏层节点对应的第二权值参数之和为1,每个输出层节点对应的第二权值参数之和小于第一权值参数之和与所述输出层节点对应的计算节点的权重占比的乘积。
可以对所述隐藏层节点到所述输出层节点的第二权值参数进行多次调整,例如进行十次调整。
修改模块207,用于修改所述第一权值参数。
在对所述隐藏层节点到所述输出层节点的第二权值参数进行调整之后,修改输入层节点到隐藏层节点的第一权值参数。例如,对所述隐藏层节点到所述输出层节点的第二权值参数进行多次调整之后,修改输入层节点到隐藏层节点的第一权值参数。
在一实施例中,根据当前参与分配的计算任务的任务量修改所述输入层节点到所述隐藏层节点的第一权值参数。每次修改所述输入层节点到所述隐藏层节点的第一权值参数时,确定当前参与分配的计算任务中任务量最大或最小的计算任务,将该任务量最大或最小的计算任务对应的第一权值参数从1修改为0。可以交替地修改任务量最大或最小的计算任务对应的第一权值参数。例如,第一次修改将当前任务量最大的计算任务对应的第一权值参数从1修改为0,第二次修改将当前任务量最小的计算任务对应的第一权值参数从1修改为0,第三次修改将当前任务量最大的计算任务对应的第一权值参数从1修改为0,第四次修改将当前任务量最小的计算任务对应的第一权值参数从1修改为0,依此类推。
在修改所述输入层节点到所述隐藏层节点的第一权值参数之后,返回104,重新确定所述隐藏层节点到所述输出层节点的第二权值参数。
所述分布式计算系统任务分配装置20利用神经网络模型进行任务分配,神经网络模型将影响分配结果的内容筛选出来(即不进行分配),使得任务分配更未均衡,实现将计算任务均衡分配给分布式计算系统中的各个计算节点。
实施例三
本实施例提供一种存储介质,该存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述分布式计算系统任务分配方法实施例中的步骤,例如图1所示的101-107。或者,该计算机程序被处理器执行时实现上述装置实施例中各模块的功能,例如图2中的模块201-207。
实施例四
图3为本发明实施例四提供的计算机设备的示意图。所述计算机设备30包括存储器301、处理器302以及存储在所述存储器301中并可在所述处理器302上运行的计算机程序303,例如分布式计算系统任务分配程序。所述处理器302执行所述计算机程序303时实现上述分布式计算系统任务分配方法实施例中的步骤,例如图1所示的101-107。或者,该计算机程序被处理器执行时实现上述装置实施例中各模块的功能,例如图2中的模块201-207。
示例性的,所述计算机程序303可以被分割成一个或多个模块,所述一个或者多个模块被存储在所述存储器301中,并由所述处理器302执行,以完成本方法。所述一个或多个模块可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序303在所述计算机设备30中的执行过程。例如,所述计算机程序303可以被分割成图2中的第一计算模块201、构建模块202、确定模块203、第二计算模块204、判断模块205、调整模块206、修改模块207,各模块具体功能参见实施例二。
所述计算机设备30可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。本领域技术人员可以理解,所述示意图3仅仅是计算机设备30的示例,并不构成对计算机设备30的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述计算机设备30还可以包括输入输出设备、网络接入设备、总线等。
所称处理器302可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器302也可以是任何常规的处理器等,所述处理器302是所述计算机设备30的控制中心,利用各种接口和线路连接整个计算机设备30的各个部分。
所述存储器301可用于存储所述计算机程序303,所述处理器302通过运行或执行存储在所述存储器301内的计算机程序或模块,以及调用存储在存储器301内的数据,实现所述计算机设备30的各种功能。所述存储器301可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据计算机设备30的使用所创建的数据。此外,存储器301可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart MediaCard,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。
所述计算机设备30集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
上述以软件功能模块的形式实现的集成的模块,可以存储在一个存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他模块或步骤,单数不排除复数。系统权利要求中陈述的多个模块或装置也可以由一个模块或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

Claims (10)

1.一种分布式计算系统任务分配方法,其特征在于,所述方法包括:
(a)根据分布式计算系统中每个计算节点的性能影响因素确定每个计算节点的权重,根据每个计算节点的权重计算每个计算节点的权重占比;
(b)构建神经网络模型,所述神经网络模型包括输入层、隐藏层和输出层,所述输入层的每个输入层节点和所述隐藏层的每个隐藏层节点对应一个计算任务,所述输出层的每个输出层节点对应一个计算节点,所述输入层节点和所述隐藏层节点之间一对一连接,所述隐藏层节点和所述输出层节点之间全连接,所述输入层节点和所述隐藏层节点之间的第一权值参数初始化为1,所述第一权值参数取值为1或0,所述第一权值参数为1表示所述输入层节点对应的计算任务参与任务分配,所述第一权值参数为0表示所述输入层节点对应的计算任务不参与任务分配;
(c)根据所述第一权值参数确定所述隐藏层节点和所述输出层节点之间的第二权值参数,所述第二权值参数取值为1或0,所述第二权值参数为1表示所述隐藏层节点对应的计算任务分配给所述输出层节点对应的计算节点,所述第二权值参数为0表示所述隐藏层节点对应的计算任务不分配给所述输出层节点对应的计算节点,所述第二权值参数满足如下约束条件:每个隐藏层节点对应的第二权值参数之和为1,每个输出层节点对应的第二权值参数之和小于第一权值参数之和与所述输出层节点对应的计算节点的权重占比的乘积;
(d)根据所述第二权值参数计算每个计算节点的任务分配误差;
(e)判断所述任务分配误差是否满足收敛条件;
(f)若所述任务分配误差不满足收敛条件,则根据所述任务分配误差调整所述第二权值参数;
(g)修改所述第一权值参数,返回(c)。
2.如权利要求1所述的分布式计算系统任务分配方法,其特征在于,所述构建神经网络模型包括:
将所述输入层节点和所述隐藏层节点根据对应的计算任务的任务量进行排列。
3.如权利要求1所述的分布式计算系统任务分配方法,其特征在于,所述根据所述第二权值参数计算每个计算节点的任务分配误差包括:
计算每个计算节点的任务分配误差e=(y(n)-y′(n))2/2,其中y(n)为所述计算节点对应的第二权值参数之和,y′(n)为所述第一权值参数之和与所述计算节点的权重占比的乘积。
4.如权利要求1所述的分布式计算系统任务分配方法,其特征在于,所述判断所述任务分配误差是否满足收敛条件包括:
计算所述任务分配误差与前一任务分配误差的差值,判断所述差值是否小于或等于第一预设阈值;或者
判断所述任务分配误差是否小于或等于第二预设阈值。
5.如权利要求1所述的分布式计算系统任务分配方法,其特征在于,所述修改所述第一权值参数包括:
根据当前参与分配的计算任务的任务量修改所述第一权值参数。
6.如权利要求5所述的分布式计算系统任务分配方法,其特征在于,所述根据当前参与分配的计算任务的任务量修改所述第一权值参数包括:
将当前参与分配的计算任务中任务量最大或最小的计算任务对应的第一权值参数从1修改为0。
7.如权利要求1所述的分布式计算系统任务分配方法,其特征在于,所述计算节点的性能影响因素包括如下任意一项或多项:内存大小、内存存取速度、CPU数量、主频、硬盘大小、响应时间、吞吐率。
8.一种分布式计算系统任务分配装置,其特征在于,所述装置包括:
第一计算模块,用于根据分布式计算系统中每个计算节点的性能影响因素确定每个计算节点的权重,根据每个计算节点的权重计算每个计算节点的权重占比;
构建模块,用于构建神经网络模型,所述神经网络模型包括输入层、隐藏层和输出层,所述输入层的每个输入层节点和所述隐藏层的每个隐藏层节点对应一个计算任务,所述输出层的每个输出层节点对应一个计算节点,所述输入层节点和所述隐藏层节点之间一对一连接,所述隐藏层节点和所述输出层节点之间全连接,所述输入层节点和所述隐藏层节点之间的第一权值参数初始化为1,所述第一权值参数取值为1或0,所述第一权值参数为1表示所述输入层节点对应的计算任务参与任务分配,所述第一权值参数为0表示所述输入层节点对应的计算任务不参与任务分配;
确定模块,用于根据所述第一权值参数确定所述隐藏层节点和所述输出层节点之间的第二权值参数,所述第二权值参数取值为1或0,所述第二权值参数为1表示所述隐藏层节点对应的计算任务分配给所述输出层节点对应的计算节点,所述第二权值参数为0表示所述隐藏层节点对应的计算任务不分配给所述输出层节点对应的计算节点,所述第二权值参数满足如下约束条件:每个隐藏层节点对应的第二权值参数之和为1,每个输出层节点对应的第二权值参数之和小于第一权值参数之和与所述输出层节点对应的计算节点的权重占比的乘积;
第二计算模块,用于根据所述第二权值参数计算每个计算节点的任务分配误差;
判断模块,用于判断所述任务分配误差是否满足收敛条件;
调整模块,用于若所述任务分配误差不满足收敛条件,则根据所述任务分配误差调整所述第二权值参数;
修改模块,用于修改所述第一权值参数。
9.一种计算机设备,其特征在于,所述计算机设备包括处理器,所述处理器用于执行存储器中存储的计算机程序以实现如权利要求1至7中任一项所述分布式计算系统任务分配方法。
10.一种存储介质,所述存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述分布式计算系统任务分配方法。
CN202010583551.0A 2020-06-23 2020-06-23 分布式计算系统任务分配方法及相关设备 Active CN111782359B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010583551.0A CN111782359B (zh) 2020-06-23 2020-06-23 分布式计算系统任务分配方法及相关设备
PCT/CN2021/096643 WO2021258988A1 (zh) 2020-06-23 2021-05-28 分布式计算系统任务分配方法及相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010583551.0A CN111782359B (zh) 2020-06-23 2020-06-23 分布式计算系统任务分配方法及相关设备

Publications (2)

Publication Number Publication Date
CN111782359A CN111782359A (zh) 2020-10-16
CN111782359B true CN111782359B (zh) 2022-03-11

Family

ID=72757289

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010583551.0A Active CN111782359B (zh) 2020-06-23 2020-06-23 分布式计算系统任务分配方法及相关设备

Country Status (2)

Country Link
CN (1) CN111782359B (zh)
WO (1) WO2021258988A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111782359B (zh) * 2020-06-23 2022-03-11 平安科技(深圳)有限公司 分布式计算系统任务分配方法及相关设备
CN114900518A (zh) * 2022-04-02 2022-08-12 中国光大银行股份有限公司 有向分布式网络的任务分配方法、装置、介质及电子设备
CN114860416B (zh) * 2022-06-06 2024-04-09 清华大学 对抗场景中的分布式多智能体探测任务分配方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007096954A1 (ja) * 2006-02-22 2007-08-30 Saga University ニューラルネットワーク装置及びその方法
CN106384153A (zh) * 2016-09-18 2017-02-08 河海大学常州校区 基于ba‑bpnn数据融合的wsan执行器任务分配方法
WO2019151984A1 (en) * 2018-01-30 2019-08-08 Google Llc Dynamic placement of computation sub-graphs
CN110198280A (zh) * 2019-05-28 2019-09-03 华南理工大学 一种基于bp神经网络的sdn链路分配方法
CN110865878A (zh) * 2019-11-11 2020-03-06 广东石油化工学院 边云协同环境中基于任务多约束的智能调度方法
CN111176820A (zh) * 2019-12-31 2020-05-19 中科院计算技术研究所大数据研究院 一种基于深度神经网络的边缘计算任务的分配方法及装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645454B2 (en) * 2010-12-28 2014-02-04 Canon Kabushiki Kaisha Task allocation multiple nodes in a distributed computing system
CN106844049A (zh) * 2017-01-13 2017-06-13 广西电网有限责任公司电力科学研究院 一种分布式计算系统的任务分配方法
US11315014B2 (en) * 2018-08-16 2022-04-26 EMC IP Holding Company LLC Workflow optimization
CN109345108A (zh) * 2018-09-26 2019-02-15 湖南人文科技学院 任务分配方法、装置、设备及存储介质
CN111782359B (zh) * 2020-06-23 2022-03-11 平安科技(深圳)有限公司 分布式计算系统任务分配方法及相关设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007096954A1 (ja) * 2006-02-22 2007-08-30 Saga University ニューラルネットワーク装置及びその方法
CN106384153A (zh) * 2016-09-18 2017-02-08 河海大学常州校区 基于ba‑bpnn数据融合的wsan执行器任务分配方法
WO2019151984A1 (en) * 2018-01-30 2019-08-08 Google Llc Dynamic placement of computation sub-graphs
CN110198280A (zh) * 2019-05-28 2019-09-03 华南理工大学 一种基于bp神经网络的sdn链路分配方法
CN110865878A (zh) * 2019-11-11 2020-03-06 广东石油化工学院 边云协同环境中基于任务多约束的智能调度方法
CN111176820A (zh) * 2019-12-31 2020-05-19 中科院计算技术研究所大数据研究院 一种基于深度神经网络的边缘计算任务的分配方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
面向遥感数据融合处理的云计算任务调度粒子群优化;丁中正;《中国优秀硕士学位论文全文数据库信息科技辑》;20190115(第1期);第I140-823页 *

Also Published As

Publication number Publication date
WO2021258988A1 (zh) 2021-12-30
CN111782359A (zh) 2020-10-16

Similar Documents

Publication Publication Date Title
CN111782359B (zh) 分布式计算系统任务分配方法及相关设备
CN110851529B (zh) 算力调度方法及相关设备
Jyoti et al. Dynamic provisioning of resources based on load balancing and service broker policy in cloud computing
Karloff et al. A model of computation for MapReduce
CN107659433B (zh) 一种云资源调度方法及设备
Mansouri et al. Cost-based job scheduling strategy in cloud computing environments
Sheikhalishahi et al. A multi-dimensional job scheduling
CN113168569A (zh) 去中心化分布式深度学习
CN105824686A (zh) 一种虚拟机宿主机的选择方法和选择系统
Mahmoud et al. Multiobjective task scheduling in cloud environment using decision tree algorithm
CN114667507A (zh) 使用基于应用的剖析的机器学习工作负载的弹性执行
Gandomi et al. HybSMRP: a hybrid scheduling algorithm in Hadoop MapReduce framework
Tang et al. An effective reliability-driven technique of allocating tasks on heterogeneous cluster systems
CN106201681B (zh) Hadoop平台下基于预释放资源列表的任务调度方法
CN114625500A (zh) 云环境下拓扑感知的微服务应用调度的方法及应用
US7526421B2 (en) System and method for modeling LPAR behaviors in a simulation tool
CN115586961A (zh) 一种ai平台计算资源任务调度方法、装置及介质
CN114675953A (zh) 资源动态调度方法、装置、设备及计算机可读存储介质
CN113608858A (zh) 一种基于MapReduce架构的数据同步用块任务执行系统
Pu et al. MPEFT: A novel task scheduling method for workflows
CN115016947A (zh) 负载分配方法、装置、设备及介质
CN114596009A (zh) 智算中心的算力资源部署方法、装置、设备及存储介质
CN110688204B (zh) 分布式计算系统任务分配方法及相关设备
CN111488052A (zh) 应用于物理机集群的容器启用方法和装置、计算机系统
CN115495224B (zh) 基于优先级的超算节点使用方法、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant