CN111756653A - 基于图神经网络深度强化学习的多coflow调度方法 - Google Patents

基于图神经网络深度强化学习的多coflow调度方法 Download PDF

Info

Publication number
CN111756653A
CN111756653A CN202010501622.8A CN202010501622A CN111756653A CN 111756653 A CN111756653 A CN 111756653A CN 202010501622 A CN202010501622 A CN 202010501622A CN 111756653 A CN111756653 A CN 111756653A
Authority
CN
China
Prior art keywords
scheduling
node
reinforcement learning
workflow
deep reinforcement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010501622.8A
Other languages
English (en)
Other versions
CN111756653B (zh
Inventor
郭泽华
孙鹏浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN202010501622.8A priority Critical patent/CN111756653B/zh
Publication of CN111756653A publication Critical patent/CN111756653A/zh
Application granted granted Critical
Publication of CN111756653B publication Critical patent/CN111756653B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/50Queue scheduling
    • H04L47/62Queue scheduling characterised by scheduling criteria
    • H04L47/625Queue scheduling characterised by scheduling criteria for service slots or service orders
    • H04L47/6275Queue scheduling characterised by scheduling criteria for service slots or service orders based on priority
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了基于图神经网络深度强化学习的多coflow调度方法,基于深度强化学习框架建立了多coflow调度模型,并采用图神经网络和策略网络的级联作为深度强化学习代理,其中,采用图神经网络完成工作流DAG特征的提取,使得模型能够处理具有不同数量及连接方式的节点的工作流DAG,有效提高了模型在不可预测输入DAG下的泛化能力;通过引入策略转换器,能够根据调度优先级列表生成细粒度的coflow调度策略,提高了调度过程的效率,并且有效减少了工作流的完成时间。

Description

基于图神经网络深度强化学习的多coflow调度方法
技术领域
本发明属于计算机网络技术领域,具体涉及基于图神经网络深度强化学习的多coflow调度方法。
背景技术
集群计算是近年来被广泛采用的方法,由于在大数据和云计算等场景下,随着数据处理需求的增加,它可以在相对低的资本支出下实现高并行计算性能。
许多集群计算应用(例如Spark和MapReduce)是基于多任务模型的,其中计算任务由几个连续的阶段和通信阶段组成。各执行计算阶段只能从上一阶段的中间数据完全发送时开始。任务的工作过程可以被建模为工作流有向无环图(Directed Acyclic Graph,DAG)记为G=(V,E),其中V是DAG中的节点集合,代表计算阶段,E是DAG中的边集合,代表计算节点之间的通信阶段。例如,工作流DAG,如图3所示,其中包括V1…V7七个计算阶段和e1…e6六个通信阶段。
工作流DAG中,若一个通信阶段与从两组机器相互交织的一组流相关,且共享一个共同的工作目标,则该通信阶段被定义为coflow。研究指出,中间数据传输过程(即,从一个计算单元到另一个计算单元的顺序相关的传输)在整个工作过程中的占比不小于50%,现有的研究表明,通过调度coflow可以显著减少工作完成时间(JCT)。
coflow调度问题一直是数据中心网络(DCN)中的一个具有挑战性的问题,因为coflow具有多种特性,使得coflow的调度变得复杂。这些特性包括:单个coflow的性质,如:流动尺寸、平行流的数量等;多个coflow间的性质,如:工作流DAG中不同coflow的关系等。coflow的最优调度已被证明是NP难问题,现有的工作试图简化问题并使用启发式来最小化coflow的传输时间。然而,从提高效率的角度来看,现有技术主要存在以下局限性:
有些现有技术仅专注于最小化一个通信阶段的传输时间,在调度流程中,并未考虑工作流的通信需求,此类工作流无关的调度方法,由于coflow调度过程中未考虑工作DAG的执行顺序,因此不能计算出最佳的工作流完成时间;有些现有技术使用启发式算法简化了问题,此类方法仅能保证逼近NP难问题的最优解。因此,对工作流完成时间的求解仍有很大的改进空间。
发明内容
有鉴于此,本发明提供了基于图神经网络深度强化学习的多coflow调度方法,能够以最快的工作流完成时间完成数据中心网络中工作流的调度。
本发明提供的基于图神经网络深度强化学习的多coflow调度方法,包括以下步骤:
步骤1、采用深度强化学习框架建立多工作流调度模型即多coflow调度模型;所述多coflow调度模型包含深度强化学习代理、策略转换器和环境,所述环境为待调度数据中心网络;
所述深度强化学习代理由图神经网络和策略网络级联形成,其中,所述图神经网络用于计算工作流有向无环图(DAG)的全局信息和节点特征值,所述策略网络根据所述全局信息和节点特征值生成所述工作流DAG中边的调度优先级列表;
步骤2、统计计算待调度数据中心网络中工作流DAG中各节点所包含的节点流量及完成时间;所述工作流DAG及节点流量作为所述深度强化学习代理的初始输入状态;所述完成时间作为所述深度强化学习代理的初始奖励;
步骤3、将所述初始输入状态及初始奖励输入所述深度强化学习代理,由深度强化学习代理计算得到所述调度优先级列表,所述调度优先级列表作为所述深度强化学习代理输出的动作;所述策略转换器将所述动作作为coflow调度策略并作用于所述环境中,即根据所述coflow调度策略调度待调度数据中心网络,再计算当前调度下的工作流DAG的节点流量及完成时间,更新所述深度强化学习代理;迭代执行步骤3,直到达到最大迭代次数,完成所述深度强化学习代理的训练,从而完成多coflow调度模型的训练;
步骤4、在实际部署过程中,计算待调度数据中心网络中工作流DAG中各节点所包含的节点流量及完成时间,将工作流DAG及节点流量作为状态、将完成时间作为奖励输入到训练得到的多coflow调度模型中,得到输出的待调度数据中心网络的coflow调度策略,并根据coflow调度策略完成待调度数据中心网络的工作流调度。
进一步地,所述步骤1中所述图神经网络用于计算工作流DAG的全局信息和节点特征值的过程,包括以下步骤:
步骤1.1、将工作流DAG中节点vi的信息作为节点特征xi,并根据节点vi的所有子节点des(vi)的节点特征值计算节点vi的节点特征值attri
步骤1.2、根据计算得到的特征值,计算整个工作流DAG的全局信息y,y=fjob({attri,xi|vi∈V}),V为DAG中的节点集合,函数fjob(·)为计算全局信息的神经网络,xi与attri作为函数fjob(·)的输入;
步骤1.3、将节点特征值进行排序形成节点排序,按照所述节点排序输出节点特征值及全局信息。
进一步地,所述函数F(·)采用两种神经网络实现,如下式所示:
Figure BDA0002525039650000031
其中f(·)和g(·)均为具有两个隐含层的小前馈神经网络。
进一步地,所述策略网络为带有隐藏层的前馈神经网络。
进一步地,所述步骤3中所述策略转换器将所述动作作为coflow调度策略并作用于所述环境中,即根据所述coflow调度策略调度待调度数据中心网络,具体步骤如下:
步骤3.1、从所述调度优先级列表P中,选出最高优先级,找到与之相对应的coflow即ei,其中,
Figure BDA0002525039650000041
M为进入端口的数量,N为出行端口的数量,
Figure BDA0002525039650000042
表示在ei中从端口m流向端口n的流的标准化大小值;
步骤3.2、优先调度ei中标准化大小值最大的流
Figure BDA0002525039650000043
计算流
Figure BDA0002525039650000044
的完成时间
Figure BDA0002525039650000045
并将此完成时间作为ei的完成时间;
步骤3.3、对ei中其余的流进行调度时,按照完成时间与
Figure BDA0002525039650000046
的差值进行排序,优先调度差值较小的流,直到完成ei中所有流的调度;
步骤3.4、将此优先级序号pi从所述调度优先级列表P中删除,如果当前调度优先级列表P不为空,则执行步骤3.1;否则,调度结束。
有益效果:
本发明基于深度强化学习框架建立了多coflow调度模型,并采用图神经网络和策略网络的级联作为深度强化学习代理,其中,采用图神经网络完成工作流DAG特征的提取,使得模型能够处理具有不同数量及连接方式的节点的工作流DAG,有效提高了模型在不可预测输入DAG下的泛化能力;通过引入策略转换器,能够根据调度优先级列表生成细粒度的coflow调度策略,提高了调度过程的效率,并且有效减少了工作流的完成时间。
附图说明
图1为本发明提供的基于图神经网络深度强化学习的多coflow调度方法的多coflow调度模型示意图。
图2为本发明提供的基于图神经网络深度强化学习的多coflow调度方法的深度强化学习代理的结构示意图。
图3为工作流DAG示意图。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
本发明提供的基于图神经网络深度强化学习的多coflow调度方法,其基本思想是采用深度强化学习(DRL)的框架,从历史轨迹中学习并训练神经网络,同时对神经网络中的输出进行编码生成coflow调度策略,基于该coflow调度策略在不需要专家知识或预先假设的模型的情况下就能够进行数据中心网络中工作流的调度。
本发明提供的基于图神经网络深度强化学习的多coflow调度方法,具体包括以下步骤:
步骤1、采用深度强化学习框架建立多同向工作流调度模型即多coflow调度模型,多coflow调度模型的结构如图1所示;多coflow调度模型包含深度强化学习代理、策略转换器和环境,环境为待调度数据中心网络;深度强化学习代理由图神经网络(GNN)和策略网络级联形成,如图2所示,其中,GNN用于计算工作流DAG的全局信息和节点特征值,策略网络根据全局信息和节点特征值生成工作流DAG中边的调度优先级列表。
本发明建立的多coflow调度模型与深度强化学习框架所涉及的三元素<S,A,R>相对应,即,本发明中的状态空间S为工作流DAG以及DAG中节点上包含的流的大小,动作空间A为coflow调度策略,及奖励空间R为工作流的完成时间。
具体来说,GNN计算工作流DAG的全局信息和节点特征值的具体过程可采用如下方式:
步骤1.1、将工作流DAG中每个工作阶段(节点)vi的信息(例如,计算成本等)作为节点特征xi。然后,计算节点vi的节点特征值attri,节点特征值attri是由计算节点vi的所有子节点des(vi)的特征值得到,即attri=F(xi,{attru|vu∈des(vi)}),具体来说其计算方式为:找到节点vi的所有子节点vu,通过所有vu的属性信息attru,以attru及xi作为函数F()的输入计算得到attri。其中,函数F(·)可以采用神经网络实现,本发明中采用两种神经网络实现函数F(·)如下式所示:
Figure BDA0002525039650000061
其中f(·)和g(·)是两个具有两个隐含层的小前馈神经网络,实现了对输入信息的非线性变换。
步骤1.2、根据节点vi的所有子节点的节点属性更新每个节点特征值attri,通过这种信息传递过程可将复杂信息从子节点逐级传送。然后,用另一种神经网络计算整个工作流DAG的全局信息y,即为y=fjob({attri,xi|vi∈V}),V为DAG中的节点集合,函数fjob(·)为神经网络,xi与attri作为函数fjob(·)的输入。
步骤1.3、将节点特征值进行排序,以此形成节点排序,每个节点离开GNN的顺序将会依照上述值的排序,按照节点排序输出节点特征值以及全局信息。
策略网络根据GNN输出的全局信息和节点特征值生成工作流DAG中边的调度优先级列表,本发明中策略网络采用带有一个隐藏层的前馈神经网络来实现,前馈神经网络计算工作流DAG的全局信息和节点特征值,生成并输出优先级列表P=(p1,p2,…,p|V|),其中pi(1≤i≤|V|)代表节点vi在工作流DAG中的优先级别值,pi越大,代表优先级越高。
步骤2、统计计算待调度数据中心网络中工作流DAG中各节点所包含的节点流量及完成时间;工作流DAG及节点流量作为深度强化学习代理的初始输入状态;完成时间作为深度强化学习代理的初始奖励。
步骤3、将初始输入状态及初始奖励输入深度强化学习代理,由深度强化学习代理计算得到调度优先级列表,调度优先级列表作为深度强化学习代理输出的动作;策略转换器将动作作为coflow调度策略并作用于环境中,即根据coflow调度策略调度待调度数据中心网络,再计算当前调度下的工作流DAG的节点流量及完成时间,更新深度强化学习代理;迭代执行步骤3,直到达到最大迭代次数,完成深度强化学习代理的训练,从而完成多coflow调度模型的训练。
策略转换器将策略网络的输出值调度优先级列表P=(p1,p2,…,p|V|),转化为具体的coflow调度策略。由于在工作流DAG中,只有一个边缘源于一个特定节点,所以我们用它的源节点的优先级值来分配边缘ei的优先级,边缘ei的优先级即为coflow的优先级,coflow优先级列表表示为P=(p1,p2,…,p|E|),E为DAG中的边集合。这样,最终工作流DAG的调度问题可转化为它们所属的coflow在每个端口上的调度问题。在DAG中,有N个coflow{e1,e2,…,e|N|},DCN可被看作为一个大的交换矩阵,它包含M个进入端口和N出行端口。一个coflow可定义为一群流的集合
Figure BDA0002525039650000071
其中,
Figure BDA0002525039650000072
表示在coflowei中从端口m流向端口n的流的标准化大小值。策略转换器的具体执行过程如下:
步骤3.1、从调度优先级列表P中,选出最高优先级pi=maxP,找到与之相对应的coflow即ei
步骤3.2、优先调度ei中标准化大小值最大的流
Figure BDA0002525039650000073
从而最小化ei的完成时间;计算流
Figure BDA0002525039650000081
的完成时间
Figure BDA0002525039650000082
并将此完成时间作为ei的完成时间;
步骤3.3、按照完成时间尽可能向
Figure BDA0002525039650000083
靠近的原则,在其他端口上对ei中其余的流进行调度,直到完成ei中所有流的调度;具体来说,就是按照完成时间与
Figure BDA0002525039650000084
的差值进行排序,优先调度差值较小的流;
步骤3.4、将此优先级序号从调度优先级列表P中删除,如果当前调度优先级列表P不为空,则执行步骤3.1;否则,调度结束。
步骤4、在实际部署过程中,计算待调度数据中心网络中工作流DAG中各节点所包含的节点流量及完成时间,将工作流DAG及节点流量作为状态、将完成时间作为奖励输入到训练得到的多coflow调度模型中,得到输出的待调度数据中心网络的coflow调度策略,并根据coflow调度策略完成待调度数据中心网络的工作流调度。
本发明的使用主要分为两个阶段:离线训练阶段和在线部署阶段。在离线训练阶段,深度强化模型以降低工作DAG完成时间为目的,经过训练优化其神经网络参数,产生coflow调度策略集合。在在线部署阶段,训练完成的深度强化模型根据输入,从coflow调度策略集合中选择合适的coflow调度策略,实现降低工作DAG完成时间的目的,在线部署阶段也可以进一步对深度强化模型进行训练,增加模型准确度。
综上,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.基于图神经网络深度强化学习的多coflow调度方法,其特征在于,包括以下步骤:
步骤1、采用深度强化学习框架建立多工作流调度模型即多coflow调度模型;所述多coflow调度模型包含深度强化学习代理、策略转换器和环境,所述环境为待调度数据中心网络;
所述深度强化学习代理由图神经网络和策略网络级联形成,其中,所述图神经网络用于计算工作流有向无环图(DAG)的全局信息和节点特征值,所述策略网络根据所述全局信息和节点特征值生成所述工作流DAG中边的调度优先级列表;
步骤2、统计计算待调度数据中心网络中工作流DAG中各节点所包含的节点流量及完成时间;所述工作流DAG及节点流量作为所述深度强化学习代理的初始输入状态;所述完成时间作为所述深度强化学习代理的初始奖励;
步骤3、将所述初始输入状态及初始奖励输入所述深度强化学习代理,由深度强化学习代理计算得到所述调度优先级列表,所述调度优先级列表作为所述深度强化学习代理输出的动作;所述策略转换器将所述动作作为coflow调度策略并作用于所述环境中,即根据所述coflow调度策略调度待调度数据中心网络,再计算当前调度下的工作流DAG的节点流量及完成时间,更新所述深度强化学习代理;迭代执行步骤3,直到达到最大迭代次数,完成所述深度强化学习代理的训练,从而完成多coflow调度模型的训练;
步骤4、在实际部署过程中,计算待调度数据中心网络中工作流DAG中各节点所包含的节点流量及完成时间,将工作流DAG及节点流量作为状态、将完成时间作为奖励输入到训练得到的多coflow调度模型中,得到输出的待调度数据中心网络的coflow调度策略,并根据coflow调度策略完成待调度数据中心网络的工作流调度。
2.根据权利要求1所述的方法,其特征在于,所述步骤1中所述图神经网络用于计算工作流DAG的全局信息和节点特征值的过程,包括以下步骤:
步骤1.1、将工作流DAG中节点vi的信息作为节点特征xi,并根据节点vi的所有子节点des(vi)的节点特征值计算节点vi的节点特征值attri
步骤1.2、根据计算得到的特征值,计算整个工作流DAG的全局信息y,y=fjob({attri,xi|vi∈V}),V为DAG中的节点集合,函数fjob(·)为计算全局信息的神经网络,xi与attri作为函数fjob(·)的输入;
步骤1.3、将节点特征值进行排序形成节点排序,按照所述节点排序输出节点特征值及全局信息。
3.根据权利要求2所述的方法,其特征在于,所述函数F(·)采用两种神经网络实现,如下式所示:
Figure FDA0002525039640000021
其中f(·)和g(·)均为具有两个隐含层的小前馈神经网络。
4.根据权利要求1所述的方法,其特征在于,所述策略网络为带有隐藏层的前馈神经网络。
5.根据权利要求1所述的方法,其特征在于,所述步骤3中所述策略转换器将所述动作作为coflow调度策略并作用于所述环境中,即根据所述coflow调度策略调度待调度数据中心网络,具体步骤如下:
步骤3.1、从所述调度优先级列表P中,选出最高优先级,找到与之相对应的coflow即ei,其中,
Figure FDA0002525039640000022
M为进入端口的数量,N为出行端口的数量,
Figure FDA0002525039640000023
表示在ei中从端口m流向端口n的流的标准化大小值;
步骤3.2、优先调度ei中标准化大小值最大的流
Figure FDA0002525039640000031
计算流
Figure FDA0002525039640000032
的完成时间
Figure FDA0002525039640000033
并将此完成时间作为ei的完成时间;
步骤3.3、对ei中其余的流进行调度时,按照完成时间与
Figure FDA0002525039640000034
的差值进行排序,优先调度差值较小的流,直到完成ei中所有流的调度;
步骤3.4、将此优先级序号pi从所述调度优先级列表P中删除,如果当前调度优先级列表P不为空,则执行步骤3.1;否则,调度结束。
CN202010501622.8A 2020-06-04 2020-06-04 基于图神经网络深度强化学习的多coflow调度方法 Active CN111756653B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010501622.8A CN111756653B (zh) 2020-06-04 2020-06-04 基于图神经网络深度强化学习的多coflow调度方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010501622.8A CN111756653B (zh) 2020-06-04 2020-06-04 基于图神经网络深度强化学习的多coflow调度方法

Publications (2)

Publication Number Publication Date
CN111756653A true CN111756653A (zh) 2020-10-09
CN111756653B CN111756653B (zh) 2022-03-04

Family

ID=72674592

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010501622.8A Active CN111756653B (zh) 2020-06-04 2020-06-04 基于图神经网络深度强化学习的多coflow调度方法

Country Status (1)

Country Link
CN (1) CN111756653B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112486641A (zh) * 2020-11-18 2021-03-12 鹏城实验室 一种基于图神经网络的任务调度方法
CN112711475A (zh) * 2021-01-20 2021-04-27 上海交通大学 一种基于图卷积神经网络的工作流调度方法及系统
CN112732960A (zh) * 2020-12-30 2021-04-30 北京理工大学 一种基于在线联邦学习的图像分类方法
CN112990561A (zh) * 2021-03-04 2021-06-18 广东工业大学 一种基于工作流模型的工业产业链协同决策方法
CN113127169A (zh) * 2021-04-07 2021-07-16 中山大学 数据中心网络中动态工作流的高效链路调度方法
CN113222468A (zh) * 2021-06-02 2021-08-06 中国电子科技集团公司第五十四研究所 一种基于深度强化学习的成像卫星资源调度方法
CN113469491A (zh) * 2021-05-14 2021-10-01 南京大学 一种基于强化学习和图神经网络的柔性车间作业调度方法
CN113489654A (zh) * 2021-07-06 2021-10-08 国网信息通信产业集团有限公司 一种路由选择方法、装置、电子设备及存储介质
CN114205300A (zh) * 2021-12-02 2022-03-18 南开大学 一种能够在流量信息不完整情况下保证coflow传输截止期限的流量调度方法
CN114756358A (zh) * 2022-06-15 2022-07-15 苏州浪潮智能科技有限公司 一种dag任务调度方法、装置、设备及存储介质
CN115114030A (zh) * 2022-07-20 2022-09-27 杭州电子科技大学 一种基于强化学习的在线多工作流调度方法
CN116996443A (zh) * 2023-09-25 2023-11-03 之江实验室 一种结合gnn和sac模型的网络协同流量调度方法与系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106055395A (zh) * 2016-05-18 2016-10-26 中南大学 一种基于蚁群优化算法的云环境中截止时间约束工作流调度方法
CN106228314A (zh) * 2016-08-11 2016-12-14 电子科技大学 基于深度增强学习的工作流调度方法
US20170230298A1 (en) * 2016-02-09 2017-08-10 Flowtune, Inc. Network Resource Allocation
CN108712305A (zh) * 2018-05-04 2018-10-26 电子科技大学 一种基于子流流量值估计方法的Coflow调度方法
CN110264097A (zh) * 2019-06-26 2019-09-20 哈尔滨理工大学 基于云环境的多科学工作流并发执行调度方法
CN110708259A (zh) * 2019-09-25 2020-01-17 江苏省未来网络创新研究院 自动调整队列阈值的信息无感知Coflow调度系统及其调度方法
CN110851782A (zh) * 2019-11-12 2020-02-28 南京邮电大学 一种基于轻量级时空深度学习模型的网络流量预测方法
CN111191934A (zh) * 2019-12-31 2020-05-22 北京理工大学 一种基于强化学习策略的多目标云工作流调度方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170230298A1 (en) * 2016-02-09 2017-08-10 Flowtune, Inc. Network Resource Allocation
CN106055395A (zh) * 2016-05-18 2016-10-26 中南大学 一种基于蚁群优化算法的云环境中截止时间约束工作流调度方法
CN106228314A (zh) * 2016-08-11 2016-12-14 电子科技大学 基于深度增强学习的工作流调度方法
CN108712305A (zh) * 2018-05-04 2018-10-26 电子科技大学 一种基于子流流量值估计方法的Coflow调度方法
CN110264097A (zh) * 2019-06-26 2019-09-20 哈尔滨理工大学 基于云环境的多科学工作流并发执行调度方法
CN110708259A (zh) * 2019-09-25 2020-01-17 江苏省未来网络创新研究院 自动调整队列阈值的信息无感知Coflow调度系统及其调度方法
CN110851782A (zh) * 2019-11-12 2020-02-28 南京邮电大学 一种基于轻量级时空深度学习模型的网络流量预测方法
CN111191934A (zh) * 2019-12-31 2020-05-22 北京理工大学 一种基于强化学习策略的多目标云工作流调度方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
WENXIN LI,XU YUAN KEQIU LI,HENG QI,XIAOBO ZHOU,RENHAI: "Endpoint-Flexible Coflow Scheduling Across Geo-Distributed Datacenters", 《IEEE TRANSACTIONS ON PARALLEL AND DISTRIBUTED SYSTEMS ( VOLUME: 31, ISSUE: 10, OCT. 1 2020)》 *
叶进,谢紫琪,宋玲,黄家玮: "一种基于流大小预测的Coflow调度机制", 《2018中国信息通信大会论文摘要集》 *
李文信,齐恒,徐仁海,周晓波,李克秋: "数据中心网络流量调度的研究进展与趋势", 《计算机学报》 *
马腾,胡宇翔,张校辉: "基于深度增强学习的数据中心网络coflow调度机制", 《电子学报》 *

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112486641B (zh) * 2020-11-18 2024-06-21 鹏城实验室 一种基于图神经网络的任务调度方法
CN112486641A (zh) * 2020-11-18 2021-03-12 鹏城实验室 一种基于图神经网络的任务调度方法
CN112732960A (zh) * 2020-12-30 2021-04-30 北京理工大学 一种基于在线联邦学习的图像分类方法
CN112732960B (zh) * 2020-12-30 2022-09-27 北京理工大学 一种基于在线联邦学习的图像分类方法
CN112711475B (zh) * 2021-01-20 2022-09-06 上海交通大学 一种基于图卷积神经网络的工作流调度方法及系统
CN112711475A (zh) * 2021-01-20 2021-04-27 上海交通大学 一种基于图卷积神经网络的工作流调度方法及系统
CN112990561A (zh) * 2021-03-04 2021-06-18 广东工业大学 一种基于工作流模型的工业产业链协同决策方法
CN112990561B (zh) * 2021-03-04 2023-01-20 广东工业大学 一种基于工作流模型的工业产业链协同决策方法
CN113127169A (zh) * 2021-04-07 2021-07-16 中山大学 数据中心网络中动态工作流的高效链路调度方法
CN113127169B (zh) * 2021-04-07 2023-05-02 中山大学 数据中心网络中动态工作流的高效链路调度方法
CN113469491B (zh) * 2021-05-14 2023-09-01 南京大学 一种基于强化学习和图神经网络的柔性车间作业调度方法
CN113469491A (zh) * 2021-05-14 2021-10-01 南京大学 一种基于强化学习和图神经网络的柔性车间作业调度方法
CN113222468A (zh) * 2021-06-02 2021-08-06 中国电子科技集团公司第五十四研究所 一种基于深度强化学习的成像卫星资源调度方法
CN113222468B (zh) * 2021-06-02 2022-04-08 中国电子科技集团公司第五十四研究所 一种基于深度强化学习的成像卫星资源调度方法
CN113489654A (zh) * 2021-07-06 2021-10-08 国网信息通信产业集团有限公司 一种路由选择方法、装置、电子设备及存储介质
CN113489654B (zh) * 2021-07-06 2024-01-05 国网信息通信产业集团有限公司 一种路由选择方法、装置、电子设备及存储介质
CN114205300A (zh) * 2021-12-02 2022-03-18 南开大学 一种能够在流量信息不完整情况下保证coflow传输截止期限的流量调度方法
CN114205300B (zh) * 2021-12-02 2023-09-22 南开大学 一种能够在流量信息不完整情况下保证coflow传输截止期限的流量调度方法
WO2023241000A1 (zh) * 2022-06-15 2023-12-21 苏州元脑智能科技有限公司 一种dag任务调度方法、装置、设备及存储介质
CN114756358B (zh) * 2022-06-15 2022-11-04 苏州浪潮智能科技有限公司 一种dag任务调度方法、装置、设备及存储介质
CN114756358A (zh) * 2022-06-15 2022-07-15 苏州浪潮智能科技有限公司 一种dag任务调度方法、装置、设备及存储介质
CN115114030B (zh) * 2022-07-20 2023-06-16 杭州电子科技大学 一种基于强化学习的在线多工作流调度方法
CN115114030A (zh) * 2022-07-20 2022-09-27 杭州电子科技大学 一种基于强化学习的在线多工作流调度方法
CN116996443A (zh) * 2023-09-25 2023-11-03 之江实验室 一种结合gnn和sac模型的网络协同流量调度方法与系统
CN116996443B (zh) * 2023-09-25 2024-01-23 之江实验室 一种结合gnn和sac模型的网络协同流量调度方法与系统

Also Published As

Publication number Publication date
CN111756653B (zh) 2022-03-04

Similar Documents

Publication Publication Date Title
CN111756653B (zh) 基于图神经网络深度强化学习的多coflow调度方法
Cao et al. A knowledge-based cuckoo search algorithm to schedule a flexible job shop with sequencing flexibility
Çil et al. Mathematical model and bee algorithms for mixed-model assembly line balancing problem with physical human–robot collaboration
Wang et al. An adaptive artificial bee colony with reinforcement learning for distributed three-stage assembly scheduling with maintenance
CN111191934B (zh) 一种基于强化学习策略的多目标云工作流调度方法
Shen et al. Mathematical modeling and multi-objective evolutionary algorithms applied to dynamic flexible job shop scheduling problems
CN103646008B (zh) 一种Web服务组合方法
Zhang et al. A hybrid approach to large-scale job shop scheduling
CN114710439B (zh) 基于深度强化学习的网络能耗与吞吐量联合优化路由方法
Genova et al. A survey of solving approaches for multiple objective flexible job shop scheduling problems
Wang et al. Solving task scheduling problems in cloud manufacturing via attention mechanism and deep reinforcement learning
Yang et al. Job shop scheduling based on earliness and tardiness penalties with due dates and deadlines: an enhanced genetic algorithm
CN113127169A (zh) 数据中心网络中动态工作流的高效链路调度方法
Zhou et al. A game-theory approach for job scheduling in networked manufacturing
Zhang et al. Q-learning-based hyper-heuristic evolutionary algorithm for the distributed assembly blocking flowshop scheduling problem
Tassel et al. An end-to-end reinforcement learning approach for job-shop scheduling problems based on constraint programming
Du et al. A deep reinforcement learning based algorithm for a distributed precast concrete production scheduling
Rostami et al. Improved and competitive algorithms for large scale multiple resource-constrained project-scheduling problems
CN117726119A (zh) 一种解决分布式混合流水车间组调度的图仿生学习方法
Wang et al. Learning to dynamically coordinate multi-robot teams in graph attention networks
Zhang et al. Feature-option-action: a domain adaption transfer reinforcement learning framework
Workneh et al. Deep q network method for dynamic job shop scheduling problem
Nguyen et al. Genetic programming approach to learning multi-pass heuristics for resource constrained job scheduling
Zhou et al. Cooperative multi-agent transfer learning with coalition pattern decomposition
Funing et al. A two-stage RNN-based deep reinforcement learning approach for solving the parallel machine scheduling problem with due dates and family setups

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant