CN115033343A - 一种云环境下遥感数据流程调度模型的建立方法 - Google Patents
一种云环境下遥感数据流程调度模型的建立方法 Download PDFInfo
- Publication number
- CN115033343A CN115033343A CN202210585542.4A CN202210585542A CN115033343A CN 115033343 A CN115033343 A CN 115033343A CN 202210585542 A CN202210585542 A CN 202210585542A CN 115033343 A CN115033343 A CN 115033343A
- Authority
- CN
- China
- Prior art keywords
- scheduling
- task
- remote sensing
- sensing data
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000013528 artificial neural network Methods 0.000 claims abstract description 13
- 238000012545 processing Methods 0.000 claims abstract description 9
- 230000008901 benefit Effects 0.000 claims abstract description 6
- 230000006870 function Effects 0.000 claims description 27
- 238000012549 training Methods 0.000 claims description 16
- 230000009471 action Effects 0.000 claims description 15
- 238000005070 sampling Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 11
- 238000004088 simulation Methods 0.000 claims description 8
- 230000006978 adaptation Effects 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 6
- 238000003860 storage Methods 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 abstract description 20
- 230000002787 reinforcement Effects 0.000 abstract description 5
- 238000004519 manufacturing process Methods 0.000 abstract description 4
- 238000013135 deep learning Methods 0.000 abstract 1
- 238000012360 testing method Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 2
- 238000005111 flow chemistry technique Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 101150070968 rpsU gene Proteins 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
- G06F2009/45595—Network integration; Enabling network access in virtual machine instances
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供了一种云环境下遥感数据流程调度模型的建立方法,在适应多种类型科学工作流调度问题的情况下,依据遥感产品自身特点和生产规律,结合强化学习的独特学习能力以及深度神经网络的优点,提出了基于深度强化学习的工作流任务调度算法WDRL(Workflow Task Scheduling Algorithm based on Deep Reinforce Learning,WDRL),以此解决遥感数据流程中产生的调度问题,不仅考虑了计算节点的完成时间差异情况,而且将遥感产品生产任务重复性高、单任务数据量大等因素加入一定的权重确保分配任务的均衡性。从而实现遥感数据处理流程执行跨度时间最小化。
Description
技术领域
本发明涉及一种任务调度模型的建立方法,具体是一种云环境下遥感数据流程调度模型的建立方法。
背景技术
云计算是一种最新的分布式系统计算范例,其按使用付费与弹性资源模式为大规模工作流的快速、分布式高效执行提供了易于访问、灵活、可扩展的基础设施与部署环境,遥感数据处理流程在其应用框架下适用性较强。在云计算中,云资源提供商将基于物理资源创建多个虚拟机(VM),以处理用户提交的遥感数据订单任务。任务通过调度算法分配给某个虚拟机。此时,调度算法能否将任务分配到合适的虚拟机上成为影响云计算环境下信息资源分配效率的关键因素。因此,在云计算环境中高效的调度算法对于遥感数据处理流程是必不可少的。
针对遥感数据流程的调度问题而言,其调度多个目标之间有时会发生冲突。例如,为了最小化执行时间,具有高性能配置的云主机比低性能配置的云主机更可取;然而高性能配置的云主机通常更昂贵,因此最小化执行时间可能与降低成本目标相矛盾。这导致传统算法中性能优良的调度算法在遥感数据流程处理的过程中的性能较差。
发明内容
为了解决上述问题,解决多目标之间的需求冲突,找到一种在遥感数据流程处理过程中性能更优良的调度模型,本发明提供了一种云环境下遥感数据流程调度模型的建立方法,在适应多种类型科学工作流调度问题的情况下,依据遥感产品自身特点和生产规律,结合强化学习的独特学习能力以及深度神经网络的优点,提出了基于深度强化学习的工作流任务调度算法WDRL(Workflow Task Scheduling Algorithm based on Deep ReinforceLearning,WDRL),以此解决遥感数据流程中产生的调度问题,不仅考虑了计算节点的完成时间差异情况,而且将遥感产品生产任务重复性高、单任务数据量大等因素加入一定的权重确保分配任务的均衡性。从而实现遥感数据处理流程执行跨度时间最小化。
为了实现上述目的,本发明采用以下技术方案:一种云环境下遥感数据流程调度模型的建立方法,包括以下步骤:
S1、以全连接前馈神经网络作为隐含层构建策略模型网络Agent;
S2、通过遥感数据流程信息形成具有依赖关系的DAG;
S3、初始化任务配置参数及虚拟机配置参数;
S4、初始化神经网络参数及配置参数;
S5、获取任务和备选虚拟机创建列表存储,其中任务来自于所述DAG的配置文件,备选虚拟机来自仿真实验的配置参数;
S6、所述Agent与环境模拟交互进行学习;其中,一轮学习包括N次调度,一次调度指执行DAG中规定的所有任务,DAG的任务数即DAG中任务节点数,一次调度包括以下步骤:
S61、在执行当前任务之前通过全连接层与Softmax分类网络计算所有备选虚拟机的所有特征张量,得出该次调度中当前任务与所有虚拟机的适配度,Agent根据高适配度的虚拟机任务对优先调度,再获取下个任务的适配度,之后再选择一个虚拟机任务对执行,直到所有任务对执行结束;
S62、将此次调度过程所涉及的所有状态s、动作a和奖励r存入一组轨迹序列中,奖励r指在每个时间步t中,Agent通过观察状态st,并将在环境的状态从st转移到st+1,给出的奖励r;
S63、计算一组轨迹序列的奖励和,其中,T指总任务的时间步,t指当前任务的时间步,i指当次调度,si t为当次调度的当前任务的时间步的状态,ai t为当次调度的当前任务的时间步的动作,ri(si t,ai t)表示当次调度下状态st和动作at的所得的奖励;
S7、计算平均采样的基准线,其中平均采样的基准线计算公式为,其中N指调度循环次数,将所述奖励和与平均采样的基准线作差得出回报奖励advantagei t,即advantagei t=qi t-bi t;
S8、计算策略损失函数,策略损失函数的计算方式为softmax交叉熵损失函数和advantagei t状态价值函数的乘积,其中,softmax交叉熵损失函数指归一化指数函数,用于分类每个动作的概率大小;
S9、从所有轨迹序列中按存入顺序取出一个(si t,ai t,ri t)采样序列,其中si t、ai t及ri t表示第i次调度的t任务的时间步对应的状态、动作及奖励,并逆序更新参数,即从最后一个采样时刻开始,依次向前更新Agent模型回报并将上述策略损失函数累计至该模型:,其中为更新前的策略模型,为更新后的策略模型,表示求偏导运算,advantagei t为上述回报奖励也称状态价值函数;
S10、判断是否达到训练次数,若达到则确定为最优调度方案并输出模型,否则重复步骤S6-S9直至达到训练次数,判断达到训练次数的原则为在训练的过程中累计奖励的累计期望最大化。
进一步地,所述步骤S6还包括:设置完成一次完整的调度周期奖励值-1。
进一步地,所述步骤S4中初始化神经网络参数选择4层。
进一步地,所述步骤S4中神经网络激活函数使用tanh。
进一步地,所述步骤S4中采用Adam学习率优化器。
与现有技术相比,本发明的有益效果为:提出了一种遥感数据处理流程中动态在线任务调度模型的训练算法,并说明了在云计算仿真环境中算法的结构以及计算方式;通过调度策略将最大完工时间作为优化目标,在完整的调度周期中学习经验,实现最小化总执行时间;由于策略梯度方法通常有较高的方差,通过加权对特征进行重点采样、并使用平均基准线来解决策略梯度方法中的高方差问题,实现更快的收敛;优化了程序内的神经网络模型和超参数,并实现了依赖遥感数据处理流程的任务调度算法。
附图说明
图1是本发明的流程图。
图2是本发明的马尔科夫决策模型图。
图3是本发明在Sipht科学工作流的测试。
图4是本发明的算法性能比较图。
具体实施方式
本发明实施例提供的一种云环境下遥感数据流程调度模型的建立方法,所述方法的步骤流程图如图1所示,该方法具体可以包括如下步骤:
S1、以全连接前馈神经网络作为隐含层构建策略模型网络Agent;
S2、通过遥感数据流程信息形成具有依赖关系的有向无环图(DAG),其中遥感数据流程信息来源于遥感算法处理软件中的遥感算法流程及运行执行日志,
S3、初始化任务配置参数,具体包括task_id、task_duration、task_cpu、task_mem;配置虚拟机数量,每个虚拟机承载CPU为2个核心、内存为1个单元;初始化虚拟机配置参数,具体包括vm_cpu、vm_mem;
S4、初始化神经网络参数选择4层、神经网络激活函数使用tanh、训练限制episodes常量,采用Adam学习率优化器;
S5、获取所有任务和备选虚拟机创建列表存储,其中,任务来自形成DAG中的配置文件,在本实施例中为RS21.xml,备选虚拟机来自仿真试验的配置参数。提取任务和虚拟机所有特征并作加权和归一化处理,其中加权用于增强数据特征,归一化用于减小数据量;
S6、所述Agent与环境模拟交互进行学习,并配置奖励参数,设置完成一次完整的调度周期奖励值-1,其中,一轮学习包括N次调度,一次调度指执行DAG中规定的所有任务,DAG的任务数即DAG中任务节点数,例如DAG规定了21个任务节点,完整调度21个任务形成一组轨迹序列,一次调度包括以下步骤;
S61、为了在调度之前确定优先级,在调度当前任务之前通过全连接层与Softmax分类网络计算所有备选虚拟机(例如4个备选虚拟机)的所有特征张量,得出该次调度中当前任务与所有虚拟机的适配度,Agent根据高适配度的虚拟机任务对优先调度,例如task1-vm3 效果更好,就安排这对进入仿真环境执行,再获取下个任务的适配度,之后再选择一个虚拟机任务对执行,直到所有任务对执行结束;
S62、将此次调度过程所涉及的所有状态s、动作a和奖励r存入一组轨迹序列中,奖励r指在每个时间步t中,Agent通过观察状态st,并将在环境的状态从st转移到st+1,给出的奖励r;
S63、计算一组轨迹序列的奖励和,其中,T指总任务的时间步,t指当前任务的时间步,i指当次调度,si t为当次调度的当前任务的时间步的状态,ai t为当次调度的当前任务的时间步的动作,ri(si t,ai t)表示当次调度下状态st和动作at的所得的奖励;
S7、计算平均采样的基准线,其中平均采样的基准线计算公式为,其中N指调度循环次数,将所述奖励和与平均采样的基准线作差得出回报奖励advantagei t,即advantagei t=qi t-bi t;
S8、计算策略损失函数,策略损失函数的计算方式为softmax交叉熵损失函数和advantagei t状态价值函数的乘积,其中,softmax交叉熵损失函数指归一化指数函数,用于分类每个动作的概率大小;
S9、从所有轨迹序列中按存入顺序取出一个(si t,ai t,ri t)采样序列,其中si t、ai t及ri t表示第i次调度的t任务的时间步对应的状态、动作及奖励,并逆序更新参数,即从最后一个采样时刻开始,依次向前更新Agent模型回报并将上述策略损失函数累计至该模型:,其中为更新前的策略网络模型,为更新后的策略模型,表示求偏导运算,advantagei t为上述回报奖励也称状态价值函数;
S10、判断是否达到训练次数,若达到则确定为最优调度方案并输出模型,否则重复步骤S6-S9直至达到训练次数,判断达到训练次数的原则为在训练的过程中累计奖励的累计期望最大化。
在之后的实验采用结构较为复杂的Sipht大规模工作流,以任务节点数为100为例,训练强化学习模型,其训练过程的优化目标值变化趋势如图4所示,由图4可知,算法模型随着训练次数的增加趋于收敛,说明了算法的可行性。
在这个实验中,我们使用Cloudsim平台来测试这些算法。对makespan的性能进行了评估,并与现有的调度技术如Random、HEFT、Min-min和Max-min等技术进行了比较,参数配置表如表1所示。
为了展示该算法在任务数方面的可扩展性,我们在30、100、1000 个任务节点下进行了实验测试,并与其他算法进行了比较。本发明在 不同任务数量维度下,WDRL性能对比启发式算法总体有所提升。
表 1 参数配置
Claims (6)
1.一种云环境下遥感数据流程调度模型的建立方法,其特征在于,包括以下步骤:
S1、以全连接前馈神经网络作为隐含层构建策略模型网络Agent;
S2、通过遥感数据流程信息形成具有依赖关系的DAG;
S3、初始化任务配置参数及虚拟机配置参数;
S4、初始化神经网络参数及配置参数;
S5、获取任务和备选虚拟机创建列表存储,其中任务来自于所述DAG的配置文件,备选虚拟机来自仿真实验的配置参数;
S6、所述Agent与环境模拟交互进行学习;其中,一轮学习包括N次调度,一次调度指执行DAG中规定的所有任务,DAG的任务数即DAG中任务节点数,一次调度包括以下步骤:
S61、在执行当前任务之前通过全连接层与Softmax分类网络计算所有备选虚拟机的所有特征张量,得出该次调度中当前任务与所有虚拟机的适配度,Agent根据高适配度的虚拟机任务对优先调度,再获取下个任务的适配度,之后再选择一个虚拟机任务对执行,直到所有任务对执行结束;
S62、将此次调度过程所涉及的所有状态s、动作a和奖励r存入一组轨迹序列中,奖励r指在每个时间步t中,Agent通过观察状态st,并将在环境的状态从st转移到st+1,给出的奖励r;
S63、计算一组轨迹序列的奖励和,其中,T指总任务的时间步,t指当前任务的时间步,i指当次调度,si t为当次调度的当前任务的时间步的状态,ai t为当次调度的当前任务的时间步的动作,ri(si t,ai t)表示当次调度下状态st和动作at的所得的奖励;
S7、计算平均采样的基准线,其中平均采样的基准线计算公式为,其中N指调度循环次数,将所述奖励和与平均采样的基准线作差得出回报奖励advantagei t,即advantagei t=qi t-bi t;
S8、计算策略损失函数,策略损失函数的计算方式为softmax交叉熵损失函数和advantagei t状态价值函数的乘积,其中,softmax交叉熵损失函数指归一化指数函数,用于分类每个动作的概率大小;
S9、从所有轨迹序列中按存入顺序取出一个(si t,ai t,ri t)采样序列,其中si t、ai t及ri t表示第i次调度的t任务的时间步对应的状态、动作及奖励,并逆序更新参数,即从最后一个采样时刻开始,依次向前更新Agent模型回报并将上述策略损失函数累计至该模型:,其中为更新前的策略模型,为更新后的策略模型,表示求偏导运算,advantagei t为上述回报奖励也称状态价值函数;
S10、判断是否达到训练次数,若达到则确定为最优调度方案并输出模型,否则重复步骤S6-S9直至达到训练次数,判断达到训练次数的原则为在训练的过程中累计奖励的累计期望最大化。
2.如权利要求1所述的一种云环境下遥感数据流程调度模型的建立方法,其特征在于,步骤S5还包括:对虚拟机任务对列表的各特征参数进行加权处理和归一化处理。
3.如权利要求1所述的一种云环境下遥感数据流程调度模型的建立方法,其特征在于,所述步骤S6还包括:设置完成一次完整的调度周期奖励值-1。
4.如权利要求1所述的一种云环境下遥感数据流程调度模型的建立方法,其特征在于,所述步骤S4中初始化神经网络参数选择4层。
5.如权利要求1所述的一种云环境下遥感数据流程调度模型的建立方法,其特征在于,所述步骤S4中神经网络激活函数使用tanh。
6.如权利要求1所述的一种云环境下遥感数据流程调度模型的建立方法,其特征在于,所述步骤S4中采用Adam学习率优化器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210585542.4A CN115033343B (zh) | 2022-05-27 | 2022-05-27 | 一种云环境下遥感数据流程调度模型的建立方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210585542.4A CN115033343B (zh) | 2022-05-27 | 2022-05-27 | 一种云环境下遥感数据流程调度模型的建立方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115033343A true CN115033343A (zh) | 2022-09-09 |
CN115033343B CN115033343B (zh) | 2024-03-01 |
Family
ID=83121159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210585542.4A Active CN115033343B (zh) | 2022-05-27 | 2022-05-27 | 一种云环境下遥感数据流程调度模型的建立方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115033343B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109976909A (zh) * | 2019-03-18 | 2019-07-05 | 中南大学 | 边缘计算网络中基于学习的低延时任务调度方法 |
CN110930016A (zh) * | 2019-11-19 | 2020-03-27 | 三峡大学 | 一种基于深度q学习的梯级水库随机优化调度方法 |
CN111026549A (zh) * | 2019-11-28 | 2020-04-17 | 国网甘肃省电力公司电力科学研究院 | 一种电力信息通信设备自动化测试资源调度方法 |
CN111444007A (zh) * | 2020-06-16 | 2020-07-24 | 南京理工大学 | 基于云计算的遥感大数据自动化处理方法 |
CN112231091A (zh) * | 2020-11-05 | 2021-01-15 | 北京理工大学 | 一种基于强化学习策略的并行云工作流调度方法 |
US20210081787A1 (en) * | 2019-09-12 | 2021-03-18 | Beijing University Of Posts And Telecommunications | Method and apparatus for task scheduling based on deep reinforcement learning, and device |
CN112685165A (zh) * | 2021-01-08 | 2021-04-20 | 北京理工大学 | 一种基于联合强化学习策略的多目标云工作流调度方法 |
CN113888136A (zh) * | 2021-10-21 | 2022-01-04 | 北京航空航天大学 | 一种基于dqn算法原理的工作流调度方法 |
WO2022073320A1 (en) * | 2020-10-09 | 2022-04-14 | Huawei Cloud Computing Technologies Co., Ltd. | Methods and systems for decentralized federated learning |
-
2022
- 2022-05-27 CN CN202210585542.4A patent/CN115033343B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109976909A (zh) * | 2019-03-18 | 2019-07-05 | 中南大学 | 边缘计算网络中基于学习的低延时任务调度方法 |
US20210081787A1 (en) * | 2019-09-12 | 2021-03-18 | Beijing University Of Posts And Telecommunications | Method and apparatus for task scheduling based on deep reinforcement learning, and device |
CN110930016A (zh) * | 2019-11-19 | 2020-03-27 | 三峡大学 | 一种基于深度q学习的梯级水库随机优化调度方法 |
CN111026549A (zh) * | 2019-11-28 | 2020-04-17 | 国网甘肃省电力公司电力科学研究院 | 一种电力信息通信设备自动化测试资源调度方法 |
CN111444007A (zh) * | 2020-06-16 | 2020-07-24 | 南京理工大学 | 基于云计算的遥感大数据自动化处理方法 |
WO2022073320A1 (en) * | 2020-10-09 | 2022-04-14 | Huawei Cloud Computing Technologies Co., Ltd. | Methods and systems for decentralized federated learning |
CN112231091A (zh) * | 2020-11-05 | 2021-01-15 | 北京理工大学 | 一种基于强化学习策略的并行云工作流调度方法 |
CN112685165A (zh) * | 2021-01-08 | 2021-04-20 | 北京理工大学 | 一种基于联合强化学习策略的多目标云工作流调度方法 |
CN113888136A (zh) * | 2021-10-21 | 2022-01-04 | 北京航空航天大学 | 一种基于dqn算法原理的工作流调度方法 |
Non-Patent Citations (3)
Title |
---|
徐鹏;张岩江;苏森;: "PaaS云资源调度技术研究", 华中科技大学学报(自然科学版), no. 2, 10 January 2014 (2014-01-10), pages 59 - 63 * |
童钊;邓小妹;陈洪剑;梅晶;叶锋;: "云环境下基于强化学习的多目标任务调度算法", 小型微型计算机系统, no. 02, 15 February 2020 (2020-02-15), pages 63 - 68 * |
陈新鹏;汪莹;: "云环境下基于强化学习的任务调度问题研究", 现代计算机, no. 09, 25 March 2020 (2020-03-25), pages 34 - 37 * |
Also Published As
Publication number | Publication date |
---|---|
CN115033343B (zh) | 2024-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Drake et al. | Recent advances in selection hyper-heuristics | |
CN111858009B (zh) | 基于迁移和强化学习的移动边缘计算系统任务调度方法 | |
Tassel et al. | A reinforcement learning environment for job-shop scheduling | |
CN110168578B (zh) | 具有任务特定路径的多任务神经网络 | |
CN111406264B (zh) | 神经架构搜索 | |
CN109101339B (zh) | 异构集群中视频任务并行化方法、装置及异构集群系统 | |
US11164093B1 (en) | Artificial intelligence system incorporating automatic model switching based on model parameter confidence sets | |
Adamski et al. | Distributed deep reinforcement learning: Learn how to play atari games in 21 minutes | |
CN112231091B (zh) | 一种基于强化学习策略的并行云工作流调度方法 | |
JP7287397B2 (ja) | 情報処理方法、情報処理装置及び情報処理プログラム | |
CN113435606A (zh) | 强化学习模型的优化方法、装置、存储介质及电子设备 | |
CN113821318B (zh) | 一种物联网跨域子任务组合协同计算方法及系统 | |
Zhang et al. | Cost-aware scheduling systems for real-time workflows in cloud: An approach based on Genetic Algorithm and Deep Reinforcement Learning | |
CN112099931A (zh) | 任务调度方法及装置 | |
CN114675975B (zh) | 一种基于强化学习的作业调度方法、装置及设备 | |
CN114661466A (zh) | 用于边缘计算环境中面向智能工作流应用的任务卸载方法 | |
Nascimento et al. | A reinforcement learning scheduling strategy for parallel cloud-based workflows | |
CN112380016A (zh) | 基于改进遗传算法的云计算资源负载均衡调度方法及应用 | |
Gong et al. | Chic: experience-driven scheduling in machine learning clusters | |
Baheri | Mars: Multi-scalable actor-critic reinforcement learning scheduler | |
CN117436627A (zh) | 任务分配方法、装置、终端设备及介质 | |
Qu et al. | Memetic evolution strategy for reinforcement learning | |
CN115033343A (zh) | 一种云环境下遥感数据流程调度模型的建立方法 | |
CN111612124A (zh) | 一种面向任务智能调度的网络结构自适应优化方法 | |
CN113220437B (zh) | 一种工作流多目标调度方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |