CN112836974A - 一种基于dqn和mcts的箱区间多场桥动态调度方法 - Google Patents
一种基于dqn和mcts的箱区间多场桥动态调度方法 Download PDFInfo
- Publication number
- CN112836974A CN112836974A CN202110163011.1A CN202110163011A CN112836974A CN 112836974 A CN112836974 A CN 112836974A CN 202110163011 A CN202110163011 A CN 202110163011A CN 112836974 A CN112836974 A CN 112836974A
- Authority
- CN
- China
- Prior art keywords
- bridge
- scheduling
- task
- state
- box
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000009471 action Effects 0.000 claims description 50
- 238000004088 simulation Methods 0.000 claims description 29
- 230000006870 function Effects 0.000 claims description 26
- 230000007704 transition Effects 0.000 claims description 23
- 238000011156 evaluation Methods 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 18
- 238000012549 training Methods 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 14
- 238000003860 storage Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 8
- 238000009826 distribution Methods 0.000 claims description 7
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 235000015170 shellfish Nutrition 0.000 claims description 4
- 150000001875 compounds Chemical class 0.000 claims description 3
- 230000001186 cumulative effect Effects 0.000 claims description 3
- 230000005284 excitation Effects 0.000 claims 1
- 230000002787 reinforcement Effects 0.000 abstract description 6
- 238000004422 calculation algorithm Methods 0.000 description 14
- 239000003795 chemical substances by application Substances 0.000 description 10
- 238000004519 manufacturing process Methods 0.000 description 6
- 238000013138 pruning Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000002922 simulated annealing Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0631—Resource planning, allocation, distributing or scheduling for enterprises or organisations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/40—Business processes related to the transportation industry
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Resources & Organizations (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- General Business, Economics & Management (AREA)
- Molecular Biology (AREA)
- Tourism & Hospitality (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Game Theory and Decision Science (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Educational Administration (AREA)
- Development Economics (AREA)
- Primary Health Care (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于DQN和MCTS的箱区间多场桥动态调度方法,采用DQN对多场桥动态调度模型进行训练,以得到具有在随机干扰下做出最优决策能力的深度Q网络,并利用深度Q网络引导MCTS进行堆场箱区间多场桥在线决策,给出场桥下一步的调度决策。本发明通过强化学习方法使多场桥动态调度模型自主探索堆场环境,生成大量学习样本,解决了场桥调度真实样本缺乏、难以获取的问题,同时将MCTS与DQN相结合求解箱区间多场桥动态调度问题,在线给出每一步最优调度决策,提高了决策方案在不确定干扰下的鲁棒性。
Description
技术领域
本发明涉及集装箱码头装卸设备调度领域,尤其涉及一种基于DQN和MCTS的箱区间多场桥动态调度方法。
背景技术
集装箱吞吐量逐年增长,集装箱船舶趋于大型化和高速化对码头的装卸效率提出了更高的挑战。目前港口运营的关键从岸边转向堆场,而场桥作为堆场的核心装卸设备,其调度效率的高低关系着港口的运营成本和作业周期,已经成为制约堆场生产的瓶颈环节。
堆场内场桥作业的主要内容包括集装箱任务的堆箱操作和卸箱操作。在给定堆场调度资源和集装箱任务信息下,根据调度目标确定计划期内场桥的最优运行路径和集装箱任务作业次序称为场桥调度问题。场桥调度问题的核心可以归结为两部分决策,即(1)每个集装箱任务被分配的场桥和被服务的顺序;(2)每个集装箱任务的开始被服务时间。箱区间多场桥调度问题在单箱区内场桥调度的基础上考虑多个场桥在箱区间的合理资源共享,涉及场桥间的非交叉穿越、安全距离、作业量平衡等复杂约束,属于NP-Hard问题。此外,由于场桥造价昂贵、惯性大,90度转场花费的成本较高,在考虑任务箱组作业周期的同时,场桥在箱区间的移动代价也是影响任务箱组开始处理时间和调度决策的重要因素。实际生产过程中,场桥作业还会受到例如船舶到港时间延迟,场桥故障,新任务箱组随机到达等诸多不确定性因素的影响,不确定性干扰会严重降低场桥作业的效率,甚至导致预先制定的调度方案不可行。
目前,国内外求解箱区间多场桥调度问题的方法中,精确算法只局限于小规模问题且对问题的具体模型有一定要求;启发式和元启发式算法因能在多项式时间内获得问题的近优解成为工程上求解箱区间多场桥调度问题的主流方法;然而箱区间多场桥调度决策过程具有多目标性和不确定性等特点,启发式和元启发式算法把箱区间多场桥调度过程看作确定条件下的整体来全局考虑,即便对于动态调度问题元启发式也是将动态问题转化为几个静态的子问题通过遗传算法、模拟退火算法等智能优化算法分别求解。这种方法计算时间较长,调度方案的生成具有一定的滞后性,面对高频的不确定干扰,调度效果不理想,系统的稳定性无法保证。调度规则作为实际码头堆场装卸操作的常用调度策略,根据既定的规则在每个决策时刻给场桥分配集装箱任务,虽然调度效果一般,但是能够对动态事件实时响应,从而实现最佳的时间效率。大量研究表明多种简单调度规则的线性或随机组合在处理大规模、不确定干扰下的动态调度问题中更有优势。
为了在每个决策点找到合适的调度规则,需要将箱区间多场桥调度问题建模为马尔可夫决策过程(Markov DecisionProcess,MDP),对问题进行多阶段序贯决策,在每个决策阶段,根据当前系统的状态,进行实时分析,给出下一步的最优决策。近年来,蒙特卡洛树搜索(Monte-Carlo Tree Search,MCTS)和强化学习(Reinforcement Learning,RL)已成为应对MDP的有效方法。然而面对状态空间规模无限的情况,传统的强化学习方法如Q-learning存在维数灾难的问题,Q表无法维护。因此,在状态空间规模巨大的情况下如何根据不同决策阶段场桥的实时分配情况和不确定干扰,在线给出最优的调度规则组合显得尤为重要。
发明内容
针对现有技术中元启发式处理扰动耗时长、重调度后因频繁调整导致调度方案稳定性差,以及传统强化学习在面对大规模状态空间输入时的局限性问题,本发明提供了一种基于DQN和MCTS的箱区间多场桥动态调度方法。
所述一种基于DQN和MCTS的箱区间多场桥动态调度方法,包含以下步骤:
S1、利用马尔科夫决策过程建立多场桥动态调度模型,并确定模型的关键约束;
S2、将待处理任务箱的总延迟时间最小化作为多场桥动态调度模型的目标函数,并设计奖励函数;
S3、采用多组状态特征描述场桥调度系统状态,并选取调度规则确定当前时刻场桥调度系统状态的候选动作集;
S4、采用DQN并结合场桥调度系统的状态、候选动作集以及奖励函数,对多场桥动态调度模型进行训练,得到具有在随机干扰下做出最优决策能力的深度Q网络;
S5、利用深度Q网络引导MCTS进行堆场箱区间多场桥在线决策,给出场桥下一步的调度决策。
进一步地,所述多场桥动态调度模型的关键约束包含但不限于安全距离约束、作业量平衡约束以及场桥转场约束;
其中,安全距离约束的表达式为:
作业量平衡约束的表达式为:
场桥转场约束的表达式为:
式中,表示t时刻场桥k的位置是否处于x贝位,当时,表示t时刻场桥k位于x贝位处;否则Dsafe为同箱区内的任意两台场桥间相隔的最小安全贝位,给场桥运行预留缓冲,避免由于惯性发生碰撞和场桥间相互跨越的现象;表示任务箱组i是否分配给场桥k;g为任意场桥间作业量差值的上限;tij表示场桥在两个任务箱组间的移动时间,αij表示场桥从任务箱组i的作业位置移动到任务箱组j的作业位置的过程中是否需要进行90度转场操作,当αij=1时,任务箱组i和任务箱组j所在箱区位于不同行,场桥需要经过两次90度转场进行作业,当αij=0时,两相邻任务箱组所处箱区位于同一行,场桥不需要经过90转场进行作业;Vh为场桥的水平移动速度,是一个常量;Tturn为场桥90度转场所需要的时间。
进一步地,步骤S2中奖励函数的公式为:
式中,δi为t时刻决策前各场桥分配作业任务箱组的实际完成时间;δj'为t时刻执行决策动作at后各场桥已完成作业任务箱组的实际完成时间;di为预约任务箱组i的预计完成时间,是已知常量;Φr表示从初始时刻到决策时刻t各场桥分配作业的任务箱组集合;n1,n2分别为决策前后各场桥分配作业的任务箱组数量。
进一步地,步骤S3中的所述多组状态特征包含:场桥已完成任务量与总任务量之比、待处理任务序列长度、场桥已完成任务箱组的平均延迟时间、场桥当前作业任务箱组的剩余处理时间、待处理任务序列中场桥作业的最短延迟时间以及待处理任务序列中场桥作业的最大移动距离,上述多组状态特征共同形成了某时刻下场桥调度系统的状态;
所述调度规则包含但不限于先到先服务规则、就近规则、最早预期完成时间规则、最短作业时间规则,以及就近规则与最早预期完成时间规则的组合规则。
进一步地,步骤S4中采用DQN对多场桥动态调度模型进行训练,包含以下步骤:
B:将场桥调度系统当前时刻的状态变量经卷积神经网络特征处理映射到高维状态空间,得到预处理后的场桥调度系统当前时刻的状态变量;
C:从候选动作集中选择一个调度规则执行场桥调度,并更新待处理任务箱组序列及场桥调度系统状态,同时将场桥调度系统的新状态映射到高维空间得到预处理后的新状态变量,并计算场桥调度系统状态转变所获得的及时奖励;
D:将上述步骤B、C产生的场桥调度系统预处理后当前时刻的状态变量、下一时刻的状态变量以及调度规则与及时奖励组成的样本储存到经验回放记忆体中,并判断经验回放记忆体中的样本数量是否大于其阈值;若是,则执行步骤E;否则,重复执行步骤B-C;
E:从经验回放记忆体中采样一定数量的样本计算目标网络的期望状态动作函数值;
F:以目标网络的期望状态动作函数值作为标签,深度Q网络输出当前预测的Q值,并根据平方目标偏差对深度Q网络参数进行梯度下降和反向传播求解;
H:判断场桥调度系统中的任务箱组是否调度完毕,若是,则执行步骤I,否则,重复执行步骤B-H;
I:判断是否达到最大训练迭代次数,若是,则结束训练,输出深度Q网络参数;否则,重复执行步骤B-I。
进一步地,所述步骤C中,采用ε-贪心策略从候选动作集中选取一个当前最优调度规则,其计算公式为:
式中,at为最优调度规则,A为候选动作集,rand是一个范围在[0,1]的随机数;Q(φ(st),a;θ)为当前迭代步长下的状态动作Q网络,θ为网络参数,其蕴含当前迭代步长下所有状态的Q值更新结果。
进一步地,所述步骤S5具体包含以下步骤:
S5.1、MCTS中以子节点中的最大模拟结果加上根节点到当前叶节点所完成任务箱组的累计延迟时间作为节点评估值;
S5.2、采用子树修建技术对MCTS中的子节点进行扩展;
S5.3、深度Q网络根据当前扩展子节点状态信息进行快速估算,并选择最大状态动作值所对应的任务箱组延迟时间作为当前扩展子节点模拟结果;
S5.4,将扩展子节点的模拟结果反向回溯传播,直至传播至给根节点;
S5.5、重复执行步骤S5.1-S5.4,直至所有的任务箱组都被分配给对应的场桥进行作业完成一次迭代搜索,并结合多次并行迭代搜索的结果实时给出下一步的场桥调度决策。
进一步地,所述步骤S5.1中节点评估值的计算公式为:
本发明具有以下优势:
本发明通过马尔可夫决策过程对箱区间多场桥调度问题进行建模,将其转化为多阶段实时决策问题,根据决策时刻调度系统的当前状态实时给出相应的最优调度方案,更加符合实际的生产情况。
本发明采用DQN对不同堆场状态下的最优调度策略进行训练,通过强化学习方法使agent自主探索堆场环境,生成大量学习样本,解决了场桥调度真实样本缺乏、难以获取的问题,为深度神经网络拟合状态动作价值函数提供了有利条件。
本发明利用调度规则对堆场任务和场桥状态的候选动作集进行分割,不仅能够缩小算法行为动作空间,提高算法学习效率,还能够对突发干扰进行及时响应,实时给出随机干扰下的场桥调度方案。
本发明将MCTS对大规模问题的强大搜索能力与DQN实时预测相结合用于求解箱区间多场桥动态调度问题,嵌入改进的上限置信区间算法选择策略,以最优模拟结果代替均值作为节点评估指标,充分利用优秀的历史经验,在线给出每一步最优调度决策,提高了决策方案在不确定干扰下的鲁棒性。
附图说明
图1为堆场多箱区的布局示意图;
图2为一种基于DQN和MCTS的箱区间多场桥动态调度方法的流程图;
图3为堆场箱区间多场桥调度DQN网络结构图;
图4为采用子树修剪技术对子节点进行扩展的原理图。
具体实施方式
以下结合附图和具体实施例对本发明作进一步详细说明。根据下面说明和权利要求书,本发明的优点和特征将更清楚。需说明的是,附图均采用非常简化的形式且均使用非精准的比率,仅用以方便、明晰地辅助说明本发明实施例的目的。
本发明涉及转场操作的多箱区间多场桥调度问题,为减小计算复杂度,引入任务箱组的概念,将来自同一条船舶的集装箱任务或处于同一堆块相邻贝位间可以被集中装卸的一批集装箱任务定义为一个任务箱组,不考虑翻箱操作的问题,任务箱组作为场桥的最小作业单位。堆场所箱区的布局如图1所示。
如图2所示,本发明提出的一种基于DQN和MCTS的箱区间多场桥动态调度方法,包含以下步骤:
S1、利用马尔科夫决策过程建立多场桥动态调度模型,并确定模型的关键约束。
具体地,本发明利用马尔科夫决策过程建立堆场箱区间场桥调度系统的多场桥动态调度模型,将自动化码头堆场箱区间多场桥调度问题转化为强化学习框架下的多阶段序贯决策问题,根据决策时刻场桥调度系统当前时刻的状态实时给出相应的最优调度方案,更加符合实际的生产情况。
所述关键约束包含安全距离约束、作业量平衡约束以及场桥转场约束。
其中,安全距离约束的表达式为:
作业量平衡约束的表达式为:
场桥转场约束的表达式为:
式中,表示t时刻场桥k的位置是否处于x贝位,当时,表示t时刻场桥k位于x贝位处;否则Dsafe为同箱区内的任意两台场桥间相隔的最小安全贝位,给场桥运行预留缓冲,避免由于惯性发生碰撞和场桥间相互跨越的现象;表示任务箱组i是否分配给场桥k;g为任意场桥间作业量差值的上限;tij表示场桥在两个任务箱组间的移动时间,αij表示场桥从任务箱组i的作业位置移动到任务箱组j的作业位置的过程中是否需要进行90度转场操作,当αij=1时,任务箱组i和任务箱组j所在箱区位于不同行,场桥需要经过两次90度转场进行作业,当αij=0时,两相邻任务箱组所处箱区位于同一行,场桥则不需要经过90转场进行作业;Vh为场桥的水平移动速度,是一个常量;Tturn为场桥90度转场所需要的时间。
S2、将待处理任务箱的总延迟时间最小化作为多场桥动态调度模型的目标函数,并设计奖励函数。
具体地,将待处理任务箱的总延迟时间最小化为多场桥动态调度模型的目标函数,并将执行动作at后堆场场桥调度系统状态从st转移到st+1所获得的及时奖励函数rt设定为:决策前后场桥调度系统内已完成作业任务箱组的平均延迟时间偏差的相反数。奖励函数rt的公式如下:
其中,δi为t时刻决策前各场桥分配作业任务箱组的实际完成时间;δ′j为t时刻执行决策动作at后各场桥已完成作业任务箱组的实际完成时间;di为预约任务箱组i的预计完成时间,是已知常量;Φr表示从初始时刻到决策时刻t各场桥分配作业的任务箱组集合;n1,n2分别为决策前后各场桥分配作业的任务箱组数量。
S3、采用多组状态特征描述场桥调度系统状态,并选取调度规则确定当前时刻场桥调度系统状态的候选动作集。
本发明的基于DQN(Deep Q-learningNetwork,深度Q学习网络算法)和MCTS的箱区间多场桥动态调度方法中,为提高DQN性能和泛化能力,实现对未知生产环境的合理预测,输入状态特征需要准确反映不同时刻堆场箱区的场桥指派和任务信息。所述场桥指派表示当前时刻各个场桥在箱区间的分配情况和处理任务箱组信息,所述任务信息包含任务箱组到达时间、预计完成时间、任务箱组装卸贝位、任务箱组待处理量和待处理任务箱组序列等。
本发明中采用六种状态特征(分别记为:f1、f2、f3、f4、f5、f6)描述场桥调度系统各个时刻的场桥分配和任务信息,所述六种状态特征共同形成了某时刻下场桥调度系统状态。所述场桥调度系统的状态可采用S表示:
S={f1,f2,f3,f4,f5,f6}
其中,所述六种状态特征分别包含:
场桥已完成任务量与总任务量之比f1:决策时刻场桥YCi(i∈(1,Y))已完成作业的任务箱组量Ri(包括正在处理的任务箱组)与初始时刻预约的总任务箱组量N之比,该状态特征描述了各场桥的作业量分布,取值范围为[0,1];
待处理任务序列长度f2:初始时刻的待处理任务序列包含所有的预约任务箱组,随着调度决策的进行去除已完成的任务箱组和正在处理的任务箱组,剩余待处理任务箱组的数量即为决策时刻待处理任务序列长度;At时刻新任务箱组的到达会改变待处理任务序列的长度,待处理任务序列自动更新,存储新到达任务箱组的时间和贝位信息;
场桥已完成任务箱组的平均延迟时间f3:决策时刻计算场桥YCi已完成作业任务箱组的总延迟时间求均值;任务箱组延迟时间πi,j等于场桥作业任务箱组的实际完成时间εi,j减去任务箱组的预计完成时间dj,该状态特征描述了决策时刻各场桥的延迟时间负荷;
场桥当前作业任务箱组的剩余处理时间f4:决策时刻,场桥YCi正在处理的任务箱组的剩余处理时间,若场桥空闲,剩余处理时间为0;该状态特征表征了决策时刻场桥的忙闲状态;
待处理任务序列中场桥作业的最短延迟时间f5:决策时刻,以待处理任务序列中的任务箱组作为场桥YCi的下一作业任务,计算场桥YCi处理的最短延迟时间;
待处理任务序列中场桥作业的最大移动距离f6:决策时刻,以待处理任务序列中的任务箱组作为场桥YCi的下一作业任务,计算场桥YCi从当前任务箱组位置移动到下一任务箱组的最大移动距离。
将堆场箱区间场桥调度过程中的离散动作选择(场桥作业的任务指派)进行封装映射到独立的调度规则中,再选取常用的调度规则和组合规则作为当前场桥调度系统状态的候选动作集,可以大大减少场桥作业指派(下一个待处理任务选择)的动作空间,并对场桥调度问题的高维离散动作空间进行了有效降维。
本发明选取了五种常见的调度规则和组合规则,包含:先到先服务规则(FirstCome First Service,FCFS)、就近规则(Nearest Task First,NTF)、最早预期完成时间规则(Earliest Due Date,EDD)、最短作业时间规则(Shortest Processing Time,SPT)以及就近规则NTF与最早预期完成时间EDD规则的组合规则。上述五种调度规则和组合规则组成堆场箱区间场桥调度系统状态的候选动作集,为决策时刻的空闲场桥分配相应的待作业任务箱组。
S4、采用DQN并结合场桥调度系统的状态、候选动作集以及奖励函数,对多场桥动态调度模型进行训练,得到具有在随机干扰下做出最优决策能力的深度Q网络。
堆场箱区间多场桥调度DQN网络结构图如图3所示。由提前预约任务箱组的时间和贝位信息已知,随机新任务箱组的到达时刻服从泊松分布。随着调度决策的实施,待处理任务箱组序列Ω实时更新,保留尚未处理的任务箱组,同时导入新到达任务箱组信息以促进Agent对环境的不确定性特征的理解。所述Agent为一个智能体,所述环境是指决策时刻堆场的场桥分配和任务箱组的实际作业情况。在DQN训练过程中,堆场调度系统最优动作值(场桥作业任务指派)的实时决策点定义为任意任务箱组的作业完成时刻或每个新任务箱组的到达时刻。
采用DQN对多场桥动态调度模型进行训练,包含以下步骤:
A:初始化容量为N的经验回放记忆体D、深度Q网络及其参数θ、目标网络及其参数θ-,令θ-=θ,设置折扣因子γ、目标网络更新步数C、经验回放记忆体样本数量阈值M、所有任务箱组决策完毕的终止时间T以及最大训练迭代次数MAX_ITR。
所述DQN包含深度强化网络及目标网络,所述目标网络用于生成当前状态动作值函数的标签,所述深度Q网络用于拟合当前Q值。
B:将场桥调度系统当前时刻的状态变量经卷积神经网络特征处理映射到高维状态空间,得到预处理后的场桥调度系统当前时刻的状态变量。
由步骤S1中的多组状态特征可得到场桥调度系统当前时刻的状态,既可得到场桥调度系统的初始状态,也可得到场桥调度系统任何时刻下的状态。场桥调度系统初始状态下,任务箱组序列Ω包含所有预约的任务箱组。将场桥调度系统当前时刻的状态记为st,所述当前时刻的状态st经过卷积神经网络CNN特征处理映射到高维状态空间,得到预处理后的当前时刻的状态变量φt=φ(st)。
C:从候选动作集中选择一个调度规则执行场桥调度,并更新待处理任务箱组序列及场桥调度系统状态,同时将场桥调度系统的新状态映射到高维空间得到预处理后的新状态变量,并计算场桥调度系统状态转变所获得的奖励。
具体地,场桥调度系统的任务箱组序列中,若有任务箱组完成调度或者有新的任务箱组到达,则从候选动作集中选择一个调度规则作为动作指令at对任务箱组序列中的任务箱组进行分配。
对于大规模堆场箱区间多场桥动态调度问题,无法通过遍历所有可能的场桥调度系统状态获取接近真实值的状态动作Q(st,at)函数,因此为平衡agent与环境交互过程中的时间代价和质量代价,采用ε-贪心策略对探索和利用进行折中。所述Agent与环境进行交互是指智能体感知当前环境的状态信息,根据当前的策略选择一个调度规则进行执行后,环境从一个状态转移到另一个状态同时反馈给智能体一个及时奖励的过程。本实施例中,以ε概率从候选动作集中随机选取一个调度规则作为动作指令at。以1-ε概率根据模型选择当前最优调度规则:
其中,A为候选动作集,包括上述步骤S1中的所有调度规则;rand是一个范围在[0,1]的随机数;Q(φ(st),a;θ)为当前迭代步长下的状态动作Q网络,网络参数θ蕴含当前迭代步长下所有状态的Q值更新结果。
ε贪心值可以随着迭代的进行人为的调整,在训练的前期进行更多的探索,以发现更优的调度规则选择,避免DQN陷入局部最优;在迭代的后期倾向Q值更大的动作,以获取更高的累积奖励。
根据选定的调度规则从待处理任务箱组序列Ω中提取相应的任务箱组分配给空闲的场桥进行作业,各场桥处理指派的任务箱组,并更新待处理任务箱组序列Ω,场桥调度系统的状态同时更新为下一时刻状态st+1,采用上述步骤S3的奖励函数的计算场桥状态转变后环境反馈给Agent的及时奖励rt。场桥调度系统下一时刻的状态st+1同样经过卷积神经网络特征处理映射到高维状态空间,得到预处理后场桥调度系统下一时刻的状态变量φt+1=φ(st+1)。
D:将上述步骤B、C产生的场桥调度系统预处理后当前时刻的状态变量、下一时刻的状态变量以及调度规则与及时奖励组成的样本储存到经验回放记忆体中,并判断经验回放记忆体中的样本数量是否大于其阈值;若是,则执行步骤E;否则,重复执行步骤B-C。
E:从经验回放记忆体中采样一定数量的样本计算目标网络的期望状态动作函数值。
其中,rj表示场桥调度系统从当前时刻状态st采取调度规则at转移到下一时刻状态st+1时,agent所能获得的即时奖励;表示在当前迭代步长下,依据目标网络得到的下一时刻状态st+1的最大状态动作函数值。
F:以目标网络的期望状态动作函数值作为标签,深度Q网络输出当前预测的Q值,并根据平方目标偏差对深度Q网络参数θ进行梯度下降和反向传播求解。
采用损失函数对深度Q网路进行迭代计算,所述损失函数L(θ)的公式如下:
H:判断场桥调度系统中的任务箱组是否调度完毕,若是,则执行步骤I,否则,重复执行步骤B-H。
I:判断是否达到最大训练迭代次数,若是,则结束训练,输出深度Q网络参数;否则,重复执行步骤B-H。
由于执行DQN训练的样本考虑了随机干扰,所以训练后的深度Q网络具有随机干扰下做出最优决策的能力。
S5、利用深度Q网络引导MCTS进行堆场箱区间多场桥在线决策,给出场桥下一步的调度决策。
所述步骤S5具体包含以下步骤:
S5.1、MCTS中以子节点中的最大模拟结果加上根节点到当前叶节点所完成任务箱组的累计延迟时间作为节点评估值。
具体地,在基本MCTS中,搜索树子节点的选择是从根节点开始,以某一循环策略挑选树中每一层评估值较高的子节点,同时为兼顾选择过程中的探索与利用,那些评估值较低但访问次数较少的子节点也有更高的概率被选择,目的是为了找出最具搜索潜力的分支引导搜索树朝着更好的方向扩展。MCTS中应用最为广泛的子节点评价方法是上限置信区间算法(Upper Confidence Bounds forTrees,UCT)方法,公式如下:
其中,Qi表示子节点i被访问ni次的模拟指标值之和;ni为子节点i被访问的次数;n为子节点i的父节点访问次数;Cp为一个大于0的常数,用于平衡探索与利用。
然而不同于双人零和博弈游戏,堆场箱区间多场桥调度问题是一个单机决策过程,搜索目的是为了找出使得调度指标最优的子节点序列,UCT方法中的均值评估方法往往不能给出较优的极值节点序列,极值节点可能位于平均值不高的方向。为避免劣质模拟结果对节点评估值的影响,本发明采用了一种改进的UCT选择策略,以子节点中的最大模拟结果加上根节点到当前叶节点所完成任务箱组的累计延迟时间作为节点评估值,公式如下:
其中,max(Qi)表示节点i的所有模拟结果中最大的评估值Q,τ1表示根节点状态到当前叶节点状态所完成任务箱组的累计延迟时间,τ2表示子节点中的最大模拟结果,表示评估值。由于本发明考虑的任务箱组延迟时间范围不固定,不同调度方案间的延迟时间之和差异较大,需要对评估值进行归一化处理,Qi为统一量纲后的节点评估值。
S5.2、采用子树修建技术对MCTS中的子节点进行扩展。
将子树修建技术应用于MCTS,以增加MCTS的深度和广度。通过领域知识去除不满足多场桥动态调度模型的非交叉穿越、安全距离、作业量平衡等关键约束的子节点;同时对于子树中不同节点顺序代表相同调度方案的子树进行剪枝。子树修剪可以有效减少子节点数目,增加MCTS的深度和广度,如图4所示。剪枝后需要返回扩展步骤,重新进行子节点扩展,从其他候选可扩展子节点中选择新的场桥指派,并继续判别是否满足关键约束。
S5.3、深度Q网络根据当前扩展子节点状态信息进行快速估算,并选择最大状态动作值所对应的任务箱组延迟时间作为当前扩展子节点模拟结果。
蒙特卡洛搜索树中的节点代表决策时刻场桥调度系统所处状态,从当前节点到下一个节点的分支象征一个调度规则的选择。区别于基本MCTS中等概率随机采样的模拟方式,为提高算法模拟效率,降低劣质模拟结果对后续优秀子节点被选概率的影响,本发明结合DQN根据当前待扩展子节点状态对其后续剩余路径的最优模拟结果进行快速估算来提高蒙特卡洛树搜索的模拟质量和效率:将当前扩展子节点状态输入训练好的DQN的深度Q网络,输出各候选调度规则的状态动作Q值,输出Q值表示从当前扩展子节点状态开始到系统调度结束累计的任务箱组延迟时间,选择最大状态动作Q值所对应的任务箱组延迟时间作为当前扩展子节点模拟结果。
S5.4,将扩展子节点的模拟结果反向回溯传播,直至传播至给根节点。
模拟结束后,对于所有父节点的子节点,将其子节点中模拟效果最好的子节点信息反向传播一直到根节点。
S5.5、重复执行步骤S5.1-S5.4,直至所有的任务箱组都被分配给对应的场桥进行作业完成一次迭代搜索,并结合多次并行迭代搜索的结果实时给出下一步的场桥调度决策。
重复执行步骤S5.1-S5.4,直到所有的任务箱组都被分配给对应的场桥进行作业为一次迭代搜索,进行多次迭代在蒙特卡洛搜索树中找到一条使得任务箱组总延迟时间最小的分支路径,以当前调度系统状态为根节点,该分支路径中下一个子节点所对应的场桥指派即为下一步的调度决策。每完成一步场桥调度决策后,更新搜索树的起始状态,以当前调度系统状态为起始进行新一轮的搜索,保留上一步搜索中生成的树节点及节点信息,以减少算法计算量。
尽管本发明的内容已经通过上述优选实施例作了详细介绍,但应当认识到上述的描述不应被认为是对本发明的限制。在本领域技术人员阅读了上述内容后,对于本发明的多种修改和替代都将是显而易见的。因此,本发明的保护范围应由所附的权利要求来限定。
Claims (8)
1.一种基于DQN和MCTS的箱区间多场桥动态调度方法,其特征在于,包含以下步骤:
S1、利用马尔科夫决策过程建立多场桥动态调度模型,并确定模型的关键约束;
S2、将待处理任务箱的总延迟时间最小化作为多场桥动态调度模型的目标函数,并设计奖励函数;
S3、采用多组状态特征描述场桥调度系统状态,并选取调度规则确定当前时刻场桥调度系统状态的候选动作集;
S4、采用DQN并结合场桥调度系统的状态、候选动作集以及奖励函数,对多场桥动态调度模型进行训练,得到具有在随机干扰下做出最优决策能力的深度Q网络;
S5、利用深度Q网络引导MCTS进行堆场箱区间多场桥在线决策,给出场桥下一步的调度决策。
2.如权利要求1所述的一种基于DQN和MCTS的箱区间多场桥动态调度方法,其特征在于,所述多场桥动态调度模型的关键约束包含但不限于安全距离约束、作业量平衡约束以及场桥转场约束;
其中,安全距离约束的表达式为:
作业量平衡约束的表达式为:
场桥转场约束的表达式为:
式中,表示t时刻场桥k的位置是否处于x贝位,当时,表示t时刻场桥k位于x贝位处;否则Dsafe为同箱区内的任意两台场桥间相隔的最小安全贝位,给场桥运行预留缓冲,避免由于惯性发生碰撞和场桥间相互跨越的现象;表示任务箱组i是否分配给场桥k;g为任意场桥间作业量差值的上限;tij表示场桥在两个任务箱组间的移动时间;αij表示场桥从任务箱组i的作业位置移动到任务箱组j的作业位置的过程中是否需要进行90度转场操作,当αij=1时,任务箱组i和任务箱组j所在箱区位于不同行,场桥需要经过两次90度转场进行作业,当αij=0时,两相邻任务箱组所处箱区位于同一行,场桥不需要经过90转场进行作业;Vh为场桥的水平移动速度,是一个常量;Tturn为场桥90度转场所需要的时间。
4.如权利要求1所述的一种基于DQN和MCTS的箱区间多场桥动态调度方法,其特征在于,步骤S3中的所述多组状态特征包含:场桥已完成任务量与总任务量之比、待处理任务序列长度、场桥已完成任务箱组的平均延迟时间、场桥当前作业任务箱组的剩余处理时间、待处理任务序列中场桥作业的最短延迟时间以及待处理任务序列中场桥作业的最大移动距离,上述多组状态特征共同形成了某时刻下场桥调度系统的状态;
所述调度规则包含但不限于先到先服务规则、就近规则、最早预期完成时间规则、最短作业时间规则,以及就近规则与最早预期完成时间规则的组合规则。
5.如权利要求1所述的一种基于DQN和MCTS的箱区间多场桥动态调度方法,其特征在于,步骤S4中采用DQN对多场桥动态调度模型进行训练,包含以下步骤:
A:初始化经验回放记忆体、深度Q网络及其参数、目标网络及其参数,设置目标网络更新步数、经验回放记忆体样本数量阈值、所有任务箱组决策完毕的终止时间以及最大训练迭代次数;
B:将场桥调度系统当前时刻的状态变量经卷积神经网络特征处理映射到高维状态空间,得到预处理后的场桥调度系统当前时刻的状态变量;
C:从候选动作集中选择一个调度规则执行场桥调度,并更新待处理任务箱组序列及场桥调度系统状态,同时将场桥调度系统的新状态映射到高维空间得到预处理后的新状态变量,并计算场桥调度系统状态转变所获得的及时奖励;
D:将上述步骤B、C产生的场桥调度系统预处理后当前时刻的状态变量、下一时刻的状态变量以及调度规则与及时奖励组成的样本储存到经验回放记忆体中,并判断经验回放记忆体中的样本数量是否大于其阈值;若是,则执行步骤E;否则,重复执行步骤B-C;
E:从经验回放记忆体中采样一定数量的样本计算目标网络的期望状态动作函数值;
F:以目标网络的期望状态动作函数值作为标签,深度Q网络输出当前预测的Q值,并根据平方目标偏差对深度Q网络参数进行梯度下降和反向传播求解;
G:深度Q网络每更新一定步数后,将深度Q网络的参数赋给目标网络。
H:判断场桥调度系统中的任务箱组是否调度完毕,若是,则执行步骤I,否则,重复执行步骤B-H;
I:判断是否达到最大训练迭代次数,若是,则结束训练,输出深度Q网络参数;否则,重复执行步骤B-I。
7.如权利要求1所述的一种基于DQN和MCTS的箱区间多场桥动态调度方法,其特征在于,所述步骤S5具体包含以下步骤:
S5.1、MCTS中以子节点中的最大模拟结果加上根节点到当前叶节点所完成任务箱组的累计延迟时间作为节点评估值;
S5.2、采用子树修建技术对MCTS中的子节点进行扩展;
S5.3、深度Q网络根据当前扩展子节点状态信息进行快速估算,并选择最大状态动作值所对应的任务箱组延迟时间作为当前扩展子节点模拟结果;
S5.4,将扩展子节点的模拟结果反向回溯传播,直至传播至给根节点;
S5.5、重复执行步骤S5.1-S5.4,直至所有的任务箱组都被分配给对应的场桥进行作业完成一次迭代搜索,并结合多次并行迭代搜索的结果实时给出下一步的场桥调度决策。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110163011.1A CN112836974B (zh) | 2021-02-05 | 2021-02-05 | 一种基于dqn和mcts的箱区间多场桥动态调度方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110163011.1A CN112836974B (zh) | 2021-02-05 | 2021-02-05 | 一种基于dqn和mcts的箱区间多场桥动态调度方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112836974A true CN112836974A (zh) | 2021-05-25 |
CN112836974B CN112836974B (zh) | 2024-01-23 |
Family
ID=75932443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110163011.1A Active CN112836974B (zh) | 2021-02-05 | 2021-02-05 | 一种基于dqn和mcts的箱区间多场桥动态调度方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112836974B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112434870A (zh) * | 2020-12-01 | 2021-03-02 | 大连理工大学 | 一种集装箱区垂直布置的双自动化场桥动态调度方法 |
CN114943168A (zh) * | 2022-05-31 | 2022-08-26 | 武汉理工大学 | 一种水上浮桥组合方法及系统 |
CN115542849A (zh) * | 2022-08-22 | 2022-12-30 | 苏州诀智科技有限公司 | 集装箱码头智能船控发箱方法、系统、存储介质及计算机 |
CN117787828A (zh) * | 2023-12-19 | 2024-03-29 | 苏州诀智科技有限公司 | 一种集装箱码头堆场智能场控决策问题模型及其应用 |
CN117973811A (zh) * | 2024-03-29 | 2024-05-03 | 合肥工业大学 | 一种基于深度强化学习的生产调度方法 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101206687A (zh) * | 2007-12-18 | 2008-06-25 | 同济大学 | 一种提高分布式机电装备的动态安全性的方法 |
US8015564B1 (en) * | 2005-04-27 | 2011-09-06 | Hewlett-Packard Development Company, L.P. | Method of dispatching tasks in multi-processor computing environment with dispatching rules and monitoring of system status |
US20170032245A1 (en) * | 2015-07-01 | 2017-02-02 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and Methods for Providing Reinforcement Learning in a Deep Learning System |
CN108256769A (zh) * | 2018-01-18 | 2018-07-06 | 山东科技大学 | 基于nsga-ii改进的场桥调度方法 |
CN108596519A (zh) * | 2018-05-14 | 2018-09-28 | 大连海事大学 | 一种自动化码头alv优化调度方法 |
CN108845496A (zh) * | 2018-05-23 | 2018-11-20 | 大连海事大学 | 一种自动化码头agv调度方法及系统 |
CN109765909A (zh) * | 2019-03-07 | 2019-05-17 | 北京主线科技有限公司 | V2x系统应用在港口的方法 |
CN109784547A (zh) * | 2018-12-27 | 2019-05-21 | 浙江工业大学 | 一种码头岸桥与场桥协同优化调度方法 |
CN110363380A (zh) * | 2019-05-30 | 2019-10-22 | 大连理工大学 | 一种集装箱堆场双场桥动态协同调度方法 |
CN110555584A (zh) * | 2019-07-17 | 2019-12-10 | 浙江工业大学 | 一种基于深度强化学习的自动化停车场调度方法 |
WO2020040763A1 (en) * | 2018-08-23 | 2020-02-27 | Siemens Aktiengesellschaft | Real-time production scheduling with deep reinforcement learning and monte carlo tree search |
CN111498696A (zh) * | 2020-04-08 | 2020-08-07 | 武汉理工大学 | 一种双吊具场桥调度优化方法及装置 |
KR20200134747A (ko) * | 2019-05-23 | 2020-12-02 | (주)토탈소프트뱅크 | 컨테이너 터미널에서 복수 운송장비의 배차 전략 다원화를 위한 운영 관리 방법 |
-
2021
- 2021-02-05 CN CN202110163011.1A patent/CN112836974B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8015564B1 (en) * | 2005-04-27 | 2011-09-06 | Hewlett-Packard Development Company, L.P. | Method of dispatching tasks in multi-processor computing environment with dispatching rules and monitoring of system status |
CN101206687A (zh) * | 2007-12-18 | 2008-06-25 | 同济大学 | 一种提高分布式机电装备的动态安全性的方法 |
US20170032245A1 (en) * | 2015-07-01 | 2017-02-02 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and Methods for Providing Reinforcement Learning in a Deep Learning System |
CN108256769A (zh) * | 2018-01-18 | 2018-07-06 | 山东科技大学 | 基于nsga-ii改进的场桥调度方法 |
CN108596519A (zh) * | 2018-05-14 | 2018-09-28 | 大连海事大学 | 一种自动化码头alv优化调度方法 |
CN108845496A (zh) * | 2018-05-23 | 2018-11-20 | 大连海事大学 | 一种自动化码头agv调度方法及系统 |
WO2020040763A1 (en) * | 2018-08-23 | 2020-02-27 | Siemens Aktiengesellschaft | Real-time production scheduling with deep reinforcement learning and monte carlo tree search |
CN109784547A (zh) * | 2018-12-27 | 2019-05-21 | 浙江工业大学 | 一种码头岸桥与场桥协同优化调度方法 |
CN109765909A (zh) * | 2019-03-07 | 2019-05-17 | 北京主线科技有限公司 | V2x系统应用在港口的方法 |
KR20200134747A (ko) * | 2019-05-23 | 2020-12-02 | (주)토탈소프트뱅크 | 컨테이너 터미널에서 복수 운송장비의 배차 전략 다원화를 위한 운영 관리 방법 |
CN110363380A (zh) * | 2019-05-30 | 2019-10-22 | 大连理工大学 | 一种集装箱堆场双场桥动态协同调度方法 |
CN110555584A (zh) * | 2019-07-17 | 2019-12-10 | 浙江工业大学 | 一种基于深度强化学习的自动化停车场调度方法 |
CN111498696A (zh) * | 2020-04-08 | 2020-08-07 | 武汉理工大学 | 一种双吊具场桥调度优化方法及装置 |
Non-Patent Citations (2)
Title |
---|
范厚明;马梦知;姚茜;郭振峰;: "集装箱堆场箱位分配及多场桥调度协同优化问题", 上海交通大学学报, no. 11, pages 89 - 95 * |
郑红星;吴岳;杨文滔;徐静静;: "混堆模式下多箱区场桥联合调度", 水运工程, no. 04, pages 127 - 133 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112434870A (zh) * | 2020-12-01 | 2021-03-02 | 大连理工大学 | 一种集装箱区垂直布置的双自动化场桥动态调度方法 |
CN112434870B (zh) * | 2020-12-01 | 2022-10-11 | 大连理工大学 | 一种集装箱区垂直布置的双自动化场桥动态调度方法 |
CN114943168A (zh) * | 2022-05-31 | 2022-08-26 | 武汉理工大学 | 一种水上浮桥组合方法及系统 |
CN114943168B (zh) * | 2022-05-31 | 2023-09-26 | 武汉理工大学 | 一种水上浮桥组合方法及系统 |
CN115542849A (zh) * | 2022-08-22 | 2022-12-30 | 苏州诀智科技有限公司 | 集装箱码头智能船控发箱方法、系统、存储介质及计算机 |
CN115542849B (zh) * | 2022-08-22 | 2023-12-05 | 苏州诀智科技有限公司 | 集装箱码头智能船控发箱方法、系统、存储介质及计算机 |
CN117787828A (zh) * | 2023-12-19 | 2024-03-29 | 苏州诀智科技有限公司 | 一种集装箱码头堆场智能场控决策问题模型及其应用 |
CN117973811A (zh) * | 2024-03-29 | 2024-05-03 | 合肥工业大学 | 一种基于深度强化学习的生产调度方法 |
CN117973811B (zh) * | 2024-03-29 | 2024-06-28 | 合肥工业大学 | 一种基于深度强化学习的生产调度方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112836974B (zh) | 2024-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112836974A (zh) | 一种基于dqn和mcts的箱区间多场桥动态调度方法 | |
Li et al. | Real-time data-driven dynamic scheduling for flexible job shop with insufficient transportation resources using hybrid deep Q network | |
CN112734172B (zh) | 一种基于时序差分的混合流水车间调度方法 | |
CN109669452A (zh) | 一种基于并行强化学习的云机器人任务调度方法和系统 | |
CN112685165B (zh) | 一种基于联合强化学习策略的多目标云工作流调度方法 | |
CN111985672B (zh) | 一种多Agent深度强化学习的单件作业车间调度方法 | |
CN114707881A (zh) | 一种基于深度强化学习的作业车间自适应调度方法 | |
CN106371924B (zh) | 一种最小化MapReduce集群能耗的任务调度方法 | |
CN115293623A (zh) | 一种生产调度模型的训练方法、装置、电子设备及介质 | |
CN113887748B (zh) | 在线联邦学习任务分配方法、装置、联邦学习方法及系统 | |
CN108106624A (zh) | 一种多人预约调度路径规划方法及相关装置 | |
CN116151581A (zh) | 一种柔性车间调度方法、系统及电子设备 | |
CN110689174B (zh) | 基于公共交通的人员路线规划方法及装置 | |
CN115022231A (zh) | 一种基于深度强化学习的最优路径规划的方法和系统 | |
Ding et al. | Multi-policy deep reinforcement learning for multi-objective multiplicity flexible job shop scheduling | |
CN117891220A (zh) | 一种基于多智能体深度强化学习的分布式混合流水车间调度方法 | |
Li et al. | An improved whale optimisation algorithm for distributed assembly flow shop with crane transportation | |
CN110716522B (zh) | 基于任意时间a*启发式搜索的制造企业车间调度优化方法 | |
CN115150335A (zh) | 一种基于深度强化学习的最优流量分割的方法和系统 | |
CN112948087A (zh) | 一种基于拓扑排序的任务调度方法及系统 | |
Lv et al. | Pipe routing of reactor based on adaptive A* algorithm combined with genetic algorithm | |
Li | Multi-ant colony-based sequencing method for semiconductor wafer fabrication facilities with multi-bottleneck | |
Wang et al. | Job Shop Scheduling Problem Using Proximal Policy Optimization | |
CN116957172B (zh) | 基于深度强化学习的动态作业车间调度优化方法及系统 | |
CN113313283B (zh) | 一种基于知识驱动方法的分布式装配阻塞流水车间集成调度方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |