CN110517002A - 基于强化学习的生产控制方法 - Google Patents
基于强化学习的生产控制方法 Download PDFInfo
- Publication number
- CN110517002A CN110517002A CN201910812303.6A CN201910812303A CN110517002A CN 110517002 A CN110517002 A CN 110517002A CN 201910812303 A CN201910812303 A CN 201910812303A CN 110517002 A CN110517002 A CN 110517002A
- Authority
- CN
- China
- Prior art keywords
- production
- order
- product
- formula
- decision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000195 production control method Methods 0.000 title claims abstract description 9
- 238000004519 manufacturing process Methods 0.000 claims abstract description 229
- 238000000034 method Methods 0.000 claims abstract description 80
- 230000008859 change Effects 0.000 claims abstract description 32
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 27
- 230000008569 process Effects 0.000 claims description 54
- 230000006399 behavior Effects 0.000 claims description 30
- 230000006870 function Effects 0.000 claims description 19
- 230000009471 action Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 9
- 230000008901 benefit Effects 0.000 claims description 7
- 238000007726 management method Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 5
- 238000012549 training Methods 0.000 claims description 3
- 230000009286 beneficial effect Effects 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims 1
- 238000005457 optimization Methods 0.000 abstract description 10
- 238000002474 experimental method Methods 0.000 abstract description 8
- 239000000047 product Substances 0.000 description 86
- 239000003795 chemical substances by application Substances 0.000 description 17
- 230000000694 effects Effects 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 235000013399 edible fruits Nutrition 0.000 description 4
- 238000007689 inspection Methods 0.000 description 4
- 230000001172 regenerating effect Effects 0.000 description 4
- 239000011265 semifinished product Substances 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000003542 behavioural effect Effects 0.000 description 3
- 239000000654 additive Substances 0.000 description 2
- 230000000996 additive effect Effects 0.000 description 2
- 238000012508 change request Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000002068 genetic effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 240000005373 Panax quinquefolius Species 0.000 description 1
- 229910000831 Steel Inorganic materials 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000009749 continuous casting Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000021824 exploration behavior Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 208000034840 pagnamenta type spondylometaphyseal dysplasia Diseases 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 238000002922 simulated annealing Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
- G06F18/295—Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0631—Resource planning, allocation, distributing or scheduling for enterprises or organisations
- G06Q10/06312—Adjustment or analysis of established resource schedule, e.g. resource or task levelling, or dynamic rescheduling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0637—Strategic management or analysis, e.g. setting a goal or target of an organisation; Planning actions based on goals; Analysis or evaluation of effectiveness of goals
- G06Q10/06375—Prediction of business process outcome or impact based on a proposed change
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
- G06Q10/087—Inventory or stock management, e.g. order filling, procurement or balancing against orders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0633—Lists, e.g. purchase orders, compilation or processing
- G06Q30/0635—Processing of requisition or of purchase orders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/04—Manufacturing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Human Resources & Organizations (AREA)
- Theoretical Computer Science (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Development Economics (AREA)
- Tourism & Hospitality (AREA)
- Finance (AREA)
- Data Mining & Analysis (AREA)
- Operations Research (AREA)
- Educational Administration (AREA)
- Accounting & Taxation (AREA)
- Quality & Reliability (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Game Theory and Decision Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Manufacturing & Machinery (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明是一种基于强化学习的生产控制方法,对订单变更问题使用半马尔可夫决策模型建模,综合考虑企业实际生产环节中的设备使用情况、产品的收益、库存开销以及订单的违约赔偿等因素,将企业收益最大化和变更前后整体生产决策差异最小化作为优化目标,采用动态改变探索速率和学习速率的Q‑learning算法对生产再决策问题进行优化。数值实验证明,所提出的方法能够快速解决生产再决策问题。
Description
技术领域
本发明涉及一种基于强化学习的生产控制方法。
背景技术
订单变更有减产、增产、工期提前等多种情况,企业对此有多种应对方案,比如执行原 生产计划、取消订单的部分生产任务、半成品强制入库、调整订单的生产顺序、增加生产任 务等。对于不同的决策,企业的获益是不同的,企业的目标是满足客户的需求并将损失降到 最低。一般地,调整后的整体生产计划与原生产计划差异越小,对企业产生的影响越小。若 调整后的生产计划不能在约定的交货期内交货,企业需要支付相应的违约费用;而提前完成 生产的部分产品需要入库暂存,也会产生库存开销。企业需要进行优化决策,使违约费用和 库存开销最小,从而使得收益能够达到最大。
制造型企业经常会遇到客户需求发生变化的情况,需要对已签订好的订单做出变更处理。 除了订单增加的情况外,客户订单变更通常会给企业造成一定程度的损失。为尽可能满足客 户的需求,以保证企业的可持续发展和长远收益,企业会对已经安排好的生产作业进行重新 调度安排。上述情况可称为生产控制问题,该问题是一个较为复杂的优化问题。当企业接到 变更请求时,需要平衡设备使用状况、收益获取、仓储开销、违约赔偿等诸多因素,以最大 限度地降低由客户订单变更引起的损失,从而使企业收益达到最大化。
传统上,订单变更后生产计划的处理方式包括两种,分别为全重排法和净改变法[1,2]。 其中全重排法(Regeneration,又称作再生法)是将整个生产计划进行重新全面运算;净改变 法(Net Change)只是针对生产计划中发生改变的部分进行分解处理。以上两种方法各有优 缺点:前者准确,但实现复杂且改变较大;后者快速,但只能改变发生变化的部分,并不能 做到变更后全部调度结果最优。因此,多位学者也对订单变更和重调度问题进行了研究和创 新:J Sun等引入了动态反应式生产调度机制,用于在生产订单和制造资源发生变化而无法完 成这些调度时修改原始创建的调度,针对排产中订单变更的部分进行修改,提高了反应效率 [3];孙晟等提出了一种基于强化学习的模式驱动调度系统[4],根据系统环境状态的改变自适 应调整生产调度;针对开放式车间调度问题,王军强等提出了基于多样性增强的自适应遗传 算法进行优化求解[5];吉卫喜等借助模拟退火遗传算法对离散制造车间最优重调度方案进行 求解[6];庞新福等针对炼钢-连铸领域提出重调度方法[7]。上述学者为订单变更以及不同制造 业的重调度方法打开新的视角,也提供了各种新的方法。
其中的文献指代说明如下:
[1]CHENG Kong,GE Yang.Principle and application of MRPII/ERP[M].Tsinghua University Press,2002(in Chinese).
[2]Vieira G E,Herrmann J W,Lin E.Rescheduling Manufacturing Systems:AFramework of Strategies,Policies,and Methods[J].Journal of Scheduling,2003,6(1):39-62.
[3]Sun J,Xue D.A dynamic reactive scheduling mechanism for respondingto changes of production orders and manufacturing resources[J].Computers inIndustry,2001,46(2):189-207.
[4]SUN Sheng,WANG Shi-jin,XI Li-feng.Pattern driven scheduling systembased on reinforcement learning[J].Computer Integrated Manufacturing Systems,2007,13(9):1795-1800(in Chinese).
[5]WANG Jun-qiang,GUO Yin-zhou,CUI Fu-dong,et al.Diversityenhancement-based adaptive genetic algorithm for open-shop scheduling problem[J].Computers in Industry,2014, 20(10):2479-2493(in Chinese).
[6]JI Weixi,CAI Yiyong,ZHANG Chaoyang,et al.Discrete Event-drivenRescheduling Decision-Making Based on Abnormal Events[J].Journal of SystemSimulation,2018(11).
[7]PANG Xinfu,JIANG Yingchun,YU Shengping,et al.Flexible operationworkshop steelmaking-continuous casting rescheduling method based on human-machine coordination[J]. Computer Integrated Manufacturing Systems,2018,24(10)。
但是,目前研究中多偏重于提高响应速度和生产设备的使用效率,而对于企业的实际运 营来说,生产效率固然重要,实际的产品收益也同等重要。因此,现有技术对于企业所面临 的实际收益考虑不够,难于达到企业最终获利最大化的经营目标。
发明内容
本发明旨在提供一种基于强化学习的生产控制方法,将企业所面临的实际收益加入模型 进行计算,并采用强化学习算法进行生产控制问题研究,以期企业最终获利最高。
本发明所采用的技术方案如下:
一种基于强化学习的生产控制方法,其特征在于包括以下步骤:
(1)、订单状态巡查:接到变更通知后,将生产线暂停生产,巡查正在生产的订单的状 态而得到的订单临时状态表;
(2)、生产控制建模:将订单临时状态表体细分到每一个订单中每一种产品的每步工序, 此工序即为对应订单的生产单元,用Oi,j,k表示,其中,i=1,…,L表示对应的第i个订单;j=1,…, M表示对应的是该订单的第j种产品;k=1,…,N表示对应的是该产品的第k步工序;首先 定义生产控制系统的状态;
定义:系统的第t个决策对应的状态St:
St=(N1,1,1,N1,1,2,...,Ni,j,k,...,NL,M,N,Et) (1)
式中,i=1,…,L;j=1,…,M;k=1,…,N;其中,Ni,j,k表示第i个订单中第j种产品处 于第k步工序的产品数量,也是对应生产单元Oi,j,k的产品数量,Et表示当前时刻设备的使用 状况;每步生产安排就是改变每个生产单元Oi,j,k中产品的数量Ni,j,k,Ni,j,k的变化会导致系 统状态发生变化,系统的下一个状态St+1仅与当前状态St有关,当所有订单的所有产品生产 安排完成后,生产控制随之完成;
所建立的生产控制模型包括Agent及生产控制环境,所述Agent包括行为空间和决策模 块;所述生产控制环境包含互相关联并作为决策模块的仓储管理模块、设备管理模块和收益 计算模块;
所述决策模块通过Q-learning算法进行训练,训练步骤为:
步骤1、获取状态空间和行为空间,所述状态空间依据订单临时状态表建立,所述行 为空间是可执行的行为的集合,所述行为是指各生产单元根据所选择的生产数量进行生 产;同时,初始化探索速率ε和学习效率α,并初始化Q值函数;
步骤2、下列步骤2.1至2.3构成一个完整的episode,重复所述episode直至达到预设的最大episode运行次数:
步骤2.1、从状态空间随机选择一个状态作为初始状态;
步骤2.2、重复步骤2.2.1至2.2.3直至达到预设的最大循环次数:
步骤2.2.1、以ε的概率随机选择一个行为,以1-ε的概率根据当前策略选择最佳行为a;
步骤2.2.2、在当前状态s的基础上执行行为a,获得下一状态s’以及得到执行行为a 所获得的奖励r;
步骤2.2.3、根据获得的奖励更新Q值函数;
步骤2.3、根据当前的episode运行次数修正探索速率ε和学习效率α,修正时,随着episode运行次数的增大逐渐减小探索速率ε和学习效率α;
步骤3、将得到的Q值函数应用于决策模块进行决策。
优选地,根据当前的episode运行次数修正探索速率ε和学习效率α的方式为:
上式中,ε0为预设的探索速率初始值,α0为预设的学习效率初始值,χ为预设的常数,numepisode是当前的episode运行次数。
优选地,收益计算模块包括以下步骤的回报函数计算过程:
一、订单变更前后生产决策差异:把具体订单安排的差异累加求和进行计算,并将计算 结果作为系统的第一个回报值:
分别表示第i(i=1,2,……,L)个订单生产决策之后及之前的生产安排;
二、订单变更后收益计算:
(一)、产品生产流程计算:所选择的这件产品处于第i个订单中第j种产品的第k 步工序,第k步工序加工完成后,这些产品将被送入下一步工序,直到最后一步工序生产完 成;
在第k步生产时,完成件产品生产所需要的生产时间为
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R;其中是第j种产品在第k步工序所需要的单位生产时间;获取此时完成该步的设备可使用时间节点件产品 在第k步工序生产完成后,所处的时间节点用表示:
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R;接下来,进行下一步工序的生产;在第k+1步生产时,获取此时完成第k+1步的设备可使用时间节点生产完成这件产品的第k+1步工序后,所处的时间节点为
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R;其中是第j种产品在第k+1步工序生产所需要的单位生产时间;
按照上述生产规则,以此类推,生产完成这件产品后,所处的时间节点为
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R;其中是第j种产品在第N步工序所需的单位生产时间,为生产第j种产品最后一步工序时,设备可使用的时间节点;生产完成此次所选择的个产品之后,将进行该订单是否完成的判断;
(二)、库存费用计算:若订单未全部生产完成,记录此时的时间节点以及这件 产品每天所需要的库存费用以便后续计算总库存费用;
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R;其中是j种产品所需要的 单位库存费用;
若订单全部生产完成,计算该订单生产完成的时间节点该时间节点应为所有批次 产品生产完成时间节点的最大值,也就是该订单最终完成的时间节点:
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R;该订单生产完成后,将进行总体库存费用的计算;该订单产生的总体库存费用为:
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R;上述约束表示第i个订单所有生产单元中的产品数量之和与所有批次所选择生产的产品数量之和相等,即所有生产单元 已被全部安排完成,标志该订单生产完成;计算库存费用时,需要将所有已完成且暂存仓库 的产品进行库存费用的统计,统计结果为该订单所需要承担的总库存费用;
(三)、违约费用计算:计算交货时间节点和订单生产完成时间节点之间的时间差值T:
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R;其中Di是第i个订单的合同中约定的交货时间节点;若T大于或等于0,则表示该订单可以如期交货;若T小于0,此时 该订单的生产完成时间大于约定交货时间,企业需要支付违约赔偿费用;
对该订单产生的违约赔偿费用进行计算:
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R;其中LDi为该订单的单位违约 赔偿费用;如果会发生延迟交货时,企业会选择优先生产重要订单,部分次要订单延迟生产, 承担违约赔偿费用,以保证最终的整体收益达到最大;
综合以上分析和计算,得到第二个回报值:
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R;其中Gj是第j种产品的单位收益;
三、双目标整合:系统总的回报集合:
R={Ri|i=1,2} (14)
将整体变更差异最小与变更后收益最大的双目标转化为单目标优化问题:
式(15)将两个目标按照权重进行整合,R′i是按(16)式对Ri(i=1,2)归一化之后的值, wi是其相对应的权重;
本发明的积极效果在于:本发明运用的强化学习是一种机器学习方法,是行为主体从环 境到行为映射的学习,行为主体在环境状态转换中不断优化自己的行为。强化学习中的状态 转换符合马尔科夫性,而通过对离散制造业的业务流程进行研究后,发现生产再决策问题具 有马尔科夫性。针对这一性质,对生产控制问题进行系统建模,将企业收益最大化与订单整 体变更差异最小化作为优化目标,运用强化学习算法对生产控制问题进行优化,最后通过数 值实验验证了该方法的有效性。
附图说明
图1是本发明实施例生产控制系统结构模型示意图。
图2是本发明实施例生产流程示意图。
图3是本发明实施例部署示意图。
图4是本发明实施例Q-learning算法回报曲线(一),固定探索速率α=0.8,固定学习速 率ε=0.2。
图5是本发明实施例Q-learning算法回报曲线(二),固定探索速率ε=0.8,动态改变学 习速率α0=0.2。
图6是是本发明实施例Q-learning算法回报曲线(三),固定学习速率α=0.2动态改变探 索速率ε0=0.8。
具体实施方式
下面结合附图、实施例和实验结果进一步说明本发明。
1、强化学习应用场景简介
强化学习能够应用于诸多领域,比如2016年AlphaGo战胜职业围棋选手,强化学习方法 获得空前成功;同年谷歌DeepMind发表论文,详细解析了深度强化学习。强化学习也应用 于智能工业,例如新型智能手臂的诞生。在互联网广告竞价方面也有涉及,在不同阶段模型 中调整广告投标价格以优化该模型中的广告投放效果。强化学习也可以完成资源管理,针对 特定的工作进行负载优化。同样也广泛用于手工制造业、仿真模拟、优化与调度中。
2、基于SMDP的生产控制系统模型
订单变更有减产、增产、工期提前等多种情况,企业对此有多种应对方案,比如执行原 生产计划、取消订单的部分生产任务、半成品强制入库、调整订单的生产顺序、增加生产任 务等。对于不同的决策,企业的获益是不同的,企业的目标是满足客户的需求并将损失降到 最低。一般地,调整后的整体生产计划与原生产计划差异越小,对企业产生的影响越小。若 调整后的生产计划不能在约定的交货期内交货,企业需要支付相应的违约费用;而提前完成 生产的部分产品需要入库暂存,也会产生库存开销。企业需要进行优化决策,使违约费用和 库存开销最小,从而使得收益能够达到最大。
2.1订单状态巡查
在实现订单变更操作时,结合传统的全重排法和净改变法的思想,将生产线上所有的订 单进行挂起操作之后,再采取生产控制。利用强化学习的方法进行生产控制,其结果兼顾了 整体的生产安排和企业收益,此种方法既吸取了全重排法的整体性优点又结合了净改变法的 高效性。故而,系统在进行生产再决策时,不仅需要获取当前进行变更的订单所处的生产状 态,也需获取其余订单的生产状态。以上获取生产状态的操作需要对整体订单进行状态巡查。 方法是:接到变更通知后,将生产线暂停生产,巡查正在生产的订单的状态而得到的一个汇 总表,称之为订单临时状态表。获得订单临时状态表后,系统即可进行生产再决策。
2.2生产控制问题建模
一个订单通常包含多种产品,其中每种产品由多步工序生产完成。生产控制问题涉及每 个订单、每种产品、每步工序的生产安排,不同的安排会产生不同的收益,并且每步生产安 排均对后续的生产安排产生影响。在该问题中,对每种产品生产的决策以及每步工序的决策 均视为相互独立,但后一步工序必须在前一步工序完成的基础之上进行。在进行生产控制之 前,对生产状态巡查得到的订单临时状态表进行划分,具体划分到每一个订单中每一种产品 的每步工序,此工序即为对应订单的生产单元,用Oi,j,k表示。其中,i=1,…,L表示对应的 第i个订单;j=1,…,M表示对应的是第j种产品;k=1,…,N表示对应的是第k步工序。为 了将上述订单变更问题进行建模,首先定义生产控制系统的状态。
定义:系统的第t个决策对应的状态St:
St=(N1,1,1,N1,1,2,...,Ni,j,k,...,NL,M,N,Et) (1)
式中,i=1,…,L;j=1,…,M;k=1,…,N。其中,Ni,j,k表示第i个订单中第j种产品处 于第k步工序的产品数量,也是对应生产单元Oi,j,k的产品数量,Et表示当前时刻设备的使用 状况。在对订单进行挂起操作时,最多共有L个订单,每个订单中至多有M种产品,每种产 品至多需要N步工序完成,则订单临时状态表最大维度将为L*M*N。每步生产安排就是改变 每个生产单元Oi,j,k中产品的数量Ni,j,k,Ni,j,k的变化会导致系统状态发生变化,系统的下一 个状态St+1仅与当前状态St有关。当所有订单的所有产品生产安排完成后,生产控制也就随 之完成。
从上述描述中可以看出,生产控制问题具有马尔科夫性质,即系统的第t+1个状态仅与系 统当前的状态有关,与过去或者将来的状态无关,可以用公式(2)表示。
P[St+1|St]=P[St+1|S1,...,St] (2)
公式(2)是一种概率表示,表示系统的第t+1个状态仅与系统当前的状态St有关,与过 去的S1……St-1个状态无关,是系统具有马尔可夫性的定义。
在实际生产中,系统状态转换需要时间且分布不确定,转换时间由所安排生产产品的工 序和产品数量决定。故生产控制问题,可以用半马尔科夫决策过程进行建模。
本发明实施例运用强化学习算法对以上所描述的半马尔科夫决策过程求最优解。对生产 控制系统进行建模,具体的模型结构如图1。
在2.1所述的订单状态巡查完成之后,能够得到订单临时状态表,从该表中可以获取此次 进行生产控制的行为空间,也可以得到此次需要进行再决策的多个生产单元。在生产再决策 系统中,决策模块通过状态识别模块进行生产再决策环境的状态识别后,从行为空间中选取 该步所执行的行为,对生产再决策环境产生影响并使其发生改变。在生产再决策环境中包含 多种模块,例如仓储管理模块和设备管理模块等,其中最重要的模块为收益计算模块,该模 块与其他模块相关联,进行收益计算并产生回报。模型的原理可以进行如下描述:Agent感知 到生产再决策状态(主要感知的是订单临时状态表的变化和当前设备的使用情况),从行为空 间中选择需要执行的行为(指的所有可能的生产单元),该行为会对生产再决策环境产生影响 从而改变环境状态,生产再决策环境此时会将回报返回给Agent,对决策模块进行修正和改进 并进行下一次的迭代,直至得到满足要求的决策,本次决策完成,得到决策结果。
2.3回报函数计算
本发明实施例将订单变更前后生产决策的整体差异和订单变更后的收益计算结果作为混 合回报。其中订单变更前后的整体差异,是指所有的正在系统中的订单与生产再决策之前的 生产安排之间的差异。在之前的状态巡查中,实际上已经将所有订单进行挂起,之后,将对 指定订单以及其他订单进行生产再决策安排,故而,这里的差异是整体订单的差异。
2.3.1订单变更前后生产决策差异
生产再决策时,期望整体订单的安排与之前生产安排的差异性最小,以最大限度减少对 机器设备使用的变动以及人员的调动。整体订单变更前后生产安排的差异大小,可以通过把 具体订单安排的差异累加求和进行计算,并将计算结果作为系统的第一个回报:
分别表示第i(i=1,2,……,L)个订单生产决策之后及之前的生产安排。此处 将差异计算值取为负值,即执行变更后差异越大回报越小,这与企业的期望相符。
2.3.2订单变更后收益计算
本发明实施例采用分步安排的方法,具体安排订单临时状态表中每一个生产单元Oi,j,k中 的产品数量Ni,j,k。在此模型中,设定一个订单所有产品全部完成后,才计算收益。在进行生 产安排时,需要具体安排每个订单中每种产品在每步工序上的生产。为方便描述,将产品的 生产流程用图2表示。
上图描绘了具体每步生产安排的过程。图中,Oi表示当前的第i个订单;表示第j种产 品的第k步生产工序。从当前生产单元Ni,j,k件产品中选择此次进行生产加工的产品数量 其中r=1,…,R为计数变量,记录对应第i个订单的批次数,每进行一次选择即为一 个批次,R表示最后一次批次。选择完成后,将对原生产单元Oi,j,k中的产品数量进行更新, 更新值为其中这代表可能选择一次性全部生产完该生产单元的所 有产品,也可能选择先生产该单元的部分产品。对于所选择此次生产的件产品,将进行 逐步生产直至全部生产完成。在生产完成该次选择的产品后,将判定此次选择产品所属的订 单是否全部生产完成,若未全部生产完成,则将此次生产完成的产品进行入库处理;若已全 部生产完成,则将全部产品进行装箱配送。
(1)、产品生产流程计算
以下将对此次所选择的这件产品具体的生产安排进行展开计算,计算过程如下:
采用强化学习算法优化选择此次所生产的产品数量这种优化可以使企业收益最高。 所选择的这件产品处于第i个订单中第j种产品的第k步工序,第k步工序加工完成后, 这些产品将被送入下一步工序,直到最后一步工序生产完成。
在第k步生产时,完成件产品生产所需要的生产时间为
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R。其中是第j种产品在第k步工序所需要的单位生产时间。获取此时完成该步的设备可使用时间节点件产品 在第k步工序生产完成后,所处的时间节点用表示:
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R。接下来,进行下一步工序的生产。在第k+1步生产时,获取此时完成第k+1步的设备可使用时间节点生产完成这件产品的第k+1步工序后,所处的时间节点为
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R。其中是第j种产品在第k+1步工序生产所需要的单位生产时间。
按照上述生产规则,以此类推,生产完成这件产品后,所处的时间节点为
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R。其中是第j种产品在第N步工序所需的单位生产时间,为生产第j种产品最后一步工序时,设备可使用的时间节点。生产完成此次所选择的个产品之后,将进行该订单是否完成的判断。
(2)、库存费用计算
若该订单未全部生产完成,则需要将这些产品暂存仓库。此时,企业需要承担相应产品 的库存费用。记录此时的时间节点以及这件产品每天所需要的库存费用以便后 续计算总库存费用。
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R。其中是j种产品所需要的 单位库存费用(即每件每天的费用)。
若该订单全部生产完成,计算该订单生产完成的时间节点该时间节点应为所有批 次产品生产完成时间节点的最大值,也就是该订单最终完成的时间节点:
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R。该订单生产完成后,将进行总体库存费用的计算。该订单产生的总体库存费用为:
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R。上述约束表示第i个订单所有生产单元中的产品数量之和与所有批次所选择生产的产品数量之和相等,即所有生产单元 已被全部安排完成,标志该订单生产完成。计算库存费用时,需要将所有已完成且暂存仓库 的产品进行库存费用的统计,统计结果为该订单所需要承担的总库存费用。
(3)、违约费用计算
判断该订单是否发生违约行为。若完成订单时间节点超过该订单的所约定的交货时间节 点,就需要进行违约赔偿。故而,需要计算交货时间节点和订单生产完成时间节点之间的时 间差值T:
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R。其中Di是第i个订单的合同中约定的交货时间节点。若T大于或等于0,则表示该订单可以如期交货;若T小于0,此时 该订单的生产完成时间大于约定交货时间,企业需要支付违约赔偿费用。
对该订单产生的违约赔偿费用进行计算:
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R。其中LDi为该订单的单位违约 赔偿费用。如果会发生延迟交货时,企业会选择优先生产重要订单,部分次要订单延迟生产, 承担违约赔偿费用,以保证最终的整体收益达到最大。一般地,违约时间越长,需要承担的 违约费用则相对越多。
综合以上分析和计算,可以得到第二个回报:
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R。其中Gj是第j种产品的单位收益。由上式可以看出,我们将在该订单完成后计算收益。对于制造型企业来说,可以将订单进行拆分,也可出售半成品,为简化模型,我们将半成品也划归为成品,最终结果并不影响实际生产结果。
2.3.3双目标整合
综合以上,可以得到系统总的回报集合:
R={Ri|i=1,2} (14)
系统的最终回报将权衡整合所有相关回报。本发明采用SAW(Simple AdditiveWeighting, 简单加权法)进行双目标问题优化。SAW是一种经典的线性加权方法,它忽略了不同目标函 数的不同单位和范围,通过给不同的目标函数制定相应的权重,将所有的目标函数进行线性 加权,用一个综合效用函数表示总体优化的目标。将整体变更差异最小与变更后收益最大的 双目标转化为单目标优化问题:
式(15)将两个目标按照权重进行整合,Ri'是按(16)式对Ri(i=1,2)归一化之后的值, wi是其相对应的权重。
对于权重的确定,企业通常偏向于对原有生产计划影响最小的变更安排,本发明将变更 差异权重制定的稍高。权重是通过实验方法反复验证得到的,本实施例中,R1权重是0.4, R2权重0.2。
本发明采用强化学习算法进行生产再决策安排,通过平衡各种收益、费用等,实现生产再 决策的最优化,使得企业最终整体回报最大,完成订单变更需求。
3、Q-learning算法描述
本发明采用行为策略和评估策略不同的异策略强化学习算法Q-learning训练Agent。在强 化学习算法中,关键点在于平衡探索(Exploration)与开发(Exploitation)的关系。探索是选 择此状态下选择未知回报的行为,也就是对未知的探索,Agent通过探索能够提升获得最终收 益的目的;开发是在此状态下选择已知回报最大的行为,也就是对已知进行利用开发,能够 使算法收敛和稳定。如何平衡探索和开发是强化学习中比较关键的问题,如果Agent只是探 索,那最终可能无法收敛,也可能错过最优的策略;但如果一味的去开发,就可能找不到更 好的策略。
在面对实际生产再决策问题时,为了能取得最大的收益和提高算法实现的效率,使得试 验迭代次数在可接受范围内,在开始进行迭代探索时,往往需要较大的学习速率和探索速率 来修正Agent的行为,从而能够实现更加全面的探索。随着试验次数的增加,也为避免错过 最优解,需要逐渐减小探索速率和学习速率。为实现上述思想,本发明采用动态设置探索效 率ε和学习效率α的方法来改进Q-learning算法,以便更加贴合实际应用。
其中:α0,ε0,χ均为常数。在进行试验时,先将探索速率和学习速率设置为较大值。通过试验和改变迭代次数,以满足实际效果的要求,最终将参数分别设置为0.2,0.8,1000,可以获得较好的收敛性。numepisode是episode的实验次数,其中episode(插曲)每次运行必到终止状态才停止,是一次完整的试验。随着episode增加,探索速率和学习速率都在逐渐减 小,最终算法会趋于稳定。
实现算法如下:
将订单临时状态表输入,输出为迭代回报曲线以便后续进行结果评估。对于本发明的优 化问题,在算法中加入实际生产限制,从而使得结果更加贴合实际生产,更加满足企业提出 的变更需求。
表1算法中用到的参数表示以及其说明
在上述算法中,第一步(行号[1])初始化参数,获取当前状态空间以及行为空间。之后 进行M次迭代进行训练Agent(行号[2]~[21]),Agent在一次次插曲中,不断修正自己的行为 (修正Q值),以达到最终收益最大。RL算法更加符合人类学习的生物机制。通过不断与环 境进行交互,不断学习,提升自己的能力。
其中,[3]获取初始状态,在每一次的插曲中,都随机选择一个初始状态,Agent开始学习, 这样保证的每次初始状态都不相同,有更好的学习效果。[4]~[18]Agent进行每步学习。 Q-learning算法是异策略算法,行为策略中采用ε-greedy(ε-贪婪策略),即在上述算法中[5]~[6] 以ε的概率随机选择行为,也就是以ε的概率选择去探索,以1-ε的概率在已知的行为中选 择最优的策略,也就是去开发。[7]~[9]判断所选择的行为是否有效。在实际意义中就是判断 选择生产的产品数量是否为0,如果为0则进行随机选择。[10]为选择完成后,将所选行为赋 值给at,[11]执行行为at,获得当前环境状态和反馈。[12]~[17]进行策略评估。[12]~[16]判断 下一个状态是否为终止状态,计算不同的目标值,[17]进行策略的评估和提升,根据目标值和 预测值之间的误差将值函数进行更新。
算法主要由两部分构成,行为选择([5]~[11])和行为评估([12]~[17])。行为选择决定探 索还是开发,行为评估是为了让Agent在不断的选择行为中有更好的性能。在进行行为评估 的时候,使用值函数逼近目标值函数的做法,以达到最优结果[20]。从[17]可以看出,值函数 Q(st,at)在学习速率α的作用下会朝着目标值函数Qtarget(s,a)逼近。Qtarget(s,a)是在迭代运行 中得到的结果,是由当前回报和在折扣因子γ作用下的下一个状态最大值函数叠加所得,也 表明,我们更期望总体回报最大,而不是某一步回报最大,为了整体回报可能会牺牲当前回 报,在迭代中不断的修正当前状态的目标值函数。最终在迭代过程中不断改进值函数,使得 结果逼近最优。
4、部署方式
企业的安全生产非常重要,安排订单生产容不得半点差错,一旦出错可能就会给企业造 成巨大损失。强化学习是一种不断试错的学习方式,一般均在若干次学习之后才能够找到较 优的策略,如果直接部署算法程序,由于迭代次数或者选取方式的不同,并不能确保所产生 的方式一定是最优的方式,为了在实际应用中提高算法的效率以及实施的安全性。本发明采 用执行和学习分开的方式来部署系统。Agent的学习模块将在一个模拟的环境中进行,每步操 作并不影响实际的生产安排,这样极大的保证了生产的安全性。而执行模块将通过贪婪策略 选取学习效果最好的策略进行实际生产的执行,这样极大的保证了生产的高效性。图3为部 署示意图,左部分是执行模块,右部分是学习模块。在收到变更请求后,将真实环境复制给 模拟环境,学习模块开始进行学习,当学习完成之后执行模块通过贪婪策略选择最优策略进 行变更执行。
5、Q-learning数值实验
进行生产再决策模拟实验,构建企业生产状态为外部环境,输入订单临时状态表,进行 算法运行,实现生产再决策。此次模拟实验在Linux系统下采用python编程语言实现。在实 验中分别设置探索速率ε和学习速率α,进行四组对比实验。实现结果以回报曲线进行呈现 和评估。
(一)、固定探索速率ε和学习速率α。将算法的探索速率ε设置为0.8,学习速率α设置 为0.2进行实验。从实验运行结果(图4)来看,Agent最终并未达到稳定状态,回报曲线浮动较大,进行500次迭代运算,并未收敛且也未较多次停留在最大值附近,其原因在于一直保持较大的探索速率和学习速率,在实际生产中就会导致产品收益不稳定,不能达到理想 效果。
(二)、固定探索速率ε,动态改变学习速率α。将算法的探索速率ε设置为0.8,学习速率初始值α0设置为0.2,并按照公式(18)进行动态改变。从实验结果(图5)来看,回 报结果最后较多次停留在某一值附近,但是曲线仍波动较大,原因在于随着学习速率的减小,各个行为的回报趋于稳定,但仍保持较高的探索速率,仍会去以较大概率进行探索,回报曲线不稳定,在实际生产中也会导致产品收益不稳定的现象。
(三)、固定学习速率α,动态改变探索速率ε。将算法的学习速率α设置为0.2,探索速率初始值ε0设置为0.8,并按照公式(18)进行动态改变。从实验结果来看(图6),回报 结果最终趋于稳定,但并未稳定在最大值。原因在于随着探索速率的减小,探索行为越来越少,但是一直保持较高的学习速率,以致最终错过最优值,最终并未得到较好的效果,在实际生产中,会导致产品收益降低的现象。
(四)、动态改变学习速率α,以及动态改变探索速率ε。将算法的探索速率初始值ε0设 置为0.8,学习速率初始值α0设置为0.2,并分别按照公式(17)和公式(18)进行动态改变。 回报曲线在将近140次迭代之后趋于稳定。在迭代开始,有较大的学习速率和探索速率,随 着迭代的进行,探索速率和学习速率都在进行减小,最终平衡探索与开发的关系,Agent不断 的进行试错,累积回报,平衡产品工序安排效果,如此不断的迭代,最终达到一个较好的结 果。
Claims (3)
1.一种基于强化学习的生产控制方法,其特征在于包括以下步骤:
(1)、订单状态巡查:接到变更通知后,将生产线暂停生产,巡查正在生产的订单的状态而得到的订单临时状态表;
(2)、生产控制建模:将订单临时状态表体细分到每一个订单中每一种产品的每步工序,此工序即为对应订单的生产单元,用Oi,j,k表示,其中,i=1,…,L表示对应的第i个订单;j=1,…,M表示对应的是该订单的第j种产品;k=1,…,N表示对应的是该产品的第k步工序;首先定义生产控制系统的状态;
定义:系统的第t个决策对应的状态St:
St=(N1,1,1,N1,1,2,...,Ni,j,k,...,NL,M,N,Et) (1)
式中,i=1,…,L;j=1,…,M;k=1,…,N;其中,Ni,j,k表示第i个订单中第j种产品处于第k步工序的产品数量,也是对应生产单元Oi,j,k的产品数量,Et表示当前时刻设备的使用状况;每步生产安排就是改变每个生产单元Oi,j,k中产品的数量Ni,j,k,Ni,j,k的变化会导致系统状态发生变化,系统的下一个状态St+1仅与当前状态St有关,当所有订单的所有产品生产安排完成后,生产控制随之完成;
所建立的生产控制模型包括Agent及生产控制环境,所述Agent包括行为空间和决策模块;所述生产控制环境包含互相关联并作为决策模块的仓储管理模块、设备管理模块和收益计算模块;
所述决策模块通过Q-learning算法进行训练,训练步骤为:
步骤1、获取状态空间和行为空间,所述状态空间依据订单临时状态表建立,所述行为空间是可执行的行为的集合,所述行为是指各生产单元根据所选择的生产数量进行生产;同时,初始化探索速率ε和学习效率α,并初始化Q值函数;
步骤2、下列步骤2.1至2.3构成一个完整的episode,重复所述episode直至达到预设的最大episode运行次数:
步骤2.1、从状态空间随机选择一个状态作为初始状态;
步骤2.2、重复步骤2.2.1至2.2.3直至达到预设的最大循环次数:
步骤2.2.1、以ε的概率随机选择一个行为,以1-ε的概率根据当前策略选择最佳行为a;
步骤2.2.2、在当前状态s的基础上执行行为a,获得下一状态s’以及得到执行行为a所获得的奖励r;
步骤2.2.3、根据获得的奖励更新Q值函数;
步骤2.3、根据当前的episode运行次数修正探索速率ε和学习效率α,修正时,随着episode运行次数的增大逐渐减小探索速率ε和学习效率α;
步骤3、将得到的Q值函数应用于决策模块进行决策。
2.如权利要求1所述的基于强化学习的生产控制方法,其特征在于根据当前的episode运行次数修正探索速率ε和学习效率α的方式为:
上式中,ε0为预设的探索速率初始值,α0为预设的学习效率初始值,χ为预设的常数,numepisode是当前的episode运行次数。
3.如权利要求1或2所述的基于强化学习的生产控制方法,其特征在于收益计算模块包括以下步骤的回报函数计算过程:
一、订单变更前后生产决策差异:把具体订单安排的差异累加求和进行计算,并将计算结果作为系统的第一个回报值:
分别表示第i(i=1,2,……,L)个订单生产决策之后及之前的生产安排;
二、订单变更后收益计算:
(一)、产品生产流程计算:所选择的这件产品处于第i个订单中第j种产品的第k步工序,第k步工序加工完成后,这些产品将被送入下一步工序,直到最后一步工序生产完成;
在第k步生产时,完成件产品生产所需要的生产时间为
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R;其中是第j种产品在第k步工序所需要的单位生产时间;获取此时完成该步的设备可使用时间节点件产品在第k步工序生产完成后,所处的时间节点用表示:
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R;接下来,进行下一步工序的生产;在第k+1步生产时,获取此时完成第k+1步的设备可使用时间节点生产完成这件产品的第k+1步工序后,所处的时间节点为
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R;其中是第j种产品在第k+1步工序生产所需要的单位生产时间;
按照上述生产规则,以此类推,生产完成这件产品后,所处的时间节点为
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R;其中是第j种产品在第N步工序所需的单位生产时间,为生产第j种产品最后一步工序时,设备可使用的时间节点;生产完成此次所选择的个产品之后,将进行该订单是否完成的判断;
(二)、库存费用计算:若订单未全部生产完成,记录此时的时间节点以及这件产品每天所需要的库存费用以便后续计算总库存费用;
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R;其中是j种产品所需要的单位库存费用;
若订单全部生产完成,计算该订单生产完成的时间节点该时间节点应为所有批次产品生产完成时间节点的最大值,也就是该订单最终完成的时间节点:
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R;该订单生产完成后,将进行总体库存费用的计算;该订单产生的总体库存费用为:
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R;上述约束表示第i个订单所有生产单元中的产品数量之和与所有批次所选择生产的产品数量之和相等,即所有生产单元已被全部安排完成,标志该订单生产完成;计算库存费用时,需要将所有已完成且暂存仓库的产品进行库存费用的统计,统计结果为该订单所需要承担的总库存费用;
(三)、违约费用计算:计算交货时间节点和订单生产完成时间节点之间的时间差值T:
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R;其中Di是第i个订单的合同中约定的交货时间节点;若T大于或等于0,则表示该订单可以如期交货;若T小于0,此时该订单的生产完成时间大于约定交货时间,企业需要支付违约赔偿费用;
对该订单产生的违约赔偿费用进行计算:
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R;其中LDi为该订单的单位违约赔偿费用;如果会发生延迟交货时,企业会选择优先生产重要订单,部分次要订单延迟生产,承担违约赔偿费用,以保证最终的整体收益达到最大;
综合以上分析和计算,得到第二个回报值:
式中,i=1,…,L;j=1,…,M;k=1,…,N;r=1,…,R;其中Gj是第j种产品的单位收益;
三、双目标整合:系统总的回报集合:
R={Ri|i=1,2} (14)
将整体变更差异最小与变更后收益最大的双目标转化为单目标优化问题:
式(15)将两个目标按照权重进行整合,R'i是按(16)式对Ri(i=1,2)归一化之后的值,wi是其相对应的权重;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910812303.6A CN110517002B (zh) | 2019-08-29 | 2019-08-29 | 基于强化学习的生产控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910812303.6A CN110517002B (zh) | 2019-08-29 | 2019-08-29 | 基于强化学习的生产控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110517002A true CN110517002A (zh) | 2019-11-29 |
CN110517002B CN110517002B (zh) | 2022-11-15 |
Family
ID=68628182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910812303.6A Expired - Fee Related CN110517002B (zh) | 2019-08-29 | 2019-08-29 | 基于强化学习的生产控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110517002B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111080408A (zh) * | 2019-12-06 | 2020-04-28 | 广东工业大学 | 一种基于深度强化学习的订单信息处理方法 |
CN111126905A (zh) * | 2019-12-16 | 2020-05-08 | 武汉理工大学 | 基于Markov决策理论的铸造企业原材料库存管理控制方法 |
CN111507523A (zh) * | 2020-04-16 | 2020-08-07 | 浙江财经大学 | 一种基于强化学习的线缆生产调度优化方法 |
CN111857081A (zh) * | 2020-08-10 | 2020-10-30 | 电子科技大学 | 基于Q-learning强化学习的芯片封装测试生产线性能控制方法 |
CN112258039A (zh) * | 2020-10-23 | 2021-01-22 | 贵州电网有限责任公司 | 一种基于强化学习的电力系统缺陷物资智能调度方法 |
CN112598255A (zh) * | 2020-12-17 | 2021-04-02 | 上海交通大学 | 基于超启发式算法的自动化码头出口箱箱位分配优化方法 |
CN112801731A (zh) * | 2021-01-06 | 2021-05-14 | 广东工业大学 | 一种接单辅助决策的联邦强化学习方法 |
CN112990584A (zh) * | 2021-03-19 | 2021-06-18 | 山东大学 | 一种基于深度强化学习的自动生产决策系统及方法 |
CN113077188A (zh) * | 2021-04-28 | 2021-07-06 | 中国人民解放军国防科技大学 | 一种基于平均奖赏强化学习的mto企业订单接受方法 |
CN113222253A (zh) * | 2021-05-13 | 2021-08-06 | 珠海埃克斯智能科技有限公司 | 排产优化方法、装置、设备及计算机可读存储介质 |
CN114358966A (zh) * | 2022-03-16 | 2022-04-15 | 希望知舟技术(深圳)有限公司 | 一种基于机器学习的生产排产方法、装置及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004127170A (ja) * | 2002-10-07 | 2004-04-22 | Matsushita Electric Ind Co Ltd | 生産計画作成方法 |
CN1661609A (zh) * | 2004-02-26 | 2005-08-31 | 何浩然 | 钢铁生产计划中合同与库存联合优化管理方法 |
JP2008152382A (ja) * | 2006-12-14 | 2008-07-03 | Fuji Electric Systems Co Ltd | 製造計画作成システムおよび製造計画作成方法 |
CN101441468A (zh) * | 2008-12-05 | 2009-05-27 | 同济大学 | 基于Virtual-Hub的网络协作生产调度系统及其自适应调度方法 |
US20140006683A1 (en) * | 2012-06-29 | 2014-01-02 | Prasun Ratn | Optimized context drop for a solid state drive (ssd) |
US20160314480A1 (en) * | 2015-04-23 | 2016-10-27 | International Business Machines Corporation | Synchronization of Iterative Methods for Solving Optimization Problems with Concurrent Methods for Forecasting in Stream Computing |
-
2019
- 2019-08-29 CN CN201910812303.6A patent/CN110517002B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004127170A (ja) * | 2002-10-07 | 2004-04-22 | Matsushita Electric Ind Co Ltd | 生産計画作成方法 |
CN1661609A (zh) * | 2004-02-26 | 2005-08-31 | 何浩然 | 钢铁生产计划中合同与库存联合优化管理方法 |
JP2008152382A (ja) * | 2006-12-14 | 2008-07-03 | Fuji Electric Systems Co Ltd | 製造計画作成システムおよび製造計画作成方法 |
CN101441468A (zh) * | 2008-12-05 | 2009-05-27 | 同济大学 | 基于Virtual-Hub的网络协作生产调度系统及其自适应调度方法 |
US20140006683A1 (en) * | 2012-06-29 | 2014-01-02 | Prasun Ratn | Optimized context drop for a solid state drive (ssd) |
US20160314480A1 (en) * | 2015-04-23 | 2016-10-27 | International Business Machines Corporation | Synchronization of Iterative Methods for Solving Optimization Problems with Concurrent Methods for Forecasting in Stream Computing |
Non-Patent Citations (5)
Title |
---|
MERDAN M: "Investigating the robustness of re-scheduling policies with multi-agent system simulation", 《INTERNATIONAL JOURNAL OF ADVANCED MANUFACTURING TECHNOLOGY》 * |
倪冬梅等: "需求服从自由分布的两阶段供应链订货策略", 《哈尔滨工业大学学报》 * |
夏金等: "离散制造业客户订单变更系统研究与开发", 《智能计算机与应用》 * |
朱金祥: "EPR系统中客户订单变更的研究与实现", 《中国优秀硕士学位论文全文数据库》 * |
李晓婉: "MSO生产方式下响应订单变更的柔性作业车间调度研究", 《中国优秀硕士论文全文数据库》 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111080408B (zh) * | 2019-12-06 | 2020-07-21 | 广东工业大学 | 一种基于深度强化学习的订单信息处理方法 |
CN111080408A (zh) * | 2019-12-06 | 2020-04-28 | 广东工业大学 | 一种基于深度强化学习的订单信息处理方法 |
CN111126905A (zh) * | 2019-12-16 | 2020-05-08 | 武汉理工大学 | 基于Markov决策理论的铸造企业原材料库存管理控制方法 |
CN111126905B (zh) * | 2019-12-16 | 2023-08-01 | 武汉理工大学 | 基于Markov决策理论的铸造企业原材料库存管理控制方法 |
CN111507523A (zh) * | 2020-04-16 | 2020-08-07 | 浙江财经大学 | 一种基于强化学习的线缆生产调度优化方法 |
CN111507523B (zh) * | 2020-04-16 | 2023-04-18 | 浙江财经大学 | 一种基于强化学习的线缆生产调度优化方法 |
CN111857081A (zh) * | 2020-08-10 | 2020-10-30 | 电子科技大学 | 基于Q-learning强化学习的芯片封装测试生产线性能控制方法 |
CN112258039A (zh) * | 2020-10-23 | 2021-01-22 | 贵州电网有限责任公司 | 一种基于强化学习的电力系统缺陷物资智能调度方法 |
CN112598255A (zh) * | 2020-12-17 | 2021-04-02 | 上海交通大学 | 基于超启发式算法的自动化码头出口箱箱位分配优化方法 |
CN112801731B (zh) * | 2021-01-06 | 2021-11-02 | 广东工业大学 | 一种接单辅助决策的联邦强化学习方法 |
CN112801731A (zh) * | 2021-01-06 | 2021-05-14 | 广东工业大学 | 一种接单辅助决策的联邦强化学习方法 |
CN112990584A (zh) * | 2021-03-19 | 2021-06-18 | 山东大学 | 一种基于深度强化学习的自动生产决策系统及方法 |
CN113077188A (zh) * | 2021-04-28 | 2021-07-06 | 中国人民解放军国防科技大学 | 一种基于平均奖赏强化学习的mto企业订单接受方法 |
CN113222253B (zh) * | 2021-05-13 | 2022-09-30 | 珠海埃克斯智能科技有限公司 | 排产优化方法、装置、设备及计算机可读存储介质 |
CN113222253A (zh) * | 2021-05-13 | 2021-08-06 | 珠海埃克斯智能科技有限公司 | 排产优化方法、装置、设备及计算机可读存储介质 |
CN114358966A (zh) * | 2022-03-16 | 2022-04-15 | 希望知舟技术(深圳)有限公司 | 一种基于机器学习的生产排产方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110517002B (zh) | 2022-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110517002A (zh) | 基于强化学习的生产控制方法 | |
Zhao et al. | Dynamic jobshop scheduling algorithm based on deep Q network | |
CN104516785B (zh) | 一种云计算资源调度系统及方法 | |
Zhang et al. | A new fuzzy QoS-aware manufacture service composition method using extended flower pollination algorithm | |
Wu | Computational intelligence-based intelligent business intelligence system: concept and framework | |
Shamim et al. | Cloud Computing and AI in Analysis of Worksite | |
Li et al. | Cloud manufacturing service composition optimization with improved genetic algorithm | |
Li et al. | Multiobjective optimization of cloud manufacturing service composition with improved particle swarm optimization algorithm | |
Gao et al. | A multi-objective service composition method considering the interests of tri-stakeholders in cloud manufacturing based on an enhanced jellyfish search optimizer | |
Chen | Estimating job cycle time in a wafer fabrication factory: A novel and effective approach based on post-classification | |
Deng et al. | Incorporating Q-learning and gradient search scheme into JAYA algorithm for global optimization | |
US20220269835A1 (en) | Resource prediction system for executing machine learning models | |
WO2024068571A1 (en) | Supply chain optimization with reinforcement learning | |
Mousavi et al. | Least squares support vector machines with genetic algorithm for estimating costs in NPD projects | |
Ezugwu | Metaheuristic Optimization for Sustainable Unrelated Parallel Machine Scheduling: A concise overview with a proof-of-concept study | |
CN113240487B (zh) | 流量调控方法和装置 | |
Sugan | PredictOptiCloud: A hybrid framework for predictive optimization in hybrid workload cloud task scheduling | |
CN113222256A (zh) | 一种基于mpso-lstm模型的股票预测方法及系统 | |
Radhika et al. | A differential evolution based optimization for Master production scheduling problems | |
Atighehchian et al. | An environment-driven, function-based approach to dynamic single-machine scheduling | |
Zhang et al. | Two strategy cooperative particle swarm optimization algorithm with independent parameter adjustment and its application | |
Murugeshwari et al. | A Deep Reinforcement Learning Approach for Optimizing Inventory Management in the Agri-Food Supply Chain | |
Zhao et al. | Data-driven optimization for energy-constrained dietary supplement scheduling: A bounded cut MP-DQN approach | |
KR et al. | Solving a job shop scheduling problem | |
Zeng et al. | A Fast-Automated Scheduling Method Based on Genetic Algorithm for Final Assembly Workshop |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20221115 |