CN115409448A - 仓储调度决策方法、装置、终端设备以及存储介质 - Google Patents
仓储调度决策方法、装置、终端设备以及存储介质 Download PDFInfo
- Publication number
- CN115409448A CN115409448A CN202211061077.0A CN202211061077A CN115409448A CN 115409448 A CN115409448 A CN 115409448A CN 202211061077 A CN202211061077 A CN 202211061077A CN 115409448 A CN115409448 A CN 115409448A
- Authority
- CN
- China
- Prior art keywords
- training
- data
- attribute
- warehousing
- belief network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 122
- 238000012549 training Methods 0.000 claims description 214
- 238000013178 mathematical model Methods 0.000 claims description 23
- 238000004088 simulation Methods 0.000 claims description 22
- 238000005457 optimization Methods 0.000 claims description 21
- 230000002452 interceptive effect Effects 0.000 claims description 16
- 238000004422 calculation algorithm Methods 0.000 claims description 13
- 238000012546 transfer Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 description 50
- 238000007726 management method Methods 0.000 description 9
- 238000009826 distribution Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 230000003993 interaction Effects 0.000 description 8
- 238000002474 experimental method Methods 0.000 description 7
- 210000004027 cell Anatomy 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000009467 reduction Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 239000000872 buffer Substances 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 241000531116 Blitum bonus-henricus Species 0.000 description 1
- 235000008645 Chenopodium bonus henricus Nutrition 0.000 description 1
- 239000006173 Good's buffer Substances 0.000 description 1
- 102100040160 Rabankyrin-5 Human genes 0.000 description 1
- 101710086049 Rabankyrin-5 Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 229910052739 hydrogen Inorganic materials 0.000 description 1
- 239000001257 hydrogen Substances 0.000 description 1
- 125000004435 hydrogen atom Chemical class [H]* 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
- G06Q10/087—Inventory or stock management, e.g. order filling, procurement or balancing against orders
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G1/00—Storing articles, individually or in orderly arrangement, in warehouses or magazines
- B65G1/02—Storage devices
- B65G1/04—Storage devices mechanical
- B65G1/0485—Check-in, check-out devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G1/00—Storing articles, individually or in orderly arrangement, in warehouses or magazines
- B65G1/02—Storage devices
- B65G1/04—Storage devices mechanical
- B65G1/0492—Storage devices mechanical with cars adapted to travel in storage aisles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G1/00—Storing articles, individually or in orderly arrangement, in warehouses or magazines
- B65G1/02—Storage devices
- B65G1/04—Storage devices mechanical
- B65G1/137—Storage devices mechanical with arrangements or automatic control means for selecting which articles are to be removed
- B65G1/1373—Storage devices mechanical with arrangements or automatic control means for selecting which articles are to be removed for fulfilling orders in warehouses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0631—Resource planning, allocation, distributing or scheduling for enterprises or organisations
- G06Q10/06312—Adjustment or analysis of established resource schedule, e.g. resource or task levelling, or dynamic rescheduling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0631—Resource planning, allocation, distributing or scheduling for enterprises or organisations
- G06Q10/06313—Resource planning in a project environment
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Development Economics (AREA)
- Educational Administration (AREA)
- Game Theory and Decision Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Biodiversity & Conservation Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请公开了一种仓储调度决策方法、装置、终端设备以及存储介质,其仓储调度决策方法包括:当检测到货物出库请求时,获取密集型仓储系统当前的属性特征数据;将所述属性特征数据输入至预先训练好的深度信念网络模型中进行调度决策,生成调度决策方案,其中,所述深度信念网络模型由提升机选择学习模型、穿梭车选择学习模型和货位优先级学习模型中的一种或多种组成。本申请解决了仓储调度作业效率较低,设备利用率较低,致使系统总作业时间耗费长的问题,达到仓储系统的调度决策及时、高效的目的。
Description
技术领域
本申请涉及仓储系统调度与优化领域,尤其涉及一种仓储调度决策方法、装置、终端设备以及存储介质。
背景技术
目前,电商物流行业的订单任务场景呈现出规模大、时效性高和波动性大等特点,对现代物流仓储技术提出了密集化、自动化、集成化和智能化的发展需求。自动化密集型仓储系统是集高密度立体货架、输送带、多层穿梭车、提升机、条码自动识别系统和仓库管理系统为一体的新型物流存储系统,具有空间利用率高、存储容量大、作业效率高、吞吐量高和响应速度快等优点,成为打造智慧仓储中心的理想选择。
然而,电商物流行业的订单任务场景容易出现紧急订单、插单和订单任务剧增等突发请求,对仓储系统出入库作业的设备调度和货物分配提出一定的要求。目前对于仓储系统的设备调度和货位分配问题,多以排队论、混合整数规划建模并以优化算法求解的方法,模型复杂且实时性较差,导致系统响应慢,难以满足任务变动大、系统响应频繁的需求。传统的经典调度规则方法具有较好的实时性,但作业效率较低,设备利用率较低,致使系统总作业时间耗费较长,难以满足高吞吐量的要求。
因此,有必要提出一种节省仓储调度总作业时间的解决方案。
发明内容
本申请的主要目的在于提供一种仓储调度决策方法、装置、终端设备以及存储介质,旨在解决仓储调度作业效率较低,设备利用率较低,致使系统总作业时间耗费长的问题,达到仓储系统调度决策及时、高效的目的。
为实现上述目的,本申请提供一种仓储调度决策方法,所述仓储调度决策方法包括:
当检测到货物出库请求时,获取密集型仓储系统当前的属性特征数据;
将所述属性特征数据输入至预先训练好的深度信念网络模型中进行调度决策,生成调度决策方案,其中,所述深度信念网络模型由提升机选择学习模型、穿梭车选择学习模型和货位优先级学习模型中的一种或多种组成。
可选地,所述将所述属性特征数据输入至预先训练好的深度信念网络模型中进行调度决策,生成调度决策方案的步骤之前,还包括:
训练得到所述深度信念网络模型,具体包括:
对所述深度信念网络模型进行离线训练,得到离线训练后的深度信念网络模型;
对所述离线训练后的深度信念网络模型进行在线训练,得到训练好的深度信念网络模型。
可选地,所述对所述深度信念网络模型进行离线训练,得到离线训练后的深度信念网络模型的步骤包括:
建立集成优化数学模型,运用优化算法对所述集成优化数学模型进行求解,得到模拟的决策方案;
将所述模拟的决策方案导入至预先构建的仓储系统仿真模型进行划分,得到模拟的标签数据;
将预先建立的出库订单计划和所述模拟的决策方案导入至所述仓储系统仿真模型中进行模拟作业,得到模拟的运行属性状态数据;
根据所述运行属性状态数据生成模拟的属性特征数据;
获取所述密集型仓储系统的历史交互数据,生成历史的属性特征数据和历史的标签数据;
结合所述模拟的属性特征数据、所述历史的属性特征数据、所述模拟的标签数据和所述历史的标签数据,对所述深度信念网络模型进行离线训练,得到所述离线训练后的深度信念网络模型。
可选地,所述对所述离线训练后的深度信念网络模型进行在线训练,得到训练好的深度信念网络模型的步骤包括:
获取仓储管理系统和所述密集型仓储系统实际作业现场的在线交互数据;
根据所述在线交互数据对所述离线训练后的深度信念网络模型进行在线训练,得到所述训练好的深度信念网络模型。
可选地,所述深度信念网络模型由所述提升机选择学习模型、所述穿梭车选择学习模型和所述货位优先级学习模型组成,所述结合所述模拟的属性特征数据、所述历史的属性特征数据、所述模拟的标签数据和所述历史的标签数据,对所述深度信念网络模型进行离线训练,得到所述离线训练后的深度信念网络模型的步骤包括:
根据所述模拟的属性特征数据和所述历史的属性特征数据,生成用于离线训练所述提升机选择学习模型的第一训练用的属性特征数据;
根据所述模拟的标签数据和所述历史的标签数据,生成用于离线训练所述提升机选择学习模型的第一训练用的标签数据;
结合所述第一训练用的属性特征数据和所述第一训练用的标签数据对所述提升机选择学习模型进行离线训练,生成被选提升机决策方案,并得到离线训练后的提升机选择学习模型;
结合所述被选提升机决策方案,以及所述模拟的属性特征数据和所述历史的属性特征数据,生成用于离线训练所述穿梭车选择学习模型的第二训练用的属性特征数据;
结合所述被选提升机决策方案,以及所述模拟的标签数据和所述历史的标签数据,生成用于离线训练所述穿梭车选择学习模型的第二训练用的标签数据;
结合所述第二训练用的属性特征数据和所述第二训练用的标签数据对所述穿梭车选择学习模型进行离线训练,生成被选提升机-穿梭车决策方案,并得到离线训练后的穿梭车选择学习模型;
结合所述被选提升机-穿梭车决策方案,以及所述模拟的属性特征数据和所述历史的属性特征数据,生成用于离线训练所述货位优先级学习模型的第三训练用的属性特征数据;
结合所述被选提升机-穿梭车决策方案,以及所述模拟的标签数据和所述历史的标签数据,生成用于离线训练所述货位优先级学习模型的第三训练用的标签数据;
结合所述第三训练用的属性特征数据和所述第三训练用的标签数据对所述货位优先级学习模型进行离线训练,生成被选提升机-穿梭车-货位决策方案,得到离线训练后的穿梭车选择学习模型,并得到所述离线训练后的深度信念网络模型。
可选地,所述第三训练用的属性特征数据包括:被选巷道的属性特征、被选提升机的属性特征、被选穿梭车的属性特征、待出库货物的货位属性特征以及通过货位两两对比方式生成的货位优先级的属性特征。
可选地,所述将所述属性特征输入至预先训练好的深度信念网络模型中进行调度决策,生成调度决策方案的步骤之后,还包括:
根据所述调度决策方案执行仓储调度任务,具体包括:
当被选穿梭车执行跨层取货任务时,检测目标货物所在目标层的穿梭车工作状态信息;
当检测到所述目标层的穿梭车正在执行工作任务时,执行任务转移策略,具体包括:
取消所述被选穿梭车当前的跨层取货任务;
当检测到所述目标层的穿梭车结束执行任务时,执行所述跨层取货任务。
本申请实施例还提出一种仓储调度决策装置,所述仓储调度决策装置包括:
数据获取模块,用于当检测到货物出库请求时,获取密集型仓储系统当前的属性特征数据;
调度决策模块,用于将所述属性特征数据输入至预先训练好的深度信念网络模型中进行调度决策,生成调度决策方案,其中,所述深度信念网络模型由提升机选择学习模型、穿梭车选择学习模型和货位优先级学习模型中的一种或多种组成。
本申请实施例还提出一种终端设备,所述终端设备包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的仓储调度决策程序,所述仓储调度决策程序被所述处理器执行时实现如上所述的仓储调度决策方法的步骤。
本申请实施例还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有仓储调度决策程序,所述仓储调度决策程序被处理器执行时实现如上所述的仓储调度决策方法的步骤。
本申请实施例提出的仓储调度决策方法、装置、终端设备以及存储介质,通过当检测到货物出库请求时,获取密集型仓储系统当前的属性特征数据;将所述属性特征数据输入至预先训练好的深度信念网络模型中进行调度决策,生成调度决策方案,其中,所述深度信念网络模型由提升机选择学习模型、穿梭车选择学习模型和货位优先级学习模型中的一种或多种组成。通过训练后的深度信念网络模型对密集型仓储系统的货物出库请求进行调度决策,可以解决作业效率较低,设备利用率较低,致使系统总作业时间耗费长的问题,达到仓储系统的调度决策及时、高效的目的。通过本申请方案,不需要建立复杂的数学模型和假设约束,而是从系统运行过程积累的海量数据中学习密集型仓储系统调度的潜在规律,并为现场作业提供决策指导。基于本申请方案以最小化系统总作业时间为目标,通过实时获取系统运行过程信息,实现了仓储系统调度决策的及时与高效。
附图说明
图1为本申请仓储调度决策装置所属终端设备的功能模块示意图;
图2为本申请仓储调度决策方法第一示例性实施例的流程示意图;
图3为本申请仓储调度决策方法实施例涉及的深度信念网络模型的结构示意图;
图4为本申请仓储调度决策方法第二示例性实施例的流程示意图;
图5为本申请仓储调度决策方法第三示例性实施例的流程示意图;
图6为本申请仓储调度决策方法第四示例性实施例的流程示意图;
图7为本申请仓储调度决策方法第五示例性实施例的流程示意图;
图8为本申请仓储调度决策方法第七示例性实施例的流程示意图;
图9为本申请仓储调度决策方法实施例涉及的自动化密集型仓储系统方案学习与实时决策的示意图;
图10为本申请仓储调度决策方法实施例涉及的设备调度与货位分配的实时决策流程的流程示意图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请实施例的主要解决方案是:对深度信念网络模型进行离线训练,得到离线训练后的深度信念网络模型;对所述离线训练后的深度信念网络模型进行在线训练,得到训练好的深度信念网络模型;当检测到货物出库请求时,获取密集型仓储系统当前的属性特征数据;将所述属性特征数据输入至预先训练好的深度信念网络模型中进行调度决策,生成调度决策方案,其中,所述深度信念网络模型由提升机选择学习模型、穿梭车选择学习模型和货位优先级学习模型中的一种或多种组成。通过训练后的深度信念网络模型对密集型仓储系统的货物出库请求进行调度决策,可以解决作业效率较低,设备利用率较低,致使系统总作业时间耗费长的问题,达到仓储系统的调度决策及时、高效的目的。通过本申请方案,不需要建立复杂的数学模型和假设约束,而是从系统运行过程积累的海量数据中学习密集型仓储系统调度的潜在规律,并为现场作业提供决策指导。基于本申请方案以最小化系统总作业时间为目标,通过实时获取系统运行过程信息,实现了仓储系统调度决策的及时与高效。
具体地,参照图1,图1为本申请仓储调度决策装置所属终端设备的功能模块示意图。该仓储调度决策装置可以为独立于终端设备的、能够进行仓储调度决策、网络模型训练的装置,其可以通过硬件或软件的形式承载于终端设备上。该终端设备可以为手机、电脑等具有数据处理功能的智能移动终端,还可以为具有数据处理功能的固定终端设备或服务器等。
在本实施例中,该仓储调度决策装置所属终端设备至少包括输出模块110、处理器120、存储器130以及通信模块140。
存储器130中存储有操作系统以及仓储调度决策程序,仓储调度决策装置可以将获取的密集型仓储系统当前的属性特征数据,将所述属性特征数据输入至预先训练好的深度信念网络模型中进行调度决策后生成的调度决策方案,以及建立的集成优化数学模型,运用优化算法对所述集成优化数学模型进行求解后得到的模拟的决策方案,将所述模拟的决策方案导入至预先构建的仓储系统仿真模型进行划分后得到的模拟的标签数据,建立的出库订单计划,将所述出库订单计划和所述模拟的决策方案导入至所述仓储系统仿真模型中进行模拟作业后得到的模拟的运行属性状态数据,根据所述运行属性状态数据生成的模拟的属性特征数据,获取的所述密集型仓储系统的历史交互数据,生成的历史的属性特征数据和历史的标签数据,获取的仓储管理系统和所述密集型仓储系统实际作业现场的在线交互数据等信息存储于该存储器130中;输出模块110可为显示屏等。通信模块140可以包括WIFI模块、移动通信模块以及蓝牙模块等,通过通信模块140与外部设备或服务器进行通信。
其中,存储器130中的仓储调度决策程序被处理器执行时实现以下步骤:
当检测到货物出库请求时,获取密集型仓储系统当前的属性特征数据;
将所述属性特征数据输入至预先训练好的深度信念网络模型中进行调度决策,生成调度决策方案,其中,所述深度信念网络模型由提升机选择学习模型、穿梭车选择学习模型和货位优先级学习模型中的一种或多种组成。
进一步地,存储器130中的仓储调度决策程序被处理器执行时还实现以下步骤:
训练得到所述深度信念网络模型,具体包括:
对所述深度信念网络模型进行离线训练,得到离线训练后的深度信念网络模型;
对所述离线训练后的深度信念网络模型进行在线训练,得到训练好的深度信念网络模型。
进一步地,存储器130中的仓储调度决策程序被处理器执行时还实现以下步骤:
建立集成优化数学模型,运用优化算法对所述集成优化数学模型进行求解,得到模拟的决策方案;
将所述模拟的决策方案导入至预先构建的仓储系统仿真模型进行划分,得到模拟的标签数据;
将预先建立的出库订单计划和所述模拟的决策方案导入至所述仓储系统仿真模型中进行模拟作业,得到模拟的运行属性状态数据;
根据所述运行属性状态数据生成模拟的属性特征数据;
获取所述密集型仓储系统的历史交互数据,生成历史的属性特征数据和历史的标签数据;
结合所述模拟的属性特征数据、所述历史的属性特征数据、所述模拟的标签数据和所述历史的标签数据,对所述深度信念网络模型进行离线训练,得到所述离线训练后的深度信念网络模型。
进一步地,存储器130中的仓储调度决策程序被处理器执行时还实现以下步骤:
获取仓储管理系统和所述密集型仓储系统实际作业现场的在线交互数据;
根据所述在线交互数据对所述离线训练后的深度信念网络模型进行在线训练,得到所述训练好的深度信念网络模型。
进一步地,存储器130中的仓储调度决策程序被处理器执行时还实现以下步骤:
根据所述模拟的属性特征数据和所述历史的属性特征数据,生成用于离线训练所述提升机选择学习模型的第一训练用的属性特征数据;
根据所述模拟的标签数据和所述历史的标签数据,生成用于离线训练所述提升机选择学习模型的第一训练用的标签数据;
结合所述第一训练用的属性特征数据和所述第一训练用的标签数据对所述提升机选择学习模型进行离线训练,生成被选提升机决策方案,并得到离线训练后的提升机选择学习模型;
结合所述被选提升机决策方案,以及所述模拟的属性特征数据和所述历史的属性特征数据,生成用于离线训练所述穿梭车选择学习模型的第二训练用的属性特征数据;
结合所述被选提升机决策方案,以及所述模拟的标签数据和所述历史的标签数据,生成用于离线训练所述穿梭车选择学习模型的第二训练用的标签数据;
结合所述第二训练用的属性特征数据和所述第二训练用的标签数据对所述穿梭车选择学习模型进行离线训练,生成被选提升机-穿梭车决策方案,并得到离线训练后的穿梭车选择学习模型;
结合所述被选提升机-穿梭车决策方案,以及所述模拟的属性特征数据和所述历史的属性特征数据,生成用于离线训练所述货位优先级学习模型的第三训练用的属性特征数据;
结合所述被选提升机-穿梭车决策方案,以及所述模拟的标签数据和所述历史的标签数据,生成用于离线训练所述货位优先级学习模型的第三训练用的标签数据;
结合所述第三训练用的属性特征数据和所述第三训练用的标签数据对所述货位优先级学习模型进行离线训练,生成被选提升机-穿梭车-货位决策方案,得到离线训练后的穿梭车选择学习模型,并得到所述离线训练后的深度信念网络模型。
进一步地,存储器130中的仓储调度决策程序被处理器执行时还实现以下步骤:
根据所述调度决策方案执行仓储调度任务,具体包括:
当被选穿梭车执行跨层取货任务时,检测目标货物所在目标层的穿梭车工作状态信息;
当检测到所述目标层的穿梭车正在执行工作任务时,执行任务转移策略,具体包括:
取消所述被选穿梭车当前的跨层取货任务;
当检测到所述目标层的穿梭车结束执行任务时,执行所述跨层取货任务。
本实施例通过上述方案,具体通过当检测到货物出库请求时,获取密集型仓储系统当前的属性特征数据;将所述属性特征数据输入至预先训练好的深度信念网络模型中进行调度决策,生成调度决策方案,其中,所述深度信念网络模型由提升机选择学习模型、穿梭车选择学习模型和货位优先级学习模型中的一种或多种组成。通过训练后的深度信念网络模型对密集型仓储系统的货物出库请求进行调度决策,可以解决作业效率较低,设备利用率较低,致使系统总作业时间耗费长的问题,达到仓储系统的调度决策及时、高效的目的。通过本申请方案,不需要建立复杂的数学模型和假设约束,而是从系统运行过程积累的海量数据中学习密集型仓储系统调度的潜在规律,并为现场作业提供决策指导。基于本申请方案以最小化系统总作业时间为目标,通过实时获取系统运行过程信息,实现了仓储系统调度决策的及时与高效。
基于上述终端设备架构但不限于上述架构,提出本申请方法实施例。
参照图2,图2为本申请仓储调度决策方法第一示例性实施例的流程示意图。本实施例方法的执行主体可以是一种仓储调度决策装置,也可以是一种仓储调度决策终端设备或服务器,本实施例以仓储调度决策装置进行举例,该仓储调度决策装置可以集成在具有数据处理功能的智能手机、平板电脑等终端设备上。所述仓储调度决策方法包括:
步骤S1001,当检测到货物出库请求时,获取密集型仓储系统当前的属性特征数据。
具体地,当系统检测到货物出库请求时,获取所述密集型仓储系统当前的属性特征数据,其中,所述属性特征数据是与所述密集型仓储系统的运行状态信息相关的数据,可以由系统的运行状态信息中提取得到。在本实施例中,所述密集型仓储系统可以是一种集高密度立体货架、输送带、多层穿梭车、提升机、条码自动识别系统和仓库管理系统为一体的物流存储系统。一般地,密集型仓储系统的结构分布包括:每两排货架形成一个巷道,每个巷道入口处配有穿梭车提升机和货物提升机,每种货物在不同货架上存放在多个货位中。每个巷道配有数台穿梭车,穿梭车可以通过穿梭车提升机实现跨层取货,但只能在固定的巷道运动,货物可以通过货位提升机实现出库。货架每层的入口处配有货物缓存区。当某一巷道被选择后,对应的穿梭车提升机和货物提升机同时被选择。
步骤S1002,将所述属性特征数据输入至预先训练好的深度信念网络模型中进行调度决策,生成调度决策方案,其中,所述深度信念网络模型由提升机选择学习模型、穿梭车选择学习模型和货位优先级学习模型中的一种或多种组成。
具体地,将获取到的所述属性特征数据输入至预先训练好的深度信念网络模型中进行调度决策,生成调度决策方案。如图3所示,图3为本申请仓储调度决策方法涉及的深度信念网络模型的结构示意图,所述深度信念网络模型的结构通过受限玻尔兹曼机RBM的顺序堆叠来构造,即,前一个RBM的输出是下一个RBM的输入。该网络结构的学习过程分为两个阶段,首先是对RBM进行逐层无监督预训练,然后再用反向传播算法BP对整个网络进行有监督的调优。
RBM是一种双层神经网络结构的生成模型,第1层为可见层v,用来接受输入,由n个可见单元v=(v1,v2,…,vn)构成,一般服从伯努利分布或者高斯分布。第2层为隐藏层h,由m个隐藏单元h=(h1,h2,…,hm)构成,一般服从伯努利分布。所有的可见单元与隐藏单元全部连接,而可见层与隐藏层自身内部的单元互不连接,即层间全连接,层内无连接。相连接的神经元之间的权重w={wij}∈Rn×m,i=1,2,…,n,j=1,2,…,m。a={ai}∈Rn和b={bj}∈Rm,分别表示第i个可见单元和第j个隐藏单元的偏置。如下公式1所示,对于v和h均服从伯努利分布的RBM,其能量函数为:
式中,vi和hj分别表示第i个可见单元和第j个隐藏单元的二元状态,wij表示第i个可见单元和第j个隐藏单元之间的权值。较低的能量表示网络处于更理想的状态,即学习误差最低。对该能量函数正则化和指数化后,得到可见节点与隐藏节点一组状态的联合概率分布公式,如下公式2和3所示:
可见神经元和隐藏神经元的条件概率分布如下公式4和5所示:
在给定v和h时,可以得到隐藏层单元hj和可见层单元vi的激活状态概率。采用对比散度算法逐层求解以获得每层RBM权值的最优解。通过计算对数似然函数logP(v,h|θ)的梯度,可以得到RBM权值更新公式,如下公式6和7所示:
式中,τ和η分别表示RBM的迭代次数和学习率,Edata(vihj)和Emodel(vihj)分别表示训练集中观测数据的期望和模型所确定分布上的期望。
前向堆叠RBM学习属于无监督学习,对每层RBM贪婪逐层训练后得到整个初始化的权重W={w1,w2,…wl},相当于为监督学习提供了输入数据的先验知识。后向微调学习是从DBN网络输出层出发,利用已知标签逐步向输入层微调模型参数,即通过BP算法对网络进行有监督的训练,精调从输出层到输入层的参数以减小梯度。深度信念网络模型最后一层的构建以Soft-max作为分类器模型,模型的输出结果以概率的形式展现,选取最大概率所对应的类别即为模型的判定结果。
基于上述网络结构,所述深度信念网络模型可以由提升机选择学习模型、穿梭车选择学习模型和货位优先级学习模型中的一种或多种组成。
本实施例通过上述方案,具体通过当检测到货物出库请求时,获取密集型仓储系统当前的属性特征数据;将所述属性特征数据输入至预先训练好的深度信念网络模型中进行调度决策,生成调度决策方案,其中,所述深度信念网络模型由提升机选择学习模型、穿梭车选择学习模型和货位优先级学习模型中的一种或多种组成。通过训练后的深度信念网络模型对密集型仓储系统的货物出库请求进行调度决策,可以解决作业效率较低,设备利用率较低,致使系统总作业时间耗费长的问题,达到仓储系统的调度决策及时、高效的目的。通过本申请方案,不需要建立复杂的数学模型和假设约束,而是从系统运行过程积累的海量数据中学习密集型仓储系统调度的潜在规律,并为现场作业提供决策指导。基于本申请方案以最小化系统总作业时间为目标,通过实时获取系统运行过程信息,实现了仓储系统调度决策的及时与高效。
参照图4,图4为本申请仓储调度决策方法第二示例性实施例的流程示意图。基于上述图2所示的实施例,在本实施例中,在当检测到货物出库请求时,获取密集型仓储系统当前的属性特征数据的步骤之前,所述图片修复方法还包括:
步骤S1000,训练得到所述深度信念网络模型。本实施例以步骤S1000在步骤S1001之前实施,在其他实施例中,步骤S1000也可以在步骤S1001与步骤S1002之间实施。
相比上述图2所示的实施例,本实施例还包括训练得到所述深度信念网络模型的方案。
具体地,训练得到所述深度信念网络模型的步骤可以包括:
步骤S1100,对所述深度信念网络模型进行离线训练,得到离线训练后的深度信念网络模型;
步骤S1200,对所述离线训练后的深度信念网络模型进行在线训练,得到训练好的深度信念网络模型。
更为具体地,本实施例对构建的所述深度信念网络模型进行离线训练,完成离线训练后,得到离线训练后的深度信念网络模型,其中,所述离线训练是指通过预先获取到的训练样本数据在模拟或仿真的状态下对所述深度信念网络模型进行训练。然后,对得到的离线训练后的深度信念网络模型进行在线训练,完成在线训练后,得到在线训练后的深度信念网络模型,其中,所述在线训练是指通过获取实际现场操作生成的增量样本数据在真实环境中对所述深度信念网络模型进行训练。此时,完成训练后,得到训练好的深度信念网络模型。
之后即可通过训练好的深度信念网络模型对所述密集型仓储系统进行调度决策。
本实施例通过上述方案,具体通过训练得到所述深度信念网络模型;当检测到货物出库请求时,获取密集型仓储系统当前的属性特征数据;将所述属性特征数据输入至预先训练好的深度信念网络模型中进行调度决策,生成调度决策方案,其中,所述深度信念网络模型由提升机选择学习模型、穿梭车选择学习模型和货位优先级学习模型中的一种或多种组成。通过训练后的深度信念网络模型对密集型仓储系统的货物出库请求进行调度决策,可以解决作业效率较低,设备利用率较低,致使系统总作业时间耗费长的问题,达到仓储系统的调度决策及时、高效的目的。通过本申请方案,不需要建立复杂的数学模型和假设约束,而是从系统运行过程积累的海量数据中学习密集型仓储系统调度的潜在规律,并为现场作业提供决策指导。基于本申请方案以最小化系统总作业时间为目标,通过实时获取系统运行过程信息,实现了仓储系统调度决策的及时与高效。
进一步地,参照图5,图5为本申请仓储调度决策方法第三示例性实施例的流程示意图。基于上述图4所示的实施例,在本实施例中,步骤S1100,对所述深度信念网络模型进行离线训练,得到离线训练后的深度信念网络模型可以包括:
步骤S1110,建立集成优化数学模型,运用优化算法对所述集成优化数学模型进行求解,得到模拟的决策方案。
具体地,依据系统运行过程的合理假设和约束,以最小化总作业时间为目标建立集成优化数学模型,然后,运用优化算法对所建立的集成优化数学模型进行求解,得到模拟的决策方案,其中,所述模拟的决策方案为近似最优的仓储调度决策方案,所述决策方案的内容可以包括设备的调度及货位的分配。
步骤S1120,将所述模拟的决策方案导入至预先构建的仓储系统仿真模型进行划分,得到模拟的标签数据。
具体地,将得到的所述模拟的决策方案导入至预先构建的仓储系统仿真模型中进行调度方案指令的划分,其中,所述调度方案指令可以分为设备调度指令和货位分配指令,然后根据得到的所述调度方案指令生成用于训练的模拟的标签数据。
步骤S1130,将预先建立的出库订单计划和所述模拟的决策方案导入至所述仓储系统仿真模型中进行模拟作业,得到模拟的运行属性状态数据。
具体地,根据问题实例建立出库订单计划,将预先建立的所述出库订单计划和所述模拟的决策方案导入至预先构建的所述仓储系统仿真模型中,通过仓储系统仿真模型模拟作业过程,并提取得到模拟的运行属性状态数据。其中,所述运行属性状态数据是与仓储系统的运行,如设备调度、货位分配相关的数据。
步骤S1140,根据所述运行属性状态数据生成模拟的属性特征数据。
具体地,根据得到的所述运行属性状态数据生成用于训练的模拟的属性特征数据。
步骤S1150,获取所述密集型仓储系统的历史交互数据,生成历史的属性特征数据和历史的标签数据。
具体地,获取所述密集型仓储系统的历史交互数据,其中,所述历史交互数据是由仓储管理系统与密集型仓储系统在历史作业过程中产生,所述历史交互数据的内容可以包括但不限于历史的运行属性状态数据和历史的调度方案指令,然后,根据所述历史交互数据生成历史的属性特征数据和历史的标签数据。
步骤S1160,结合所述模拟的属性特征数据、所述历史的属性特征数据、所述模拟的标签数据和所述历史的标签数据,对所述深度信念网络模型进行离线训练,得到所述离线训练后的深度信念网络模型。
具体地,结合所述模拟的属性特征数据、所述历史的属性特征数据、所述模拟的标签数据和所述历史的标签数据,即,将模拟的数据与历史的数据进行合并,共同生成用于训练的属性特征数据和标签数据,对所述深度信念网络模型进行离线训练,完成训练后,得到所述离线训练后的深度信念网络模型。
本实施例通过针对系统运行过程数据,构建密集型仓储系统的运行状态属性特征,并通过提取系统运行过程中影响设备调度和货位分配的关键属性,针对不同的模型学习目标建立对应范围的属性特征,降低了模型输入维度,减少训练时间。
本实施例过上述方案,具体通过训练得到所述深度信念网络模型;当检测到货物出库请求时,获取密集型仓储系统当前的属性特征数据;将所述属性特征数据输入至预先训练好的深度信念网络模型中进行调度决策,生成调度决策方案,其中,所述深度信念网络模型由提升机选择学习模型、穿梭车选择学习模型和货位优先级学习模型中的一种或多种组成。通过训练后的深度信念网络模型对密集型仓储系统的货物出库请求进行调度决策,可以解决作业效率较低,设备利用率较低,致使系统总作业时间耗费长的问题,达到仓储系统的调度决策及时、高效的目的。通过本申请方案,不需要建立复杂的数学模型和假设约束,而是从系统运行过程积累的海量数据中学习密集型仓储系统调度的潜在规律,并为现场作业提供决策指导。基于本申请方案以最小化系统总作业时间为目标,通过实时获取系统运行过程信息,实现了仓储系统调度决策的及时与高效。
进一步地,参照图6,图6为本申请仓储调度决策方法第四示例性实施例的流程示意图。基于上述图5所示的实施例,在本实施例中,步骤S1200,对所述离线训练后的深度信念网络模型进行在线训练,得到训练好的深度信念网络模型可以包括:
步骤S1210,获取仓储管理系统和所述密集型仓储系统实际作业现场的在线交互数据。
具体地,获取仓储管理系统和所述密集型仓储系统在实际作业现场产生的在线交互数据,其中,所述在线交互数据的内容可以包括但不限于在线的运行属性状态数据和在线的调度方案指令。根据所述在线交互数据可以生成在线的属性特征数据和在线的标签数据。
步骤S1220,根据所述在线交互数据对所述离线训练后的深度信念网络模型进行在线训练,得到所述训练好的深度信念网络模型。
具体地,根据所述在线交互数据对所述离线训练后的深度信念网络模型进行在线训练,即,通过将根据所述在线交互数据生成的所述在线的属性特征数据和在线的标签数据输入至离线训练后的深度信念网络模型中进行在线训练,完成训练后,得到在线训练后的深度信念网络模型。此时,得到训练好的深度信念网络模型。
之后即可通过训练好的深度信念网络模型对所述密集型仓储系统进行调度决策。
本实施例通过上述方案,具体通过训练得到所述深度信念网络模型;当检测到货物出库请求时,获取密集型仓储系统当前的属性特征数据;将所述属性特征数据输入至预先训练好的深度信念网络模型中进行调度决策,生成调度决策方案,其中,所述深度信念网络模型由提升机选择学习模型、穿梭车选择学习模型和货位优先级学习模型中的一种或多种组成。通过训练后的深度信念网络模型对密集型仓储系统的货物出库请求进行调度决策,可以解决作业效率较低,设备利用率较低,致使系统总作业时间耗费长的问题,达到仓储系统的调度决策及时、高效的目的。通过本申请方案,不需要建立复杂的数学模型和假设约束,而是从系统运行过程积累的海量数据中学习密集型仓储系统调度的潜在规律,并为现场作业提供决策指导。基于本申请方案以最小化系统总作业时间为目标,通过实时获取系统运行过程信息,实现了仓储系统调度决策的及时与高效。
参照图7,图7为本申请仓储调度决策方法第五示例性实施例的流程示意图。基于上述图6所示的实施例,在本实施例中,所述深度信念网络模型由所述提升机选择学习模型、所述穿梭车选择学习模型和所述货位优先级学习模型组成,步骤S1160,结合所述模拟的属性特征数据、所述历史的属性特征数据、所述模拟的标签数据和所述历史的标签数据,对所述深度信念网络模型进行离线训练,得到所述离线训练后的深度信念网络模型可以包括:
步骤S1161,根据所述模拟的属性特征数据和所述历史的属性特征数据,生成用于离线训练所述提升机选择学习模型的第一训练用的属性特征数据。
具体地,根据得到的所述模拟的属性特征数据和所述历史的属性特征数据,生成用于离线训练所述提升机选择学习模型的训练用的属性特征数据,并作为第一训练用的属性特征数据。其中,所述提升机选择学习模型用于生成被选巷道和被选提升机的调度决策方案。所述第一训练用的属性特征数据的属性类型包括连续类型和布尔类型,属性特征数据的内容包括仓储系统内所有巷道及配备的提升机的特征,如巷道内空闲穿梭车数目、巷道内到达目标层的穿梭车数目、巷道库位率、穿梭车提升机是否空闲、穿梭车提升机目标层等。假设仓储系统的立体货架设有m个巷道,则对应配有m台穿梭车提升机和m台货物提升机,对于每一个巷道和提升机的属性,需要建立m个对应的属性特征。
其中,属性特征巷道库位率SR_lane的计算如下公式8所示:
其中,nr1和nr2分别指巷道两侧货架中被占用的货架单元数,Nr1和Nr2分别指巷道两侧货架的单元总数。
步骤S1162,根据所述模拟的标签数据和所述历史的标签数据,生成用于离线训练所述提升机选择学习模型的训练用的标签数据。
具体地,根据得到的所述模拟的标签数据和所述历史的标签数据,生成用于离线训练所述提升机选择学习模型的训练用的标签数据,并作为第一训练用的标签数据,其中,所述第一训练用的标签数据为提升机的编号。
步骤S1163,结合所述第一训练用的属性特征数据和所述第一训练用的标签数据对所述提升机选择学习模型进行离线训练,生成被选提升机决策方案,并得到离线训练后的提升机选择学习模型。
具体地,结合得到的所述第一训练用的属性特征数据和所述第一训练用的标签数据,对所述提升机选择学习模型进行离线训练,生成被选提升机决策方案,所述被选提升机决策方案的内容包括被选巷道和被选提升机及其属性特征数据与标签数据,此时,得到离线训练后的提升机选择学习模型。
步骤S1164,结合所述被选提升机决策方案,以及所述模拟的属性特征数据和所述历史的属性特征数据,生成用于离线训练所述穿梭车选择学习模型的第二训练用的属性特征数据。
具体地,结合所述被选提升机决策方案,其中,包括被选巷道和被选提升机的属性特征数据,以及所述模拟的属性特征数据和所述历史的属性特征数据,生成用于离线训练所述穿梭车选择学习模型的训练用的属性特征数据,并作为第二训练用的属性特征数据。其中,所述穿梭车选择学习模型用于生成被选巷道、被选提升机和被选穿梭车的调度决策方案。所述第二训练用的属性特征数据的属性类型包括连续类型和布尔类型,其内容包括被选巷道的属性特征、被选提升机的属性特征以及被选巷道配备的所有穿梭车的属性特征,如穿梭车是否空闲、穿梭车是否在目标层、穿梭车目标层、穿梭车待完成任务数、穿梭车任务完成度等。假设每个巷道配有k台穿梭车,对于每一个穿梭车的属性,需要建立k个对应的属性特征。
其中,属性特征穿梭车任务完成度S_comp的计算如下公式9所示:
其中,Tcomp指穿梭车已完成的任务数,Ttotal指穿梭车截止当前时刻的总任务数。
步骤S1165,结合所述被选提升机决策方案,以及所述模拟的标签数据和所述历史的标签数据,生成用于离线训练所述穿梭车选择学习模型的第二训练用的标签数据。
具体地,结合所述被选提升机决策方案,其中,包括被选巷道和被选提升机的标签数据,以及所述模拟的标签数据和所述历史的标签数据,生成用于离线训练所述穿梭车选择学习模型的训练用的标签数据,并作为第二训练用的标签数据,其中,所述第二训练用的标签数据为穿梭车的编号。
步骤S1166,结合所述第二训练用的属性特征数据和所述第二训练用的标签数据对所述穿梭车选择学习模型进行离线训练,生成被选提升机-穿梭车决策方案,并得到离线训练后的穿梭车选择学习模型。
具体地,结合得到的所述第二训练用的属性特征数据和所述第二训练用的标签数据,对所述穿梭车选择学习模型进行离线训练,生成被选提升机-穿梭车决策方案,所述被选提升机-穿梭车决策方案的内容包括被选巷道、被选提升机和被选穿梭车及其属性特征数据与标签数据,此时,得到离线训练后的穿梭车选择学习模型。
步骤S1167,结合所述被选提升机-穿梭车决策方案,以及所述模拟的属性特征数据和所述历史的属性特征数据,生成用于离线训练所述货位优先级学习模型的第三训练用的属性特征数据。
具体地,结合所述被选提升机-穿梭车决策方案,其中,包括被选巷道、被选提升机和被选穿梭车的属性特征数据,以及所述模拟的属性特征数据和所述历史的属性特征数据,生成用于离线训练所述货位优先级学习模型的训练用的属性特征数据,并作为第三训练用的属性特征数据。其中,所述货位优先级学习模型用于生成被选巷道、被选提升机、被选穿梭车以及被选货位的调度决策方案。所述第三训练用的属性特征数据的属性类型包括连续类型和布尔类型,其内容包括被选巷道的属性特征、被选提升机的属性特征、被选穿梭车的属性特征以及被选巷道所有此刻需要出库的货物货位的属性特征以及构建的其他与货位相关的特征,如货位所在层是否存在未选择的穿梭车、货位所在货架、货位所在层、货位所在货架的库位率、穿梭车到达货位所需时间等。
其中,属性特征货位所在货架的库位率SR_rack的计算如下公式10所示:
其中,nr指货架中被占用的货架单元数,Nr指货架的单元总数。
其中,Tload_1指货箱从货架装载到穿梭车的时间,Tload_2指穿梭车从轨道驶入提升机的时间,Tunload_1指货箱从穿梭车卸载到缓存区的时间,Tunload_2指穿梭车从提升机驶入轨道的时间,zshuttle指穿梭车所在的层,zcargo指目标货位所在的层。表示水平向上穿梭车从待命点到达货位的行程时间,计算过程如下公式12所示:
其中,z1,z2分别表示穿梭车所在层和目标货位所在层,h0表示货架单元的高度,al表示提升机的加速度,vl表示提升机的最大行驶速度,n-tier表示货架的总层数。
步骤S1168,结合所述被选提升机-穿梭车决策方案,以及所述模拟的标签数据和所述历史的标签数据,生成用于离线训练所述货位优先级学习模型的第三训练用的标签数据。
具体地,结合所述被选提升机-穿梭车决策方案,其中,包括被选巷道、被选提升机和被选穿梭车的标签数据,以及所述模拟的标签数据和所述历史的标签数据,生成用于离线训练所述货位优先级学习模型的训练用的标签数据,并作为第三训练用的标签数据,其中,所述第三训练用的标签数据为货位优先级“高”和“低”。
步骤S1169,结合所述第三训练用的属性特征数据和所述第三训练用的标签数据对所述货位优先级学习模型进行离线训练,生成被选提升机-穿梭车-货位决策方案,得到离线训练后的穿梭车选择学习模型,并得到所述离线训练后的深度信念网络模型。
具体地,结合得到的所述第三训练用的属性特征数据和所述第三训练用的标签数据,对所述货位优先级学习模型进行离线训练,生成被选提升机-穿梭车-货位决策方案,所述被选提升机-穿梭车-货位决策方案的内容包括被选巷道、被选提升机、被选穿梭车和被选货位及其属性特征数据与标签数据,此时,得到离线训练后的穿梭车选择学习模型,并得到所述离线训练后的深度信念网络模型。
在本实施例中,对于不同的学习目标,同一对象源的属性特征数据和构建范围不同,具体如下表一所示。其中,建立的用于提升机选择、穿梭车选择和货位优先级学习的属性特征的详细描述如下表二所示:
表一:同一对象源的属性特征数据和构建范围表
表二:用于提升机选择、穿梭车选择和货位优先级学习的属性特征
本实施例通过建立提升机选择、穿梭车选择和货位优先级的三阶段深度信念网络模型,以最小化系统做作业时间为目标,实现较优调度方案解的集成学习。
本实施例通过上述方案,具体通过训练得到所述深度信念网络模型;当检测到货物出库请求时,获取密集型仓储系统当前的属性特征数据;将所述属性特征数据输入至预先训练好的深度信念网络模型中进行调度决策,生成调度决策方案,其中,所述深度信念网络模型由提升机选择学习模型、穿梭车选择学习模型和货位优先级学习模型中的一种或多种组成。通过训练后的深度信念网络模型对密集型仓储系统的货物出库请求进行调度决策,可以解决作业效率较低,设备利用率较低,致使系统总作业时间耗费长的问题,达到仓储系统的调度决策及时、高效的目的。通过本申请方案,不需要建立复杂的数学模型和假设约束,而是从系统运行过程积累的海量数据中学习密集型仓储系统调度的潜在规律,并为现场作业提供决策指导。基于本申请方案以最小化系统总作业时间为目标,通过实时获取系统运行过程信息,实现了仓储系统调度决策的及时与高效。
进一步地,基于上述实施例,在本实施例中,所述第三训练用的属性特征数据包括:被选巷道的属性特征、被选提升机的属性特征、被选穿梭车的属性特征、待出库货物的货位属性特征以及通过货位两两对比方式生成的货位优先级的属性特征。
具体地,用于训练货位优先级学习模型的第三训练用的属性特征数据包括:被选巷道的属性特征、被选提升机的属性特征、被选穿梭车的属性特征、待出库货物的货位属性特征以及通过货位两两对比方式生成的货位优先级的属性特征。其中,所述货位两两对比方式用于构建货位优先级的扩充的属性特征,具体为:将货位cl1设为A,货位cl2设为B,以A作为对象,将B与A进行对比,例如对于属性特征“货位的层数”,构建“货位层数(A)<货位层数(B)”的布尔类型特征,以此类推。如果选择结果是A优先于B,则优先级输出为“高”。其次,将货位cl2设为A,货位cl1设为B,方法同上,则优先级输出为“低”。假设某种货物在某巷道共有n处存放位置,则需要按照上述方法建立对属性特征。
本实施例针对货位优先级学习模型提出的货位两两对比方式,扩建布尔类型的属性特征,提高了模型的学习准确率。
如图8所示,图8是本申请仓储调度决策方法第七示例性实施例的流程示意图。基于上述实施例,在本实施中,在步骤S1002,将所述属性特征输入至预先训练好的深度信念网络模型中进行调度决策,生成调度决策方案之后,还包括:步骤S1003,根据所述调度决策方案执行仓储调度任务。
具体地,根据所述调度决策方案执行仓储调度任务的步骤可以包括:
当被选穿梭车执行跨层取货任务时,检测目标货物所在目标层的穿梭车工作状态信息;
当检测到所述目标层的穿梭车正在执行工作任务时,执行任务转移策略。
具体地,在被选穿梭车执行任务过程中,当需要通过被选提升机实现跨层取货任务时,首先检测目标货物所在目标层的穿梭车工作状态信息;当检测到所述目标层的穿梭车正在该目标层执行工作任务时,所述被选穿梭车执行任务转移策略,以避免在执行任务过程中出现穿梭车冲突现象。
进一步地,所述当检测到所述目标层的穿梭车正在执行工作任务时,执行任务转移策略的步骤可以包括:
取消所述被选穿梭车当前的跨层取货任务;
当检测到所述目标层的穿梭车结束执行任务时,执行所述跨层取货任务。
具体地,在被选穿梭车准备执行跨层取货的任务时,若检测到所述目标层的穿梭车正在该层执行工作任务,则取消所述被选穿梭车当前的跨层取货任务,并将该任务的执行时间转移到在所述目标层执行任务的当前的穿梭车的下一个时刻,换句话说,在所述目标层上,在执行当前任务的穿梭车完成任务执行后,所述被选穿梭车将会开始执行跨层取货任务。因此,当检测到所述目标层的穿梭车结束执行任务时,所述被选穿梭车开始执行跨层取货任务。
本实施例通过上述方案,具体通过当被选穿梭车执行跨层取货任务时,检测目标货物所在目标层的穿梭车工作状态信息;当检测到所述目标层的穿梭车正在执行工作任务时,执行任务转移策略,可以有效的避免在执行任务过程中出现穿梭车冲突的现象。
如图9所示,图9是本申请仓储调度决策方法实施例涉及的自动化密集型仓储系统方案学习与实时决策的示意图。在本实施例中,所述自动化密集型仓储系统方案学习与实时决策的流程可以包括:基于深度信念网络的实时决策和自动化高密度仓储系统作业现场,其中,自动化高密度仓储系统为深度信念网络提供实时系统运行信息,而深度信念网络则为自动化高密度仓储系统的现场作业提供实时决策指导。
基于深度信念网络的实时决策的流程包括:
首先,根据实时系统运行信息,获取巷道和提升机的属性状态信息,提取生成第一属性特征数据,将所述第一属性特征数据输入至提升机选择学习模型进行调度决策,生成被选提升机决策方案。
然后,结合所述被选提升机决策方案,获取被选巷道和提升机的属性状态信息以及穿梭车的属性状态信息,提取生成第二属性特征数据,将所述第二属性特征数据输入至穿梭车选择学习模型进行调度决策,生成被选提升机-穿梭车决策方案。
最后,结合所述被选提升机-穿梭车决策方案,获取被选巷道和提升机的属性状态信息、被选穿梭车的属性状态信息以及货位的属性状态信息,提取生成第三属性特征数据,将所述第三属性特征数据输入至货位优先级学习模型进行调度决策,生成被选提升机-穿梭车-货位决策方案。
根据深度信念网络生成的被选提升机-穿梭车-货位决策方案的指导,自动化高密度仓储系统执行相关仓储调度任务,并将任务执行过程中生成的实时系统运行信息提供给深度信念网络。
本实施例通过上述方案,将训练后的三阶段深度信念网络模型集成到仓储管理系统中,通过实时获取系统运行属性状态信息,实现对提升机、穿梭车调度和货位分配的即时、高效的决策。与传统的经典调度规则相比,在不同任务规模下,具有更少的系统总作业时间。
如图10所示,图10是本申请仓储调度决策方法实施例涉及的设备调度与货位分配的实时决策流程的流程示意图。在本实施例中,所述仓储调度决策方法的设备调度与货位分配的实时决策流程可以包括:
在某一时刻t收到系统的某个货物出库请求时,首先根据系统运行属性状态信息,构建当前系统作业现场的用于巷道和提升机选择学习的属性特征,通过训练后的提升机选择学习模型,为请求出库的货物选择巷道和提升机。
然后,基于上述步骤,构建当前系统作业现场的用于穿梭车选择学习的属性特征,通过训练后的穿梭车选择学习模型,为请求出库的货物选择穿梭车。
然后,基于上述步骤,获得当前系统作业现场的用于货位优先级学习的属性状态信息,检索获得请求出库的货物在被选巷道的所有货位,通过货位两两对比方式构建货位优先级学习的属性特征,然后通过训练后的货位优先级学习模型,为请求出库的货位选择优先级最高的货位。
最后,基于上述步骤,生成被选提升机-穿梭车-货位的决策方案,根据所述方案执行仓储调度任务,完成本批订单出库计划。
之后,判断该批订单出库计划是否完成,若完成则结束本次仓储调度任务;若未完成,则等待下一个货物出库请求。
本实施例通过上述方案,具体通过训练得到所述深度信念网络模型;当检测到货物出库请求时,获取密集型仓储系统当前的属性特征数据;将所述属性特征数据输入至预先训练好的深度信念网络模型中进行调度决策,生成调度决策方案,其中,所述深度信念网络模型由提升机选择学习模型、穿梭车选择学习模型和货位优先级学习模型中的一种或多种组成。通过训练后的深度信念网络模型对密集型仓储系统的货物出库请求进行调度决策,可以解决作业效率较低,设备利用率较低,致使系统总作业时间耗费长的问题,达到仓储系统的调度决策及时、高效的目的。通过本申请方案,不需要建立复杂的数学模型和假设约束,而是从系统运行过程积累的海量数据中学习密集型仓储系统调度的潜在规律,并为现场作业提供决策指导。基于本申请方案以最小化系统总作业时间为目标,通过实时获取系统运行过程信息,实现了仓储系统调度决策的及时与高效。
进一步地,在本实施例中提供了一种仓储调度决策方法的具体实施案例以及性能验证案例。
以某自动化密集型仓储中心的立体仓库为例。仓储系统设有4排巷道,每排巷道两侧各设立1个单深度的密集型货架,每个货架20层,40列。货架每层都设有缓存区用于缓存货箱,缓存区的容量为1。每排巷道配备1台穿梭车提升机、1台货物提升机和3台多层穿梭车。以系统的出库作业为例,已知仓储系统的货物初始位置和历史出库订单列表。通过基于该真实仓储系统的仿真案例进行实验分析,采用专业的离散时间仿真软件平台西门子Tecnomatix建立了该仓储系统的仿真场景。
为了实现本发明提出的实时决策方法,开发了DBN程序,并与仿真平台集成。DBN程序通过python编码在TensorFlow上开发,系统仿真程序通过内置的SimTalk编程语言在Tecnomatix上开发。仿真程序包括以下几个子程序:仓储系统控制器、系统运行状态控制器、任务控制器、调度指令生成器、通信器和调度器。仓储系统控制器模拟系统运行过程,任务控制器负责管理出库订单计划,通信器通过COM接口与仿真程序和DBN程序建立实时信息交互。
决策方案学习过程如下:根据问题实例建立设备调度和货位分配集成优化模型并运用优化算法求解得到较优的决策方案。将问题实例的出库订单计划和决策方案导入任务控制器,通过仓储系统控制器模拟作业过程。当任务控制器根据出库订单计划依次触发货物出库任务时,系统实时的运行属性状态信息发送给系统运行状态控制器,运行状态控制器对信息进行记录并处理,生成用于模型训练的特征数据。调度指令生成器根据导入的决策方案划分设备调度与货位分配指令,建立用于模型训练的标签数据。生成的系统状态特征数据和标签数据对DBN模型进行训练,得到训练后的提升机、穿梭车选择学习和货位优先级学习模型。
实时决策过程如下:任务控制器根据出库订单计划依次触发货物出库请求,系统运行状态控制器生成实时的系统属性特征数据,发送到通信器,通信器将数据发送给训练后的DBN程序,输出得到设备调度与货位分配方案发送给调度器,调度器将实时的调度指令通过通信器发送给仓储系统控制器执行。任务的完整执行过程信息被保存到仿真平台的数据库中。
对历史订单数据通过上述方法进行处理,得到用于提升机选择学习的样本共11880条,穿梭车选择学习的样本共11880条,货位优先级学习的样本共29466条。其中,设定80%的样本作为训练集,20%的样本作为测试集。根据本发明提出的特征数据构建方法,用于巷道/提升机选择学习的属性特征数目为(4+7)*4+4*4=60,用于穿梭车选择学习的属性特征数目为(3+5)*3+4+7+4=39,用于货位优先级学习的属性特征数目为(2+6)*2+7+3+5+4+7+4=46。
算法的参数对算法的性能影响至关重要。田口法可以通过较少的实验次数选择出最佳参数,大幅度减少计算的成本。深度信念网络包括以下的重要参数:(1)网络节点数目Nn;(2)隐藏层数目Nh;(3)RBM学习率r1;(4)BP学习率r2;(5)批量规模bs。对每个参数考虑4个因素水平,如下表三所示。采用正交矩阵L16(45)设计实验。所有实验的RBM迭代次数设为20,BP迭代次数设为300,激活函数采用ReLu函数。采用上述数据集进行参数选择实验。每个案例运行30次,提升机选择(LS)、穿梭车选择(SS)和货位优先级(LP)的模型学习准确率均值如下表四所示。
表三:深度信念网络的重要参数的因素水平
表四:提升机选择(LS)、穿梭车选择(SS)和货位优先级(LP)的模型学习准确率均值
LS、SS和LP三个模型的信噪比响应值和每个参数的重要性排行分别如下表五、表六和表七所示。
Level | N<sub>n</sub> | N<sub>h</sub> | r<sub>1</sub> | r<sub>2</sub> | bs |
1 | -1.2604 | -0.6535 | -0.5608 | -0.8024 | -0.5410 |
2 | -0.5895 | -0.6042 | -0.7203 | -0.5996 | -0.5801 |
3 | -0.8374 | -0.5829 | -0.6369 | -0.5760 | -0.7241 |
4 | -0.5693 | -1.4161 | -1.3387 | -1.2787 | -1.4115 |
Delta | 0.6911 | 0.8332 | 0.7779 | 0.7027 | 0.8706 |
Rank | 5 | 2 | 3 | 4 | 1 |
表五
Level | N<sub>n</sub> | N<sub>h</sub> | r<sub>1</sub> | r<sub>2</sub> | bs |
1 | -0.5357 | -0.3567 | -0.3769 | -0.4709 | -0.2816 |
2 | -0.4875 | -0.3419 | -0.3481 | -0.4393 | -0.4056 |
3 | -0.3300 | -0.5506 | -0.3819 | -0.3697 | -0.2855 |
4 | -0.3348 | -0.4387 | -0.5811 | -0.4080 | -0.7153 |
Delta | 0.2057 | 0.2087 | 0.2330 | 0.1012 | 0.4337 |
Rank | 4 | 3 | 2 | 5 | 1 |
表六
表七
Delta表示参数的重要性排行。可以看出,不同模型的参数影响程度次序不同。因此,三个模型的参数均需要仔细的选择,以防止模型欠拟合或过拟合。最大的信噪比响应值的参数组选择为最佳参数组,即LS:Nn=256,Nh=3,r1=0.02,r2=0.1,bs=128;SS:Nn=128,Nh=2,r1=0.05,r2=0.1,bs=128;LP:Nn=256,Nh=4,r1=0.05,r2=0.2,bs=256。
为验证本文所提出的实时决策方法的性能,将本文的方法与传统的经典调度规则进行对比。根据案例,密集型仓储系统运行参数设置如下表八所示。经典调度规则根据用途可分为提升机调度、穿梭车调度和货位分配3类。经典规则的详细信息如下表九所示。将3类规则组合形成8种仓储系统的调度规则组,如下表十所示。例如,调度规则组s1表示提升机调度采用最短任务队列规则,穿梭车调度采用最长等时间规则以及货位分配采用最短搬运距离规则。在6种规模的任务(Ts)上进行实验,以系统总作业时间作为指标,表格中P代表本文所提出的方法,实验结果如下表十一所示。本文的方法与经典调度规则组相比的总作业时间减少比率如下表十二所示。其中,MI代表同一任务规模下最小的总作业时间减少比率,AV代表不同任务规模下相同调度规则组下总作业时间减少比率的均值。
w<sub>0</sub> | h<sub>0</sub> | v<sub>s</sub> | v<sub>l</sub> | a<sub>s</sub> | a<sub>l</sub> | T<sub>load_1</sub> | T<sub>load_2</sub> | T<sub>unload_1</sub> | T<sub>unload_2</sub> |
0.75 | 0.75 | 4 | 2 | 1 | 1.5 | 6 | 7 | 6 | 7 |
表八:密集型仓储系统运行参数设置
表九:经典规则的详细信息
No. | 调度规则组 | No. | 调度规则组 |
S1 | STQ-LWT-MHD | S5 | MNIS-LWT-MHD |
S2 | STQ-LWT-STT | S6 | MNIS-LWT-STT |
S3 | STQ-STQ-MHD | S7 | MNIS-STQ-MHD |
S4 | STQ-STQ-STT | S8 | MNIS-STQ-STT |
表十:仓储系统的调度规则组
表十一:实验结果
表十二:本方法与经典调度规则组相比的总作业时间减少比率
由表十一可得,不同任务规模下,本文所提出的方法的总作业时间均小于经典调度规则组。由表十二可以看出,本文的方法与经典调度规则组相比,平均系统总作业时间最小可减少6.54%,最大可减少17.22%;随着任务规模的增加,系统总作业时间减少比率最小值呈逐渐增大的趋势,当批次任务规模达到100时,系统总作业时间最少可减少7.4%。因此验证了本文所提出的实时决策方法在密集型仓储系统作业的优越性。
本实施例通过上述方案,具体通过当检测到货物出库请求时,获取密集型仓储系统当前的属性特征数据;将所述属性特征数据输入至预先训练好的深度信念网络模型中进行调度决策,生成调度决策方案,其中,所述深度信念网络模型由提升机选择学习模型、穿梭车选择学习模型和货位优先级学习模型中的一种或多种组成。通过训练后的深度信念网络模型对密集型仓储系统的货物出库请求进行调度决策,可以解决作业效率较低,设备利用率较低,致使系统总作业时间耗费长的问题,达到仓储系统的调度决策及时、高效的目的。通过本申请方案,不需要建立复杂的数学模型和假设约束,而是从系统运行过程积累的海量数据中学习密集型仓储系统调度的潜在规律,并为现场作业提供决策指导。基于本申请方案以最小化系统总作业时间为目标,通过实时获取系统运行过程信息,实现了仓储系统调度决策的及时与高效。
此外,本申请实施例还提出一种仓储调度决策装置,所述仓储调度决策装置包括:
数据获取模块,用于当检测到货物出库请求时,获取密集型仓储系统当前的属性特征数据;
调度决策模块,用于将所述属性特征数据输入至预先训练好的深度信念网络模型中进行调度决策,生成调度决策方案,其中,所述深度信念网络模型由提升机选择学习模型、穿梭车选择学习模型和货位优先级学习模型中的一种或多种组成。
本实施例实现仓储调度决策的原理及实施过程,请参照上述各实施例,在此一一不再赘述。
此外,本申请实施例还提出一种终端设备,所述终端设备包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的仓储调度决策程序,所述仓储调度决策程序被所述处理器执行时实现如上所述的仓储调度决策方法的步骤。
由于本仓储调度决策程序被处理器执行时,采用了前述所有实施例的全部技术方案,因此至少具有前述所有实施例的全部技术方案所带来的所有有益效果,在此不再一一赘述。
此外,本申请实施例还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有仓储调度决策程序,所述仓储调度决策程序被处理器执行时实现如上所述的仓储调度决策方法的步骤。
由于本仓储调度决策程序被处理器执行时,采用了前述所有实施例的全部技术方案,因此至少具有前述所有实施例的全部技术方案所带来的所有有益效果,在此不再一一赘述。
相比现有技术,本申请实施例提出的仓储调度决策方法、装置、终端设备以及存储介质,通过当检测到货物出库请求时,获取密集型仓储系统当前的属性特征数据;将所述属性特征数据输入至预先训练好的深度信念网络模型中进行调度决策,生成调度决策方案,其中,所述深度信念网络模型由提升机选择学习模型、穿梭车选择学习模型和货位优先级学习模型中的一种或多种组成。通过训练后的深度信念网络模型对密集型仓储系统的货物出库请求进行调度决策,可以解决作业效率较低,设备利用率较低,致使系统总作业时间耗费长的问题,达到仓储系统的调度决策及时、高效的目的。通过本申请方案,不需要建立复杂的数学模型和假设约束,而是从系统运行过程积累的海量数据中学习密集型仓储系统调度的潜在规律,并为现场作业提供决策指导。基于本申请方案以最小化系统总作业时间为目标,通过实时获取系统运行过程信息,实现了仓储系统调度决策的及时与高效。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,被控终端,或者网络设备等)执行本申请每个实施例的方法。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (10)
1.一种仓储调度决策方法,其特征在于,所述仓储调度决策方法包括:
当检测到货物出库请求时,获取密集型仓储系统当前的属性特征数据;
将所述属性特征数据输入至预先训练好的深度信念网络模型中进行调度决策,生成调度决策方案,其中,所述深度信念网络模型由提升机选择学习模型、穿梭车选择学习模型和货位优先级学习模型中的一种或多种组成。
2.根据权利要求1所述的仓储调度决策方法,其特征在于,所述当检测到货物出库请求时,获取密集型仓储系统当前的属性特征数据的步骤之前,还包括:
训练得到所述深度信念网络模型,具体包括:
对所述深度信念网络模型进行离线训练,得到离线训练后的深度信念网络模型;
对所述离线训练后的深度信念网络模型进行在线训练,得到训练好的深度信念网络模型。
3.根据权利要求2所述的仓储调度决策方法,其特征在于,所述对所述深度信念网络模型进行离线训练,得到离线训练后的深度信念网络模型的步骤包括:
建立集成优化数学模型,运用优化算法对所述集成优化数学模型进行求解,得到模拟的决策方案;
将所述模拟的决策方案导入至预先构建的仓储系统仿真模型进行划分,得到模拟的标签数据;
将预先建立的出库订单计划和所述模拟的决策方案导入至所述仓储系统仿真模型中进行模拟作业,得到模拟的运行属性状态数据;
根据所述运行属性状态数据生成模拟的属性特征数据;
获取所述密集型仓储系统的历史交互数据,生成历史的属性特征数据和历史的标签数据;
结合所述模拟的属性特征数据、所述历史的属性特征数据、所述模拟的标签数据和所述历史的标签数据,对所述深度信念网络模型进行离线训练,得到所述离线训练后的深度信念网络模型。
4.根据权利要求3所述的仓储调度决策方法,其特征在于,所述对所述离线训练后的深度信念网络模型进行在线训练,得到训练好的深度信念网络模型的步骤包括:
获取仓储管理系统和所述密集型仓储系统实际作业现场的在线交互数据;
根据所述在线交互数据对所述离线训练后的深度信念网络模型进行在线训练,得到所述训练好的深度信念网络模型。
5.根据权利要求4所述的仓储调度决策方法,其特征在于,所述深度信念网络模型由所述提升机选择学习模型、所述穿梭车选择学习模型和所述货位优先级学习模型组成,所述结合所述模拟的属性特征数据、所述历史的属性特征数据、所述模拟的标签数据和所述历史的标签数据,对所述深度信念网络模型进行离线训练,得到所述离线训练后的深度信念网络模型的步骤包括:
根据所述模拟的属性特征数据和所述历史的属性特征数据,生成用于离线训练所述提升机选择学习模型的第一训练用的属性特征数据;
根据所述模拟的标签数据和所述历史的标签数据,生成用于离线训练所述提升机选择学习模型的第一训练用的标签数据;
结合所述第一训练用的属性特征数据和所述第一训练用的标签数据对所述提升机选择学习模型进行离线训练,生成被选提升机决策方案,并得到离线训练后的提升机选择学习模型;
结合所述被选提升机决策方案,以及所述模拟的属性特征数据和所述历史的属性特征数据,生成用于离线训练所述穿梭车选择学习模型的第二训练用的属性特征数据;
结合所述被选提升机决策方案,以及所述模拟的标签数据和所述历史的标签数据,生成用于离线训练所述穿梭车选择学习模型的第二训练用的标签数据;
结合所述第二训练用的属性特征数据和所述第二训练用的标签数据对所述穿梭车选择学习模型进行离线训练,生成被选提升机-穿梭车决策方案,并得到离线训练后的穿梭车选择学习模型;
结合所述被选提升机-穿梭车决策方案,以及所述模拟的属性特征数据和所述历史的属性特征数据,生成用于离线训练所述货位优先级学习模型的第三训练用的属性特征数据;
结合所述被选提升机-穿梭车决策方案,以及所述模拟的标签数据和所述历史的标签数据,生成用于离线训练所述货位优先级学习模型的第三训练用的标签数据;
结合所述第三训练用的属性特征数据和所述第三训练用的标签数据对所述货位优先级学习模型进行离线训练,生成被选提升机-穿梭车-货位决策方案,得到离线训练后的穿梭车选择学习模型,并得到所述离线训练后的深度信念网络模型。
6.根据权利要求5所述的仓储调度决策方法,其特征在于,所述第三训练用的属性特征数据包括:被选巷道的属性特征、被选提升机的属性特征、被选穿梭车的属性特征、待出库货物的货位属性特征以及通过货位两两对比方式生成的货位优先级的属性特征。
7.根据权利要求6所述的仓储调度决策方法,其特征在于,所述将所述属性特征输入至预先训练好的深度信念网络模型中进行调度决策,生成调度决策方案的步骤之后,还包括:
根据所述调度决策方案执行仓储调度任务,具体包括:
当被选穿梭车执行跨层取货任务时,检测目标货物所在目标层的穿梭车工作状态信息;
当检测到所述目标层的穿梭车正在执行工作任务时,执行任务转移策略,具体包括:
取消所述被选穿梭车当前的跨层取货任务;
当检测到所述目标层的穿梭车结束执行任务时,执行所述跨层取货任务。
8.一种仓储调度决策装置,其特征在于,所述仓储调度决策装置包括:
数据获取模块,用于当检测到货物出库请求时,获取密集型仓储系统当前的属性特征数据;
调度决策模块,用于将所述属性特征数据输入至预先训练好的深度信念网络模型中进行调度决策,生成调度决策方案,其中,所述深度信念网络模型由提升机选择学习模型、穿梭车选择学习模型和货位优先级学习模型中的一种或多种组成。
9.一种终端设备,其特征在于,所述终端设备包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的仓储调度决策程序,所述仓储调度决策程序被所述处理器执行时实现如权利要求1-7中任一项所述的仓储调度决策方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有仓储调度决策程序,所述仓储调度决策程序被处理器执行时实现如权利要求1-7中任一项所述的仓储调度决策方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211061077.0A CN115409448A (zh) | 2022-08-31 | 2022-08-31 | 仓储调度决策方法、装置、终端设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211061077.0A CN115409448A (zh) | 2022-08-31 | 2022-08-31 | 仓储调度决策方法、装置、终端设备以及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115409448A true CN115409448A (zh) | 2022-11-29 |
Family
ID=84163951
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211061077.0A Pending CN115409448A (zh) | 2022-08-31 | 2022-08-31 | 仓储调度决策方法、装置、终端设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115409448A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116873431A (zh) * | 2023-07-07 | 2023-10-13 | 湘南学院 | 一种基于岩板智能仓库的多重载agv储运方法 |
-
2022
- 2022-08-31 CN CN202211061077.0A patent/CN115409448A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116873431A (zh) * | 2023-07-07 | 2023-10-13 | 湘南学院 | 一种基于岩板智能仓库的多重载agv储运方法 |
CN116873431B (zh) * | 2023-07-07 | 2024-02-06 | 湘南学院 | 一种基于岩板智能仓库的多重载agv储运方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109230142B (zh) | 一种密集仓储系统复合作业的调度路径优化方法 | |
CN109375601A (zh) | 基于数据驱动建模与仿真优化的流水线规划方法及设备 | |
Vahdani | Assignment and scheduling trucks in cross-docking system with energy consumption consideration and trucks queuing | |
CN112147960B (zh) | 一种柔性制造系统优化调度方法及装置 | |
Sun et al. | An autonomous vehicle interference-free scheduling approach on bidirectional paths in a robotic mobile fulfillment system | |
CN113359702B (zh) | 一种基于水波优化-禁忌搜索的智能仓库agv作业优化调度方法 | |
Luo et al. | A* guiding DQN algorithm for automated guided vehicle pathfinding problem of robotic mobile fulfillment systems | |
CN113361073A (zh) | 一种基于改进拉格朗日松弛算法的库存路径联合优化方法 | |
CN116596440A (zh) | 一种自动化立体仓库出入库智能调度方法 | |
CN115409448A (zh) | 仓储调度决策方法、装置、终端设备以及存储介质 | |
Hani et al. | Simulation based optimization of a train maintenance facility | |
CN117196169A (zh) | 一种基于深度强化学习的机位调度方法 | |
Wang et al. | Research on Hybrid Real‐Time Picking Routing Optimization Based on Multiple Picking Stations | |
Chen et al. | Warehouses without aisles: Layout design of a multi-deep rack climbing robotic system | |
Yang et al. | A model-based deep reinforcement learning approach to the nonblocking coordination of modular supervisors of discrete event systems | |
Luo et al. | Scheduling storage process of shuttle-based storage and retrieval systems based on reinforcement learning | |
CN113687651A (zh) | 一种按需派送车辆的路径规划方法及装置 | |
Rimélé et al. | Supervised learning and tree search for real-time storage allocation in robotic mobile fulfillment systems | |
CN117557016A (zh) | 一种基于深度强化学习的整车制造冲压资源调度方法 | |
CN116738239A (zh) | 模型训练方法、资源调度方法及装置、系统、设备及介质 | |
Kumar et al. | Integrated scheduling of part, tool and automated guided vehicles in a flexible manufacturing system using modified genetic algorithm | |
CN112836846B (zh) | 一种卷烟发货多库点多方向联运调度双层优化算法 | |
Ma et al. | Order dividing optimisation in crane & shuttle-based storage and retrieval system | |
CN111445100B (zh) | 有限运力下基于自适应时间窗口的车货匹配方法 | |
Kluska | Support the decision processes in management through the automatic generation of simulation models of warehouses |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |