CN111831675A - 一种仓储模型训练方法、装置、计算机设备及存储介质 - Google Patents

一种仓储模型训练方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN111831675A
CN111831675A CN202010647255.2A CN202010647255A CN111831675A CN 111831675 A CN111831675 A CN 111831675A CN 202010647255 A CN202010647255 A CN 202010647255A CN 111831675 A CN111831675 A CN 111831675A
Authority
CN
China
Prior art keywords
model
warehousing
local
warehouse
shared
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010647255.2A
Other languages
English (en)
Inventor
何安珣
王健宗
肖京
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202010647255.2A priority Critical patent/CN111831675A/zh
Priority to PCT/CN2020/111429 priority patent/WO2021120677A1/zh
Publication of CN111831675A publication Critical patent/CN111831675A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/23Updating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/087Inventory or stock management, e.g. order filling, procurement or balancing against orders

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Finance (AREA)
  • Human Resources & Organizations (AREA)
  • Accounting & Taxation (AREA)
  • Marketing (AREA)
  • Development Economics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Operations Research (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Quality & Reliability (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Databases & Information Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请公开了一种仓储模型训练方法、装置、计算机设备及存储介质,涉及人工智能领域,所述方法通过构建共享仓储模型,并将共享仓储模型发送到仓储服务器;通过仓储服务器的数据库中的本地训练数据集对共享仓储模型进行模型训练,得到本地仓储模型;然后通过聚合本地仓储模型,得到初始仓储模型;利用云端服务器数据库中的检测样本数据集进行模型检测;并根据模型检测结果对初始仓储模型进行迭代更新,最后输出符合标仓储模型。此外,本申请还涉及区块链技术,本申请中的隐私信息本地训练数据集可存储于区块链中。本申请降低了仓储服务器与云端服务器之间的网络传输的压力,同时保证了本地仓储货物数据的隐秘性和安全性。

Description

一种仓储模型训练方法、装置、计算机设备及存储介质
技术领域
本申请涉及人工智能技术领域,具体涉及一种仓储模型训练方法、装置、计算机设备及存储介质。
背景技术
随着计算机技术的发展,越来越多的新兴技术应用到仓储管理领域,传统仓储管理服务正在逐步向智能仓储管理服务转变,例如通过大数据模型来监测和评估仓库中货物的状态和动态价值,但由于仓储管理在智能化过程中数据体量大、形式各异,且不同类型的仓库有不同的管理标准,因此对建模技术提出的更高的要求。
目前,标准的机器学习方法需要将训练数据集中到一个服务器或一个数据中心内进行模型训练,即机器学习模型一般设置在模型服务提供方,而用于模型训练和模型预测的数据一般位于各个数据拥有方,在模型服务提供方进行模型训练以及利用模型进行预测时,需要使用各个数据拥有方的数据,此时各个数据拥有方通过网络将自身数据传输给模型服务提供方,供模型服务提供方使用。而通过网络来进行数据传输存在以下困难:
1)、用于模型训练的数据格式各不相同,且体量巨大,通过网传输占用大量网络资源,在网络不稳定情况下,极容易导致数据丢失;
2)、通过网络来进行数据传输难以保证数据的隐秘性和安全性,容易被不法分子窃取。
其中,上述数据提供方可以是公司或企业,也可以是个体用户。数据拥有方所提供的数据可以是统一收集的客户数据,比如,用户数据和业务数据等。其中,用户数据例如可以包括用户身份数据等;业务数据例如可以包括在公司提供的业务应用上发生的业务数据,比如仓储货物数据、淘宝上的商品交易数据等。对于数据拥有方而言,数据是非常重要和隐私的资产,需要进行数据隐私保护。
发明内容
本申请实施例的目的在于提出一种仓储模型训练方法、装置、计算机设备及存储介质,以解决现有的仓储模型训练方式存在的过度占用网络资源问题,以及无法保证在网络传输过程中仓储货物数据的隐秘性和安全性问题。
为了解决上述技术问题,本申请实施例提供一种仓储模型训练方法,采用了如下所述的技术方案:
构建共享仓储模型,并将共享仓储模型发送到仓储服务器的节点上;
从仓储服务器的数据库内调取仓储货物的历史数据,并生成本地训练数据集;
将本地训练数据集导入到共享仓储模型,对共享仓储模型进行模型训练,得到本地仓储模型;
接收已训练完成的本地仓储模型,并对接收到的本地仓储模型进行加权聚合运算,得到初始仓储模型;
将检测样本数据集输入到初始仓储模型进行模型检测,输出模型检测结果,其中,检测样本数据集存储于云端服务器的数据库内;
判断模型检测结果是否在存在于预设标准检测结果的范围内,若模型检测结果不在预设标准检测结果的范围内,则对初始仓储模型进行迭代更新,直到模型检测结果落入预设标准检测结果的范围内为止,输出仓储模型。
进一步地,构建共享仓储模型,并将共享仓储模型发送到仓储服务器的节点上,具体包括:
获取仓储分类标识,根据仓储分类标识构建共享仓储模型,其中,共享仓储模型包括若干个共享仓储子模型,每一个共享仓储子模型均对应一种仓储分类标识;
接收仓储服务器的建模请求指令,建模请求指令携带有仓储服务器对应的仓储分类标识;
将与仓储分类标识相对应的共享仓储子模型发送到仓储服务器的节点上。
进一步地,共享仓储模型至少包括输入层、卷积层和输出层,将本地训练数据集导入到共享仓储模型,对共享仓储模型进行模型训练,得到本地仓储模型,具体包括:
将本地训练数据集导入共享仓储模型,通过输入层对本地训练数据集进行向量特征转换处理,得到目标数据;
采用卷积层对目标数据进行卷积计算,提取目标数据的特征数据;
将特征数据导入到输出层中进行适配计算,输出适配结果;
根据适配结果对共享仓储模型进行迭代更新,得到本地仓储模型。
进一步地,在根据适配结果对共享仓储模型进行迭代更新,得到本地仓储模型,具体包括:
通过反向传播算法对适配结果与预设标准适配结果进行拟合,获取适配误差;
将适配误差与预设适配误差阈值进行比较;
若适配误差大于预设适配误差阈值,则对共享仓储模型进行迭代更新,直到适配误差小于等于预设适配误差阈值为止,得到本地仓储模型。
进一步地,接收已训练完成的本地仓储模型,并对接收到的本地仓储模型进行加权聚合运算,得到初始仓储模型,具体包括:
提取多个已训练完成的本地仓储模型的损失函数;
对提取到的多个本地仓储模型的损失函数进行加权聚合运算,得到仓储模型的损失函数;
将仓储模型的损失函数填入共享仓储模型,得到初始仓储模型。
进一步地,对提取到的多个本地仓储模型的损失函数进行加权聚合运算,得到仓储模型的损失函数,具体为:
通过以下公式对提取到的多个本地仓储模型的损失函数进行加权聚合运算:
Figure BDA0002573548280000041
其中,J(θ)为仓储模型的损失函数,ωi为第i个本地仓储模型在仓储模型中的权重,hθ(xi)-yi为第i个本地仓储模型的损失函数。
进一步地,对初始仓储模型进行迭代更新,直到模型检测结果落入预设标准检测结果的范围内为止,输出仓储模型,具体包括:
通过反向传播算法对模型检测结果与预设标准检测结果进行拟合,获取检测误差;
将检测误差与预设检测误差阈值进行比较;
若检测误差大于预设检测误差阈值,则对初始仓储模型进行迭代更新,直到检测误差小于或等于预设检测误差阈值为止,输出仓储模型。
为了解决上述技术问题,本申请实施例还提供一种仓储模型训练装置,采用了如下所述的技术方案:
模型构建模块,用于构建共享仓储模型,并将共享仓储模型发送到仓储服务器的节点上;
数据集生成模块,用于从仓储服务器的数据库内调取仓储货物的历史数据,并生成本地训练数据集;
本地训练模块,用于将本地训练数据集导入到共享仓储模型,对共享仓储模型进行模型训练,得到本地仓储模型;
联合训练模块,用于接收已训练完成的本地仓储模型,并对接收到的本地仓储模型进行加权聚合运算,得到初始仓储模型;
模型验证模块,用于将检测样本数据集输入到初始仓储模型进行模型检测,输出模型检测结果,其中,检测样本数据集存储于云端服务器的数据库内;
模型输出模块,用于判断模型检测结果是否在存在于预设标准检测结果的范围内,当模型检测结果不在预设标准检测结果的范围内时,对初始仓储模型进行迭代更新,直到模型检测结果落入预设标准检测结果的范围内为止,输出仓储模型。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
一种计算机设备,包括存储器和处理器,存储器中存储有计算机可读指令,处理器执行计算机可读指令时实现如上述中任一项的仓储模型训练方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
一种计算机可读存储介质,计算机可读存储介质上存储有计算机可读指令,计算机可读指令被处理器执行时实现如上述中任一项的仓储模型训练方法的步骤。
与现有技术相比,本申请实施例主要有以下有益效果:
本申请公开了一种仓储模型训练方法、装置、计算机设备及存储介质,涉及人工智能技术领域,应用于仓储模型的训练,所述仓储模型训练方法通过构建共享仓储模型,并将共享仓储模型发送到仓储服务器;通过仓储服务器的数据库中的本地训练数据集对共享仓储模型进行模型训练,得到本地仓储模型;然后通过聚合本地仓储模型,得到初始仓储模型;利用云端服务器的数据库中的检测样本数据集进行模型检测;并根据模型检测结果对初始仓储模型进行迭代更新,最后输出符合标准仓储模型。本申请通过在云端服务器构建共享仓储模型,在仓储服务器训练本地仓储模型,然后将本地仓储模型进行聚合,形成初始仓储模型,通过检测样本数据集对初始仓储模型进行检测,当模型检测结果在预设标准检测结果的范围内时,输出符合标准仓储模型,本申请在仓储模型训练过程中,通过云端服务器将共享仓储模型发送到仓储服务器,在仓储服务器中进行模型训练,因此不需要将仓储服务器的训练数据集通过网络上传到云端服务器,极大程度地降低了网络传输的压力,保证了本地仓储货物数据的隐秘性和安全性。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性系统架构图;
图2示出了本申请的仓储模型训练方法的一个实施例的流程图;
图3示出了本申请的仓储模型训练方法中本地仓储模型训练的一个实施例的流程图;
图4示出了本申请的仓储模型训练方法中仓储模型迭代更新的一个实施例的流程图;
图5示出了本申请的仓储模型训练装置的一个实施例的结构示意图;
图6是根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving PictureExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(MovingPictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的接收已训练完成的本地仓储模型方法一般由服务器执行,相应地,接收已训练完成的本地仓储模型装置一般设置于服务器中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了本申请的仓储模型训练方法的一个实施例的流程图。所述的仓储模型训练方法,包括以下步骤:
S201,构建共享仓储模型,并将共享仓储模型发送到仓储服务器的节点上;
进一步地,在本申请具体的实施例中,步骤S201构建共享仓储模型,并将共享仓储模型发送到仓储服务器的节点上,具体包括:
获取仓储分类标识,根据仓储分类标识构建共享仓储模型,其中,共享仓储模型包括若干个共享仓储子模型,每一个共享仓储子模型均对应一种仓储分类标识;
接收仓储服务器的建模请求指令,建模请求指令携带有仓储服务器对应的仓储分类标识;
将与仓储分类标识相对应的共享仓储子模型发送到仓储服务器的节点上。
其中,仓储根据其存储对象的不同可以划分为多个类别,例如实物仓储、虚拟仓储等等,实物仓储、虚拟仓储还可以继续根据存储对象性质不同继续进行不同层级的划分,例如实物仓储可划分为实物固体仓储、实物液体仓储、实物气体仓储等等。在本实施例中,预先为仓储系统中所有仓储进行分类,并为每一个仓储添加仓储分类标识。
具体的,云端服务器在构建共享仓储模型时,先获取各个仓储的分类标识,根据仓储分类标识构建共享仓储模型,当接收仓储服务器的建模请求指令时,云端服务器先从建模请求指令提取仓储服务器对应的仓储分类标识,对仓储服务器的仓储分类标识进行识别,并将与仓储分类标识相对应的共享仓储子模型发送到仓储服务器的节点上。
在本申请具体的实施例中,基于长短期记忆网络LSTM构建共享仓储模型,其中,共享仓储模型至少包括3个网络层,具体为输入层、卷积层和输出层,通过长短期记忆网络LSTM在共享仓储模型的输入层构建遗忘门,利用sigmoid函数决定哪些特征信息需要被忽略,LSTM遗忘门计算公式如下:
gate=σ(WXt+Uht-1+b)
其中,gate表示遗忘门的门限值,σ表示sigmoid函数,W、U表示遗忘门权重,b表示遗忘常数,Xt表示当前输入层的输入信息,ht-1表示上一个时刻输出层的输出信息。
本申请实施例通过共享仓储模型的输入层构建LSTM遗忘门,在进行模型训练时,输入层可以实现对训练样本进行筛选,根据计算得到的gate值,判断是否接收训练样本,对于gate值较大的训练样本,允许通过输入层,忽略gate值较小的训练样本,可以通过设定标准gate值来比较,使得模型训练效果更好。
其中,长短期记忆网络(LSTM,Long Short-Term Memory)是一种时间循环神经网络,是为了解决一般的RNN(RecurrentNeuralNetwork,RNN循环神经网络)存在的长期依赖问题而专门设计出来的时间循环神经网络。LSTM中含有LSTM区块(blocks),LSTM区块也被称为智能网络单元,LSTM区块可以记忆不定时间长度的数值,LSTM区块中有一个门限值gate能够决定输入的数据信息input是否重要到需要被记住,以及决定经LSTM输出的数据信息output能不能被输出。LSTM为了最小化训练误差,LSTM的训练采用梯度下降法(Gradient descent),应用时序性倒传递算法,可用来修改LSTM的权重。
S202,从仓储服务器的数据库内调取仓储货物的历史数据,并生成本地训练数据集;
具体的,在本申请实施例中,先在云端服务器构建共享仓储模型,在仓储服务器存在建模需求时,将共享仓储模型发送到仓储服务器节点上,在仓储服务器节点接收到共享仓储模型后,从自身的数据库内调取仓储货物的历史数据,将调取的仓储货物历史数据作为本地训练数据集,将本地训练数据集导入到共享仓储模型,进行模型训练。
需要说明的是,每一个仓储服务器存在建模需求时,都可以向云端服务器发送建模请求指令,获取与自身分类标识相对应的共享仓储子模型,并在自身的服务器内通过本地训练数据集训练共享仓储子模型,将训练好的共享仓储子模型确定为自身的本地仓储模型。
S203,将本地训练数据集导入到共享仓储模型,对共享仓储模型进行模型训练,得到本地仓储模型;
具体的,将本地训练数据集导入到共享仓储模型,利用本地训练数据集对共享仓储模型进行模型训练,得到本地仓储模型。仓储服务器可以利用本地仓储模型来进行仓储货物数据的处理。
进一步地,请参考图3,图3示出了本申请的仓储模型训练方法中本地仓储模型训练的一个实施例的流程图,共享仓储模型至少包括输入层、卷积层和输出层,将本地训练数据集导入到共享仓储模型,对共享仓储模型进行模型训练,得到本地仓储模型,具体包括:
S301,将本地训练数据集导入共享仓储模型,通过输入层对本地训练数据集进行向量特征转换处理,得到目标数据;
其中,共享仓储模型至少包括3个网络层,具体为输入层、卷积层和输出层。
具体的,共享仓储模型的输入层中设置有向量转换端口,通过直接将本地训练数据集导入到向量转换端口进行向量特征转换处理,得到本地训练数据集对应的初始向量集合,将得到初始向量集合作为目标数据输入到共享仓储模型的卷积层中。
S302,采用卷积层对目标数据进行卷积计算,提取目标数据的特征数据;
其中,卷积计算过程为采用m*n的矩阵对输入数值进行卷积,以1维卷积为例,构建一x*n的卷积核,该卷积核在原始矩阵上滑动运算。例如m的值为5,x的值为1,则卷积核自上而下滑动,x首先与第一行的n维向量相乘并求和,得到一个值,随后x继续往下滑动与第2行,第3行…进行卷积运算,共得到5*1的矩阵,即为卷积结果。
具体的,共享仓储模型的卷积层中设置有标准卷积核,通过直接将目标数据导入到标准卷积核进行目标数据的卷积计算,从得到的卷积计算结果中提取目标数据的特征数据。
S303,将特征数据导入到输出层中进行适配计算,输出适配结果;
具体的,输出层中预先设置有的适配分类器,当输出层接收到特征数据时,利用预先设置好的适配分类器对特征数据进行相似度计算,并从计算结果中提取相似度最大的适配结果。
S304,根据适配结果对共享仓储模型进行迭代更新,得到本地仓储模型。
具体的,通过比对相似度最大的适配结果与预设标准适配结果,来判断是否需要对共享仓储模型进行迭代更新。其中,通过对共享仓储模型进行迭代更新,来优化共享仓储模型的初始模型参数,得到输出结果更加精确的本地仓储模型。
需要说明的是,共享仓储模型的初始模型参数只是在构建共享仓储模型时为了共享仓储模型在进行模型训练预设的一系列初始参数,在实际训过程中,由于各个仓储模型应用场景不同,因此各个仓储模型参数比重不可能完全相同,根据不同的训练样本获得的识别结果与预设标准结果之间必然存在误差,且误差大小存在差异,因此需要将训练过程中产生的误差信息逐层回传给共享仓储模型中的各层网络结构,并通过对预设的初始模型参数进行调整,才能获得效果更好的仓储模型。
在本实施例中,通过对本地训练数据集进行向量特征转换处理、卷积计算以及适配计算,来对共享仓储模型进行模型训练,得到本地仓储模型,并根据适配结果对共享仓储模型进行迭代更新,来优化共享仓储模型的初始模型参数,得到输出效果更好的本地仓储模型。
进一步地,步骤S304在根据适配结果对共享仓储模型进行迭代更新,得到本地仓储模型,具体包括:
通过反向传播算法对适配结果与预设标准适配结果进行拟合,获取适配误差;
其中,反向传播算法,即误差反向传播算法(Backpropagation algorithm,BP算法)适合于多层神经元网络的一种学习算法,它建立在梯度下降法的基础上,用于深度学习网络的误差计算。BP网络的输入、输出关系实质上是一种映射关系:一个n输入m输出的BP神经网络所完成的功能是从n维欧氏空间向m维欧氏空间中一有限域的连续映射,这一映射具有高度非线性。BP算法的学习过程由正向传播过程和反向传播过程组成。在正向传播过程中,输入信息通过输入层经隐含层,逐层处理并传向输出层,并转入反向传播,逐层求出目标函数对各神经元权值的偏导数,构成目标函数对权值向量的梯量,以作为修改权值的依据。
具体的,根据适配结果和预设标准适配结果,使用反向传播算法对共享仓储模型各个网络层的初始参数进行调整,对共享仓储模型各个网络层进行误差反传更新,获取更新后的各个网络层的权值和偏置,使用更新后的各个网络层的权值和偏置,对本地训练数据集进行适配误差计算,得到适配误差。
将适配误差与预设适配误差阈值进行比较;
具体的,将适配误差与预设适配误差阈值进行比较,其中,预设适配误差阈值可以根据经验值提前进行设定。
若适配误差大于预设适配误差阈值,则对共享仓储模型进行迭代更新,直到适配误差小于等于预设适配误差阈值为止,得到本地仓储模型。
具体的,若适配误差小于或等于预设适配误差阈值,则表明接受训练的共享仓储模型符合模型标准,将其作为本地仓储模型。若适配误差大于预设适配误差阈值,则对共享仓储模型进行迭代更新,直到适配误差小于等于预设适配误差阈值为止,得到本地仓储模型。在本申请实施例中,在得到本地仓储模型之后,将其存储在仓储服务器内,同时本地仓储模型进行复制,并将复制的本地仓储模型发送到云端服务器。
其中,对共享仓储模型进行迭代更新具体为利用预先设置好的本地仓储模型的损失函数,通过对共享仓储模型中各个网络层的初始参数进行调整的方式进行迭代更新,若适配误差小于等于预设适配误差阈值,则停止迭代,并将该适配误差对应的共享仓储模型确定为本地仓储模型。
本实施例通过,在进行本地仓储模型训练时,通过计算适配误差,将适配误差与预设适配误差阈值进行比较,若适配误差小于或等于预设适配误差阈值,则表明接受训练的共享仓储模型符合模型标准,若适配误差大于预设适配误差阈值,则对共享仓储模型进行迭代更新,直到适配误差小于等于预设适配误差阈值为止。通过对共享仓储模型进行迭代更新,使得最终得到的本地仓储模型的使用误差更小,提高了本地仓储模型预测准确度。
S204,接收已训练完成的本地仓储模型,并对接收到的本地仓储模型进行加权聚合运算,得到初始仓储模型;
具体的,在仓储服务器进行本地仓储模型训练,在本地仓储模型训练完成后,仓储服务器对训练完成的本地仓储模型进行复制,并将复制的本地仓储模型发送给云端服务器,云端服务器接收已训练完成的本地仓储模型,并对接收到的本地仓储模型进行加权聚合运算,得到初始仓储模型。
在本申请另一种实施例中,在本地仓储模型训练完成后,仓储服务器提取训练完成的本地仓储模型的损失函数,并将损失函数发送给云端服务器,云端服务器接收已训练完成的本地仓储模型的损失函数,并对接收到的损失函数进行加权聚合运算,得到仓储模型的损失函数。
在本实施例中,仓储模型训练方法运行于其上的电子设备(例如图1所示的服务 器/终端设备)可以通过有线连接方式或者无线连接方式*接收已训练完成的本地仓储模型。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
进一步地,接收已训练完成的本地仓储模型,并对接收到的本地仓储模型进行加权聚合运算,得到初始仓储模型,具体包括:
提取多个已训练完成的本地仓储模型的损失函数;
具体的,在仓储模型训练过程中,云端服务器可以同时将共享仓储模型发送给多个仓储服务器,多个仓储服务器可以同时对各自的本地仓储模型进行模型训练。在多个本地仓储模型训练完成后,向云端服务器上传训练完成的本地仓储模型,云端服务器接收多个已训练完成的本地仓储模型,并提取多个已训练完成的本地仓储模型的损失函数。
对提取到的多个本地仓储模型的损失函数进行加权聚合运算,得到仓储模型的损失函数;
具体的,对提取到的多个本地仓储模型的损失函数进行加权聚合运算,得到仓储模型的损失函数,具体为:
通过以下公式对提取到的多个本地仓储模型的损失函数进行加权聚合运算:
Figure BDA0002573548280000141
其中,J(θ)为仓储模型的损失函数,ωi为第i个本地仓储模型在仓储模型中的权重,hθ(xi)-yi为第i个本地仓储模型的损失函数。
需要说明的是,在本实施例中,每一个本地仓储在整个仓储系统中的占比并不相同,云端服务器在对提取到的多个本地仓储模型的损失函数进行加权聚合运算时,需要先计算各个本地仓储在整个仓储系统中的权重,各个本地仓储在整个仓储系统中的权重即为各个本地仓储模型在仓储模型中的权重。
将仓储模型的损失函数填入共享仓储模型,得到初始仓储模型。
具体的,云端服务器将通过对多个已训练完成的本地仓储模型的损失函数进行加权聚合运算后得到的损失函数作为仓储模型的损失函数,将仓储模型的损失函数填入共享仓储模型,得到初始仓储模型。
在本实施例中,对提取到的多个本地仓储模型的损失函数进行加权聚合运算,将计算得到仓储模型的损失函数,作为共享仓储模型的损失函数,通将仓储模型的损失函数填入共享仓储模型,得到初始仓储模型。
S205,将检测样本数据集输入到初始仓储模型进行模型检测,输出模型检测结果,其中,检测样本数据集存储于云端服务器的数据库内;
具体的,在本申请实施例中,在得到初始仓储模型之后,从云端服务器的数据库内获取检测样本数据集,并将检测样本数据集输入到初始仓储模型进行模型检测,获取模型检测结果,其中,检测样本数据集是专门用于模型检测的数据集。
S206,判断模型检测结果是否在存在于预设标准检测结果的范围内,若模型检测结果不在预设标准检测结果的范围内,则对初始仓储模型进行迭代更新,直到模型检测结果落入预设标准检测结果的范围内为止,输出仓储模型。
具体的,输出模型检测结果之后,获取模型检测结果,将模型检测结果与预设标准检测结果进行比对,判断模型检测结果是否在存在于预设标准检测结果的范围内,若检测误差小于或等于预设检测误差阈值,则表明接收训练的仓储模型符合模型标准,若检测误差大于预设检测误差阈值,则对初始仓储模型进行迭代更新,直到检测误差小于等于预设检测误差阈值为止。
进一步地,请参考图4,图4示出了本申请的仓储模型训练方法中仓储模型迭代更新的一个实施例的流程图,对初始仓储模型进行迭代更新,直到模型检测结果落入预设标准检测结果的范围内为止,输出仓储模型,具体包括:
S401,通过反向传播算法对模型检测结果与预设标准检测结果进行拟合,获取检测误差;
具体的,根据检测结果和预设标准检测结果,使用反向传播算法对初始仓储模型各个网络层的初始参数进行调整,对初始仓储模型各个网络层进行误差反传更新,获取更新后的各个网络层的权值和偏置,使用更新后的各个网络层的权值和偏置,对检测样本数据集进行检测误差计算,得到检测误差。
S402,将检测误差与预设检测误差阈值进行比较;
具体的,将检测误差与预设检测误差阈值进行比较,其中,预设检测误差阈值可以根据经验值提前进行设定。
S403,若检测误差大于预设检测误差阈值,则对初始仓储模型进行迭代更新,直到检测误差小于或等于预设检测误差阈值为止,输出仓储模型。
具体的,若检测误差小于或等于预设检测误差阈值,则表明接收训练的仓储模型符合模型标准。若检测误差大于预设检测误差阈值,则对初始仓储模型进行迭代更新,直到检测误差小于等于预设检测误差阈值为止,得到仓储模型。
其中,对初始仓储模型进行迭代更新具体为在确定的仓储模型的损失函数的条件下,通过对初始仓储模型中各个网络层的初始参数进行调整的方式进行迭代更新,若检测误差小于等于预设检测误差阈值,则停止迭代,并将该检测误差对应的初始仓储模型确定为符合模型标准的仓储模型。
在本实施例中,在进行仓储模型训练时,通过计算检测误差,将检测误差与预设检测误差阈值进行比较,若检测误差小于或等于预设检测误差阈值,则表明接收训练的仓储模型符合模型标准,若检测误差大于预设检测误差阈值,则对初始仓储模型进行迭代更新,直到检测误差小于等于预设检测误差阈值为止。通过对初始仓储模型进行迭代更新,使得最终得到的仓储模型的使用误差更小,提高了仓储模型预测准确度。
本实施例公开了一种仓储模型训练方法,涉及人工智能技术领域,应用于仓储模型的训练,仓储模型可以用于仓储货物监管、仓储货物评估等等。所述仓储模型训练方法通过构建共享仓储模型,并将共享仓储模型发送到仓储服务器;通过仓储服务器的数据库中的本地训练数据集对共享仓储模型进行模型训练,得到本地仓储模型;然后通过聚合本地仓储模型,得到初始仓储模型;利用云端服务器的数据库中的检测样本数据集进行模型检测;并根据模型检测结果对初始仓储模型进行迭代更新,最后输出符合标准联合预测模型。本申请通过在云端服务器构建共享仓储模型,在仓储服务器训练本地仓储模型,然后将本地预测模型进行聚合,形成初始仓储模型,通过检测样本数据集对初始仓储模型进行检测,当模型检测结果在预设标准检测结果的范围内时,输出符合标准仓储模型,本申请在仓储模型训练过程中,通过云端服务器将共享仓储模型发送到仓储服务器,在仓储服务器中进行模型训练,因此不需要将仓储服务器的训练数据集通过网络上传到云端服务器,极大程度地降低了网络传输的压力,保证了本地仓储货物数据的隐秘性和安全性。
需要强调的是,为进一步保证上述本地训练数据集的私密性和安全性,上述本地训练数据集还可以存储于一区块链的节点中。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本申请可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该计算机可读指令在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图5,作为对上述图2所示方法的实现,本申请提供了一种仓储模型训练装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,图5示出了本申请的仓储模型训练装置的一个实施例的结构示意图,本实施例所述的一种仓储模型训练装置包括:模型构建模块501、数据集生成模块502、本地训练模块503、联合训练模块504、模型验证模块505以及模型输出模块506。其中:
模型构建模块501,用于构建共享仓储模型,并将共享仓储模型发送到仓储服务器的节点上;
数据集生成模块502,用于从仓储服务器的数据库内调取仓储货物的历史数据,并生成本地训练数据集;
本地训练模块503,用于将本地训练数据集导入到共享仓储模型,对共享仓储模型进行模型训练,得到本地仓储模型;
联合训练模块504,用于接收已训练完成的本地仓储模型,并对接收到的本地仓储模型进行加权聚合运算,得到初始仓储模型;
模型验证模块505,用于将检测样本数据集输入到初始仓储模型进行模型检测,输出模型检测结果,其中,检测样本数据集存储于云端服务器的数据库内;
模型输出模块506,用于判断模型检测结果是否在存在于预设标准检测结果的范围内,当模型检测结果不在预设标准检测结果的范围内时,对初始仓储模型进行迭代更新,直到模型检测结果落入预设标准检测结果的范围内为止,输出仓储模型。
进一步地,模型构建模块501具体包括:
建模单元,用于获取仓储分类标识,根据仓储分类标识构建共享仓储模型,其中,共享仓储模型包括若干个共享仓储子模型,每一个共享仓储子模型均对应一种仓储分类标识;
接收单元,用于接收仓储服务器的建模请求指令,建模请求指令携带有仓储服务器对应的仓储分类标识;
发送单元,用于将与仓储分类标识相对应的共享仓储子模型发送到仓储服务器的节点上。
进一步地,共享仓储模型至少包括输入层、卷积层和输出层,本地训练模块503具体包括:
转换单元,用于将本地训练数据集导入共享仓储模型,通过输入层对本地训练数据集进行向量特征转换处理,得到目标数据;
特征数据提取单元,用于用卷积层对目标数据进行卷积计算,提取目标数据的特征数据;
适配单元,用于将特征数据导入到输出层中进行适配计算,输出适配结果;
本地迭代单元,用于根据适配结果对共享仓储模型进行迭代更新,得到本地仓储模型。
进一步地,本地迭代单元具体包括:
适配拟合子单元,用于通过反向传播算法对适配结果与预设标准适配结果进行拟合,获取适配误差;
适配误差比较子单元,用于将适配误差与预设适配误差阈值进行比较;
本地迭代子单元,用于当适配误差大于预设适配误差阈值时,对共享仓储模型进行迭代更新,直到适配误差小于等于预设适配误差阈值为止,得到本地仓储模型。
进一步地,联合训练模块504具体包括:
损失函数提取单元,用于提取多个已训练完成的本地仓储模型的损失函数;
加权聚合运算单元,用于对提取到的多个本地仓储模型的损失函数进行加权聚合运算,得到仓储模型的损失函数;
损失函数填入单元,用于将仓储模型的损失函数填入共享仓储模型,得到初始仓储模型。
进一步地,加权聚合运算单元具体用于通过以下公式对提取到的多个本地仓储模型的损失函数进行加权聚合运算:
Figure BDA0002573548280000201
其中,J(θ)为仓储模型的损失函数,ωi为第i个本地仓储模型在仓储模型中的权重,hθ(xi)-yi为第i个本地仓储模型的损失函数。
进一步地,模型输出模块506具体包括:
检测误差拟合单元,用于通过反向传播算法对模型检测结果与预设标准检测结果进行拟合,获取检测误差;
检测误差比较单元,用于将检测误差与预设检测误差阈值进行比较;
模型输出单元,用于当检测误差大于预设检测误差阈值时,对初始仓储模型进行迭代更新,直到检测误差小于或等于预设检测误差阈值为止,输出仓储模型。
本实施例公开了一种仓储模型训练装置,包括:模型构建模块501,用于构建共享仓储模型,并将共享仓储模型发送到仓储服务器的节点上;数据集生成模块502,用于从仓储服务器的数据库内调取仓储货物的历史数据,并生成本地训练数据集;本地训练模块503,用于将本地训练数据集导入到共享仓储模型,对共享仓储模型进行模型训练,得到本地仓储模型;联合训练模块504,用于接收已训练完成的本地仓储模型,并对接收到的本地仓储模型进行加权聚合运算,得到初始仓储模型;模型验证模块505,用于将检测样本数据集输入到初始仓储模型进行模型检测,输出模型检测结果,其中,检测样本数据集存储于云端服务器的数据库内;模型输出模块506,用于判断模型检测结果是否在存在于预设标准检测结果的范围内,当模型检测结果不在预设标准检测结果的范围内时,对初始仓储模型进行迭代更新,直到模型检测结果落入预设标准检测结果的范围内为止,输出仓储模型。本申请通过在云端服务器构建共享仓储模型,在仓储服务器训练本地仓储模型,然后将本地仓储模型进行聚合,形成初始仓储模型,通过检测样本数据集对初始仓储模型进行检测,当模型检测结果在预设标准检测结果的范围内时,输出符合标准仓储模型,本申请在仓储模型训练过程中,通过云端服务器将共享仓储模型发送到仓储服务器,在仓储服务器中进行模型训练,因此不需要将仓储服务器的训练数据集通过网络上传到云端服务器,极大程度地降低了网络传输的压力,保证了本地仓储货物数据的隐秘性和安全性。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图6,图6为本实施例计算机设备基本结构框图。
所述计算机设备6包括通过系统总线相互通信连接存储器61、处理器62、网络接口63。需要指出的是,图中仅示出了具有组件61-63的计算机设备6,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器61至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器61可以是所述计算机设备6的内部存储单元,例如该计算机设备6的硬盘或内存。在另一些实施例中,所述存储器61也可以是所述计算机设备6的外部存储设备,例如该计算机设备6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器61还可以既包括所述计算机设备6的内部存储单元也包括其外部存储设备。本实施例中,所述存储器61通常用于存储安装于所述计算机设备6的操作系统和各类应用软件,例如仓储模型训练方法的计算机可读指令等。此外,所述存储器61还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器62在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器62通常用于控制所述计算机设备6的总体操作。本实施例中,所述处理器62用于运行所述存储器61中存储的计算机可读指令或者处理数据,例如运行所述仓储模型训练方法的计算机可读指令。
所述网络接口63可包括无线网络接口或有线网络接口,该网络接口63通常用于在所述计算机设备6与其他电子设备之间建立通信连接。
本申请公开了一种仓储模型训练方法、装置、计算机设备及存储介质,涉及人工智能技术领域,应用于仓储模型的训练,所述仓储模型训练方法通过构建共享仓储模型,并将共享仓储模型发送到仓储服务器;通过仓储服务器的数据库中的本地训练数据集对共享仓储模型进行模型训练,得到本地仓储模型;然后通过聚合本地仓储模型,得到初始仓储模型;利用云端服务器的数据库中的检测样本数据集进行模型检测;并根据模型检测结果对初始仓储模型进行迭代更新,最后输出符合标准仓储模型。本申请通过在云端服务器构建共享仓储模型,在仓储服务器训练本地仓储模型,然后将本地仓储模型进行聚合,形成初始仓储模型,通过检测样本数据集对初始仓储模型进行检测,当模型检测结果在预设标准检测结果的范围内时,输出符合标准仓储模型,本申请在仓储模型训练过程中,通过云端服务器将共享仓储模型发送到仓储服务器,在仓储服务器中进行模型训练,因此不需要将仓储服务器的训练数据集通过网络上传到云端服务器,极大程度地降低了网络传输的压力,保证了本地仓储货物数据的隐秘性和安全性。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的仓储模型训练方法的步骤。
本申请公开了一种仓储模型训练方法、装置、计算机设备及存储介质,涉及人工智能技术领域,应用于仓储模型的训练,所述仓储模型训练方法通过构建共享仓储模型,并将共享仓储模型发送到仓储服务器;通过仓储服务器的数据库中的本地训练数据集对共享仓储模型进行模型训练,得到本地仓储模型;然后通过聚合本地仓储模型,得到初始仓储模型;利用云端服务器的数据库中的检测样本数据集进行模型检测;并根据模型检测结果对初始仓储模型进行迭代更新,最后输出符合标准仓储模型。本申请通过在云端服务器构建共享仓储模型,在仓储服务器训练本地仓储模型,然后将本地仓储模型进行聚合,形成初始仓储模型,通过检测样本数据集对初始仓储模型进行检测,当模型检测结果在预设标准检测结果的范围内时,输出符合标准仓储模型,本申请在仓储模型训练过程中,通过云端服务器将共享仓储模型发送到仓储服务器,在仓储服务器中进行模型训练,因此不需要将仓储服务器的训练数据集通过网络上传到云端服务器,极大程度地降低了网络传输的压力,保证了本地仓储货物数据的隐秘性和安全性。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。

Claims (10)

1.一种仓储模型训练方法,其特征在于,包括:
构建共享仓储模型,并将所述共享仓储模型发送到仓储服务器的节点上;
从所述仓储服务器的数据库内调取仓储货物的历史数据,并生成本地训练数据集;
将所述本地训练数据集导入到所述共享仓储模型,对所述共享仓储模型进行模型训练,得到本地仓储模型;
接收已训练完成的本地仓储模型,并对接收到的所述本地仓储模型进行加权聚合运算,得到初始仓储模型;
将检测样本数据集输入到所述初始仓储模型进行模型检测,输出模型检测结果,其中,所述检测样本数据集存储于云端服务器的数据库内;
判断所述模型检测结果是否在存在于预设标准检测结果的范围内,若所述模型检测结果不在预设标准检测结果的范围内,则对所述初始仓储模型进行迭代更新,直到所述模型检测结果落入预设标准检测结果的范围内为止,输出仓储模型。
2.如权利要求1所述仓储模型训练方法,其特征在于,所述构建共享仓储模型,并将所述共享仓储模型发送到仓储服务器的节点上,具体包括:
获取仓储分类标识,根据所述仓储分类标识构建共享仓储模型,其中,共享仓储模型包括若干个共享仓储子模型,每一个所述共享仓储子模型均对应一种仓储分类标识;
接收所述仓储服务器的建模请求指令,所述建模请求指令携带有仓储服务器对应的仓储分类标识;
将与所述仓储分类标识相对应的共享仓储子模型发送到仓储服务器的节点上。
3.如权利要求1所述仓储模型训练方法,其特征在于,所述共享仓储模型至少包括输入层、卷积层和输出层,所述将所述本地训练数据集导入到所述共享仓储模型,对所述共享仓储模型进行模型训练,得到本地仓储模型,具体包括:
将所述本地训练数据集导入所述共享仓储模型,通过所述输入层对所述本地训练数据集进行向量特征转换处理,得到目标数据;
采用所述卷积层对所述目标数据进行卷积计算,提取所述目标数据的特征数据;
将所述特征数据导入到所述输出层中进行适配计算,输出适配结果;
根据所述适配结果对所述共享仓储模型进行迭代更新,得到本地仓储模型。
4.如权利要求3所述仓储模型训练方法,其特征在于,在所述根据所述适配结果对所述共享仓储模型进行迭代更新,得到本地仓储模型,具体包括:
通过反向传播算法对所述适配结果与预设标准适配结果进行拟合,获取适配误差;
将所述适配误差与预设适配误差阈值进行比较;
若所述适配误差大于预设适配误差阈值,则对所述共享仓储模型进行迭代更新,直到所述适配误差小于等于预设适配误差阈值为止,得到本地仓储模型。
5.如权利要求1所述仓储模型训练方法,其特征在于,所述接收已训练完成的本地仓储模型,并对接收到的所述本地仓储模型进行加权聚合运算,得到初始仓储模型,具体包括:
提取多个已训练完成的所述本地仓储模型的损失函数;
对提取到的多个所述本地仓储模型的损失函数进行加权聚合运算,得到仓储模型的损失函数;
将所述仓储模型的损失函数填入所述共享仓储模型,得到初始仓储模型。
6.如权利要求5所述仓储模型训练方法,其特征在于,所述对提取到的多个所述本地仓储模型的损失函数进行加权聚合运算,得到仓储模型的损失函数,具体为:
通过以下公式对提取到的多个所述本地仓储模型的损失函数进行加权聚合运算:
Figure FDA0002573548270000021
其中,J(θ)为仓储模型的损失函数,ωi为第i个本地仓储模型在仓储模型中的权重,hθ(xi)-yi为第i个本地仓储模型的损失函数。
7.如权利要求1所述仓储模型训练方法,其特征在于,所述对所述初始仓储模型进行迭代更新,直到所述模型检测结果落入预设标准检测结果的范围内为止,输出仓储模型,具体包括:
通过反向传播算法对所述模型检测结果与预设标准检测结果进行拟合,获取检测误差;
将所述检测误差与预设检测误差阈值进行比较;
若所述检测误差大于预设检测误差阈值,则对所述初始仓储模型进行迭代更新,直到所述检测误差小于或等于预设检测误差阈值为止,输出仓储模型。
8.一种仓储模型训练装置,其特征在于,包括:
模型构建模块,用于构建共享仓储模型,并将所述共享仓储模型发送到仓储服务器的节点上;
数据集生成模块,用于从所述仓储服务器的数据库内调取仓储货物的历史数据,并生成本地训练数据集;
本地训练模块,用于将所述本地训练数据集导入到所述共享仓储模型,对所述共享仓储模型进行模型训练,得到本地仓储模型;
联合训练模块,用于接收已训练完成的本地仓储模型,并对接收到的所述本地仓储模型进行加权聚合运算,得到初始仓储模型;
模型验证模块,用于将检测样本数据集输入到所述初始仓储模型进行模型检测,输出模型检测结果,其中,所述检测样本数据集存储于云端服务器的数据库内;
模型输出模块,用于判断所述模型检测结果是否在存在于预设标准检测结果的范围内,当所述模型检测结果不在预设标准检测结果的范围内时,对所述初始仓储模型进行迭代更新,直到所述模型检测结果落入预设标准检测结果的范围内为止,输出仓储模型。
9.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至7中任一项所述的仓储模型训练方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至7中任一项所述的仓储模型训练方法的步骤。
CN202010647255.2A 2020-07-07 2020-07-07 一种仓储模型训练方法、装置、计算机设备及存储介质 Pending CN111831675A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010647255.2A CN111831675A (zh) 2020-07-07 2020-07-07 一种仓储模型训练方法、装置、计算机设备及存储介质
PCT/CN2020/111429 WO2021120677A1 (zh) 2020-07-07 2020-08-26 一种仓储模型训练方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010647255.2A CN111831675A (zh) 2020-07-07 2020-07-07 一种仓储模型训练方法、装置、计算机设备及存储介质

Publications (1)

Publication Number Publication Date
CN111831675A true CN111831675A (zh) 2020-10-27

Family

ID=72900405

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010647255.2A Pending CN111831675A (zh) 2020-07-07 2020-07-07 一种仓储模型训练方法、装置、计算机设备及存储介质

Country Status (2)

Country Link
CN (1) CN111831675A (zh)
WO (1) WO2021120677A1 (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112733910A (zh) * 2020-12-30 2021-04-30 华为技术有限公司 一种放置位置的获取方法、模型的训练方法以及相关设备
CN112936304A (zh) * 2021-02-02 2021-06-11 浙江大学 一种自演进式服务机器人系统及其学习方法
CN113344587A (zh) * 2021-08-05 2021-09-03 北京轻松筹信息技术有限公司 数据等级的确定方法、装置、电子设备及存储介质
CN113554401A (zh) * 2021-08-05 2021-10-26 杭州拼便宜网络科技有限公司 库存数据管理方法、装置、设备和存储介质
CN113762862A (zh) * 2020-12-28 2021-12-07 京东城市(北京)数字科技有限公司 货物异常监测的方法、装置、电子设备和存储介质
CN115009755A (zh) * 2022-04-13 2022-09-06 北京京东振世信息技术有限公司 一种仓储系统设备的控制方法和装置
CN115860641A (zh) * 2023-01-10 2023-03-28 广州宇浪软件科技有限公司 一种基于信息共享的物流仓储管理方法及系统
CN117391585A (zh) * 2023-11-01 2024-01-12 深圳市正业玖坤信息技术有限公司 工业互联网的仓储信息管理方法以及系统

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114011903A (zh) * 2021-11-01 2022-02-08 深圳市信润富联数字科技有限公司 冲压生产异常监测方法、装置、系统与可读存储介质
CN114996317B (zh) * 2022-07-05 2024-02-23 中国电信股份有限公司 基于纵向联邦学习的异步优化方法、装置及存储介质
CN115689334A (zh) * 2022-09-30 2023-02-03 深圳市库宝软件有限公司 仓库管理系统的效率分析方法、系统及计算机设备
CN117056133B (zh) * 2023-10-12 2024-02-06 杭州浩联智能科技有限公司 一种基于分布式物联网架构的数据备份方法、装置及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108873697A (zh) * 2018-06-23 2018-11-23 四川工大创兴大数据有限公司 一种基于人工智能的仓储方法及系统
CN109840730A (zh) * 2017-11-29 2019-06-04 北京京东尚科信息技术有限公司 用于数据预测的方法及装置
US10380498B1 (en) * 2015-05-22 2019-08-13 Amazon Technologies, Inc. Platform services to enable one-click execution of the end-to-end sequence of modeling steps
CN110532978A (zh) * 2019-09-03 2019-12-03 北京百度网讯科技有限公司 仓储管理方法、装置、设备及存储介质
CN110874670A (zh) * 2018-08-31 2020-03-10 财团法人工业技术研究院 仓储储位配置系统
CN111027715A (zh) * 2019-12-11 2020-04-17 支付宝(杭州)信息技术有限公司 基于蒙特卡洛的联邦学习模型训练方法及装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10769549B2 (en) * 2016-11-21 2020-09-08 Google Llc Management and evaluation of machine-learned models based on locally logged data
CN109754060B (zh) * 2017-11-06 2023-08-25 阿里巴巴集团控股有限公司 一种神经网络机器学习模型的训练方法及装置
CN110751286B (zh) * 2018-07-23 2024-05-10 第四范式(北京)技术有限公司 神经网络模型的训练方法和训练系统
CN110399742B (zh) * 2019-07-29 2020-12-18 深圳前海微众银行股份有限公司 一种联邦迁移学习模型的训练、预测方法及装置
CN110442457A (zh) * 2019-08-12 2019-11-12 北京大学深圳研究生院 基于联邦学习的模型训练方法、装置及服务器
CN111369042B (zh) * 2020-02-27 2021-09-24 山东大学 一种基于加权联邦学习的无线业务流量预测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10380498B1 (en) * 2015-05-22 2019-08-13 Amazon Technologies, Inc. Platform services to enable one-click execution of the end-to-end sequence of modeling steps
CN109840730A (zh) * 2017-11-29 2019-06-04 北京京东尚科信息技术有限公司 用于数据预测的方法及装置
CN108873697A (zh) * 2018-06-23 2018-11-23 四川工大创兴大数据有限公司 一种基于人工智能的仓储方法及系统
CN110874670A (zh) * 2018-08-31 2020-03-10 财团法人工业技术研究院 仓储储位配置系统
CN110532978A (zh) * 2019-09-03 2019-12-03 北京百度网讯科技有限公司 仓储管理方法、装置、设备及存储介质
CN111027715A (zh) * 2019-12-11 2020-04-17 支付宝(杭州)信息技术有限公司 基于蒙特卡洛的联邦学习模型训练方法及装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113762862A (zh) * 2020-12-28 2021-12-07 京东城市(北京)数字科技有限公司 货物异常监测的方法、装置、电子设备和存储介质
CN112733910A (zh) * 2020-12-30 2021-04-30 华为技术有限公司 一种放置位置的获取方法、模型的训练方法以及相关设备
CN112936304A (zh) * 2021-02-02 2021-06-11 浙江大学 一种自演进式服务机器人系统及其学习方法
CN113344587A (zh) * 2021-08-05 2021-09-03 北京轻松筹信息技术有限公司 数据等级的确定方法、装置、电子设备及存储介质
CN113554401A (zh) * 2021-08-05 2021-10-26 杭州拼便宜网络科技有限公司 库存数据管理方法、装置、设备和存储介质
CN113344587B (zh) * 2021-08-05 2022-04-05 北京轻松筹信息技术有限公司 数据等级的确定方法、装置、电子设备及存储介质
CN115009755A (zh) * 2022-04-13 2022-09-06 北京京东振世信息技术有限公司 一种仓储系统设备的控制方法和装置
CN115009755B (zh) * 2022-04-13 2024-04-05 北京京东振世信息技术有限公司 一种仓储系统设备的控制方法和装置
CN115860641A (zh) * 2023-01-10 2023-03-28 广州宇浪软件科技有限公司 一种基于信息共享的物流仓储管理方法及系统
CN115860641B (zh) * 2023-01-10 2023-07-21 广州宇浪软件科技有限公司 一种基于信息共享的物流仓储管理方法及系统
CN117391585A (zh) * 2023-11-01 2024-01-12 深圳市正业玖坤信息技术有限公司 工业互联网的仓储信息管理方法以及系统

Also Published As

Publication number Publication date
WO2021120677A1 (zh) 2021-06-24

Similar Documents

Publication Publication Date Title
CN111831675A (zh) 一种仓储模型训练方法、装置、计算机设备及存储介质
CN112148987B (zh) 基于目标对象活跃度的消息推送方法及相关设备
CN113435583A (zh) 基于联邦学习的对抗生成网络模型训练方法及其相关设备
CN112418292A (zh) 一种图像质量评价的方法、装置、计算机设备及存储介质
CN112101172A (zh) 基于权重嫁接的模型融合的人脸识别方法及相关设备
CN112863683A (zh) 基于人工智能的病历质控方法、装置、计算机设备及存储介质
CN112528029A (zh) 文本分类模型处理方法、装置、计算机设备及存储介质
CN112288163A (zh) 目标对象的目标因子预测方法及相关设备
CN112995414A (zh) 基于语音通话的行为质检方法、装置、设备及存储介质
CN113420212A (zh) 基于深度特征学习的推荐方法、装置、设备及存储介质
CN115130711A (zh) 一种数据处理方法、装置、计算机及可读存储介质
CN112785005A (zh) 多目标任务的辅助决策方法、装置、计算机设备及介质
CN114359582A (zh) 一种基于神经网络的小样本特征提取方法及相关设备
CN116684330A (zh) 基于人工智能的流量预测方法、装置、设备及存储介质
CN115510186A (zh) 基于意图识别的即时问答方法、装置、设备及存储介质
CN115099326A (zh) 基于人工智能的行为预测方法、装置、设备及存储介质
CN115757075A (zh) 任务异常检测方法、装置、计算机设备及存储介质
CN112887371B (zh) 边缘计算方法、装置、计算机设备及存储介质
CN110866637A (zh) 评分预测方法、装置、计算机设备和存储介质
CN114519420A (zh) 一种空气质量预测方法、装置、计算机设备及存储介质
CN114241411A (zh) 基于目标检测的计数模型处理方法、装置及计算机设备
CN113791909A (zh) 服务器容量调整方法、装置、计算机设备及存储介质
CN116843483A (zh) 一种车险理赔方法、装置、计算机设备及存储介质
CN115392361A (zh) 一种智能排序方法、装置、计算机设备及存储介质
CN115099875A (zh) 基于决策树模型的数据分类方法及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination