CN111277710A - 话务量预测方法、系统、计算机设备及存储介质 - Google Patents

话务量预测方法、系统、计算机设备及存储介质 Download PDF

Info

Publication number
CN111277710A
CN111277710A CN202010051814.3A CN202010051814A CN111277710A CN 111277710 A CN111277710 A CN 111277710A CN 202010051814 A CN202010051814 A CN 202010051814A CN 111277710 A CN111277710 A CN 111277710A
Authority
CN
China
Prior art keywords
neural network
telephone traffic
lstm neural
traffic data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010051814.3A
Other languages
English (en)
Inventor
柳薇
盛妍
田诺
张明杰
王慧
朱龙珠
徐青
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
State Grid Co Ltd Customer Service Center
Original Assignee
State Grid Co Ltd Customer Service Center
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by State Grid Co Ltd Customer Service Center filed Critical State Grid Co Ltd Customer Service Center
Priority to CN202010051814.3A priority Critical patent/CN111277710A/zh
Publication of CN111277710A publication Critical patent/CN111277710A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/22Arrangements for supervision, monitoring or testing
    • H04M3/36Statistical metering, e.g. recording occasions when traffic exceeds capacity of trunks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/22Arrangements for supervision, monitoring or testing
    • H04M3/36Statistical metering, e.g. recording occasions when traffic exceeds capacity of trunks
    • H04M3/362Traffic simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本发明涉及电力行业的数据分析技术,具体涉及电网客服中心的话务量预测方法、系统、计算机设备及存储介质,其方法包括:获取呼叫中心在建模时间窗口的原始话务量数据,并对其进行标准化处理;对标准化后的话务量数据重构,计算重构序列的均值和方差,将重构序列及其均值、方差作为LSTM神经网络输入,设置神经网络输出层维数;建立LSTM神经网络模型,设置初始隐含层数和隐含层节点数量,训练、优化模型;将训练好的LSTM神经网络模型用于预测话务量,根据话务量数据的标准化处理过程,将预测变量逆向还原后与实际值对比,得到预测结果。本发明构建模型对话务量进行预测,精度较高、适应性较强,能够有效实现呼叫中心人力资源的最优配置。

Description

话务量预测方法、系统、计算机设备及存储介质
技术领域
本发明涉及电力行业的数据分析技术,具体涉及电网客服中心的话务量预测方法、系统、计算机设备及存储介质。
背景技术
电网客服中心运营管理主要包括呼叫中心的话务预测与排班、应急管理、运营现场秩序管理、监控管理等内容。若使用传统的经验式排班模式,不但无法提供优质的服务,还增加了客服人员工作量,无法满足实际生产需要。而座席排班管理是基于话务量预测的,话务量数据是呼叫中心坐席数安排的依据,呼叫中心可以针对不同的话务量安排对应的坐席,使得在满足呼叫中心服务需求的前提下,实现呼叫中心人力资源的最优配置,同时也对下一年度人员招聘计划起到较大的指导作用。因此,根据话务量历史及相关业务场景对客服中心话务量的变化趋势进行预测,提高话务量预测准确性,对公司运营管理来说显得尤为重要。
时间序列预测模型是预测话务量常用的方法,其中线性自回归移动平均模型被广泛的应用于时间序列的分析和预测,要求训练数据的时间序列应具有正态分布、全局平稳等特征,但在实际应用中,话务量的时间序列往往是不规则、非平稳且非线性的。
发明内容
鉴于现有技术所存在的不足,本发明提出话务量预测方法、系统、计算机设备及存储介质,对原始话务量数据进行标准化处理和数据重构后,构建模型对话务量进行预测,精度较高、适应性较强,能够有效实现呼叫中心人力资源的最优配置。
为实现上述目的,本发明采用的技术方案如下:话务量预测方法,包括以下步骤:
S1、确定建模时间窗口,获取呼叫中心在建模时间窗口的原始话务量数据,并对原始话务量数据进行标准化处理,得到标准化后的话务量数据;
S2、对标准化后的话务量数据进行重构,得到重构序列;计算重构序列的均值和方差,将重构序列及其均值、方差作为LSTM神经网络输入,并设置LSTM神经网络输出层维数;
S3、建立LSTM神经网络模型,设置初始隐含层数和隐含层节点数量;对LSTM神经网络模型进行训练,通过训练学习率以及迭代次数,对LSTM神经网络模型进行优化;
S4、将训练好的LSTM神经网络模型用于预测话务量,根据步骤S1的标准化处理过程,将预测变量逆向还原后与实际值对比,得到预测结果。
本发明的话务量预测系统,包括:
话务量数据标准化处理模块,用于确定建模时间窗口,获取呼叫中心在建模时间窗口的原始话务量数据,并对原始话务量数据进行标准化处理,得到标准化后的话务量数据;
数据重构模块,用于对标准化后的话务量数据进行重构,得到重构序列;计算重构序列的均值和方差,将重构序列及其均值、方差作为LSTM神经网络输入,并设置LSTM神经网络输出层维数;
模型建立及优化模块,用于建立LSTM神经网络模型,设置初始隐含层数和隐含层节点数量;对LSTM神经网络模型进行训练,通过训练学习率以及迭代次数,对LSTM神经网络模型进行优化;
预测模块,用于将训练好的LSTM神经网络模型对话务量进行预测,根据话务量数据的标准化处理过程,将预测变量逆向还原后与实际值对比,得到预测结果。
本发明的计算机设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时,实现本发明话务量预测方法。
本发明的存储介质,其上存储有计算机指令,计算机指令被处理器执行时,实现本发明话务量预测方法的各步骤。
与现有技术相比,本发明取得了如下优点:
将电网客服中心的原始话务量数据(如某网省的呼叫话务量)进行标准化处理和数据重构后,基于循环神经网络与LSTM神经网络的原理进行建模,得到的话务量预测模型的预测精度较高、适应性较强,改变了传统建模方法存在预测精度不高、对样本数据要求平稳性等局限性。本发明能够有效实现呼叫中心人力资源的最优配置,为排班管理提供量化基础,及时了解业务发展趋势,降低因呼损带来的企业形象的损失。
附图说明
图1为本发明话务量预测方法的流程图。
具体实施方式
下面结合说明书附图与具体实施方式对本发明做进一步的详细说明,但本发明的实施方式不限于此。
图1示出了本发明一个实施例中的话务量预测方法,该方法主要包括以下步骤:
S1、确定建模时间窗口,获取呼叫中心在建模时间窗口的原始话务量数据,并对原始话务量数据进行标准化处理,得到标准化后的话务量数据。
本步骤首先将某一历史时间段确定为建模时间窗口,确定LSTM神经网络模型训练集合。本实施方式中,以某网省为例,选取2018/1/1至2019/1/31期间的原始话务量数据作为样本集。该样本集分为两个部分,以2018/1/1至2018/12/31期间的原始话务量数据作为训练样本集建立模型,以2019/1/1至2019/1/31期间的原始话务量数据作为测试样本集,与实际话务量做对比,用于验证模型准确率。
为了消除量纲并加快模型训练速度,对原始话务量数据进行标准化处理,得到标准化后的话务量数据,公式为:
Figure BDA0002371441660000031
其中,x为原始话务量数据;average(x)即对原始话务量数据进行均值转化;std(x)为话务量数据的标准差。
S2、对标准化后的话务量数据进行重构,得到重构序列;计算重构序列的均值和方差,将重构序列及其均值、方差作为LSTM神经网络输入,并设置LSTM神经网络输出层维数。
本发明根据LSTM神经网络设置的时间步和特征,对标准化后的话务量数据进行重构,改变话务量数据的维度,使得重构序列为三维数据,与LSTM神经网络的输入相匹配。
本实施方式中,按照60天的建模时间窗口重构标准化后的话务量数据data,重构序列是length(data)-60+1长度的子序列集。LSTM层的输入必须是三维的,即[样本、时间步、特征],所以我们需要将标准化的数据进行数据重构,本实施方式中将时间步设置为60,将特征设置为1,并将重构序列和其均值、方差作为LSTM神经网络输入,即输入层维数为62;输出层维数为1。
S3、建立LSTM神经网络模型,设置初始隐含层数和隐含层节点数量,通过对隐含层节点数调优,提高LSTM神经网络模型的准确率;对LSTM神经网络模型进行训练,通过训练学习率以及迭代次数,对LSTM神经网络模型进行优化。
本实施方式中,LSTM神经网络模型的初始隐含层设置为一层,隐含层节点的数量设置为20。激活函数选择sigmoid激活函数和tanh激活函数,损失函数选择sequence_loss_by_example函数,优化器为Adam(自适应矩估计优化算法)优化算法,采用Dropout(丢弃正则化)方法防止过拟合。
本发明在LSTM神经网络中引入输入门、输出门以及隐层之间的遗忘门,与传统的机器学习相比,有着更强的时间序列学习能力,更强的信息选择能力。
(1)遗忘门
LSTM神经网络在处理时序数据时,从左到右依次处理,面对大量冗杂的信息,遗忘门决定丢掉细胞状态的哪些信息。遗忘门为状态C(t-1)输出一个介于0到1之间的数字,0表示“完全丢弃”,1表示“完全接受”;该数字的数学表达式为:
ft=σ(Wf*[ht-1,xt]+bf)
其中Wf和bf分别表示遗忘门的权重和误差,xt表示t时刻的输入向量,ht-1表示t-1时刻网络的隐藏层状态。ht的表达式如下:
ht=f(Whhht-1+Whxxt+b)
其中,Whh和Whx分别是系数矩阵,b是偏差向量。
(2)输入门
输入门由两个部分构成:第一部分为sigmoid激活函数(即下文的σ函数),输出为it,决定将更新哪些值;第二部分为tanh激活函数,输出为
Figure BDA0002371441660000041
输入门的第一部分输出it与第二部分输出
Figure BDA0002371441660000042
相乘后的结果用于更新细胞状态,数学表达式为:
it=σ(Wi*[ht-1,xt]+bi)
Figure BDA0002371441660000043
其中Wi和WC代表相应的权重,bi和bC代表相应的误差。
通过遗忘门和输入门的表达,细胞状态更新为Ct,数学表达式如下:
Figure BDA0002371441660000044
(3)输出门
经过遗忘门和输入门并且完成细胞状态更新以后,输出门决定输出的信息。将最新的细胞状态Ct通过tanh层处理,并将处理结果与输出门的输出向量ot相乘,便可得到最终输出的隐藏状态ht。数学表达式为:
ot=σ(Wo*[ht-1,xt]+bo)
ht=ot*tanh(Ct)
其中Wo和bo分别代表输出门的权重和偏差,ht为最终的输出值。
神经网络的优化算法经历了梯度下降法、小批量梯度下降法、随机梯度下降法、带动量的梯度下降法、Adam算法的演变。Adam算法组合了带动量梯度下降法(Momentum)和加速梯度下降的算法(RMSprop)的优点,能够基于训练数据迭代地更新网络权重,为不同的参数设计独立的自适应性学习率。该算法的参数配置方面:
学习率(alpha)——控制权重的更新比率;
beta1——1阶矩估计的指数衰减率;
beta2——2阶矩估计的指数衰减率;
epsilon——非常小的参数,防止在现实中除以零
学习率是我们在调参的时候一个重要指标。学习率是最有影响力的超参数之一,以比其他超参数更复杂的方式控制模型的有效容量。当学习率最优时,模型的有效容量最大。学习率越低,损失函数的变化速度就越慢。再者,总的迭代次数也会影响预测精度。通过调整学习率参数和总的迭代次数参数,我们最终得出学习率0.005,总的迭代次数300,模型准确率最高。
S4、将训练好的LSTM神经网络模型用于预测话务量,根据步骤S1的标准化处理过程,将预测变量逆向还原后与实际值对比,得到预测结果。
本实施方式中,基于预测结果,采取以下公式作为LSTM神经网络模型的预测评价指标:
Figure BDA0002371441660000051
其中
Figure BDA0002371441660000052
为话务量预测值,θ为话务量真实值。
利用模型训练得到拟合值和实际值的平均绝对百分比误差来衡量模型的拟合效果,可以得到某网省一月份平均绝对百分比误差为16.68%,说明应用LSTM循环神经网络对话务量进行预测精度较高。
基于与话务量预测方法相同的构思,本发明还提出话务量预测系统,其包括:
话务量数据标准化处理模块,用于实现上述步骤S1,确定建模时间窗口,获取呼叫中心在建模时间窗口的原始话务量数据,并对原始话务量数据进行标准化处理,得到标准化后的话务量数据;
数据重构模块,用于实现上述步骤S2,对标准化后的话务量数据进行重构,得到重构序列;计算重构序列的均值和方差,将重构序列及其均值、方差作为LSTM神经网络输入,并设置LSTM神经网络输出层维数;
模型建立及优化模块,用于实现上述步骤S3,建立LSTM神经网络模型,设置初始隐含层数和隐含层节点数量;对LSTM神经网络模型进行训练,通过训练学习率以及迭代次数,对LSTM神经网络模型进行优化;
预测模块,用于实现上述步骤S4,将训练好的LSTM神经网络模型对话务量进行预测,根据话务量数据的标准化处理过程,将预测变量逆向还原后与实际值对比,得到预测结果。
本发明对话务量预测的技术方案还可以是计算机设备,该计算机设备包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时,实现本发明话务量预测方法。
本发明对话务量预测的技术方案还可以是存储介质,该存储介质上存储有计算机指令,计算机指令被处理器执行时,实现本发明话务量预测方法的各步骤。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其同等技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (10)

1.话务量预测方法,其特征在于,包括以下步骤:
S1、确定建模时间窗口,获取呼叫中心在建模时间窗口的原始话务量数据,并对原始话务量数据进行标准化处理,得到标准化后的话务量数据;
S2、对标准化后的话务量数据进行重构,得到重构序列;计算重构序列的均值和方差,将重构序列及其均值、方差作为LSTM神经网络输入,并设置LSTM神经网络输出层维数;
S3、建立LSTM神经网络模型,设置初始隐含层数和隐含层节点数量;对LSTM神经网络模型进行训练,通过训练学习率以及迭代次数,对LSTM神经网络模型进行优化;
S4、将训练好的LSTM神经网络模型用于预测话务量,根据步骤S1的标准化处理过程,将预测变量逆向还原后与实际值对比,得到预测结果。
2.根据权利要求1所述的话务量预测方法,其特征在于,步骤S1将某一历史时间段确定为建模时间窗口,确定LSTM神经网络模型的训练集合。
3.根据权利要求1所述的话务量预测方法,其特征在于,步骤S1对原始话务量数据进行标准化处理的公式为:
Figure FDA0002371441650000011
其中,x为原始话务量数据;average(x)即对原始话务量数据进行均值转化;std(x)为话务量数据的标准差。
4.根据权利要求1所述的话务量预测方法,其特征在于,步骤S2根据LSTM神经网络设置的时间步和特征,对标准化后的话务量数据进行重构,改变标准化后的话务量数据的维度,使得重构序列为三维数据,与LSTM神经网络的输入相匹配。
5.根据权利要求1所述的话务量预测方法,其特征在于,LSTM神经网络模型的初始隐含层设置为一层,隐含层节点的数量设置为20。
6.根据权利要求1所述的话务量预测方法,其特征在于,在LSTM神经网络引入输入门、输出门以及隐层之间的遗忘门。
7.话务量预测系统,其特征在于,包括:
话务量数据标准化处理模块,用于确定建模时间窗口,获取呼叫中心在建模时间窗口的原始话务量数据,并对原始话务量数据进行标准化处理,得到标准化后的话务量数据;
数据重构模块,用于对标准化后的话务量数据进行重构,得到重构序列;计算重构序列的均值和方差,将重构序列及其均值、方差作为LSTM神经网络输入,并设置LSTM神经网络输出层维数;
模型建立及优化模块,用于建立LSTM神经网络模型,设置初始隐含层数和隐含层节点数量;对LSTM神经网络模型进行训练,通过训练学习率以及迭代次数,对LSTM神经网络模型进行优化;
预测模块,用于将训练好的LSTM神经网络模型对话务量进行预测,根据话务量数据的标准化处理过程,将预测变量逆向还原后与实际值对比,得到预测结果。
8.根据权利要求7所述的话务量预测系统,其特征在于,数据重构模块根据LSTM神经网络设置的时间步和特征,对标准化后的话务量数据进行重构,改变标准化后的话务量数据的维度,使得重构序列为三维数据,与LSTM神经网络的输入相匹配。
9.计算机设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,处理器执行计算机程序时,实现权利要求1-6中任一项所述的话务量预测方法。
10.存储介质,其上存储有计算机指令,其特征在于,计算机指令被处理器执行时,实现权利要求1-6中任一项所述话务量预测方法的各步骤。
CN202010051814.3A 2020-01-17 2020-01-17 话务量预测方法、系统、计算机设备及存储介质 Pending CN111277710A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010051814.3A CN111277710A (zh) 2020-01-17 2020-01-17 话务量预测方法、系统、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010051814.3A CN111277710A (zh) 2020-01-17 2020-01-17 话务量预测方法、系统、计算机设备及存储介质

Publications (1)

Publication Number Publication Date
CN111277710A true CN111277710A (zh) 2020-06-12

Family

ID=70998758

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010051814.3A Pending CN111277710A (zh) 2020-01-17 2020-01-17 话务量预测方法、系统、计算机设备及存储介质

Country Status (1)

Country Link
CN (1) CN111277710A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112598306A (zh) * 2020-12-29 2021-04-02 清华大学 客服坐席的配置方法、装置、电子设备和存储介质
CN113973156A (zh) * 2021-12-22 2022-01-25 杭州远传新业科技有限公司 一种话务量预测方法及系统、话务量预测装置
CN117014555A (zh) * 2023-09-04 2023-11-07 云南电网有限责任公司 一种呼叫中心呼叫预测的识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101801004A (zh) * 2009-12-31 2010-08-11 哈尔滨工业大学 基于先验知识的自适应话务量中长期预测方法
CN109685240A (zh) * 2018-10-24 2019-04-26 国网浙江省电力有限公司 一种基于lstm深度学习的95598话务工单预测与异动预警方法
CN109784471A (zh) * 2018-10-24 2019-05-21 浙江华云信息科技有限公司 一种基于多预测模型的95598话务工单预测与异动预警方法
US10388272B1 (en) * 2018-12-04 2019-08-20 Sorenson Ip Holdings, Llc Training speech recognition systems using word sequences

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101801004A (zh) * 2009-12-31 2010-08-11 哈尔滨工业大学 基于先验知识的自适应话务量中长期预测方法
CN109685240A (zh) * 2018-10-24 2019-04-26 国网浙江省电力有限公司 一种基于lstm深度学习的95598话务工单预测与异动预警方法
CN109784471A (zh) * 2018-10-24 2019-05-21 浙江华云信息科技有限公司 一种基于多预测模型的95598话务工单预测与异动预警方法
US10388272B1 (en) * 2018-12-04 2019-08-20 Sorenson Ip Holdings, Llc Training speech recognition systems using word sequences

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
日拱一两卒: "长短期记忆(LSTM)系列_LSTM的数据准备(4)——如何归一化标准化LSTM网络的数据", 《HTTPS://BLOG.CSDN.NET/YANGWOHENMAI1/ARTICLE/DETAILS/84791715》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112598306A (zh) * 2020-12-29 2021-04-02 清华大学 客服坐席的配置方法、装置、电子设备和存储介质
CN113973156A (zh) * 2021-12-22 2022-01-25 杭州远传新业科技有限公司 一种话务量预测方法及系统、话务量预测装置
CN113973156B (zh) * 2021-12-22 2022-04-08 杭州远传新业科技有限公司 一种话务量预测方法及系统、话务量预测装置
CN117014555A (zh) * 2023-09-04 2023-11-07 云南电网有限责任公司 一种呼叫中心呼叫预测的识别方法
CN117014555B (zh) * 2023-09-04 2024-01-12 云南电网有限责任公司 一种呼叫中心呼叫预测的识别方法

Similar Documents

Publication Publication Date Title
CN110223517B (zh) 基于时空相关性的短时交通流量预测方法
CN111277710A (zh) 话务量预测方法、系统、计算机设备及存储介质
Pan et al. A comparison of neural network backpropagation algorithms for electricity load forecasting
CN112990556A (zh) 一种基于Prophet-LSTM模型的用户用电能耗预测方法
CN111130839A (zh) 一种流量需求矩阵预测方法及其系统
Bi et al. Deep neural networks for predicting task time series in cloud computing systems
CN115098330A (zh) 基于云边协同模式的设备异常检测系统及方法
CN112765894B (zh) 一种基于k-lstm的铝电解槽状态预测方法
CN111898867A (zh) 一种基于深度神经网络的飞机总装生产线产能预测方法
CN114490065A (zh) 一种负载预测方法、装置及设备
Mesquita et al. Embarrassingly parallel MCMC using deep invertible transformations
CN113095484A (zh) 基于lstm神经网络的股票价格预测方法
US20230306505A1 (en) Extending finite rank deep kernel learning to forecasting over long time horizons
CN109542585B (zh) 一种支持不规则时间间隔的虚拟机工作负载预测方法
CN111461353A (zh) 一种模型训练的方法和系统
Attarzadeh et al. Software development cost and time forecasting using a high performance artificial neural network model
CN113962874A (zh) 母线负荷模型的训练方法、装置、设备及存储介质
CN112990598A (zh) 一种水库水位时间序列预测方法与系统
CN116303786B (zh) 一种基于多维数据融合算法的区块链金融大数据管理系统
CN104537224B (zh) 基于自适应学习算法的多状态系统可靠性分析方法及系统
CN115392113A (zh) 一种跨工况条件复杂机电系统剩余寿命预测系统及方法
Kotenko et al. Formation of Indicators for Assessing Technical Reliability of Information Security Systems
CN114492967A (zh) 基于ceemdan和blstm组合模型的城轨车站客流预测方法和介质
CN114638421A (zh) 一种发电机组备件需求的预测方法
Chakrabarty et al. Moving horizon estimation for digital twins using deep autoencoders

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200612

RJ01 Rejection of invention patent application after publication