CN113342474B - 客户流量的预测、模型训练的方法、设备及存储介质 - Google Patents
客户流量的预测、模型训练的方法、设备及存储介质 Download PDFInfo
- Publication number
- CN113342474B CN113342474B CN202110726606.3A CN202110726606A CN113342474B CN 113342474 B CN113342474 B CN 113342474B CN 202110726606 A CN202110726606 A CN 202110726606A CN 113342474 B CN113342474 B CN 113342474B
- Authority
- CN
- China
- Prior art keywords
- encoder
- target
- prediction result
- flow
- client
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 127
- 238000000034 method Methods 0.000 title claims abstract description 111
- 238000012545 processing Methods 0.000 claims abstract description 54
- 239000011159 matrix material Substances 0.000 claims description 105
- 238000004422 calculation algorithm Methods 0.000 claims description 23
- 230000006870 function Effects 0.000 claims description 17
- 238000012544 monitoring process Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 9
- 238000004064 recycling Methods 0.000 claims description 6
- 239000000523 sample Substances 0.000 description 34
- 238000010586 diagram Methods 0.000 description 14
- 238000000605 extraction Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000003062 neural network model Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000012804 iterative process Methods 0.000 description 3
- 241000288673 Chiroptera Species 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000010845 search algorithm Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 125000003275 alpha amino acid group Chemical group 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 230000002354 daily effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45504—Abstract machines for programme code execution, e.g. Java virtual machine [JVM], interpreters, emulators
- G06F9/45508—Runtime interpretation or emulation, e g. emulator loops, bytecode interpretation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Abstract
本申请提供一种客户流量的预测、模型训练的方法、设备及存储介质,该方法包括:获取第1~M天的客户流量并输入目标栈式降噪自编码器,得到第M+i天的客户流量的中间预测结果,M>0,i>0;将中间预测结果输入目标极限学习机,得到第M+i天的客户流量的目标预测结果;若目标预测结果满足预设条件,根据预设的处理策略对数据库或服务器处理,预设的处理策略包括将客户流量限制在数据库或服务器的最大承载范围内;目标栈式降噪自编码器是根据客户流量样本训练得到的,用于预测客户流量的中间预测结果的模型;目标极限学习机是根据中间预测结果和标签进行有监督训练得到的,用于预测目标客户流量的模型,标签为第M+i天的实际客户流量。
Description
技术领域
本申请涉及机器学习技术,尤其涉及一种客户流量的预测、模型训练的方法、设备及存储介质。
背景技术
随着计算机和互联网的发展,越来越多的线上系统能够为用户提供线上服务。线上系统通常需要依赖服务器或数据库为用户提供服务,而线上系统的客户流量若出现激增,就会使服务器或数据库存在崩溃风险。
为了降低服务器或数据库的崩溃风险,目前主要通过对客户流量进行预测,从而根据预测结果进行预警,使得运营维护人员提前做好应对措施。目前,主要使用深度网络模型进行客户流量的预测,深度网络模型使用多个反向传播网络堆叠构成。具体的,首先收集客户流量历史数据,对历史数据进行预处理,例如去除异常数据,使用预处理后的客户流量历史数据对神经网络模型进行训练,并利用正向传播所产生的模拟值与目标值为基础,通过不断学习、修正各个网络层之间的权值和阈值使得模拟值与目标值之间的误差达到预设值。
然而,训练过程中的误差可能存在多个局部极小值,若迭代过程中陷入了局部极小值,就会导致权值和阈值调节幅度小,网络收敛速度变慢,进而导致训练得到的模型预测准确度低,为服务器或数据库提供的预警准确度低,导致服务器或数据库崩溃风险的发生率加大。
发明内容
本申请提供一种客户流量的预测、模型训练的方法、设备及存储介质,用以解决训练得到的模型预测准确度低,为服务器或数据库提供的预警准确度低,导致服务器或数据库崩溃风险的发生率加大的问题。
第一方面,本申请提供一种客户流量的预测方法,根据预测模型对客户流量进行预测,所述预测模型包括依次连接的目标栈式降噪自编码器和目标极限学习机,所述方法包括:获取历史客户流量,所述历史客户流量包括第1天至第M天的客户流量,M为大于1的整数;将所述历史客户流量输入目标栈式降噪自编码器,得到中间预测结果,所述中间预测结果为目标栈式降噪自编码器对第M+i天的客户流量的预测结果,i为大于0的整数;将所述中间预测结果输入目标极限学习机,得到目标预测结果,所述目标预测结果为目标极限学习机对第M+i天的客户流量的预测结果;若所述目标预测结果的客户流量满足预设条件,则根据预设的处理策略对数据库或服务器进行处理,所述预设的处理策略包括将客户流量限制在所述数据库或服务器的最大承载范围之内;其中,所述目标栈式降噪自编码器是根据客户流量样本对栈式降噪自编码器进行训练得到的,用于对客户流量的中间预测结果进行预测的模型;所述目标极限学习机是根据所述客户流量的中间预测结果和标签对极限学习机进行有监督训练得到的,用于对所述客户流量的预测结果进行预测的模型,所述标签为第M+i天的实际客户流量。
第二方面,本申请提供一种模型的训练方法,所述模型包括依次连接的目标栈式降噪自编码器和目标极限学习机,所述方法包括:获取客户流量样本和标签,所述客户流量样本包括第1天至第N天的客户流量,所述标签为第N+1天的客户流量,其中,N为大于1的正整数;根据所述客户流量样本对栈式降噪自编码器进行迭代训练,得到目标栈式降噪自编码器,所述目标栈式降噪自编码器的输出为第N+j天的客户流量的预测结果,其中,j为大于0的正整数,且j≤M;根据所述第N+j天的客户流量的预测结果和所述标签对极限学习机进行有监督训练,得到所述目标极限学习机。
第三方面,本申请提供一种客户流量的预测装置,该预测装置根据预测模型对客户流量进行预测,所述预测模型包括依次连接的目标栈式降噪自编码器和目标极限学习机,所述预测装置包括:获取模块,用于获取历史客户流量,所述历史客户流量包括第1天至第M天的客户流量,M为大于1的整数;第一预测模块,用于将所述历史客户流量输入目标栈式降噪自编码器,得到中间预测结果,所述中间预测结果为目标栈式降噪自编码器对第M+i天的客户流量的预测结果,i为大于0的整数;第二预测模块,用于将所述中间预测结果输入目标极限学习机,得到目标预测结果,所述目标预测结果为目标极限学习机对第M+i天的客户流量的预测结果;处理模块,用于若所述目标预测结果的客户流量满足预设条件,则根据预设的处理策略对数据库或服务器进行处理,所述预设的处理策略包括将客户流量限制在所述数据库或服务器的最大承载范围之内;其中,所述目标栈式降噪自编码器是根据客户流量样本对栈式降噪自编码器进行训练得到的,用于对客户流量的中间预测结果进行预测的模型;所述目标极限学习机是根据所述客户流量的中间预测结果和标签对极限学习机进行有监督训练得到的,用于对所述客户流量的预测结果进行预测的模型,所述标签为第M+i天的实际客户流量。
第四方面,本申请提供一种模型的训练装置,所述模型包括依次连接的目标栈式降噪自编码器和目标极限学习机,所述训练装置包括:获取模块,用于获取客户流量样本和标签,所述客户流量样本包括第1天至第N天的客户流量,所述标签为第N+1天的客户流量,其中,N为大于1的正整数;训练模块,用于根据所述客户流量样本对栈式降噪自编码器进行迭代训练,得到目标栈式降噪自编码器,所述目标栈式降噪自编码器的输出为第N+j天的客户流量的预测结果,其中,j为大于0的正整数,且j≤M;根据所述第N+j天的客户流量的预测结果和所述标签对极限学习机进行有监督训练,得到所述目标极限学习机。
第五方面,本申请提供一种电子设备,包括:存储器,处理器;
存储器;用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为实现第一方面所述的方法。
第六方面,本申请提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现第一方面所述的方法。
第七方面,本申请提供一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现第一方面所述的方法。
本申请提供的客户流量的预测、模型训练的方法、设备及存储介质,通过获取历史客户流量,历史客户流量包括第1天至第M天的客户流量,M为大于1的整数;将历史客户流量输入目标栈式降噪自编码器,得到中间预测结果,中间预测结果为目标栈式降噪自编码器对第M+i天的客户流量的预测结果,i为大于0的整数,目标栈式降噪自编码器是根据客户流量样本对栈式降噪自编码器进行训练得到的,用于对客户流量的中间预测结果进行预测的神经网络模型;将中间预测结果输入目标极限学习机,得到目标预测结果,目标预测结果为目标极限学习机对第M+i天的客户流量的预测结果,目标极限学习机是根据客户流量的中间预测结果和标签对极限学习机进行有监督训练得到的,用于对客户流量的预测结果进行预测的神经网络模型,标签为第M+i天的实际客户流量,若目标预测结果的客户流量满足预设条件,则根据预设的处理策略对数据库或服务器进行处理,所述预设的处理策略包括将客户流量限制在所述数据库或服务器的最大承载范围之内。由于目标栈式降噪自编码器抗干扰能力强,能够保留大量原始输入信息且能从中学习到隐藏特征,因此,针对客户流量的间歇性、随机性、与时间有弱关联性的特点,能够进行很好地预测,提高对服务器或数据库发生崩溃风险的预测准确度。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
图1为本申请实施例的应用场景图;
图2为本申请实施例提供的客户流量预测方法的流程图一;
图3为本申请实施例提供的预测模型的结构示意图;
图4为本申请实施例的模型的训练方法的流程图二;
图5为本申请实施例提供的栈式降噪自编码器的结构示意图;
图6为本申请实施例提供的模型的训练方法的流程图三;
图7为本申请实施例提供的模型的训练方法的流程图四;
图8为本申请实施例提供的模型的训练方法的流程图四;
图9为本申请实施例提供的不同时间段的预测模型的示意图;
图10为本申请实施例提供的客户流量的预测装置的结构示意图;
图11为本申请实施例提供的模型的训练装置的结构示意图;
图12为本申请实施例提供的电子设备的结构示意图。
通过上述附图,已示出本申请明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本申请构思的范围,而是通过参考特定实施例为本领域技术人员说明本申请的概念。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
术语解释:
去噪自动编码器(Denoising Auto-Encoder,DAE):是在自动编码器的基础上对其输入加入噪声,利用去除杂声的过程训练模型。
栈式降噪自编码器(Stacked Denoising Auto-Encoder,SDAE):是一种深度学习网络,具有出色的特征探索能力。
极限学习机(Extreme Learning Machine,ELM):是一种具有良好的泛化性能和快速的学习速度,能够减少出现陷入局部最优问题的神经网络算法。
蝙蝠算法(Bat-inspired Algorithm,BA):是一种模拟蝙蝠利用超声波进行狩猎的随机搜索算法。
埋点:在应用中特定的流程收集一些信息,用来跟踪应用的使用情况,为后续优化产品或运营提供数据支撑。
客户流量的激增会对服务器和数据库造成巨大冲击,使服务器和数据库崩溃的风险提高。因此,需要对客户流量进行预测。
图1为本申请实施例的应用场景图。如图1所示,该应用场景包括:终端设备11、采集设备12、服务器13和训练设备14。
终端设备11可以是智能手机、电脑、IPAD等设备,终端设备上安装有线上系统,线上系统能够为用户提供线上业务,用户访问线上系统,线上系统即得到客户流量,线上系统可以是商城系统等。
采集设备12可以是探头或者流量采集工具,通过埋点的方式设置在线上系统11的一些特定节点处采集客户流量。
服务器13可以是单独的一台服务器,也可以是包括多台服务器的服务器集群。
训练设备12可以是智能手机、电脑、IPAD、服务器等设备。训练设备中的服务器可以是单独的一台服务器,也可以是包括多台服务器的服务器集群。
其中,采集设备12采集线上系统11每天的客户流量,并存储至服务器13中,训练设备14根据服务器13中存储的客户流量对深度网络进行训练,得到深度网络模型。该深度网络模型可以存储至服务器13中,用于对未来的客户流量进行预测。
相关技术中,深度网络包括堆叠的多个反向传播网络。通过收集客户流量历史数据,对数据进行预处理,并使用预处理后的客户流量历史数据对神经网络模型进行训练。最后利用训练得到的模型对未来的客户流量进行预测。反向传播神经网络是以正向传播所产生的模拟值与目标值为基础,通过不断学习和修正各层之间的权值和阈值使得误差达到最小的过程。学习过程中误差可能存在多个局部极小值,若迭代过程中陷入了局部极小值,就会导致权值和阈值调节幅度小,网络计算和收敛的速度变慢,以及得到的网络参数精度不高。在优化此过程中使用优化算法,存在类似局部最优问题,导致客户流量的预测精度低,进而影响服务器或数据库的预警准确度。
针对上述技术问题,本申请的发明人提出如下技术构思:通过SDAE进行客户流量的预测,并且使用ELM改进SDAE的微调阶段,提高训练过程中的收敛速度和泛化能力;同时,对蝙蝠算法BA引入动态惯性权重,提高BA在全局搜索和局部搜索过程中的速度多样性,并增加位置搜索多样性,有效提高多层网络的计算速度和寻优能力,并提高训练得到的网络参数的精度,从而提高对客户流量的预测准确度,进一步提高对服务器或数据库的预警准确度。
下面以具体地实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
图2为本申请实施例提供的客户流量预测方法的流程图一。
图3为本申请实施例提供的预测模型的结构示意图。如图3所示,该预测模型包括依次连接的目标栈式降噪自编码器31和目标极限学习机32。
下面以图3结合图2,对本申请的客户流量预测方法进行说明,具体的,如图2所示,该客户流量预测方法,包括:
S201、获取历史客户流量,历史客户流量包括第1天至第M天的客户流量,M为大于1的正整数。
本实施例的方法的执行主体可以是图1中所示的服务器。
其中,历史客户流量是当前时间之前的客户流量。举例来说,当前时间是2021年6月18日,则可以获取2021年6月18日之前至2021年6月18日的M天客户流量,作为历史客户流量。
应当理解,本实施例的第1天至第M天的客户流量,是指M天的客户流量中第1天至第M天的客户流量,其中,第1天可以是任意的某一天,而无论从哪一天开始起算,均需保证获取的历史客户流量为M天的客户流量。
S202、将历史客户流量输入目标栈式降噪自编码器,得到中间预测结果,中间预测结果为目标栈式降噪自编码器对第M+i天的客户流量的预测结果,i为大于0的正整数。
其中,目标栈式降噪自编码器是根据客户流量样本对栈式降噪自编码器进行训练得到的,用于对客户流量的中间预测结果进行预测的神经网络模型。
S203、将中间预测结果输入目标极限学习机,得到目标预测结果,目标预测结果为目标极限学习机对第M+i天的客户流量的预测结果。
其中,目标极限学习机是根据客户流量的中间预测结果和标签对极限学习机进行有监督训练得到的,用于对客户流量的预测结果进行预测的神经网络模型,标签为第M+i天的实际客户流量。
如图3所示,本实施例是将历史客户流量输入目标栈式降噪自编码器31,并将目标栈式降噪自编码器31的输出作为目标极限学习机32的输入,目标极限学习机32的输出即为最终的预测结果。
S204、若目标预测结果的客户流量满足预设条件,则根据预设的处理策略对数据库或服务器进行处理,预设的处理策略包括将客户流量限制在数据库或服务器的最大承载范围之内。
本实施例中,在得到目标预测结果之后,还需要根据目标预测结果确定是否产生客户流量的激增,若目标预测结果的客户流量大于或等于预设客户流量,则表明客户流量将要发生激增,就可以采用如下几种实施方式,减小服务器或数据库发生崩溃的机率。
对于服务器而言,一个服务器上可能存在多个系统对外提供服务,而一个系统都是基于一个或多个站点的,即一个服务器上一般会存在多个服务器站点维护多个系统。举例来说,一个服务器上存在一个管理系统,该管理系统对应有页面,则该服务器中的一个或多个服务器站点可以对页面的文件进行配置等。
在一些实施方式中,预设条件包括目标预测结果的客户流量达到第一客户流量,例如,目标预测结果的客户流量达到服务器或数据库的最大承载量的60%,最大承载量是指服务器或数据库能够承载的最大客户流量。则预设处理策略包括:对服务器站点的应用程序池(简称应用池)进行回收;和/或,启动客户流量监控服务,客户流量监控服务用于对数据库的连接数量、服务器的中央处理器(Central Processing Unit,CPU)使用率、服务器的内存使用率和服务器的连接数进行监控。
在另一些实施方式中,预设条件包括目标预测结果的客户流量大于第一客户流量且小于第二客户流量,例如大于服务器或数据库的最大承载量的60%且小于服务器或数据库的最大承载量的70%;则预设处理策略包括如下至少一项:对会话的CPU占用率进行监控;对服务器站点的应用程序池进行回收;将数据库的最大连接数设置为数据库的原始连接数的一半;将服务器站点的最大连接数设置为服务器站点的原始连接数的一半。
在又一些实施方式中,预设条件包括目标预测结果的客户流量大于或等于第二客户流量,例如大于或等于服务器或数据库的最大承载量的70%;预设处理策略包括如下至少一项:发送告警信息。
可选的,若目标预测结果的客户流量小于预设客户流量,则继续预测。
本实施例通过获取历史客户流量,历史客户流量包括第1天至第M天的客户流量,M为大于1的整数;将历史客户流量输入目标栈式降噪自编码器,得到中间预测结果,中间预测结果为目标栈式降噪自编码器对第M+i天的客户流量的预测结果,i为大于0的整数,目标栈式降噪自编码器是根据客户流量样本对栈式降噪自编码器进行训练得到的,用于对客户流量的中间预测结果进行预测的神经网络模型;将中间预测结果输入目标极限学习机,得到目标预测结果,目标预测结果为目标极限学习机对第M+i天的客户流量的预测结果,目标极限学习机是根据客户流量的中间预测结果和标签对极限学习机进行有监督训练得到的,用于对客户流量的预测结果进行预测的神经网络模型,标签为第M+i天的实际客户流量。由于目标栈式降噪自编码器是由多个DAE堆叠构成,且每个DAE是基于上一层的DAE的隐含层的输出进行进一步的特征提取,因此,抗干扰能力强,能够保留大量原始的输入信息且能从中学习到隐藏特征,从而针对客户流量具有间歇性和随机性,与时间有弱关联性的干扰特点,能够进行很好地预测,提高客户流量的预测准确度,进而提高对服务器或数据库发生崩溃风险的预测准确度。
对于客户流量而言,其往往在特定的时间段表现出稳定的特征,例如,在每一天的某一个时间段客户流量总是相较于其他时间段很多。因此,本实施例还可以将目标栈式降噪自编码器设置为包括多个子编码器,每个子编码器对应一天中的一个时间段,用于对不同时间段的客户流量进行预测。并根据不同的时间段对历史客户流量进行划分,得到不同时间段的历史客户流量;针对不同时间段的历史客户流量中每个时间段的历史客户流量,将该时间段的历史客户流量输入与该时间段对应的子编码器,得到该时间段的中间预测结果。
进一步的,目标极限学习机包括多个子极限学习机,每个子极限学习机对应一天中的一个时间段,用于根据一个时间段的中间预测结果对客户流量进行预测,得到该时间段的目标预测结果。则将中间预测结果输入目标极限学习机,得到目标预测结果,包括:将其中一个时间段的中间预测结果输入与该时间段对应的子极限学习机,得到该时间段的目标预测结果。
举例来说,不同时间段包括上午、下午和晚上,则可以根据一天中的上午、下午和晚上对历史客户流量进行划分,得到每一天中上午、下午和晚上的历史客户流量。其中,上午可以是每一天的00:00~12:00,下午可以是12:01~18:00,晚上可以是18:01~23:59。
则对于第1天至第M天中的每一天,均可以按照上午、下午和晚上的时间段对当天的客户流量进行划分,得到该天中上午的客户流量、下午的客户流量和晚上的客户流量。
而上午、下午和晚上分别对应一个子编码器,上午、下午和晚上还分别对应一个子极限学习机。也可以理解为一个时间段的子编码器与该时间段的子极限学习机连接。
上述实施例介绍了应用训练好的预测模型进行客户流量的预测。在对客户流量进行预测之前,还需要训练预测模型。下面将介绍一下预测模型的训练方法:
图4为本申请实施例的模型的训练方法的流程图二。如图4所示,模型的训练方法包括:
S401、获取客户流量样本和标签,客户流量样本包括第1天至第N天的客户流量,标签为第N+j天的客户流量,其中,N为大于1的正整数,j为大于0的正整数,且j≤M。
本实施例的方法的执行主体可以是图1中的服务器。
其中,可以从服务器中获取存储的历史客户流量作为客户流量样本。为了保证训练效果,需要获取足够多的客户流量,可以选取N天的客户流量,该N天可以是当前时间之前的任意时间,不必须与当前时间连续。举例来说,当前时间是2021年6月18日,则可以获取2021年6月18日之前的N天客户流量,作为客户流量样本。
例如,获取2021年3月18日至2021年6月15日中每一天的客户流量,并获取2021年6月15日之后至2021年6月18日之间某一天的客户流量作为标签。
S402、根据客户流量样本对栈式降噪自编码器进行迭代训练,得到目标栈式降噪自编码器,目标栈式降噪自编码器的输出为第N+j天的客户流量的预测结果。
其中,在根据客户流量样本对栈式降噪自编码器进行迭代训练之前,需要对客户流量样本添加噪声。可选的,可以使用加性高斯噪声对客户流量样本添加噪声,再将添加了噪声的客户流量样本输入栈式降噪自编码器,使得栈式降噪自编码器对添加了噪声的客户流量样本进行重构,以得到未添加噪声的客户流量样本。
S403、根据第N+j天的客户流量的预测结果和标签对极限学习机进行有监督训练,得到目标极限学习机。
其中,栈式降噪自编码器为特征提取器,并不具有预测功能。为了使栈式降噪自编码器具有预测功能,需要结合极限学习机,使用带标签的数据进行有监督训练,以对栈式降噪自编码器的整个网络参数进行微调,使其具有预测功能。
本实施例通过获取客户流量样本和标签,其中,客户流量样本包括第1天至第N天的客户流量,标签为第N+j天的客户流量,其中,N为大于1的正整数,j为大于0的正整数,且j≤M;根据客户流量样本对栈式降噪自编码器进行迭代训练,得到目标栈式降噪自编码器,目标栈式降噪自编码器的输出为第N+j天的客户流量的预测结果;根据第N+j天的客户流量的预测结果和标签对极限学习机进行有监督训练,得到目标极限学习机。由于使用极限学习机对目标栈式降噪自编码器的网络参数进行微调,极限学习机具有良好的泛化性能和快速的学习速度,能够减少出现陷入局部最优的问题,因此,能够提高整个训练过程的收敛速度和泛化能力。
图5为本申请实施例提供的栈式降噪自编码器的结构示意图。
如图5所示,栈式降噪自编码器包括依次连接的多个编码器,分别记为编码器51、编码器52、编码器53、编码器54、编码器55和编码器56,每个编码器对应有权值矩阵。其中,每个编码器可以是DAE网络,每个编码器包括隐含层。
应当理解,图5中示出的6个编码器为示例性说明,实际中,并不限定为6个编码器。其中,对于DAE网络的结构可以参见相关技术的介绍,此处不作详细介绍。
在图5的基础上,图6为本申请实施例提供的模型的训练方法的流程图三。如图6所示,该方法还包括:
S601、针对多个编码器中的每个编码器,确定编码器的目标权值矩阵。
其中,每个编码器对应有初始化的权值矩阵,本实施例根据蝙蝠算法对初始化的权值矩阵进行处理,得到处理后权值矩阵,并在初始化的权值矩阵和处理后权值矩阵中确定目标权值矩阵。具体的,可以是将初始化的权值矩阵和处理后权值矩阵中特征提取效果较好的权值矩阵作为目标权值矩阵。
S602、根据目标权值矩阵对编码器进行迭代训练,直至对编码器的训练结束。
S603、若多个编码器均训练结束,则将训练后依次连接的多个编码器作为目标栈式降噪自编码器。
请继续参阅图5,根据连接顺序设多个编码器分别为第一层编码器、第二层编码器、……、第N’层编码器,其中,N’为编码器的总数。
则本步骤是首先训练第一层编码器,并将第一层编码器的隐含层的输出作为第二层编码器的输入,对第二层编码器进行训练,重复上述过程,直至第N’层编码器训练完成。将训练好的N’层编码器进行堆叠形成目标栈式降噪自编码器。
可以理解为,每层编码器都单独进行非监督训练,以最小化输入(该输入为前一层编码器的隐含层的输出)与该层编码器输出的重构结果之间的误差作为训练目标。前n层编码器训练好了,就可以训练n+1层,如此反复,直至将N’层编码器全部训练完成。
进一步的,可以将N’层编码器的隐含层的输出作为极限学习机的输入,并根据N’层编码器的隐含层的输出和前述介绍的标签对目标栈式降噪自编码器和极限学习机的网络参数进行有监督地微调。
在图6的基础上,图7为本申请实施例提供的模型的训练方法的流程图四。如图7所示,步骤S601包括:
S701、获取编码器的输入数据,其中,若编码器为多个编码器中的首个编码器,则编码器的输入数据为客户流量样本,若编码器不是多个编码器中的首个编码器,则编码器的输入数据为编码器的前一个编码器预测的第N+1天的客户流量。
S702、将编码器的输入数据输入编码器,得到第一重构客户流量,编码器的权值矩阵为初始化的权值矩阵。
其中,第一重构客户流量为编码器根据初始化的权值矩阵对输入数据进行特征提取,得到的特征提取结果,该特征提取结果为与输入数据的时间相同的客户流量。
以将第一天的客户流量输入第一层编码器为例,将第一层编码器的输入数据记为x,则根据初始化的权值矩阵对x依次进行编码、解码操作,得到y,y仍表示第一天的客户流量。
其中,根据初始化的权值矩阵对x依次进行编码、解码操作可以参见相关技术中编码器的编码、解码的介绍,此处不再详细介绍。
S703、根据编码器的输入数据和第一重构客户流量,确定第一重构误差。
具体的,可以是将编码器的输入数据和第一重构客户流量之间的差值,作为第一重构误差。
S704、将编码器的输入数据输入目标编码器,得到第二重构客户流量,目标编码器的权值矩阵为根据蝙蝠算法对初始化的权值矩阵进行处理得到的权值矩阵。
其中,第二重构客户流量为目标编码器根据目标权值矩阵对输入数据进行特征提取,得到的特征提取结果,该特征提取结果为与输入数据的时间相同的客户流量。目标权值矩阵为根据蝙蝠算法对初始化的权值矩阵进行处理得到的权值矩阵,对于如何根据蝙蝠算法对初始化的权值矩阵进行处理得到目标权值矩阵,将在后续实施例进行介绍。
以将第一天的客户流量输入第一层编码器为例,将第一层编码器的输入数据记为x,则根据目标权值矩阵对x依次进行编码、解码操作,得到y’,y’仍表示第一天的客户流量。
其中,根据目标权值矩阵对x依次进行编码、解码操作可以参见相关技术中编码器的编码、解码的介绍,此处不再详细介绍。
S705、根据编码器的输入数据和第二重构客户流量,确定第二重构误差。
具体的,可以是将编码器的输入数据和第二重构客户流量之间的差值,作为第二重构误差。
S706、将第一重构误差和第二重构误差中较小的重构误差对应的权值矩阵,作为目标权值矩阵。
具体的,若第一重构误差大于第二重构误差,则将第一重构误差作为目标权值矩阵;若第一重构误差小于第二重构误差,则将第二重构误差作为目标权值矩阵;若第一重构误差等于第二重构误差,则将第一重构误差或第二重构误差作为目标权值矩阵。
下面将对蝙蝠算法如何确定目标权值矩阵进行详细介绍:
蝙蝠算法是一种模拟蝙蝠利用超声波进行狩猎的随机搜索算法,在蝙蝠算法中,每个蝙蝠种群代表一种问题的解决方案。通过计算每个蝙蝠种群的目标函数值,并将最小目标函数值对应的蝙蝠种群作为当前的最优解决方案,然后所有蝙蝠会向最优解决方案移动。每得到一次最优结果,即每迭代一次,蝙蝠都会按照位置和速度公式进行移动。在迭代的过程中,蝙蝠算法通过调整频率来加强多个蝙蝠种群中解决方案的多样性,使得蝙蝠种群在当前解附近更新当前解,增加局部搜索能力。如果在局部搜索过程中发现更优解,则会用更优解更新当前解。
其中,目标编码器的权值矩阵,基于如下方法步骤确定:
a1、确定多个蝙蝠种群,多个蝙蝠种群中每个蝙蝠种群对应有初始化参数,初始化参数包括总迭代次数、位置、速度、回声频率、响度和脉冲频率;
a2、根据初始化的权值矩阵和多个蝙蝠种群中每个蝙蝠种群的初始化参数进行多次迭代更新,直至当前次迭代中确定的最优位置为预设位置,或者已迭代次数是否达到总迭代次数,则结束;
其中,针对多次迭代更新的每次迭代更新,每个蝙蝠种群的速度根据所述蝙蝠种群的当前速度、当前位置、当前回声频率、当前次迭代中确定的最优位置和当前次权值矩阵进行更新;
以及,
多次迭代更新的每次迭代更新中,针对新生成的蝙蝠种群,新生成的蝙蝠种群的响度根据响度衰减系数进行更新,响度衰减系数根据已迭代次数和最新迭代次数对应的响度衰减系数确定。
下面将结合附图对如何根据蝙蝠算法确定目标编码器的权值矩阵进行详细介绍:
在图7的基础上,图8为本申请实施例提供的模型的训练方法的流程图四。如图8所示,模型的训练方法还包括:
S801、确定多个蝙蝠种群,多个蝙蝠种群中每个蝙蝠种群对应有总迭代次数、位置、速度、响度、脉冲频率和脉冲发射率。
本实施例中,可以将多个蝙蝠种群的数量记为I,每个蝙蝠种群的编号记为i,总迭代次数为T,位置记为X,速度记为v,响度记为A,脉冲频率记为f,脉冲发射率记为r。
S802、将多个蝙蝠种群中蝙蝠种群的位置为最优位置的蝙蝠种群,确定为目标蝙蝠种群。
具体的,是针对多个蝙蝠种群中每个蝙蝠种群,根据目标函数计算一目标函数值,再比较多个蝙蝠种群的目标函数值,将最小目标函数值对应的蝙蝠种群的位置确定为最优位置,最优位置对应的蝙蝠种群为目标蝙蝠种群。
S803、针对多个蝙蝠种群中每个蝙蝠种群,根据蝙蝠种群的当前速度、当前位置、当前回声频率、最优位置和当前权值矩阵,对蝙蝠种群的速度进行更新,得到更新速度。
其中,S803可以通过如下公式更新每个蝙蝠种群的速度:
式(1)中,ωi(t)为当前权值矩阵,代表蝙蝠种群i在第t次迭代过程中的权值矩阵,对于每个蝙蝠种群来说,在第1次迭代时,其权值矩阵取初始化权值矩阵,每次迭代后可以根据权值矩阵更新方法对当前次迭代的权值矩阵进行更新,对于权值矩阵的具体更新方法可以参见步骤S809的介绍;代表蝙蝠种群i在第t次迭代过程中的速度,/>代表蝙蝠种群i在第t次迭代过程中的位置,x*为所有蝙蝠种群的目标函数值中最小值对应的蝙蝠种群的位置,每个蝙蝠种群对应一个目标函数值,fi为代表蝙蝠种群i在第t次迭代过程中的脉冲频率。
S804、根据蝙蝠种群的更新速度和当前位置,确定蝙蝠种群的更新位置。
其中,可以根据如下公式更新每个蝙蝠种群的位置,具体包括:
式(2)中,代表蝙蝠种群i在第t次迭代过程中的位置,/>代表蝙蝠种群i在第t+1次迭代过程中的位置,/>代表蝙蝠种群i在第t+1次迭代过程中的速度。
本实施例中,蝙蝠种群i在第t+1次迭代过程中的位置和速度,可以理解为第t次迭代过程中的蝙蝠种群i朝向目标蝙蝠种群移动一次之后的位置和速度。
S805、若蝙蝠种群的第一随机数大于或等于脉冲频率,则在以目标蝙蝠种群对应的位置为中心的预设范围内,生成新的蝙蝠种群,并跳转至步骤S807,蝙蝠种群的第一随机数是根据随机数生成算法随机生成的。
本步骤之前,针对每个蝙蝠种群,会生成第一随机数,并判断该蝙蝠种群的第一随机数是否大于脉冲频率。
具体的,可以根据如下公式在以目标蝙蝠种群对应的位置为中心的预设范围内,生成新的蝙蝠种群:
Xnew=Xold+εAt;
式中,Xnew为新的蝙蝠种群的位置,Xold为目标蝙蝠种群的位置,ε为随机数,ε∈[-1,1],At为迭代过程中所有蝙蝠种群的平均响度。
S806、若蝙蝠种群的第一随机数小于脉冲频率,则跳转至步骤S810。
其中,每个蝙蝠种群在更新位置之后,会根据随机数生成算法生成第一随机数τ1,若则在以目标蝙蝠种群对应的位置为中心的预设范围内,生成新的蝙蝠种群,并跳转至步骤S807,蝙蝠种群的第一随机数是根据随机数生成算法随机生成的;若/>则跳转至步骤S810判断当前次迭代产生的最优解决方案是否达到设定的最优解决方案,或者当前已迭代次数是否达到总迭代次数。
S807、确定新的蝙蝠种群的第二随机数是否小于脉冲频率,且位置是否小于目标蝙蝠种群的位置。
S808、若新的蝙蝠种群的第二随机数小于脉冲频率,且位置小于目标蝙蝠种群的位置,则将新的蝙蝠种群和多个蝙蝠种群作为新一轮迭代的所有蝙蝠种群,并对新的蝙蝠种群对应的脉冲频率和响度进行更新。
具体的,对新的蝙蝠种群对应的响度进行更新,包括:根据响度衰减系数对新的蝙蝠种群对应的响度进行更新;其中,响度衰减系数根据已迭代次数和最新迭代次数对应的响度衰减系数确定。
具体的,可以根据如下公式对新的蝙蝠种群对应的响度进行更新:
式中,i为蝙蝠种群的编号,t为当前已迭代次数,为蝙蝠种群i在第t次迭代过程中的响度,β为响度衰减系数,/>为蝙蝠种群i在第t+1次迭代过程中的响度,/>βnew代表新的蝙蝠种群的响度衰减系数,βold为上一次迭代产生的新的蝙蝠种群的响度衰减系数。
S809、若新的蝙蝠种群的第二随机数大于或等于脉冲频率,或者位置大于或等于目标蝙蝠种群的位置,则对当前权值矩阵进行更新,并根据蝙蝠种群的当前速度、当前位置、当前回声频率、最优位置和更新后的权值矩阵对蝙蝠种群的速度进行更新,并返回步骤S804。
其中,对当前权值矩阵进行更新,包括:
式中,i表示蝙蝠种群的编号,t表示蝙蝠种群的迭代次数,N(0,1)是服从正态分布的随机变量,ωi(t)为当前权值矩阵,表示第t次迭代的权值矩阵,ωi(t+1)表示第t+1次迭代的权值矩阵。
S810、当前次迭代的最优位置是否满足设定的最优位置,或者已迭代次数是否达到总迭代次数。
S811、若当前的最优解满足设定的最优解,或者已迭代次数达到总迭代次数,则将当前迭代次数对应的更新后的权值矩阵,确定为目标权值矩阵。
本实施例中,由于SDAE包括多层DAE,因此存在迭代次数较多、实际应用运算时间长、占用大量计算资源等问题,通过在蝙蝠算法中根据权值矩阵对速度进行更新,进而根据速度对位置进行更新,由于每一次速度更新过程中,权值矩阵也是动态变化的,即每次迭代过程中,权值矩阵也需要进行更新,因此,能够提高蝙蝠算法在全局搜索和局部搜索过程中的速度多样性,并增加位置搜索多样性,有效提高训练过程中的计算速度和寻优能力。
进一步的,衰减系数能够使得蝙蝠算法在初始阶段增大搜索范围,而随着时间的推移,搜索精度逐渐提高,又可以逐渐减小搜索范围,有利于进一步提高训练过程中的计算速度和寻优能力。
另外,能够提高响度的衰减速度,约提高10%-20%的衰减速度,因此在最优解附近的时候蝙蝠算法的搜索速度更快,能够进一步提高训练过程中的计算速度和寻优能力。
在上述实施例的基础上,图9为本申请实施例提供的不同时间段的预测模型的示意图。如图9所示,该不同时间段的预测模型包括第一时间段的预测模型、第二时间段的预测模型和第三时间段的预测模型;
其中,第一时间段的预测模型包括第一时间段的目标栈式降噪自编码器和第一时间段的目标极限学习机。
第二时间段的预测模型包括第二时间段的目标栈式降噪自编码器和第二时间段的目标极限学习机。
第三时间段的预测模型包括第三时间段的目标栈式降噪自编码器和第三时间段的目标极限学习机。
其中,每个时间段的目标栈式降噪自编码器可以理解为前述实施例介绍的一个子编码器,每个时间段的目标极限学习机可以理解为前述实施例介绍的一个子极限学习机。
其中,根据客户流量样本对栈式降噪自编码器进行迭代训练,得到目标栈式降噪自编码器,包括:
b1、根据不同的时间段对客户流量样本进行划分,得到不同时间段的客户流量样本;
具体的,可根据第一时间段、第二时间段和第三时间段将每天的客户流量样本划分为第一时间段的客户流量样本、第二时间段的客户流量样本和第三时间段的客户流量样本。
b2、针对不同时间段的每个时间段,根据该时间段的客户流量样本对该时间段对应的子编码器进行训练,得到该时间段的目标栈式降噪自编码器;
具体的,是根据N天中每天的第一时间段的客户流量样本对一个子编码器进行训练,得到第一时间段的目标栈式降噪自编码器;
根据N天中每天的第二时间段的客户流量样本对一个子编码器进行训练,得到第二时间段的目标栈式降噪自编码器;
根据N天中每天的第三时间段的客户流量样本对一个子编码器进行训练,得到第三时间段的目标栈式降噪自编码器。
b3、根据该时间段的目标栈式降噪自编码器输出的第N+j天的客户流量的中间预测结果和标签,对该时间段的极限学习机进行有监督训练,得到该时间段的目标极限学习机。
具体的,是根据第一时间段的目标栈式降噪自编码器的输出和标签,对第一时间段对应的极限学习机进行有监督训练,得到第一时间段的目标极限学习机;
根据第二时间段的目标栈式降噪自编码器的隐含层的输出和标签,对第二时间段对应的极限学习机进行有监督训练,得到第二时间段的目标极限学习机;
根据第三时间段的目标栈式降噪自编码器的隐含层的输出和标签,对第三时间段对应的极限学习机进行有监督训练,得到第三时间段的目标极限学习机。
在上述方法实施例的基础上,图10为本申请实施例提供的客户流量的预测装置的结构示意图。如图10所示,该预测装置包括:获取模块100、第一预测模块101、第二预测模块102和处理模块103;
其中,获取模块100,用于获取历史客户流量,所述历史客户流量包括第1天至第M天的客户流量,M为大于1的整数;
第一预测模块101,用于将所述历史客户流量输入目标栈式降噪自编码器,得到中间预测结果,所述中间预测结果为目标栈式降噪自编码器对第M+i天的客户流量的预测结果,i为大于0的整数;第二预测模块102,用于将所述中间预测结果输入目标极限学习机,得到目标预测结果,所述目标预测结果为目标极限学习机对第M+i天的客户流量的预测结果;处理模块103,用于若所述目标预测结果的客户流量满足预设条件,则根据预设的处理策略对数据库或服务器进行处理,所述预设的处理策略包括将客户流量限制在所述数据库或服务器的最大承载范围之内;其中,所述目标栈式降噪自编码器是根据客户流量样本对栈式降噪自编码器进行训练得到的,用于对客户流量的中间预测结果进行预测的模型;所述目标极限学习机是根据所述客户流量的中间预测结果和标签对极限学习机进行有监督训练得到的,用于对所述客户流量的预测结果进行预测的模型,所述标签为第M+i天的实际客户流量。
在一些可能的设计中,所述目标栈式降噪自编码器包括多个子编码器,每个子编码器对应一天中的一个时间段,用于对所述时间段的客户流量进行预测;其中,所述第一预测模块101,具体用于:根据一天中不同的时间段对所述历史客户流量进行划分,得到不同时间段的历史客户流量;针对所述不同时间段的历史客户流量中每个时间段的历史客户流量,将所述时间段的历史客户流量输入与所述时间段对应的子编码器,得到所述时间段的中间预测结果;其中,所述目标极限学习机包括多个子极限学习机,每个子极限学习机对应一天中的一个时间段,用于根据所述时间段的中间预测结果对客户流量进行预测,得到所述时间段的目标预测结果;所述第二预测模块102,具体用于:将所述时间段的中间预测结果输入与所述时间段对应的子极限学习机,得到所述时间段的目标预测结果。
本申请实施例提供的客户流量的预测装置,可用于执行上述实施例中客户流量的预测方法的技术方案,其实现原理和技术效果类似,在此不再赘述。
在一些可能的设计中,所述预设条件包括目标预测结果的客户流量达到第一客户流量;所述预设处理策略包括:对所述服务器中的服务器站点的应用程序池进行回收;和/或,启动客户流量监控服务,所述客户流量监控服务用于对数据库的连接数量、服务器的CPU使用率、服务器的内存使用率和服务器的连接数进行监控。
在一些可能的设计中,所述预设条件包括目标预测结果的客户流量大于第一客户流量且小于第二客户流量;所述预设处理策略包括如下至少一项:对会话的CPU占用率进行监控;对所述服务器中的服务器站点的应用程序池进行回收;将数据库的最大连接数设置为所述数据库的原始连接数的一半;将服务器站点的最大连接数设置为所述服务器站点的原始连接数的一半。
在一些可能的设计中,所述预设条件包括目标预测结果的客户流量大于或等于第二客户流量;所述预设处理策略包括如下至少一项:发送告警信息。
在上述方法实施例的基础上,图11为本申请实施例提供的模型的训练装置的结构示意图。如图11所示,该训练装置包括:获取模块110、训练模块111;其中,获取模块110,用于获取客户流量样本和标签,所述客户流量样本包括第1天至第N天的客户流量,所述标签为第N+1天的客户流量,其中,N为大于1的正整数;训练模块111,用于根据所述客户流量样本对栈式降噪自编码器进行迭代训练,得到目标栈式降噪自编码器,所述目标栈式降噪自编码器的输出为第N+j天的客户流量的预测结果,其中,j为大于0的正整数,且j≤M;所述训练模块111,还用于根据所述第N+j天的客户流量的预测结果和所述标签对极限学习机进行有监督训练,得到所述目标极限学习机。
在一些可能的设计中,所述栈式降噪自编码器包括依次连接的多个编码器,每个编码器对应有权值矩阵,所述装置还包括:确定模块112,用于针对多个编码器中的每个编码器,确定所述编码器的目标权值矩阵;所述训练模块111,还用于根据所述目标权值矩阵对所述编码器进行迭代训练,直至对所述编码器的训练结束;所述训练模块111,还用于若所述多个编码器均训练结束,则将训练后依次连接的多个编码器作为目标栈式降噪自编码器。
在一些可能的设计中,所述确定模块112确定所述编码器的目标权值矩阵时,具体包括:获取所述编码器的输入数据,其中,若所述编码器为所述多个编码器中的首个编码器,则所述编码器的输入数据为所述客户流量样本,若所述编码器不是所述多个编码器中的首个编码器,则所述编码器的输入数据为所述编码器的前一个编码器预测的第N+1天的客户流量;将所述编码器的输入数据输入所述编码器,得到第一重构客户流量,所述编码器的权值矩阵为初始化的权值矩阵;根据所述编码器的输入数据和所述第一重构客户流量,确定第一重构误差;将所述编码器的输入数据输入目标编码器,得到第二重构客户流量,所述目标编码器的权值矩阵为根据蝙蝠算法对所述初始化的权值矩阵进行处理得到的权值矩阵;根据所述编码器的输入数据和所述第二重构客户流量,确定第二重构误差;将所述第一重构误差和所述第二重构误差中较小的重构误差对应的权值矩阵,作为所述目标权值矩阵。
在一些可能的设计中,所述确定模块112基于如下方法步骤确定所述目标编码器的权值矩阵:确定多个蝙蝠种群,所述多个蝙蝠种群中每个蝙蝠种群对应有初始化参数,所述初始化参数包括总迭代次数、位置、速度、回声频率、响度和脉冲频率;根据所述初始化的权值矩阵和所述多个蝙蝠种群中每个蝙蝠种群的初始化参数进行多次迭代更新,直至当前次迭代中确定的最优位置为预设位置,或者已迭代次数是否达到总迭代次数,则结束;其中,多次迭代更新的每次迭代更新中,所述多个蝙蝠种群中每个蝙蝠种群的速度根据当前速度、当前位置、当前回声频率、最优位置和当前次权值矩阵进行更新;以及,多次迭代更新的每次迭代更新中,针对新生成的蝙蝠种群,所述新生成的蝙蝠种群的响度根据响度衰减系数进行更新,所述响度衰减系数根据已迭代次数和最新迭代次数对应的响度衰减系数确定。
在一些可能的设计中,所述确定模块112根据如下方法对新生成的蝙蝠种群的响度进行更新:
式中,i为蝙蝠种群的编号,t为当前已迭代次数,为蝙蝠种群i在第t次迭代过程中的响度,β为响度衰减系数,/>为蝙蝠种群i在第t+1次迭代过程中的响度,/>βnew代表新的蝙蝠种群的响度衰减系数,βold为上一次迭代产生的新的蝙蝠种群的响度衰减系数。
在一些可能的设计中,所述确定模块112根据如下方法确定所述当前次权值矩阵:
式中,i表示蝙蝠种群的编号,t表示蝙蝠种群的迭代次数,N(0,1)是服从正态分布的随机变量,ωi(t)表示第t次迭代的权值矩阵,ωi(t+1)表示第t+1次迭代的权值矩阵。
在一些可能的设计中,所述确定模块112在多次迭代更新的每次迭代更新中,对多个蝙蝠种群中每个蝙蝠种群的速度根据如下方法进行更新:
式中,ωi(t)代表蝙蝠种群i在第t次迭代过程中的权值矩阵,对于每个蝙蝠种群来说,在第1次迭代时,其权值矩阵取初始化的权值矩阵;代表蝙蝠种群i在第t次迭代过程中的速度,/>代表蝙蝠种群i在第t次迭代过程中的位置,x*为所有蝙蝠种群的目标函数值中最小值对应的蝙蝠种群的位置,每个蝙蝠种群对应一个目标函数值,fi为代表蝙蝠种群i在第t次迭代过程中的脉冲频率。
在一些可能的设计中,所述栈式降噪自编码器包括多个子编码器,所述客户流量样本包括不同时间段的客户流量,不同的时间段中每个时间段对应一个子编码器和一个极限学习机;所述训练模块111根据所述客户流量样本对栈式降噪自编码器进行迭代训练,得到目标栈式降噪自编码器,具体包括:根据不同的时间段对所述客户流量样本进行划分,得到不同时间段的客户流量样本;针对不同时间段的每个时间段,根据所述时间段的客户流量样本对所述时间段对应的子编码器进行训练,得到所述时间段的目标栈式降噪自编码器;所述训练模块111根据所述第N+j天的客户流量的预测结果和所述标签对极限学习机进行有监督训练,得到所述目标极限学习机,具体包括:针对不同时间段的每个时间段,将所述时间段的目标栈式降噪自编码器的预测结果输入一个极限学习机进行有监督训练,得到所述时间段对应的目标极限学习机。
本申请实施例提供的模型的训练装置,可用于执行上述实施例中模型的训练方法的技术方案,其实现原理和技术效果类似,在此不再赘述。
需要说明的是,应理解以上装置的各个模块的划分仅仅是一种逻辑功能的划分,实际实现时可以全部或部分集成到一个物理实体上,也可以物理上分开。且这些模块可以全部以软件通过处理元件调用的形式实现;也可以全部以硬件的形式实现;还可以部分模块通过处理元件调用软件的形式实现,部分模块通过硬件的形式实现。例如,确定模块可以为单独设立的处理元件,也可以集成在上述装置的某一个芯片中实现,此外,也可以以程序代码的形式存储于上述装置的存储器中,由上述装置的某一个处理元件调用并执行以上确定模块的功能。其它模块的实现与之类似。此外这些模块全部或部分可以集成在一起,也可以独立实现。这里的处理元件可以是一种集成电路,具有信号的处理能力。在实现过程中,上述方法的各步骤或以上各个模块可以通过处理器元件中的硬件的集成逻辑电路或者软件形式的指令完成。
图12为本申请实施例提供的电子设备的结构示意图。该电子设备可以是上述实施例中的服务器或训练设备,如图12所示,该电子设备可以包括:处理器121、存储器122和收发器123。
处理器121执行存储器存储的计算机执行指令,使得处理器121执行上述实施例中的方案。处理器121可以是通用处理器,包括中央处理器CPU、网络处理器(networkprocessor,NP)等;还可以是数字信号处理器DSP、专用集成电路ASIC、现场可编程门阵列FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
存储器122通过系统总线与处理器121连接并完成相互间的通信,存储器122用于存储计算机程序指令。
系统总线可以是外设部件互连标准(peripheral component interconnect,PCI)总线或扩展工业标准结构(extended industry standard architecture,EISA)总线等。系统总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。收发器用于实现数据库访问装置与其他计算机(例如客户端、读写库和只读库)之间的通信。存储器可能包含随机存取存储器(randomaccess memory,RAM),也可能还包括非易失性存储器(non-volatile memory)。
本申请实施例提供的电子设备,可用于执行上述实施例中客户流量预测方法或模型的训练方法的技术方案,其实现原理和技术效果类似,在此不再赘述。
本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质中存储有计算机指令,当该计算机指令在计算机上运行时,使得计算机执行上述实施例客户流量预测方法或模型的训练方法的技术方案。
本申请实施例还提供一种计算机程序产品,该计算机程序产品包括计算机程序,其存储在计算机可读存储介质中,至少一个处理器可以从计算机可读存储介质读取计算机程序,至少一个处理器执行计算机程序时可实现上述实施例中客户流量预测方法或模型的训练方法的技术方案。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求书指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求书来限制。
Claims (15)
1.一种模型的训练方法,其特征在于,所述模型包括依次连接的目标栈式降噪自编码器和目标极限学习机,所述方法包括:
获取客户流量样本和标签,所述客户流量样本包括第1天至第N天的客户流量,所述标签为第N+j天的客户流量,其中,N为大于1的正整数,j为大于0的正整数,且j≤M;
根据所述客户流量样本对栈式降噪自编码器进行迭代训练,得到目标栈式降噪自编码器,所述目标栈式降噪自编码器的输出为第N+j天的客户流量的预测结果;
根据所述第N+j天的客户流量的预测结果和所述标签对极限学习机进行有监督训练,得到所述目标极限学习机;
所述栈式降噪自编码器包括依次连接的多个编码器,每个编码器对应有权值矩阵,所述方法还包括:针对多个编码器中的每个编码器,确定所述编码器的目标权值矩阵;
所述确定所述编码器的目标权值矩阵,包括:根据所述编码器的输入数据、第一重构客户流量和第二重构客户流量,分别确定第一重构误差、第二重构误差,所述第二重构客户流量是将所述编码器的输入数据输入目标编码器得到的,所述目标编码器的权值矩阵为根据蝙蝠算法对初始化的权值矩阵进行处理得到的权值矩阵;
所述目标编码器的权值矩阵,基于如下方法步骤确定:
确定多个蝙蝠种群,所述多个蝙蝠种群中每个蝙蝠种群对应有初始化参数,所述初始化参数包括总迭代次数、位置、速度、回声频率、响度和脉冲频率;
根据所述初始化的权值矩阵和所述多个蝙蝠种群中每个蝙蝠种群的初始化参数进行多次迭代更新,直至当前次迭代中确定的最优位置为预设位置,或者已迭代次数是否达到总迭代次数,则结束;
其中,针对多次迭代更新的每次迭代更新,每个蝙蝠种群的速度根据所述蝙蝠种群的当前速度、当前位置、当前回声频率、当前次迭代中确定的最优位置和当前次权值矩阵进行更新;以及,多次迭代更新的每次迭代更新中,针对新生成的蝙蝠种群,所述新生成的蝙蝠种群的响度根据响度衰减系数进行更新,所述响度衰减系数根据已迭代次数和最新迭代次数对应的响度衰减系数确定;
所述新生成的蝙蝠种群的响度,根据如下方法进行更新:
式中,i为蝙蝠种群的编号,t为当前已迭代次数,为蝙蝠种群i在第t次迭代过程中的响度,β为响度衰减系数,/>为蝙蝠种群i在第t+1次迭代过程中的响度,/>βnew代表新的蝙蝠种群的响度衰减系数,βold为上一次迭代产生的新的蝙蝠种群的响度衰减系数;
所述当前次权值矩阵根据如下方法确定:
式中,i表示蝙蝠种群的编号,t表示蝙蝠种群的迭代次数,N(0,1)是服从正态分布的随机变量,ωi(t)表示第t次迭代的权值矩阵,ωi(t+1)表示第t+1次迭代的权值矩阵。
2.根据权利要求1所述的方法,其特征在于,所述每个编码器对应有权值矩阵之后,所述方法还包括:
根据所述目标权值矩阵对所述编码器进行迭代训练,直至对所述编码器的训练结束;
若所述多个编码器均训练结束,则将训练后依次连接的多个编码器作为所述目标栈式降噪自编码器。
3.根据权利要求1所述的方法,其特征在于,所述根据所述编码器的输入数据和所述第一重构客户流量,确定第一重构误差之前还包括:
获取所述编码器的输入数据,其中,若所述编码器为所述多个编码器中的首个编码器,则所述编码器的输入数据为所述客户流量样本,若所述编码器不是所述多个编码器中的首个编码器,则所述编码器的输入数据为所述编码器的前一个编码器预测的第N+1天的客户流量;
将所述编码器的输入数据输入所述编码器,得到第一重构客户流量,所述编码器的权值矩阵为初始化的权值矩阵。
4.根据权利要求1所述的方法,其特征在于,所述多次迭代更新的每次迭代更新中,所述多个蝙蝠种群中每个蝙蝠种群的速度根据如下方法进行更新:
式中,ωi(t)代表蝙蝠种群i在第t次迭代过程中的权值矩阵,对于每个蝙蝠种群来说,在第1次迭代时,其权值矩阵取初始化的权值矩阵;代表蝙蝠种群i在第t次迭代过程中的速度;/>代表蝙蝠种群i在第t+1次迭代过程中的速度;/>代表蝙蝠种群i在第t次迭代过程中的位置,x*为所有蝙蝠种群的目标函数值中最小值对应的蝙蝠种群的位置,每个蝙蝠种群对应一个目标函数值,fi为代表蝙蝠种群i在第t次迭代过程中的脉冲频率。
5.根据权利要求1-4任一项所述的方法,其特征在于,所述栈式降噪自编码器包括多个子编码器,所述客户流量样本包括不同时间段的客户流量,不同的时间段中每个时间段对应一个子编码器和一个极限学习机;
其中,所述根据所述客户流量样本对栈式降噪自编码器进行迭代训练,得到目标栈式降噪自编码器,包括:
根据不同的时间段对所述客户流量样本进行划分,得到不同时间段的客户流量样本;
针对不同时间段的每个时间段,根据所述时间段的客户流量样本对所述时间段对应的子编码器进行训练,得到所述时间段的目标栈式降噪自编码器;
其中,所述根据所述第N+j天的客户流量的预测结果和所述标签对极限学习机进行有监督训练,得到所述目标极限学习机,包括:
针对不同时间段的每个时间段,将所述时间段的目标栈式降噪自编码器的预测结果输入一个极限学习机进行有监督训练,得到所述时间段对应的目标极限学习机。
6.一种客户流量的预测方法,其特征在于,根据预测模型对客户流量进行预测,所述预测模型包括依次连接的目标栈式降噪自编码器和目标极限学习机,所述方法包括:
获取历史客户流量,所述历史客户流量包括第1天至第M天的客户流量,M为大于1的整数;
将所述历史客户流量输入目标栈式降噪自编码器,得到中间预测结果,所述中间预测结果为目标栈式降噪自编码器对第M+i天的客户流量的预测结果,i为大于0的整数;
将所述中间预测结果输入目标极限学习机,得到目标预测结果,所述目标预测结果为目标极限学习机对第M+i天的客户流量的预测结果;
若所述目标预测结果的客户流量满足预设条件,则根据预设的处理策略对数据库或服务器进行处理,所述预设的处理策略包括将客户流量限制在所述数据库或服务器的最大承载范围之内;
其中,所述目标栈式降噪自编码器是根据客户流量样本对栈式降噪自编码器进行训练得到的,用于对客户流量的中间预测结果进行预测的模型;
所述目标极限学习机是根据所述客户流量的中间预测结果和标签对极限学习机进行有监督训练得到的,用于对所述客户流量的预测结果进行预测的模型,所述标签为第M+i天的实际客户流量,所述目标权限学习机是基于权利要求1-5任一项所述的模型的训练方法训练得到的。
7.根据权利要求6所述的方法,其特征在于,所述目标栈式降噪自编码器包括多个子编码器,每个子编码器对应一天中的一个时间段,用于对所述时间段的客户流量进行预测;
其中,所述将所述历史客户流量输入目标栈式降噪自编码器,得到中间预测结果,包括:
根据一天中不同的时间段对所述历史客户流量进行划分,得到不同时间段的历史客户流量;
针对所述不同时间段的历史客户流量中每个时间段的历史客户流量,将所述时间段的历史客户流量输入与所述时间段对应的子编码器,得到所述时间段的中间预测结果;
所述目标极限学习机包括多个子极限学习机,每个子极限学习机对应一天中的一个时间段,用于根据所述时间段的中间预测结果对客户流量进行预测,得到所述时间段的目标预测结果;
相应的,所述将所述中间预测结果输入目标极限学习机,得到目标预测结果,包括:
将所述时间段的中间预测结果输入与所述时间段对应的子极限学习机,得到所述时间段的目标预测结果。
8.根据权利要求6或7所述的方法,其特征在于,所述预设条件包括目标预测结果的客户流量达到第一客户流量;
所述预设的处理策略包括:
对所述服务器中的服务器站点的应用程序池进行回收;
和/或,
启动客户流量监控服务,所述客户流量监控服务用于对数据库的连接数量、服务器的CPU使用率、服务器的内存使用率和服务器的连接数进行监控。
9.根据权利要求6或7所述的方法,其特征在于,所述预设条件包括目标预测结果的客户流量大于第一客户流量且小于第二客户流量;
所述预设的处理策略包括如下至少一项:
对会话的CPU占用率进行监控;
对所述服务器中的服务器站点的应用程序池进行回收;
将数据库的最大连接数设置为所述数据库的原始连接数的一半;
将服务器站点的最大连接数设置为所述服务器站点的原始连接数的一半。
10.根据权利要求6或7所述的方法,其特征在于,所述预设条件包括目标预测结果的客户流量大于或等于第二客户流量;
所述预设的处理策略包括如下至少一项:
发送告警信息。
11.一种客户流量的预测装置,其特征在于,该预测装置根据预测模型对客户流量进行预测,所述预测模型包括依次连接的目标栈式降噪自编码器和目标极限学习机,所述预测装置包括:
获取模块,用于获取历史客户流量,所述历史客户流量包括第1天至第M天的客户流量,M为大于1的整数;
第一预测模块,用于将所述历史客户流量输入目标栈式降噪自编码器,得到中间预测结果,所述中间预测结果为目标栈式降噪自编码器对第M+i天的客户流量的预测结果,i为大于0的整数;
第二预测模块,用于将所述中间预测结果输入目标极限学习机,得到目标预测结果,所述目标预测结果为目标极限学习机对第M+i天的客户流量的预测结果;
处理模块,用于若所述目标预测结果的客户流量满足预设条件,则根据预设的处理策略对数据库或服务器进行处理,所述预设的处理策略包括将客户流量限制在所述数据库或服务器的最大承载范围之内;
其中,所述目标栈式降噪自编码器是根据客户流量样本对栈式降噪自编码器进行训练得到的,用于对客户流量的中间预测结果进行预测的模型;
所述目标极限学习机是根据所述客户流量的中间预测结果和标签对极限学习机进行有监督训练得到的,用于对所述客户流量的预测结果进行预测的模型,所述标签为第M+i天的实际客户流量,所述目标权限学习机是基于权利要求1-5任一项所述的模型的训练方法训练得到的。
12.一种模型的训练装置,其特征在于,所述模型包括依次连接的目标栈式降噪自编码器和目标极限学习机,所述训练装置包括:
获取模块,用于获取客户流量样本和标签,所述客户流量样本包括第1天至第N天的客户流量,所述标签为第N+1天的客户流量,其中,N为大于1的正整数;
训练模块,用于根据所述客户流量样本对栈式降噪自编码器进行迭代训练,得到目标栈式降噪自编码器,所述目标栈式降噪自编码器的输出为第N+j天的客户流量的预测结果,其中,j为大于0的正整数,且j≤M;
所述训练模块,还用于根据所述第N+j天的客户流量的预测结果和所述标签对极限学习机进行有监督训练,得到所述目标极限学习机;
所述栈式降噪自编码器包括依次连接的多个编码器,每个编码器对应有权值矩阵,所述装置还包括:确定模块,用于针对多个编码器中的每个编码器,确定所述编码器的目标权值矩阵;
所述确定模块,具体用于根据所述编码器的输入数据、第一重构客户流量和第二重构客户流量,分别确定第一重构误差、第二重构误差,所述第二重构客户流量是将所述编码器的输入数据输入目标编码器得到的,所述目标编码器的权值矩阵为根据蝙蝠算法对初始化的权值矩阵进行处理得到的权值矩阵;
所述目标编码器的权值矩阵,基于如下方法步骤确定:
确定多个蝙蝠种群,所述多个蝙蝠种群中每个蝙蝠种群对应有初始化参数,所述初始化参数包括总迭代次数、位置、速度、回声频率、响度和脉冲频率;
根据所述初始化的权值矩阵和所述多个蝙蝠种群中每个蝙蝠种群的初始化参数进行多次迭代更新,直至当前次迭代中确定的最优位置为预设位置,或者已迭代次数是否达到总迭代次数,则结束;
其中,针对多次迭代更新的每次迭代更新,每个蝙蝠种群的速度根据所述蝙蝠种群的当前速度、当前位置、当前回声频率、当前次迭代中确定的最优位置和当前次权值矩阵进行更新;以及,多次迭代更新的每次迭代更新中,针对新生成的蝙蝠种群,所述新生成的蝙蝠种群的响度根据响度衰减系数进行更新,所述响度衰减系数根据已迭代次数和最新迭代次数对应的响度衰减系数确定;
所述新生成的蝙蝠种群的响度,根据如下方法进行更新:
式中,i为蝙蝠种群的编号,t为当前已迭代次数,为蝙蝠种群i在第t次迭代过程中的响度,β为响度衰减系数,/>为蝙蝠种群i在第t+1次迭代过程中的响度,/>βnew代表新的蝙蝠种群的响度衰减系数,βold为上一次迭代产生的新的蝙蝠种群的响度衰减系数;
所述当前次权值矩阵根据如下方法确定:
式中,i表示蝙蝠种群的编号,t表示蝙蝠种群的迭代次数,N(0,1)是服从正态分布的随机变量,ωi(t)表示第t次迭代的权值矩阵,ωi(t+1)表示第t+1次迭代的权值矩阵。
13.一种电子设备,其特征在于,包括:存储器,处理器;
存储器;用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为实现如权利要求1-10中任一项所述的方法。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如权利要求1-10中任一项所述的方法。
15.一种计算机程序产品,其特征在于,包括计算机程序,该计算机程序被处理器执行时实现权利要求1-10中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110726606.3A CN113342474B (zh) | 2021-06-29 | 2021-06-29 | 客户流量的预测、模型训练的方法、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110726606.3A CN113342474B (zh) | 2021-06-29 | 2021-06-29 | 客户流量的预测、模型训练的方法、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113342474A CN113342474A (zh) | 2021-09-03 |
CN113342474B true CN113342474B (zh) | 2024-04-30 |
Family
ID=77481366
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110726606.3A Active CN113342474B (zh) | 2021-06-29 | 2021-06-29 | 客户流量的预测、模型训练的方法、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113342474B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114969209A (zh) * | 2022-06-15 | 2022-08-30 | 支付宝(杭州)信息技术有限公司 | 训练方法及装置、预测资源消耗量的方法及装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107563567A (zh) * | 2017-09-18 | 2018-01-09 | 河海大学 | 基于稀疏自编码的核极限学习机洪水预报方法 |
WO2019062413A1 (zh) * | 2017-09-30 | 2019-04-04 | Oppo广东移动通信有限公司 | 应用程序管控方法、装置、存储介质及电子设备 |
CN109670648A (zh) * | 2018-12-24 | 2019-04-23 | 新奥数能科技有限公司 | 能源数据预测模型的训练、能源数据的预测方法及装置 |
CN110009529A (zh) * | 2019-04-15 | 2019-07-12 | 湖南大学 | 一种基于堆栈降噪自动编码器的暂态频率获取方法 |
CN110245781A (zh) * | 2019-05-14 | 2019-09-17 | 贵州科学院 | 基于自编码器的极限学习机在工业生产预测的建模应用 |
CN110927535A (zh) * | 2019-11-12 | 2020-03-27 | 国网天津市电力公司电力科学研究院 | 基于极限学习机的电力设备局部放电严重程度评估方法 |
KR20200063361A (ko) * | 2018-11-23 | 2020-06-05 | 세종대학교산학협력단 | 특징 융합 기반 주가 예측 방법 및 시스템 |
CN111563829A (zh) * | 2020-04-30 | 2020-08-21 | 新智数字科技有限公司 | 电力价格预测方法、电力价格预测模型训练方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105550744A (zh) * | 2015-12-06 | 2016-05-04 | 北京工业大学 | 一种基于迭代的神经网络聚类方法 |
-
2021
- 2021-06-29 CN CN202110726606.3A patent/CN113342474B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107563567A (zh) * | 2017-09-18 | 2018-01-09 | 河海大学 | 基于稀疏自编码的核极限学习机洪水预报方法 |
WO2019062413A1 (zh) * | 2017-09-30 | 2019-04-04 | Oppo广东移动通信有限公司 | 应用程序管控方法、装置、存储介质及电子设备 |
KR20200063361A (ko) * | 2018-11-23 | 2020-06-05 | 세종대학교산학협력단 | 특징 융합 기반 주가 예측 방법 및 시스템 |
CN109670648A (zh) * | 2018-12-24 | 2019-04-23 | 新奥数能科技有限公司 | 能源数据预测模型的训练、能源数据的预测方法及装置 |
CN110009529A (zh) * | 2019-04-15 | 2019-07-12 | 湖南大学 | 一种基于堆栈降噪自动编码器的暂态频率获取方法 |
CN110245781A (zh) * | 2019-05-14 | 2019-09-17 | 贵州科学院 | 基于自编码器的极限学习机在工业生产预测的建模应用 |
CN110927535A (zh) * | 2019-11-12 | 2020-03-27 | 国网天津市电力公司电力科学研究院 | 基于极限学习机的电力设备局部放电严重程度评估方法 |
CN111563829A (zh) * | 2020-04-30 | 2020-08-21 | 新智数字科技有限公司 | 电力价格预测方法、电力价格预测模型训练方法及装置 |
Non-Patent Citations (1)
Title |
---|
基于栈式降噪稀疏自编码器的极限学习机;张国令;王晓丹;李睿;来杰;向前;;计算机工程(第09期) * |
Also Published As
Publication number | Publication date |
---|---|
CN113342474A (zh) | 2021-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110390396B (zh) | 用于估计观测变量之间的因果关系的方法、装置和系统 | |
US11694109B2 (en) | Data processing apparatus for accessing shared memory in processing structured data for modifying a parameter vector data structure | |
WO2021143883A1 (zh) | 神经网络的自适应搜索方法及装置 | |
CN111881358B (zh) | 一种对象推荐系统、方法、装置、电子设备和存储介质 | |
CN112966865B (zh) | 携号转网预测方法、装置及设备 | |
CN112398700B (zh) | 一种服务降级方法及装置、存储介质、计算机设备 | |
CN112162860A (zh) | 基于if-emd-lstm的cpu负载趋势预测方法 | |
CN116383096B (zh) | 基于多指标时序预测的微服务系统异常检测方法及装置 | |
WO2023207411A1 (zh) | 一种基于时空数据的流量确定方法、装置、设备和介质 | |
CN113342474B (zh) | 客户流量的预测、模型训练的方法、设备及存储介质 | |
CN110796485A (zh) | 一种提高预测模型的预测精度的方法及装置 | |
CN113379536A (zh) | 一种基于引力搜索算法优化递归神经网络的违约概率预测方法 | |
CN116186603A (zh) | 异常用户的识别方法及装置、计算机存储介质、电子设备 | |
CN112668797B (zh) | 一种长短期交通预测方法 | |
CN111582456B (zh) | 用于生成网络模型信息的方法、装置、设备和介质 | |
CN114329231A (zh) | 对象特征处理方法、装置、电子设备及存储介质 | |
Nayak et al. | Capacity value of wind power using kd tree and nearest neighbor search algorithm | |
Santos et al. | Microservices performance forecast using dynamic Multiple Predictor Systems | |
CN116308721B (zh) | 一种信息监督管理方法、装置、电子设备及存储介质 | |
CN115146258B (zh) | 请求处理方法、装置、存储介质及电子设备 | |
CN116433050B (zh) | 应用于农业大数据管理系统的异常报警方法及系统 | |
CN113573264A (zh) | 基于深度强化学习的5g切片的定价处理方法及装置 | |
CN116385059A (zh) | 行为数据预测模型的更新方法、装置、设备及存储介质 | |
CN115936802A (zh) | 基于用户画像和序列建模的个性化营销方法、装置、设备和存储介质 | |
CN116980379A (zh) | 红点消息推送方法及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |