CN116595356B - 时序信号预测方法、装置、电子设备及存储介质 - Google Patents
时序信号预测方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN116595356B CN116595356B CN202310873205.XA CN202310873205A CN116595356B CN 116595356 B CN116595356 B CN 116595356B CN 202310873205 A CN202310873205 A CN 202310873205A CN 116595356 B CN116595356 B CN 116595356B
- Authority
- CN
- China
- Prior art keywords
- prediction
- model
- weight
- signal
- models
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 97
- 238000012549 training Methods 0.000 claims description 108
- 230000006870 function Effects 0.000 claims description 43
- 238000012545 processing Methods 0.000 claims description 36
- 230000008569 process Effects 0.000 claims description 30
- 230000015654 memory Effects 0.000 claims description 22
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000010276 construction Methods 0.000 claims description 10
- 238000005070 sampling Methods 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 4
- 230000000694 effects Effects 0.000 abstract description 18
- 238000005516 engineering process Methods 0.000 description 15
- 239000004973 liquid crystal related substance Substances 0.000 description 12
- 238000013473 artificial intelligence Methods 0.000 description 10
- 238000010801 machine learning Methods 0.000 description 8
- 230000009471 action Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 7
- 238000005457 optimization Methods 0.000 description 7
- 230000002787 reinforcement Effects 0.000 description 7
- 238000000605 extraction Methods 0.000 description 6
- 239000013598 vector Substances 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 239000003795 chemical substances by application Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000007774 longterm Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008033 biological extinction Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000001351 cycling effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/092—Reinforcement learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y04—INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
- Y04S—SYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
- Y04S10/00—Systems supporting electrical power generation, transmission or distribution
- Y04S10/50—Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请实施例公开了一种时序信号预测方法、装置、电子设备及存储介质。本申请实施例通过获取当前时间点的当前时序信号,并将该当前时序信号分别输入至目标网络中多个模型结构互不相同的预测模型中,得到各预测模型输出的预测结果,随后根据各预测模型对应的模型权重,对相应的预测结果进行加权处理,并基于加权处理后的多个预测结果,确定下一时间点的预测时序信号。本方案提出基于模型组合的时序信号预测方案,有效提升了不同模型结合后的整体预测效果。
Description
技术领域
本申请涉及信息处理技术领域,具体涉及一种时序信号预测方法、装置、电子设备及存储介质。
背景技术
随着时序预测技术的快速发展,其在各领域中的应用越来越广泛。
目前,时序预测技术通常可以分为以下几类:第一类是基于机理模型,该类方法通过建立目标系统机理模型,对整个系统运行状态进行建模,进而预测时序信号的未来变化;第二类是数据驱动方法,使用统计学、机器学习、深度学习模型等建立时间序列预测模型,预测时序参数的变化。第三类是融合模型和数据驱动方法,通过融合目标系统机理模型和数据驱动方法实现时间序列的预测。其中,基于机理模型的预测方法对数据需求少、可用于实验室环境数据精准模拟,但只适用于单一系统;基于数据驱动方法可以融合外界影响因素,但依赖大规模数据,同时对数据分布要求较高,当输入数据有偏时会对预测结果造成较大影响;基于融合算法可以提升预测的鲁棒性,但计算复杂度提升,计算流程复杂。
可知,当前时序预测领域预测效果已经达到瓶颈,如何进一步提升预测效果成为了当下的研究热点。
发明内容
本申请实施例提供一种时序信号预测方法、装置、电子设备及存储介质,可以提高时序信号的预测效果。
一种时序信号预测方法,包括:
获取当前时间点的当前时序信号;
将所述当前时序信号分别输入至目标网络中的多个预测模型中,得到各预测模型输出的预测结果,其中,多个所述预测模型的模型结构互不相同;
确定所述预测模型对应的模型权重,并根据所述模型权重对相应的预测结果进行加权处理;
基于加权处理后的多个预测结果,确定下一时间点的预测时序信号。
相应的,本申请实施例还提供一种时序信号预测装置,包括:
获取单元,用于获取当前时间点的当前时序信号;
第一预测单元,用于将所述当前时序信号分别输入至目标网络中的多个预测模型中,得到各预测模型输出的预测结果,其中,多个所述预测模型的模型结构互不相同;
第一处理单元,用于确定所述预测模型对应的模型权重,并根据所述模型权重对相应的预测结果进行加权处理;
第一确定单元,用于基于加权处理后的多个预测结果,确定下一时间点的预测时序信号。
可选的,在一些实施方式中,所述预测模型对应的模型权重是最后一次迭代训练中所述预测模型的权重值,所述最后一次迭代训练中所述预测模型的权重值是根据最后一次迭代训练中输入到所述目标网络中的信号,以及所述预测模型输出的预测结果的损失计算得到的。
可选的,在一些实施例中,还包括:
第一构建单元,用于在获取当前时间点的当前时序信号之前,基于历史时序信号构建训练集,所述训练集包括:按固定时间窗口对所述历史时序信号进行采样得到的多个窗口信号;
第二预测单元,还用于将训练集中t-1时刻的窗口信号输入至所述目标网络,并使用所述目标网络中的多个所述预测模型进行预测,得到各预测模型输出的预测结果,作为t时刻的预测窗口信号;
第一计算单元,用于计算各预测模型对应预测结果的损失;
第二构建单元,用于根据所述损失和所述窗口信号,构建各预测模型对应的权重分配特征;
第二计算单元,用于根据所述权重分配特征计算各预测模型对应的权重值;
第二确定单元,用于根据所述预测结果和所述权重值确定最终预测结果;
优化单元,用于基于所述最终预测结果更新各预测模型对应的权重值;
第二处理单元,用于继续在所述训练集上训练所述目标网络,当所述奖赏函数连续未变更的次数达到预设阈值时,停止训练。
可选的,在一些实施例中,还包括:
训练单元,用于在基于历史时序信号构建训练集之后,根据所述训练集对多个基础预测模型进行训练,得到训练好的所述预测模型,其中,多个所述基础预测模型的模型结构互不相同。
可选的,在一些实施例中,在根据所述损失和所述窗口信号,构建各预测模型对应的权重分配特征时,所述第二构建单元具体可以用于:
对所述窗口信号进行特征提取,得到时域特征;
对所述损失进行特征提取,得到损失特征;
将所述时域特征与所述损失特征进行拼接处理,得到所述权重分配特征。
可选的,在一些实施例中,在对所述窗口信号进行特征提取,得到时域特征时,所述第二构建单元进一步用于:
通过多层感知机或卷积网络对所述窗口信号进行低维特征提取,得到所述时域特征。
可选的,在一些实施例中,在根据所述权重分配特征计算各预测模型对应的权重值时,所述第二计算单元具体可以用于:
通过激活函数对所述权重分配特征进行归一化处理,得到各预测模型对应的权重值。
可选的,在一些实施例中,还包括:
缓存单元,用于在根据所述权重分配特征计算各预测模型对应的权重值之后,根据所述预测结果和所述权重值确定最终预测结果之前,对各预测模型对应的权重值进行存储,得到权重缓存。
可选的,在一些实施例中,还包括:
过滤单元,用于在进行下一轮训练时,基于所述权重缓存对当前训练过程中计算得到的当前权重值进行过滤;
结束单元,用于当所述权重缓存中存在与当前权重值相同的权重值时,结束当前的训练过程;
更新单元,用于当所述权重缓存中不存在与当前权重值相同的权重值时,基于当前权重值对所述权重缓存进行更新。
可选的,在一些实施例中,预测结果为:下一时间点的预测时序信号在各个分类上的概率;在基于加权处理后的多个预测结果,确定下一时间点的预测时序信号时,所述第一确定单元具体可以用于:
对加权处理后的所述概率进行求和;
基于求和结果确定所述预测时序信号的分类结果;
根据所述分类结果确定下所述预测时序信号。
此外,本申请实施例还提供一种电子设备,包括处理器和存储器,所述存储器存储有应用程序,所述处理器用于运行所述存储器内的应用程序实现本申请实施例提供的时序信号预测方法中的步骤。
此外,本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有多条指令,所述指令适于处理器进行加载,以执行本申请实施例所提供的时序信号预测方法中的步骤。
此外,本申请实施例还提供一种计算机程序产品,包括计算机程序或指令,该计算机程序或指令被处理器执行时实现本申请实施例提供的时序信号预测方法中的步骤。
本申请实施例,通过将当前时间点的当前时序信号,分别输入至目标网络中多个模型结构互不相同的预测模型中,得到各预测模型输出的预测结果,随后根据各预测模型对应的模型权重,对相应的预测结果进行加权处理,并基于加权处理后的多个预测结果,确定下一时间点的预测时序信号。本方案提出基于模型组合的时序信号预测方案,通过组合多种模型结构的预测模型构成目标网络,并预先对各预测模型在目标网络中的模型权重进行训练,使得该目标网络输出结果的全局损失最小,使得在基于该目标网络对时序信号进行预测时,有效提升了不同模型结合后的整体预测效果。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的时序信号预测方法的场景示意图;
图2是本申请实施例提供的时序信号预测方法的流程示意图;
图3是本申请实施例提供的模型权重训练方法的流程示意图;
图4是本申请实施例提供的基于模型组合的时间序列预测方法的流程示意图;
图5是本申请实施例提供的时序信号预测装置的结构示意图;
图6是本申请实施例提供的电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供一种时序信号预测方法、装置、电子设备、计算机可读存储介质。其中,该时序信号预测装置可以集成在电子设备中,该电子设备可以是服务器,也可以是终端等设备。
其中,服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、网络加速服务(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。终端可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。终端以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。
例如,参见图1,以时序信号预测装置集成在电子设备中为例,电子设备获取当前时间点的当前时序信号后,将该当前时序信号分别输入至目标网络中多个模型结构互不相同的预测模型中,得到各预测模型输出的预测结果,随后根据各预测模型对应的模型权重,对相应的预测结果进行加权处理,并基于加权处理后的多个预测结果,确定下一时间点的预测时序信号。本方案提出基于模型组合的时序信号预测方案,有效提升不同模型结合后的整体预测效果。
其中,本申请实施例提供的时序信号预测方法涉及人工智能中的机器学习方向。本申请实施例可以通过组合多种模型结构的预测模型构成目标网络,并预先对各预测模型在目标网络中的模型权重进行训练,使得该目标网络输出结果的全局损失最小,并基于训练好的目标网络对时序信号进行预测,有效提升不同模型结合后的整体预测效果。
其中,人工智能(Artificial Intelligence, AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大时序信号预测技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
其中,机器学习(Machine Learning, ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
其中,可以理解的是,在本申请的具体实施方式中,涉及到属性数据、属性集合以及属性子集等相关数据,当本申请以下实施例运用到具体产品或技术中时,需要获得许可或者同意,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
以下分别进行详细说明。需要说明的是,以下实施例的描述顺序不作为对实施例优选顺序的限定。
本实施例将从时序信号预测装置的角度进行描述,该时序信号预测装置具体可以集成在电子设备中,该电子设备可以是服务器,也可以是终端等设备;其中,该终端可以包括平板电脑、笔记本电脑、以及个人计算机(PC,Personal Computer)、可穿戴设备、虚拟现实设备或其他可以进行时序信号预测的智能设备等设备。
一种时序信号预测方法,包括:
获取当前时间点的当前时序信号;将该当前时序信号分别输入至目标网络中的多个预测模型中,得到各预测模型输出的预测结果,其中,多个预测模型的模型结构互不相同;确定预测模型对应的模型权重,并根据该模型权重对相应的预测结果进行加权处理;基于加权处理后的多个预测结果,确定下一时间点的预测时序信号。
如图2所示,该时序信号预测方法的具体流程如下:
101、获取当前时间点的当前时序信号。
时序信号,即时间序列信号,是按时间顺序索引(或列出或图表)的一系列数据点,是时域内的信号。本实施例中,时序信号是在连续的等间隔时间点上获得的序列。其中,当前时序信号,即在当下按指定时间窗口对原始时序信号进行采样得到的真实时序信号。需要说明的是,该当前时间点可以是时刻,也可以是一段时间。
102、将当前时序信号分别输入至目标网络中的多个预测模型中,得到各预测模型输出的预测结果,其中,多个预测模型的模型结构互不相同。
本申请实施例中,目标网络是经过优化后的预测网络,整个网络基于预先训练好的多个预测模型搭建而成,该目标网络的最终预测结果将基于各个预测模型的预测结果来确定。
本方案中,多个预测模型可以为预先训练好的模型,该多个预测模型的模型结构互不相同。本实施例中的多个预测网络模型可以为回归模型,例如:RNN(Recurrent NeuralNetworks,循环神经网络),LSTM(Long Short-Term Memory,长短期记忆网络),GRU(GateRecurrent Unit,门控循环单元),Transformer(转换器模型)等。
具体的,RNN主要用于处理序列数据。RNN采用循环的结构,每个单元的输出与当前输入和之前的隐状态向量有关,每个单元输出一个预测值和传递到下一个单元的隐状态向量。RNN结构决定了其具有了短期记忆性,每一时刻隐藏层信息不仅由该时刻的输入层决定,还可以由上一时刻的隐藏层决定,做到挖掘数据中的时序信息以及语义信息。RNN能够记忆上一时间的输入信息,可以处理任意长度的输入,且模型形状不随输入长度增加改变形状。然而,RNN模型的计算速度慢,且很难捕捉到长期的依赖关系,随着网络层数增加,RNN在长序列场景处理时容易出现梯度消失或梯度爆炸的问题。
LSTM可以用于解决长期依赖问题,在长序列中有更好的表现。相比于RNN只传递了一个隐状态向量(hidden state)h,LSTM额外传递了一个隐状态向量(cell state)c。LSTM通过引入包含了遗忘门、输入门、输出门的cell状态的结构改善了RNN中存在的长期依赖问题,LSTM本身也可以作为复杂的非线性单元构造更大型深度网络。然而,梯度问题在LSTM中得到了一定程度的优化解决,但是并没有彻底解决,在处理更长的序列依然会暴露;另外,每一个LSTM的单元节点都意味着有4个全连接层,如果时间序列跨度较大,并且网络较深,会出现计算量大、以及耗时偏多等问题。
GRU和LSTM作用相同,在捕捉长序列语义关联时,能有效抑制梯度消失或爆炸,效果都优于传统RNN,但计算复杂度相比LSTM要小。GRU模型简单,参数量更少,训练速度更快,因此更适用于构建较大的网络。它只有两个门控,从计算角度看,效率更高,它的可扩展性有利于构筑较大的模型;但LSTM因为它具有三个门控,更加的强大和灵活,表达能力更强,同时训练速度会比GRU慢一些。然而,GRU仍然不能完全解决梯度消失问题,同时其作为RNN的变体,有着RNN结构本身的一大弊端,无法并行计算。
Transformer突破了RNN模型不能并行计算的限制,在长期依赖上也有很好地效果。然而,Transformer对局部信息的获取不如RNN强,以及位置信息编码存在问题,因为位置编码在语义空间中并不具备词向量的可线性变换,只是相当于人为设计的一种索引,所以并不能很好表征位置信息。
本方案中,基于上述模型各自的优缺点,将以上不同模型结构的回归模型结合在一起构建目标网络,实现对时序信号的综合预测,通过模型之间互补优缺,提升对时序信号预测结果的准确性。
103、确定预测模型对应的模型权重,并根据模型权重对相应的预测结果进行加权处理。
本申请实施例中,需要预先对目标网络中各预测模型对应的模型权重进行训练,以使该目标网络预测结果的全局损失最小。
在一实施方式中,各预测模型对应的模型权重是最后一次迭代训练中各预测模型的权重值,最后一次迭代训练中预测模型的权重值是根据最后一次迭代训练中输入到目标网络中的信号,以及预测模型输出的预测结果的损失计算得到的。也即,在获取当前时间点的当前时序信号之前,还包括以下步骤:
(11)基于历史时序信号构建训练集,该训练集包括:按固定时间窗口对历史时序信号进行采样得到的多个窗口信号。
具体的,假设历史时序信号为X,则可以按固定时间窗口T对该历史时序信号X进行分段,得到窗口信号x1,x2,…,xn,并基于分段后的多个窗口信号构建该训练集。
(12)将训练集中t-1时刻的窗口信号输入至目标网络,并使用目标网络中的多个预测模型进行预测,得到各预测模型输出的预测结果,作为t时刻的预测窗口信号。
需要说明的是,该多个预测模型为预先训练好的模型,且相互之间模型结构互不相同。也即,在本实施例中,在基于历史时序信号构建训练集之后,还可以包括:
根据训练集对多个基础预测模型进行训练,得到训练好的预测模型。
其中,多个基础预测模型的模型结构互不相同,多个预测网络模型可以为回归模型,例如RNN、LSTM、GRU、Transformer等模型。在进行模型训练时,可以采用能反映预测值偏离真实值的程度的函数作为损失函数。例如,本申请中可采用RMSE(Root mean squarederror)均方根损失函数,具体公式如下:
其中,表示第i个预测结果,/>表示第i个窗口信号xi的信号值。通过该均方根损失函数约束和指导模型优化,直至模型收敛后得到多个训练好的预测模型。
具体的,在基于训练好的预测模型搭建目标网络构建后,将训练集中t-1时刻的窗口信号输入至目标网络,并使其中的多个预测模型进行时序预测,得到各预测模型输出的预测结果,作为t时刻(即当前时刻的下一时刻)的预测窗口信号。其中,该预测结果可表征:该多个预测模型进行推理预测得到的t时刻的预测窗口信号,落入到不同信号分类上的概率。
(13)计算各预测模型对应预测结果的损失。
其中,该损失可用于衡量预测结果与当前结果之间的偏差,也即预测窗口信号与当前时序信号之间的偏差。本方案中,当前时刻的损失会依赖于当前时刻之前的历史时刻的模型预测损失。具体实施时,该损失可以为均方根损失。同样的,该均方根损失可以采用上述均方根损失函数进行计算。以t-1时刻的预测为例,从而得到N个预测模型的均方根损失函数:,/>,…,/>。具体表达如下:
…
其中,
…
其中,表示t时刻的窗口信号(当前的时序信号),/>表示第N个预测模型的预测结果,/>表示第N个预测模型,/>表示t-1时刻的窗口信号。
(14)根据该损失和窗口信号,构建各预测模型对应的权重分配特征。
其中,权重分配特征用于对各预测模型在目标网络中的权重参数进行分配。通过将该权重参数与各预测模型对应输出的预测结果相结合,实现控制目标网络的整体预测结果。
在一实施方式中,在根据损失和窗口信号,构建各预测模型对应的权重分配特征时,可以包括以下操作:
对窗口信号进行特征提取,得到时域特征;
对损失进行特征提取,得到损失特征;
将时域特征与损失特征进行拼接处理,得到权重分配特征。
具体的,对当前输入的t时刻的窗口信号进行特征提取,得到该窗口信号的时域特征。将提取到的时域特征/>与损失的损失特征/>进行拼接,得到t-1时刻第i个预测模型的权重分配特征的表达/>,如下:
实际应用中,在对窗口信号进行特征提取时,可以通过MLP(MultilayerPerceptron,多层感知机)或卷积网络对该窗口信号进行低维特征提取,得到对应的时域特征。
本方案中,将模型损失特征与信号特征组合的权重分配方式,从多维度去描述时序信号本身,更有利于权重分配特征的准确构建。
(15)根据权重分配特征计算各预测模型对应的权重值。
具体的,可以通过激活函数对权重分配特征进行归一化处理,得到各预测模型对应的权重值。其中,该激活函数可以采用softmax函数。例如,将权重分配特征输入到softmax,计算N个基础预测模型的权重W1,W2,…,WN。计算公式如下:
(16)根据预测结果和权重值确定最终预测结果。
具体的,基于各个预测模型对应的权重值对其输出的预测结果进行加权处理,并将加权处理后的预测结果进行求和,计算得到目标网络最终的预测结果。
(17)基于最终预测结果更新各预测模型对应的权重值。
在本申请实施例中,采用RL(Reinforcement Learning,强化学习)的思路对目标网络的模型参数进行训练。强化学习是智能体与环境交互从而进行学习的一种机器学习方法。智能体执行一个动作后,会从环境中获得反馈,该反馈是环境对这个动作做出的评价。强化学习的目标是使每执行一个动作后都能得到最大的立即奖赏,要做的就是要训练智能体使其在什么状态下做什么动作可以获得最好的反馈。综上可知,强化学习方法的学习过程是一种试探过程,通过试探不断增大最优动作被选中的概率,从而寻找到一组最优解。
奖赏函数会给予智能体所做的动作一个评价,评价执行这个动作后对最终结果的影响,数值越大表示效果越好,反之表示效果不好。由于强化学习要实现的目标是找到一组动作序列,使得累计奖赏最大。也即,在基于最终预测结果更新各预测模型对应的权重值时,可以基于最终预测结果计算奖赏函数,并根据奖赏函数进行梯度反向传播优化,更新各预测模型对应的权重值。
具体的,记奖赏函数为,根据各预测模型权重和预测结果计算奖赏函数,公式如下:
然后,基于奖赏函数计算回传梯度,并基于该回传梯度进行反向传播优化,更新各预测模型对应的权重值,实现降低全局预测损失。
在一实施方式中,为了减少无效训练(如重复训练)、节省设备资源,对于重复权重的训练过程,可以提前结束。也即,在根据权重分配特征计算各预测模型对应的权重值之后,根据预测结果和权重值确定最终预测结果之前,还可以对各预测模型对应的权重值进行存储,得到权重缓存。
在进行下一轮训练时,可基于权重缓存对当前训练过程中计算得到的当前权重值进行过滤。当权重缓存中存在与当前权重值相同的权重值时(即权重缓存中各预测模型对应的权重值,与当前各预测模型对应的权重值完全重复),直接结束当前的训练过程。当权重缓存中不存在与当前权重值相同的权重值时,基于当前权重值对权重缓存进行更新;例如,将各预测模型对应的当前权重值添加到权重缓存中。
(18)继续在训练集上训练目标网络,当奖赏函数连续未变更的次数达到预设阈值时,停止训练。
具体的,在当前训练过程结束后,基于训练集中下一时刻的窗口信号(例如,t+1时刻的窗口信号)继续执行下一轮训练,对目标网络中各预测模型对应的权重参数进行更新迭代。当奖赏函数连续未变更的次数达到预设阈值时,停止训练,并将各预测模型对应的当前权重值确定为模型权重。
其中,该预设阈值可由本领域技术人员进行设定。例如,可以设定连续执行3个训练epoch(即使用训练集中的全部样本训练一次的过程)奖赏函数不再变化时,停止训练。
104、基于加权处理后的多个预测结果,确定下一时间点的预测时序信号。
在本实施中,该预测结果可以为:下一时间点的预测时序信号在各个分类上的概率。在基于加权处理后的多个预测结果,确定下一时间点的预测时序信号时,可以包括以下操作:
对加权处理后的概率进行求和;
基于求和结果确定预测时序信号的分类结果;
根据分类结果确定预测时序信号。
具体的,将多个预测模型的预测结果乘上训练权重相加后,得到预测时序信号落入到各信号分类上的概率,将概率最大的分类作为该预测时序信号的分类结果,并基于该分类结果确定该预测时序信号。
由上可知,本申请实施例提供的时序信号预测方法,通过获取当前时间点的当前时序信号,并将当前时序信号分别输入至目标网络中的多个模型结构互不相同的预测模型中,得到各预测模型输出的预测结果,随后根据预测模型对应的模型权重对相应的预测结果进行加权处理,最后基于加权处理后的多个预测结果,确定下一时间点的预测时序信号。本方案通过组合多种模型结构的预测模型构成目标网络,并预先对各预测模型在目标网络中的模型权重进行训练,使得该目标网络输出结果的全局损失最小,使得在基于该目标网络对时序信号进行预测时,有效提升了不同模型结合后的整体预测效果。
根据上面实施例所描述的方法,以下将举例作进一步详细说明。本申请另一实施例中,提供一种基于模型组合的时间序列预测方法,具体流程如下:
阶段一、训练前置步骤
(21)对原始输入信号X,按固定时间窗口T进行分段得到相应的窗口信号:x1,x2,…,xn,将分段后的窗口信号作为训练集。
(22)在训练集上,训练N个模型结构互不相同的基础预测模型,输入为t-1时刻的窗口信号,预测t时刻的窗口信号。其中,基础预测模型可以使用GRU,LSTM,RNN,Transformer等模型。损失函数为RMSE均方根损失函数,具体公式如下:
其中,表示第i个预测结果,/>表示第i个窗口信号xi的信号值。通过该均方根损失函数约束和指导模型优化,直至模型收敛后得到N个训练好的预测模型。
阶段二、组合权重优化过程
参考图3,模型权重的训练过程如下:
(31)在训练集上,输入t-1时刻的窗口信号,使用N个训练好的预测模型进行推理预测,得到t时刻时间窗口的预测信号,并分别计算其预测值的均方根损失值:,,…,/>。具体表达如下:
…
其中,
…
其中,表示t时刻的窗口信号(当前的时序信号),/>表示第N个预测模型的预测结果,/>表示第N个预测模型,/>表示t-1时刻的窗口信号。
(32)将时序特征与模型推理损失相结合的权重分配特征
在训练集上,输入t-1时刻的窗口信号,使用多层感知机MLP对窗口信号提取低维特征,将/>与/>拼接得到t-1时刻第i个预测模型的权重分配特征表达/>,如下:
(33)将输入softmax计算N个基础预测模型的权重W1,W2,…,WN。计算公式如下:/>
(34)计算根据各个预测模型的预测结果和对应权重,计算最终的预测结果。同时,各预测模型对应权重会存储在权重缓存中,如有重复则该次训练过程直接结束。
(35)根据预测结果计算奖赏函数,进行梯度反向传播优化。
按照步骤(31)~(35)进行循环,直至奖赏函数不再升高(也即全局损失不再下降)。当连续3个训练epoch奖赏函数不再变化时,训练停止。
阶段三、 预测过程
参考图4,在对时序信号进行预测时,包括以下操作:
(41)输入时序原始信号;
(42)将采集的时序原始信号按固定窗口进行采样;
(43)将采样后的时序信号输入N个训练好的预测模型中,获得对应预测结果;
(44)将N个预测模型的预测结果乘上训练权重相加后,得到最终预测结果。
阶段四、实验验证
参考下表1,表1为两个公开数据集上本申请中的算法与其他算法效果对比。在两个实验数据集上对比了本方案提出的时序信号预测方法与其他方式的时序信号的预测效果。第一个实验数据集是交通时序信号预测数据集,第二个实验数据集是天气预测数据集。基础预测模型采用经典时序预测模型GRU,LSTM,RNN。
表1
表1中给出了针对两个不同的数据集,本方案提出的时序信号预测方法、及其他方式的时序信号预测方案的均方根误差RMSE指标,RMSE的计算方式如下式所示:
其中,x表示时序信号,i表示第几个,m表示时序信号的数量,h(x)表示时序信号的预测值,y表示时序信号的真实值。
可见,在两个数据集上本方案提供的方法相对于现有预测模型TimesNet和ETSformer都有明显提升。同时在不同预测步长上,本方案提供的方法相对相对于现有方法也有明显提升。本方案通过提出的模型组合方法,最终整体预测效果优于现有预测模型。
由上可知,本申请实施例提供的基于模型组合的时间序列预测方法,通过强化学习构建最优预测模型组合方案,充分发挥单一模型性能,有效提升了全局预测性能;同时,实现了权重优化流程全自动化,创新地提出将模型损失值与信号特征组合的权重分配方式,更有利于权重分配特征的准确构建。
为了更好地实施以上方法,本申请实施例还提供一种时序信号预测装置,该时序信号预测装置可以集成在电子设备,比如服务器或终端等设备中,该终端可以包括平板电脑、笔记本电脑和/或个人计算机等。
例如,如图5所示,该时序信号预测装置可以包括获取单元301、第一预测单元302、第一处理单元303、第一确定单元304,如下:
获取单元301,用于获取当前时间点的当前时序信号。
第一预测单元302,用于将该当前时序信号分别输入至目标网络中的多个预测模型中,得到各预测模型输出的预测结果,其中,多个该预测模型的模型结构互不相同。
第一处理单元303,用于确定该预测模型对应的模型权重,并根据该模型权重对相应的预测结果进行加权处理。
第一确定单元304,用于基于加权处理后的多个预测结果,确定下一时间点的预测时序信号。
可选的,在一些实施方式中,预测模型对应的模型权重是最后一次迭代训练中预测模型的权重值,最后一次迭代训练中预测模型的权重值是根据最后一次迭代训练中输入到目标网络中的信号,以及预测模型输出的预测结果的损失计算得到的。
可选的,在一些实施例中,还包括:
第一构建单元,用于在获取当前时间点的当前时序信号之前,基于历史时序信号构建训练集,该训练集包括:按固定时间窗口对该历史时序信号进行采样得到的多个窗口信号;
第二预测单元,还用于将训练集中t-1时刻的窗口信号输入至该目标网络,并使用该目标网络中的多个该预测模型进行预测,得到各预测模型输出的预测结果,作为t时刻的预测窗口信号;
第一计算单元,用于计算各预测模型对应预测结果的损失;
第二构建单元,用于根据所述损失和所述窗口信号,构建各预测模型对应的权重分配特征;
第二计算单元,用于根据权重分配特征计算各预测模型对应的权重值;
第二确定单元,用于根据预测结果和所述权重值确定最终预测结果;
优化单元,用于基于最终预测结果更新各预测模型对应的权重值;
第二处理单元,用于继续在训练集上训练目标网络,当奖赏函数连续未变更的次数达到预设阈值时,停止训练。
可选的,在一些实施例中,还包括:
训练单元,用于在基于历史时序信号构建训练集之后,根据该训练集对多个基础预测模型进行训练,得到训练好的该预测模型,其中,多个该基础预测模型的模型结构互不相同。
可选的,在一些实施例中,在根据该损失和该窗口信号,构建各预测模型对应的权重分配特征时,该第二构建单元具体可以用于:
对该窗口信号进行特征提取,得到时域特征;
对该损失进行特征提取,得到损失特征;
将该时域特征与该损失特征进行拼接处理,得到该权重分配特征。
可选的,在一些实施例中,在对该窗口信号进行特征提取,得到时域特征时,该第二构建单元进一步用于:
通过多层感知机或卷积网络对该窗口信号进行低维特征提取,得到该时域特征。
可选的,在一些实施例中,在根据该权重分配特征计算各预测模型对应的权重值时,该第二计算单元具体可以用于:
通过激活函数对该权重分配特征进行归一化处理,得到各预测模型对应的权重值。
可选的,在一些实施例中,还包括:
缓存单元,用于在根据该权重分配特征计算各预测模型对应的权重值之后,根据该预测结果和该权重值确定最终预测结果之前,对各预测模型对应的权重值进行存储,得到权重缓存。
可选的,在一些实施例中,还包括:
过滤单元,用于在进行下一轮训练时,基于该权重缓存对当前训练过程中计算得到的当前权重值进行过滤;
结束单元,用于当该权重缓存中存在与当前权重值相同的权重值时,结束当前的训练过程;
更新单元,用于当该权重缓存中不存在与当前权重值相同的权重值时,基于当前权重值对该权重缓存进行更新。
可选的,在一些实施例中,预测结果为:下一时间点的预测时序信号在各个分类上的概率。在基于加权处理后的多个预测结果,确定下一时间点的预测时序信号时,该第一确定单元304具体可以用于:
对加权处理后的该概率进行求和;
基于求和结果确定该预测时序信号的分类结果;
根据该分类结果确定下该预测时序信号。
由上可知,本申请实施例提供的时序信号预测装置,通过获取单元301获取当前时间点的当前时序信号,第一预测单元302将当前时序信号分别输入至目标网络中的多个模型结构互不相同的预测模型中,得到各预测模型输出的预测结果,第一处理单元303根据预测模型对应的模型权重对相应的预测结果进行加权处理,第一确定单元304基于加权处理后的多个预测结果,确定下一时间点的预测时序信号。本方案可以通过组合多种模型结构的预测模型构成目标网络,并预先对各预测模型在目标网络中的模型权重进行训练,使得该目标网络输出结果的全局损失最小,有效提升了不同模型结合后的整体预测效果。
本申请实施例还提供一种电子设备,如图6所示,其示出了本申请实施例所涉及的电子设备的结构示意图,具体来讲:
该电子设备可以包括一个或者一个以上处理核心的处理器401、一个或一个以上计算机可读存储介质的存储器402、电源403和输入单元404等部件。本领域技术人员可以理解,图6中示出的电子设备结构并不构成对电子设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理器401是该电子设备的控制中心,利用各种接口和线路连接整个电子设备的各个部分,通过运行或执行存储在存储器402内的软件程序和/或模块,以及调用存储在存储器402内的数据,执行电子设备的各种功能和处理数据。可选的,处理器401可包括一个或多个处理核心;优选的,处理器401可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器401中。
存储器402可用于存储软件程序以及模块,处理器401通过运行存储在存储器402的软件程序以及模块,从而执行各种功能应用以及时序信号预测。存储器402可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据电子设备的使用所创建的数据等。此外,存储器402可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器402还可以包括存储器控制器,以提供处理器401对存储器402的访问。
电子设备还包括给各个部件供电的电源403,优选的,电源403可以通过电源管理系统与处理器401逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源403还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
该电子设备还可包括输入单元404,该输入单元404可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
尽管未示出,电子设备还可以包括显示单元等,在此不再赘述。具体在本实施例中,电子设备中的处理器401会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储器402中,并由处理器401来运行存储在存储器402中的应用程序,从而实现各种功能,如下:
获取当前时间点的当前时序信号;将该当前时序信号分别输入至目标网络中的多个预测模型中,得到各预测模型输出的预测结果,其中,多个该预测模型的模型结构互不相同;确定该预测模型对应的模型权重,并根据该模型权重对相应的预测结果进行加权处理;基于加权处理后的多个预测结果,确定下一时间点的预测时序信号。
在一些实施方式中,预测模型对应的模型权重是最后一次迭代训练中预测模型的权重值,最后一次迭代训练中预测模型的权重值是根据最后一次迭代训练中输入到目标网络中的信号,以及预测模型输出的预测结果的损失计算得到的。
在一实施方式中,在获取当前时间点的当前时序信号之前,处理器401还执行以下操作:
基于历史时序信号构建训练集,该训练集包括:按固定时间窗口对该历史时序信号进行采样得到的多个窗口信号;将训练集中t-1时刻的窗口信号输入至该目标网络,并使用该目标网络中的多个该预测模型进行预测,得到各预测模型输出的预测结果,作为t时刻的预测窗口信号;计算各预测模型对应预测结果的损失;根据该损失和该窗口信号,构建各预测模型对应的权重分配特征;根据该权重分配特征计算各预测模型对应的权重值;根据该预测结果和该权重值确定最终预测结果;基于该最终预测结果更新各预测模型对应的权重值;继续在该训练集上训练该目标网络,当该奖赏函数连续未变更的次数达到预设阈值时,停止训练。
在一实施方式中,在基于历史时序信号构建训练集之后,处理器401还执行以下操作:
根据该训练集对多个基础预测模型进行训练,得到训练好的该预测模型,其中,多个该基础预测模型的模型结构互不相同。
在一实施方式中,在根据该损失和该窗口信号,构建各预测模型对应的权重分配特征时,处理器401具体执行以下操作:
对该窗口信号进行特征提取,得到时域特征;对该损失进行特征提取,得到损失特征;将该时域特征与该损失特征进行拼接处理,得到该权重分配特征。
在一实施方式中,在对该窗口信号进行特征提取,得到时域特征时,处理器401具体执行以下操作:
通过多层感知机或卷积网络对该窗口信号进行低维特征提取,得到该时域特征。
在一实施方式中,在根据该权重分配特征计算各预测模型对应的权重值时,处理器401具体执行以下操作:
通过激活函数对该权重分配特征进行归一化处理,得到各预测模型对应的权重值。
在一实施方式中,在根据该权重分配特征计算各预测模型对应的权重值之后,根据该预测结果和该权重值确定最终预测结果之前,处理器401还执行以下操作:对各预测模型对应的权重值进行存储,得到权重缓存。
在一实施方式中,在进行下一轮训练时,处理器401还执行以下操作:
基于该权重缓存对当前训练过程中计算得到的当前权重值进行过滤;当该权重缓存中存在与当前权重值相同的权重值时,结束当前的训练过程;当该权重缓存中不存在与当前权重值相同的权重值时,基于当前权重值对该权重缓存进行更新。
在一实施方式中,预测结果为:下一时间点的预测时序信号在各个分类上的概率。在基于加权处理后的多个预测结果,确定下一时间点的预测时序信号时,处理器401还执行以下操作:
对加权处理后的该概率进行求和;基于求和结果确定该预测时序信号的分类结果;根据该分类结果确定该预测时序信号。
以上各个操作的具体实施可参见前面的实施例,在此不作赘述。
由以上可知,本申请实施例中,电子设备通过获取当前时间点的当前时序信号,并将当前时序信号分别输入至目标网络中的多个模型结构互不相同的预测模型中,得到各预测模型输出的预测结果,随后根据预测模型对应的模型权重对相应的预测结果进行加权处理,最后基于加权处理后的多个预测结果,确定下一时间点的预测时序信号。本方案可以通过组合多种模型结构的预测模型构成目标网络,并预先对各预测模型在目标网络中的模型权重进行训练,使得该目标网络输出结果的全局损失最小,有效提升了不同模型结合后的整体预测效果。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本申请实施例提供一种计算机可读存储介质,其中存储有多条指令,该指令能够被处理器进行加载,以执行本申请实施例所提供的任一种时序信号预测方法中的步骤。例如,该指令可以执行如下步骤:
获取当前时间点的当前时序信号;将该当前时序信号分别输入至目标网络中的多个预测模型中,得到各预测模型输出的预测结果,其中,多个该预测模型的模型结构互不相同;确定该预测模型对应的模型权重,并根据该模型权重对相应的预测结果进行加权处理;基于加权处理后的多个预测结果,确定下一时间点的预测时序信号。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
其中,该计算机可读存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
由于该计算机可读存储介质中所存储的指令,可以执行本申请实施例所提供的任一种时序信号预测方法中的步骤,因此,可以实现本申请实施例所提供的任一种时序信号预测方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
其中,根据本申请的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述时序信号预测方面的各种可选实现方式中提供的方法。
以上对本申请实施例所提供的一种时序信号预测方法、装置、电子设备、计算机可读存储介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。摘要
本申请实施例公开了一种时序信号预测方法、装置、电子设备及存储介质。本申请实施例通过获取当前时间点的当前时序信号,并将该当前时序信号分别输入至目标网络中多个模型结构互不相同的预测模型中,得到各预测模型输出的预测结果,随后根据各预测模型对应的模型权重,对相应的预测结果进行加权处理,并基于加权处理后的多个预测结果,确定下一时间点的预测时序信号。本方案提出基于模型组合的时序信号预测方案,有效提升了不同模型结合后的整体预测效果。
Claims (11)
1.一种时序信号预测方法,包括:
基于历史时序信号构建训练集,所述训练集包括:按固定时间窗口对所述历史时序信号进行采样得到的多个窗口信号;
将所述训练集中t-1时刻的窗口信号输入至目标网络,并使用所述目标网络中的多个预测模型进行预测,得到各预测模型输出的预测结果,作为t时刻的预测窗口信号,其中,多个所述预测模型的模型结构互不相同;
计算各预测模型对应预测结果的损失;
根据所述损失和所述窗口信号,构建各预测模型对应的权重分配特征;
根据所述权重分配特征计算各预测模型对应的权重值;
根据各预测模型输出的预测结果和所述权重值确定最终预测结果;
基于所述最终预测结果更新各预测模型对应的权重值;
继续在所述训练集上训练所述目标网络,当奖赏函数连续未变更的次数达到预设阈值时,停止训练;
获取当前时间点的当前时序信号;
将所述当前时序信号分别输入至所述目标网络中的多个所述预测模型中,得到各预测模型输出的预测结果;
确定所述预测模型对应的模型权重,并根据所述模型权重对相应的预测结果进行加权处理,其中,所述预测模型对应的模型权重是最后一次迭代训练中所述预测模型的权重值,所述最后一次迭代训练中所述预测模型的权重值是根据最后一次迭代训练中输入到所述目标网络中的信号,以及所述预测模型输出的预测结果的损失计算得到的;
基于加权处理后的多个预测结果,确定下一时间点的预测时序信号。
2.根据权利要求1所述的时序信号预测方法,其特征在于,在基于历史时序信号构建训练集之后,还包括:
根据所述训练集对多个基础预测模型进行训练,得到训练好的所述预测模型,其中,多个所述基础预测模型的模型结构互不相同。
3.根据权利要求2所述的时序信号预测方法,其特征在于,所述根据所述损失和所述窗口信号,构建各预测模型对应的权重分配特征,包括:
对所述窗口信号进行特征提取,得到时域特征;
对所述损失进行特征提取,得到损失特征;
将所述时域特征与所述损失特征进行拼接处理,得到所述权重分配特征。
4.根据权利要求3所述的时序信号预测方法,其特征在于,所述对所述窗口信号进行特征提取,得到时域特征,包括:
通过多层感知机或卷积网络对所述窗口信号进行低维特征提取,得到所述时域特征。
5.根据权利要求1所述的时序信号预测方法,其特征在于,所述根据所述权重分配特征计算各预测模型对应的权重值,包括:
通过激活函数对所述权重分配特征进行归一化处理,得到各预测模型对应的权重值。
6.根据权利要求1所述的时序信号预测方法,其特征在于,在根据所述权重分配特征计算各预测模型对应的权重值之后,根据各预测模型输出的预测结果和所述权重值确定最终预测结果之前,还包括:
对各预测模型对应的权重值进行存储,得到权重缓存。
7.根据权利要求6所述的时序信号预测方法,其特征在于,还包括:
在进行下一轮训练时,基于所述权重缓存对当前训练过程中计算得到的当前权重值进行过滤;
当所述权重缓存中在与当前权重值相同的权重值时,结束当前的训练过程;
当所述权重缓存中不存在与当前权重值相同的权重值时,基于当前权重值对所述权重缓存进行更新。
8.根据权利要求1-7任一项所述的时序信号预测方法,其特征在于,预测结果为:下一时间点的预测时序信号在各个分类上的概率;所述基于加权处理后的多个预测结果,确定下一时间点的预测时序信号,包括:
对加权处理后的所述概率进行求和;
基于求和结果确定所述预测时序信号的分类结果;
根据所述分类结果确定所述预测时序信号。
9.一种时序信号预测装置,其特征在于,包括:
第一构建单元,用于在获取当前时间点的当前时序信号之前,基于历史时序信号构建训练集,所述训练集包括:按固定时间窗口对所述历史时序信号进行采样得到的多个窗口信号;
第二预测单元,还用于将所述训练集中t-1时刻的窗口信号输入至目标网络,并使用所述目标网络中的多个预测模型进行预测,得到各预测模型输出的预测结果,作为t时刻的预测窗口信号,其中,多个所述预测模型的模型结构互不相同;
第一计算单元,用于计算各预测模型对应预测结果的损失;
第二构建单元,用于根据所述损失和所述窗口信号,构建各预测模型对应的权重分配特征;
第二计算单元,用于根据所述权重分配特征计算各预测模型对应的权重值;
第二确定单元,用于根据各预测模型输出的预测结果和所述权重值确定最终预测结果;
优化单元,用于基于所述最终预测结果更新各预测模型对应的权重值;
第二处理单元,用于继续在所述训练集上训练所述目标网络,当奖赏函数连续未变更的次数达到预设阈值时,停止训练;
获取单元,用于获取当前时间点的当前时序信号;
第一预测单元,用于将所述当前时序信号分别输入至所述目标网络中的多个所述预测模型中,得到各预测模型输出的预测结果;
第一处理单元,用于确定所述预测模型对应的模型权重,并根据所述模型权重对相应的预测结果进行加权处理,其中,所述预测模型对应的模型权重是最后一次迭代训练中所述预测模型的权重值,所述最后一次迭代训练中所述预测模型的权重值是根据最后一次迭代训练中输入到所述目标网络中的信号,以及所述预测模型输出的预测结果的损失计算得到的;
第一确定单元,用于基于加权处理后的多个预测结果,确定下一时间点的预测时序信号。
10.一种电子设备,其特征在于,包括处理器和存储器,所述存储器存储有应用程序,所述处理器用于运行所述存储器内的应用程序,以执行权利要求1-8任一项所述的时序信号预测方法中的步骤。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有多条指令,所述指令适于处理器进行加载,以执行权利要求1-8任一项所述的时序信号预测方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310873205.XA CN116595356B (zh) | 2023-07-17 | 2023-07-17 | 时序信号预测方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310873205.XA CN116595356B (zh) | 2023-07-17 | 2023-07-17 | 时序信号预测方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116595356A CN116595356A (zh) | 2023-08-15 |
CN116595356B true CN116595356B (zh) | 2023-09-22 |
Family
ID=87604787
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310873205.XA Active CN116595356B (zh) | 2023-07-17 | 2023-07-17 | 时序信号预测方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116595356B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117056709A (zh) * | 2023-10-11 | 2023-11-14 | 腾讯科技(深圳)有限公司 | 时序预测模型的训练方法、装置和存储介质及电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109993205A (zh) * | 2019-02-28 | 2019-07-09 | 东软集团股份有限公司 | 时间序列预测方法、装置、可读存储介质及电子设备 |
CN113313245A (zh) * | 2020-02-27 | 2021-08-27 | 阿里巴巴集团控股有限公司 | 用于共享学习的模型处理方法、系统、装置以及电子设备 |
CN113988449A (zh) * | 2021-11-05 | 2022-01-28 | 国家电网有限公司西北分部 | 基于Transformer模型的风电功率预测方法 |
CN114091752A (zh) * | 2021-11-22 | 2022-02-25 | 复旦大学 | 一种提升时间序列预测系统预测时间序列效果的方法 |
CN114118570A (zh) * | 2021-11-24 | 2022-03-01 | 泰康保险集团股份有限公司 | 业务数据预测方法及装置、电子设备和存储介质 |
CN115470988A (zh) * | 2022-09-14 | 2022-12-13 | 广西电网有限责任公司 | 一种构建预测模型方法、系统及其设备 |
CN116306902A (zh) * | 2023-05-17 | 2023-06-23 | 平安科技(深圳)有限公司 | 时序数据环境分析及决策方法、装置、设备及存储介质 |
-
2023
- 2023-07-17 CN CN202310873205.XA patent/CN116595356B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109993205A (zh) * | 2019-02-28 | 2019-07-09 | 东软集团股份有限公司 | 时间序列预测方法、装置、可读存储介质及电子设备 |
CN113313245A (zh) * | 2020-02-27 | 2021-08-27 | 阿里巴巴集团控股有限公司 | 用于共享学习的模型处理方法、系统、装置以及电子设备 |
CN113988449A (zh) * | 2021-11-05 | 2022-01-28 | 国家电网有限公司西北分部 | 基于Transformer模型的风电功率预测方法 |
CN114091752A (zh) * | 2021-11-22 | 2022-02-25 | 复旦大学 | 一种提升时间序列预测系统预测时间序列效果的方法 |
CN114118570A (zh) * | 2021-11-24 | 2022-03-01 | 泰康保险集团股份有限公司 | 业务数据预测方法及装置、电子设备和存储介质 |
CN115470988A (zh) * | 2022-09-14 | 2022-12-13 | 广西电网有限责任公司 | 一种构建预测模型方法、系统及其设备 |
CN116306902A (zh) * | 2023-05-17 | 2023-06-23 | 平安科技(深圳)有限公司 | 时序数据环境分析及决策方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN116595356A (zh) | 2023-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | A hybrid approach for forecasting ship motion using CNN–GRU–AM and GCWOA | |
Li et al. | A ship motion forecasting approach based on empirical mode decomposition method hybrid deep learning network and quantum butterfly optimization algorithm | |
CN111368993B (zh) | 一种数据处理方法及相关设备 | |
CN112052948B (zh) | 一种网络模型压缩方法、装置、存储介质和电子设备 | |
CN110866592B (zh) | 模型训练方法、装置、能效预测方法、装置和存储介质 | |
CN106502799A (zh) | 一种基于长短时记忆网络的主机负载预测方法 | |
CN116595356B (zh) | 时序信号预测方法、装置、电子设备及存储介质 | |
CN111563158B (zh) | 文本排序方法、排序装置、服务器和计算机可读存储介质 | |
CN112580369B (zh) | 语句复述方法、训练语句复述模型的方法及其装置 | |
CN111598253A (zh) | 使用教师退火来训练机器学习模型 | |
Huang et al. | Length adaptive recurrent model for text classification | |
Zhang et al. | Ship motion attitude prediction model based on IWOA-TCN-Attention | |
Ma et al. | Fuzzy hybrid framework with dynamic weights for short‐term traffic flow prediction by mining spatio‐temporal correlations | |
CN116090536A (zh) | 神经网络的优化方法、装置、计算机设备及存储介质 | |
CN115168720A (zh) | 内容交互预测方法以及相关设备 | |
CN115376518A (zh) | 一种实时噪声大数据的声纹识别方法、系统、设备和介质 | |
CN116684330A (zh) | 基于人工智能的流量预测方法、装置、设备及存储介质 | |
CN113610299B (zh) | 基于特征衰减强化神经网络的信息传播预测方法及装置 | |
CN117121016A (zh) | 在低级基元上的粒度神经网络架构搜索 | |
CN116993185A (zh) | 时间序列预测方法、装置、设备及存储介质 | |
CN117633184A (zh) | 一种模型构建和智能回复方法、设备及介质 | |
CN117518907A (zh) | 智能体的控制方法、装置、设备及存储介质 | |
Wei et al. | Research on group behavior model based on neural network computing | |
WO2023174064A1 (zh) | 自动搜索方法、自动搜索的性能预测模型训练方法及装置 | |
CN114492465B (zh) | 对话生成模型训练方法和装置、对话生成方法、电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |