CN112364975A - 基于图神经网络的终端运行状态预测方法及系统 - Google Patents
基于图神经网络的终端运行状态预测方法及系统 Download PDFInfo
- Publication number
- CN112364975A CN112364975A CN202011095419.1A CN202011095419A CN112364975A CN 112364975 A CN112364975 A CN 112364975A CN 202011095419 A CN202011095419 A CN 202011095419A CN 112364975 A CN112364975 A CN 112364975A
- Authority
- CN
- China
- Prior art keywords
- data
- neural network
- terminal
- graph neural
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 97
- 238000000034 method Methods 0.000 title claims abstract description 86
- 238000009826 distribution Methods 0.000 claims abstract description 44
- 238000012545 processing Methods 0.000 claims abstract description 38
- 238000000605 extraction Methods 0.000 claims abstract description 17
- 230000006870 function Effects 0.000 claims description 22
- 230000000737 periodic effect Effects 0.000 claims description 20
- 230000015654 memory Effects 0.000 claims description 18
- 238000012549 training Methods 0.000 claims description 18
- 238000005070 sampling Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 11
- 230000000694 effects Effects 0.000 claims description 8
- 238000012952 Resampling Methods 0.000 claims description 7
- 238000003860 storage Methods 0.000 claims description 5
- 230000002159 abnormal effect Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000004140 cleaning Methods 0.000 claims description 2
- 125000004122 cyclic group Chemical group 0.000 claims description 2
- 230000008030 elimination Effects 0.000 claims description 2
- 238000003379 elimination reaction Methods 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims description 2
- 238000007781 pre-processing Methods 0.000 claims description 2
- 230000007246 mechanism Effects 0.000 description 15
- 239000013598 vector Substances 0.000 description 14
- 230000008569 process Effects 0.000 description 13
- 210000002569 neuron Anatomy 0.000 description 11
- 230000009467 reduction Effects 0.000 description 11
- 238000005315 distribution function Methods 0.000 description 10
- 238000004458 analytical method Methods 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 5
- 230000001537 neural effect Effects 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 206010048669 Terminal state Diseases 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000012938 design process Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- YHXISWVBGDMDLQ-UHFFFAOYSA-N moclobemide Chemical compound C1=CC(Cl)=CC=C1C(=O)NCCN1CCOCC1 YHXISWVBGDMDLQ-UHFFFAOYSA-N 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y04—INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
- Y04S—SYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
- Y04S10/00—Systems supporting electrical power generation, transmission or distribution
- Y04S10/50—Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请公开了基于图神经网络的终端运行状态预测方法及系统,包括:在终端上布设传感器,获取由传感器采集的终端的时间序列状态数据;对终端的每个时间序列状态数据进行数据增强处理;对数据增强处理后的数据进行特征提取;利用提取的特征构建图神经网络;对图神经网络的权重进行自适应分配;基于传感器采集终端的待预测时间序列状态数据,利用图神经网络对终端下一时刻的运行状态进行预测。
Description
技术领域
本申请涉及自然语言处理领域和终端状态监测技术领域,特别是涉及基于图神经网络的终端运行状态预测方法及系统。
背景技术
本部分的陈述仅仅是提到了与本申请相关的背景技术,并不必然构成现有技术。
随着各行各业电子化、信息化和智能化的水平不断提高,人们所能收集到的各种场景或终端的数据量大大增加,这些海量的时间序列数据记录了部署在各个生产生活场景下的终端的状态信息,然而对于这些数据的探索和应用仍处于初级阶段。其次,在复杂的生产环境中,单个终端的故障可能造成整个生产的停滞,所以保障终端正常运转,降低终端突发性故障造成的损失一直是研究者们研究的重点。从时间序列数据的特点来看,由于时间序列数据的采集是由部署在终端上的传感器自动完成的,时间序列数据具有多维度、高速度、大批量和复杂性的特点,传统的时间序列预测方法在准确度上有所不足,同时未能综合考虑各个不同来源的数据。因此,基于时间序列数据实现对终端状态的分析与预测仍然是一个重要的研究课题,具有重要的研究意义和实际应用价值。
在神经网络被应用于时间序列预测之前,其主要是通过一些传统的预测算法来实现,包括朴素估计、滑动窗平均、简单指数平滑、Holts线性趋势方法、Holt-winters方法、ARIMA方法和PROPHET方法等。近年来,随着深度学习的不断发展,为时间序列预测提供了新的方法和思路,最常使用和最有效的时间序列模型是循环神经网络,然而循环神经网络存在难以训练、梯度易消失等问题。此外,由于深度学习对于数据量的要求比较大,但是真实情况下,异常数据相对较少,因此,如何从数据和模型两方面来提升时间序列预测的准确性成为当前需要解决的问题。
综上所述,在终端运行过程中积累了大批的时间序列数据,然而,传统方法并不能有效地利用这些数据和冗余的计算力资源来进一步提升预测精度,深度学习方法为充分利用这些数据提供了一个可行的道路。但是在这个过程中针对具体的应用场景,如何选择合适的方法有效地提升终端运行状态的预测精度仍然是一个需要持续进行研究的问题。因此,如何在干扰因素繁多和海量数据的实际场景中,实现准确高效的终端运行状态预测成为一个亟待解决的难题。
发明内容
为了解决现有技术的不足,本申请提供了基于图神经网络的终端运行状态预测方法及系统;
第一方面,本申请提供了基于图神经网络的终端运行状态预测方法;
基于图神经网络的终端运行状态预测方法,包括:
在终端上布设传感器,获取由传感器采集的终端的时间序列状态数据;
对终端的每个时间序列状态数据进行数据增强处理;
对数据增强处理后的数据进行特征提取;利用提取的特征构建图神经网络;对图神经网络的权重进行自适应分配;
基于传感器采集终端的待预测时间序列状态数据,利用图神经网络对终端下一时刻的运行状态进行预测。
第二方面,本申请提供了基于图神经网络的终端运行状态预测系统;
基于图神经网络的终端运行状态预测系统,包括:
获取模块,其被配置为:在终端上布设传感器,获取由传感器采集的终端的时间序列状态数据;
数据增强模块,其被配置为:对终端的每个时间序列状态数据进行数据增强处理;
特征提取模块,其被配置为:对数据增强处理后的数据进行特征提取;利用提取的特征构建图神经网络;对图神经网络的权重进行自适应分配;
状态预测模块,其被配置为:基于传感器采集终端的待预测时间序列状态数据,利用图神经网络对终端下一时刻的运行状态进行预测。
第三方面,本申请还提供了一种电子设备,包括:一个或多个处理器、一个或多个存储器、以及一个或多个计算机程序;其中,处理器与存储器连接,上述一个或多个计算机程序被存储在存储器中,当电子设备运行时,该处理器执行该存储器存储的一个或多个计算机程序,以使电子设备执行上述第一方面所述的方法。
第四方面,本申请还提供了一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成第一方面所述的方法。
第五方面,本申请还提供了一种计算机程序(产品),包括计算机程序,所述计算机程序当在一个或多个处理器上运行的时候用于实现前述第一方面任意一项的方法。
与现有技术相比,本申请的有益效果是:
本申请的基于图神经网络的终端运行状态预测方法,解决了现有技术对生产环境中终端运行状态预测精度低的问题,具有以下优点:
(1)提出了一种新型的多维时间序列数据生成方法,设计了环形结构来描述周期数据的时间依赖性,通过将环形结构添加到编码器和解码器之间的自编码器中,保持了时间相关的关系,既考虑了时间上的依赖性,同时又兼顾了多维时间序列数据之间的相关性;
(2)针对大数据环境下的时间序列预测问题,提出了基于图神经网路的终端运行状态预测方法,以传感器作为主体评估系统运行状态,对终端部件状态之间的相互关系进行建模,该算法不仅精度高,速度也快,具有广泛的应用场景;
(3)采用基于注意力机制对网络权重进行自动化分配,使得网络更关注重要的特征,从而忽略那些对于预测结果并不重要的特征,优化了神经网络的结构,实现了对终端运行状态的有效预测,避免每次进行全面的检修所耗费的时间、人力和物力成本。
附图说明
构成本申请的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。
图1为本申请第一个实施例的基于图神经网络的终端运行状态预测方法的流程图;
图2为本申请第一个实施例的基于蒙特卡罗树搜索的数据生成流程图;
图3为本申请第一个实施例的基于注意力机制进行权重自适应分配的示意图。
具体实施方式
应该指出,以下详细说明都是示例性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
实施例一
本实施例提供了基于图神经网络的终端运行状态预测方法;
如图1所示,基于图神经网络的终端运行状态预测方法,包括:
S101:在终端上布设传感器,获取由传感器采集的终端的时间序列状态数据;
S102:对终端的每个时间序列状态数据进行数据增强处理;
S103:对数据增强处理后的数据进行特征提取;利用提取的特征构建图神经网络;对图神经网络的权重进行自适应分配;
S104:基于传感器采集终端的待预测时间序列状态数据,利用图神经网络对终端下一时刻的运行状态进行预测。
作为一个或多个实施例,所述S101步骤与S102步骤之间还包括:
S101-2:对终端的每个时间序列状态数据,进行预处理。
作为一个或多个实施例,所述S102步骤与S103步骤之间还包括:
S102-3:对数据增强处理后的数据进行随机混合采样。
作为一个或多个实施例,所述S101:在终端上布设传感器,具体步骤包括:
所述终端是单独的终端,即不依赖其他终端能够独立工作的终端,在终端上布设一个或多个传感器。
所述传感器,例如:温度传感器、电压传感器、电流传感器、转速传感器等。
作为一个或多个实施例,所述S102:对终端的每个时间序列状态数据进行数据增强处理;具体步骤包括:
基于改进的自编码器,实现对终端的时间序列状态数据进行数据增强处理。
进一步地,所述基于改进的自编码器,是基于蒙特卡罗树搜索算法的思想进行改进的。
进一步地,所述改进的自编码器,包括:
依次连接的编码器、周期环结构和解码器;
所述编码器,用于对每个时间序列状态数据进行编码处理,得到中间数据;将中间数据进行压缩后得到压缩后的数据;
所述周期环结构,用于将压缩后的数据按照设定的周期长度分割成若干个周期的时间序列数据,对每个周期时间序列数据从开始到结束的时间进行编码,编码完毕,将编码序号一致的时间序列数据形成数据环,这样就得到了由多个周期的时间序列数据组成的数据环;进而得到同一个时间序列状态数据对应的若干个数据环;
所述解码器,用于对每个数据环进行解码处理,重构输入数据,将重构的数据与编码器输入数据进行比较,如果差异度大于设定阈值,则表示当前编码器的输入数据不规范,将当前编码序号对应的时间序列状态数据剔除;否则,表示当前编码器的输入数据规范,继续执行后续步骤。
改进的自编码器,用于对每个终端的时间序列状态数据进行降维处理和重构,数据降维和重构是通过自编码器来学习数据之间线性和非线性关系来实现的,其中数据降维由编码器实现,而数据重建由解码器完成;
由于终端产生的时间序列数据的具有周期性重复的特征,因此环形结构适合于对其进行模拟,将环形结构添加到编码器和解码器之间。
进一步地,所述自编码器,包括编码器和解码器两个组成部分。
所述编码器,是指:缩减数据的特征数,将观测数据的特征数减少为若干个独立的特征得到Y;
所述解码器,是指:用学习到的新特征重构出原始输入数据,这个过程为解码,以产生与输入数据具有相似特征的数据;
所述周期环结构,是指:数据之间的时间关系由环形结构建模,基于周期长度,将Y重构为代表设备状态的环形结构,同时将多个周期性数据融合成一个环;
所述周期环自编码器,是指:将周期环结构加入自编码器构成周期环自编码器,包括编码器、周期环和解码器;
示例性的,使用基于蒙特卡洛树搜索的数据增强模型(Monte Carlo Generator,MCG),充分考虑了终端工作状态的周期性特征,该MCG是基于深层自编码器并遵循数据正态分布,将输入数据提供给自编码器,以缩减数据的特征数;
针对周期性时间序列数据设计相应的自编码器,自编码器的网络层数设置为6层,自编码器包括编码器和解码器,编码器和解码器均为3层,即使用3个神经网络的隐藏层,任何隐藏层都可以作为特征表示。激活函数使用ReLU,总体损失函数使用均方差和交叉熵结合:
均方差损失LMSE表示为:
LMSE=||G(X)-X||2 (1)
其中,X为输入数据,G(X)为输出数据;
相应的,交叉熵损失函数Lcross可以表示为:
Lcross=p(X)lnq(G(X))+(1-p(X))ln(1-q(G(X))) (2)
式(2)中,p(X)代表根据输入数据算出来的真实分布概率,q(G(X))为根据模型计算出来的输出数据算出来的预测概率,所计算出来的结果即为交叉熵损失,这两个损失函数加入权重系数进行结合,得到总体损失函数,表示为:
式(3)中,G为自编码器,参数c用于调节交叉熵与均方差在损失函数中所占的比重,总体损失函数是用来判断输入数据和输出数据之间的相似性。
对生成的数据随机采样,获得具有时间依赖性的数据,将这些数据提供给自编码器中的解码器,以产生与输入数据具有相似特征的数据;
由于终端产生的时间序列数据的具有周期性重复的特征,因此环形结构非常适合于对其进行模拟,将环形结构添加到编码器和解码器之间,编码器、环和解码器构成了MCG的三个组成部分,编码器负责对数据进行降维,环存储数据并建立时间上的连续性,解码器负责对数据进行升维;在数据生成的过程中需要三个基本要素,包括数据降维、数据采样和数据重构,数据降维和维度重构是通过自编码器来学习不同维度的数据之间复杂的线性和非线性关系来实现的,其中,数据压缩由编码器实现,而高维数据由解码器重建。
为了学习不同维度的时间序列数据之间的依赖关系,将数据降维之后得到的每个终端的时间序列状态数据依照设定周期长度划分出若干个单独的时间序列数据,然后将每个单独的时间序列数据从开始到结束的时间进行编码,编码完毕之后将同一时间段内单台终端的时间序列数据结合在一起,依据高斯分布计算出其分布函数,同时为该时间节点创建一个数据节点noded,具体表示为:
noded=(V,M,S) (4)
式(4)中,V为包含周期内该时间点压缩之后所得数据的数据向量,M为均值向量,S为方差向量,自编码器来学习从原始多维数据X到没有关联关系的小样本数据Y的关系函数,然后基于自编码器中的编码器处理的小样本数据Y来构建环形结构。
自编码器数据降维与重构,对于来自终端的时间序列数据,通常在不同特征的数据存在相关关系,而在同一个特征上则存在时间依赖关系,需要利用这些关系来生成具有与原始数据相同功能的数据。通过随机采样生成数据可能会忽略数据特征之间以及时间之间的关系,例如具有特征关系的原始数据集X可以由没有特征之间关系的Y进行数据表示,然后可以通过不同维度之间的依赖关系计算出原始输入数据。利用原始数据X来训练自编码器,自编码器将观测数据的特征数减少为几个独立的特征,从而得到Y,并通过一定的时间依赖关系形成时间序列数据。
数据增强,在生成数据阶段,使用基于蒙特卡罗树搜索的方式进行数据生成,其流程图如图2所示,主要包括环结构和解码器。具体而言,基于周期长度将Y重构为代表终端操作模式的环,从环模型中采样的数据构成了潜在数据源,最后,将数据源使用解码器升维,生成与原始数据类似的数据。
其中,环模型分为两个核心部分,一个是数据节点,也可以称之为时间节点数据,另一个是环。降维后的数据依据终端运转的周期进行切割,然后将周期内同一时间点的数据组合在一起形成数据向量,结合该数据向量中每一维数据的均值和方差所组成的均值向量和方差向量,均值和方差将构建出一个独属于该时间节点上该维数据的高斯分布。环将依据时间依赖关系将各个数据节点时间节点数据联系起来形成一个完整有序的时间序列。
结合上面构建好的自编码器和周期环,然后输入数据对MCG继续训练和微调。微调完成后将周期环结构与自编码器中的解码器拿出来作为MCG的生成模型,从环中每个单独的高斯分布中生成数值,生成数据将原始数据输入解码器,解码器根据不同维度数据之间的关系来生成原始维度的数据。
周期环结构,是将依据时间依赖关系将各个数据节点时间节点数据联系起来形成一个完整有序的时间序列。
作为一个或多个实施例,所述S103中,对数据增强处理后的数据进行特征提取;具体步骤包括:
对数据增强处理后的数据进行特征提取,提取出温度、湿度和风速特征。
特征提取是通过神经网络中的卷积层进行提取,提取出来的特征应该尽量多地包含与分析对象相关的信息,包括浅层特征、深层特征以及相互关联特征,浅层特征可以是浅层句法分析或组块分析,深层特征可以是语义信息,如物体的属性信息,相互关联特征是多个特征之间相互影响,例如针对终端设备,相互关联特征可以包括温度、湿度、风速等要素。特征提取的本质是一种在空间上对数据进行加权求和,局部浓缩一个子块的信息,得到的是多个特征向量,用向量的形式表示数据,形成能够表达分析对象的特征图,尽量去除与分析对象不相关的信息,减少特征图中的噪声。例如分析设备的运行速度是否有异常,则提取出的信息是和运行速度相关的参数,而忽略不相关的参数。
作为一个或多个实施例,所述S103中,利用提取的特征构建图神经网络;具体步骤包括:
将提取的特征作为图神经网络的节点,如果特征与特征之间存在关联关系,则对应的节点与节点之间就存在边,否则,对应的节点与节点之间就不存在边。
首先,针对图而言,信息有两大类,一个为图节点信息,一个为图边的信息,图的节点包含了一个节点的状态,这是神经网络经过学习之后,学到的关于图信息的表征;
其次,一个点的“状态”与周围节点的状态相关,即可以用周围节点与本节点的边来描述,可以认为是二者的距离,目标就是去学习到整个图每个节点的“状态”,每个节点不断地相互依赖,形成一个循环,通过循环迭代去求解全图的“状态”,从而实现状态的预测。
示例性的,将每个传感器所监测得到对象作为节点,使用多层神经网络表征节点与节点之间的全连接,基于变分自编码器(Variational Auto-Encoder,VAE)的形式重构输入数据,从输入数据中学习节点与节点之间的关系;由于单个终端必然是作为一个整体而存在的,建立一个全连接图来对其进行表征,给定一个图神经网络Gr=(N,E),N代表传感器节点n监测的组件状态数据向量的集合,表示为N=(n1,n2,n3,...,nn),给定E代表所有边e的集合,表示为E=(e1,e2,e3,...,en),通过使用节点到节点的消息传递,从节点将信息传递到边,然后再从边传递到下一个节点以完成一次图的状态更新操作。
从节点ni传递到边的过程:
从边传递到节点nj的过程:
其中,表示在下一层l+1中边eij的嵌入向量,N表示节点n的集合,对于输入进行边分布函数处理生成所需结果,在此对图上的节点和边所对应的数据经过三重映射,第一重从n→e,第二重e→n,第三重n→e,从而学到潜在的两两节点之间的边分布函数。
根据VAE的结构,使用正态分布作为中间约束变量,将潜在压缩后的数据标准化为正态分布,采用Gumbel分布重采样来优化正态分布采样,将潜在的边分布使用Gumbel分布来描述,即学习出Gumbel分布的参数,然后进行重采样生成需要的数据;对于m维概率向量v,对于v对应的离散随机变量xv添加Gumbel噪声,再取样可得到基于标准Gumbel分布的采样,且使用Softmax函数使其可导,表示为:
F(xv)=soft max(log(xv)+Pi) (7)
式(7)中,F(xv)是离散随机变量xv的导数,Pi是独立同分布的标准Gumbel分布的随机变量,通过Gumbel分布求逆从均匀分布生成。
基于图神经网络来为传感器采集的设备部件状态之间的相互关系进行建模,将每个传感器所监测得到对象作为节点与节点之间全连接,使用多层神经网络分别表征节点和边,并从观测数据中学习节点与节点之间的边。其中,节点是网络层中的神经元,代表传感器采集到数据的计算单元,并存储矩阵运算的结果;边表示设备组件状态数据向量在图神经网络中向前/向后传递的过程,表示状态数据之间的关联关系,边上存储权重系数,权重代表神经网络的各个连接中某些数据特征的重要性。
与此同时,终端的系统状态不仅与传感器相关,同时与初始设置的一些系统参数有关系,因此,对系统参数基于信息熵进行度量,表示为:
H(X)=-∑x∈Xp(x)log(p(x)) (8)
式(8)中,信息熵H满足H(X)>η这一条件,低于一定阈值η的系统参数维度将不被纳入模型计算,η为基于经验设置的阈值。
在图神经网络中,采用消息传递法来对图数据进行处理,将单个图的更新转变为从图的一个状态S0转变到图的另一个状态S1,图结构中每个节点n使用一个神经元模块组成,每个节点n与Si-1中每个节点都连接,则为全连接结构。
实质上,图神经网络是学习节点与节点之间的复杂关系本质,显然使用单一连接权重并不足以表示这种复杂关系,神经元在设计过程中也未对同层神经元之间进行权重区分的问题,因此本申请将其推广,使用更具有复杂函数表征能力的神经模块来进行学习。
作为一个或多个实施例,所述S103中,对图神经网络的权重进行自适应分配;具体步骤包括:
采用注意力机制,对图神经网络的边的权重进行调节。
一种可学习的自适应权重分配机制,与注意力机制相似,可以为神经元与神经元之间分配权重,通过使用一个多层神经网络来对权重分配函数进行学习,为并行化的神经层与神经层之间分配权重,但学习方式有别于普通的神经网络训练方式;同时,采用注意力机制对其进行同层权重分配,通过强调或者弱化神经元学习到的特征的方式来提高神经网络的精度,自适应权重分配方法针对神经网络的各个连接设置权重来强化或者抑制某些数据流信息的影响,这种动态的调整将根据数据流的内容来进行,而不是随机的,这样更有助于提升网络的泛化性能。
针对于注意力机制的训练方法,采用循环迭代训练,即通过单纯训练一个图神经网络的关系层,然后在图神经网络中添加权重分配网络,训练注意力机制层,进而固定图神经网络的参数;在权重分配网络训练过程中,迭代循环训练图神经网络和权重分配网络,直至目标函数收敛,效果取得最优。
由于基于图神经网络的模型设计会导致模型增大较快,需要额外的方法来对其结构进行优化,例如针对权重的L1和L2正则化。此外,如果人为设计权重分配参数,那么就会因为需要设计的超参数太多而导致学习效果不佳,因此更好的分配方式是采用自适应权重分配,即权重自学习的方式。目前较好的自学习方式是利用神经网络来学习权重分配函数,本申请提出了一种可学习的权重分配机制,与注意力机制相似,可以为神经元与神经元之间分配权重以及为并行化的神经层与神经层之间分配权重,基于注意力机制进行权重自适应分配的过程示意如图3所示。图3给出了注意力机制分配权重的情况,和DropOut和DropConnect进行对比,这两者仅仅是针对不同的连接随机进行屏蔽,截断相应的数据流,然而自适应权重分配方法则针对神经网络的各个连接设置权重来强化或者抑制某些数据流信息的影响。这种动态的调整将根据数据流内容而不是随机来进行,更有助于提升网络的泛化性能。
可学习的权重分配机制,该机制为神经元与神经元之间分配权重,为并行化的神经层与神经层之间分配权重。具体的做法是使用一个多层神经网络来对权重分配函数进行学习,而学习方式有别于普通的神经网络训练方式,首先只是单纯训练一个目标网络训练完成后在网络中添加权重分配网络,进而固定目标网络的参数,针对权重分配网络进行训练,迭代训练目标网络和权重分配网络直至效果最优。
在图神经网络结构设计上,权重分配主要体现在对下一步处理具有平行关系的输入上,因此在从整个图神经网络处理流程来看,其所包含的是一大的平行模块(整个网络结构上而言是一个串行结构,而每一个注意力网络中因为要处理多个网络分支的权重,所以注意力网络内部是并行连接的)里边包含着一个一个小的并行模块(一个注意力网络中因为要处理多个网络分支的权重,所以注意力网络内部是并行连接的)。
自适应权重分配方法是针对神经网络的各个连接设置权重来强化或者抑制某些数据流信息的影响,这种动态的调整将根据数据流内容而不是随机来进行,更有助于提升网络的泛化性能。
在训练阶段,由于注意力处理模块是外接神经网络而存在,因此在训练阶段将采用迭代训练的方式。
首先,将图神经网络中的注意力网络全部屏蔽,单独对于图神经网络进行训练,并优化相应超参数以达到最优的目标效果;
第二步,将注意力网络添加进入图神经网络中,固定图神经网络的所有参数,单独针对于注意力网络进行训练直到效果最优,然后固定注意力网络的参数优化图神经网络的参数,迭代训练直到结果的精度不变为止;
最后,将图神经网络和注意力网络参数同时设置为可学习状态,从而能够进行微调。
预测分为单步预测和多步预测两个步骤。
在单步预测中,编码器已经学习到的边分布函数eij,系统初始输入状态ni,目的是预测下一个系统状态nj,而ni在经过eij处理生成新的nj,通过一次预测即得到结果的过程为单步预测。这个过程只预测了一个时间间隔,如果需要对长时间的连续数据进行预测,将单步预测进行叠加,上一个输出的预测结果作为下一个预测的输入,得到多步预测。
多步预测对于实际应用来说是非常有用的,可以预测给定的时间段内终端系统状态的演化情况,为模型的下一步分析或预测提供依据。
利用编码器学习到图神经网络的节点与节点之间的映射函数,即边的潜在分布函数,解码器将设计为根据给定原始输入的前一时刻的系统状态,基于边的潜在函数计算下一时刻的系统状态。由于现实中往往需要预测多步,如果时间间隔较短,单步预测并没有多大意义,因此针对具体需要进行多步时间预测,方便将多步预测的误差进行,通过反向传播调整神经元权重使误差最小化,便于BP算法误差回传对网络进行修正。此过程相当于将多步预测的误差进行了平均化,因此并不是预测步数越多越好,需要根据需要确定合理的预测步数。
在计算累积误差时,使用的损失函数应综合考虑学习到的潜在的边分布函数KL和预测值与真实系统状态值的重构误差,所以损失函数Lf表示如下:
Lf=λLKL+(1-λ)||x-y||2 (9)
式(9)中,LKL表示为边分布函数KL的损失,λ为经验值超参数,用于确定两个损失项各自所占权重,x代表真实值,y代表重构值,多步预测的损失函数Lf借鉴了均方误差。
输出对终端运行状态预测的拟合结果,整体数据波动趋势和范围与实际数据较为拟合时,说明模型具有较好的预测效果。
综上所述,本申请是一种考虑了时间上的前后依赖关系的算法模型,用来处理终端状态预测的任务。该方法在终端运行状态预测上的精度要高于传统的方法,同时针对神经网络结构的复杂性,应用注意力机制在一定程度上对其中并行的处理单元进行了优化,可适用于多个领域,具有广泛的应用场景。
作为一个或多个实施例,所述S101-2中,对每个终端的周期性时间序列状态数据,进行预处理;具体步骤包括:
对传感器采集到的数据进行有效性检查,剔除信息熵低于设定阈值的传感器采集数据;然后,对数据进行清洗、缺失值补全、异常值剔除和归一化操作以提高数据质量。
因为其对于动态系统分析不具有价值,可以直接归类环境背景中。此外,非数值型数据需要转化成数值型数据,原始数据共有182个特征,在剔除无效特征之后还剩余55个有效特征。
作为一个或多个实施例,所述S102-3:对数据增强处理后的数据进行随机混合采样;具体步骤包括:
使用正态分布作为中间约束变量对混合数据进行随机采样,采样数据为周期环结构其上任一节点内部的高斯分布采样得到的一组时间点数据,设定每隔20条数据进行一次哈希函数计算,每次选择一个随机函数,取每条数据的组内编号为它的哈希地址,然后进行重采样得到分组后的数据。
重采样是深度学习中一个应用特别广泛的技巧,其作用是将采样的步骤移出计算图,这样整个图就可以计算梯度进行反向传播更新。此外,考虑到数据本身存在可能的测量误差,使用高斯分布来描述环模型中每个节点上的数据,以降低降维数据的偏差。
本申请将传感器所采集到的周期性时间序列数据进行数据预处理,结合自编码器进行数据降维,基于蒙特卡罗树搜索的方式实现数据增强;随机采样生成的数据,根据不同维度的数据之间的关系,通过解码器来生成原始维度的数据,得到质量较高的故障数据;使用图神经网络对终端的运行状态进行建模,采用注意力机制进行权重调节,通过自适应分配权重对图神经网络模型进行结构优化,使模型预测能够具有更好的泛化性能。本申请的方法能够对终端部件状态之间的相互关系进行建模,实现了对终端运行状态的有效预测,节省了大量的人力和物力成本。
实施例二
本实施例提供了基于图神经网络的终端运行状态预测系统;
基于图神经网络的终端运行状态预测系统,包括:
获取模块,其被配置为:在终端上布设传感器,获取由传感器采集的终端的时间序列状态数据;
数据增强模块,其被配置为:对终端的每个时间序列状态数据进行数据增强处理;
特征提取模块,其被配置为:对数据增强处理后的数据进行特征提取;利用提取的特征构建图神经网络;对图神经网络的权重进行自适应分配;
状态预测模块,其被配置为:基于传感器采集终端的待预测时间序列状态数据,利用图神经网络对终端下一时刻的运行状态进行预测。
此处需要说明的是,上述获取模块、数据增强模块、特征提取模块和状态预测模块对应于实施例一中的步骤S101至S104,上述模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例一所公开的内容。需要说明的是,上述模块作为系统的一部分可以在诸如一组计算机可执行指令的计算机系统中执行。
上述实施例中对各个实施例的描述各有侧重,某个实施例中没有详述的部分可以参见其他实施例的相关描述。
所提出的系统,可以通过其他的方式实现。例如,以上所描述的系统实施例仅仅是示意性的,例如上述模块的划分,仅仅为一种逻辑功能划分,实际实现时,可以有另外的划分方式,例如多个模块可以结合或者可以集成到另外一个系统,或一些特征可以忽略,或不执行。
实施例三
本实施例还提供了一种电子设备,包括:一个或多个处理器、一个或多个存储器、以及一个或多个计算机程序;其中,处理器与存储器连接,上述一个或多个计算机程序被存储在存储器中,当电子设备运行时,该处理器执行该存储器存储的一个或多个计算机程序,以使电子设备执行上述实施例一所述的方法。
应理解,本实施例中,处理器可以是中央处理单元CPU,处理器还可以是其他通用处理器、数字信号处理器DSP、专用集成电路ASIC,现成可编程门阵列FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据、存储器的一部分还可以包括非易失性随机存储器。例如,存储器还可以存储设备类型的信息。
在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。
实施例一中的方法可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器、闪存、只读存储器、可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。为避免重复,这里不再详细描述。
本领域普通技术人员可以意识到,结合本实施例描述的各示例的单元即算法步骤,能够以电子硬件或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
实施例四
本实施例还提供了一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成实施例一所述的方法。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (10)
1.基于图神经网络的终端运行状态预测方法,其特征是,包括:
在终端上布设传感器,获取由传感器采集的终端的时间序列状态数据;
对终端的每个时间序列状态数据进行数据增强处理;
对数据增强处理后的数据进行特征提取;利用提取的特征构建图神经网络;对图神经网络的权重进行自适应分配;
基于传感器采集终端的待预测时间序列状态数据,利用图神经网络对终端下一时刻的运行状态进行预测。
2.如权利要求1所述的方法,其特征是,在终端上布设传感器,获取由传感器采集的终端的时间序列状态数据步骤之后,所述对终端的每个时间序列状态数据进行数据增强处理步骤之前,还包括:
对终端的每个时间序列状态数据,进行预处理;
对传感器采集到的数据进行有效性检查,剔除信息熵低于设定阈值的传感器采集数据;然后,对数据进行清洗、缺失值补全、异常值剔除和归一化操作以提高数据质量。
3.如权利要求1所述的方法,其特征是,对终端的每个时间序列状态数据进行数据增强处理步骤之后,所述对数据增强处理后的数据进行特征提取;利用提取的特征构建图神经网络;对图神经网络的权重进行自适应分配步骤之前还包括:
对数据增强处理后的数据进行随机混合采样;
使用正态分布作为中间约束变量对混合数据进行随机采样,采样数据为周期环结构其上任一节点内部的高斯分布采样得到的一组时间点数据,设定每隔若干条数据进行一次哈希函数计算,每次选择一个随机函数,取每条数据的组内编号为它的哈希地址,然后进行重采样得到分组后的数据。
4.如权利要求1所述的方法,其特征是,对终端的每个时间序列状态数据进行数据增强处理;具体步骤包括:
基于改进的自编码器,实现对终端的时间序列状态数据进行数据增强处理;
所述改进的自编码器,包括:
依次连接的编码器、周期环结构和解码器;
所述编码器,用于对每个时间序列状态数据进行编码处理,得到中间数据;将中间数据进行压缩后得到压缩后的数据;
所述周期环结构,用于将压缩后的数据按照设定的周期长度分割成若干个周期的时间序列数据,对每个周期时间序列数据从开始到结束的时间进行编码,编码完毕,将编码序号一致的时间序列数据形成数据环,这样就得到了由多个周期的时间序列数据组成的数据环;进而得到同一个时间序列状态数据对应的若干个数据环;
所述解码器,用于对每个数据环进行解码处理,重构输入数据,将重构的数据与编码器输入数据进行比较,如果差异度大于设定阈值,则表示当前编码器的输入数据不规范,将当前编码序号对应的时间序列状态数据剔除;否则,表示当前编码器的输入数据规范,继续执行后续步骤。
5.如权利要求1所述的方法,其特征是,对数据增强处理后的数据进行特征提取;具体步骤包括:
对数据增强处理后的数据进行特征提取,提取出温度、湿度和风速特征。
6.如权利要求1所述的方法,其特征是,利用提取的特征构建图神经网络;具体步骤包括:
将提取的特征作为图神经网络的节点,如果特征与特征之间存在关联关系,则对应的节点与节点之间就存在边,否则,对应的节点与节点之间就不存在边。
7.如权利要求1所述的方法,其特征是,对图神经网络的权重进行自适应分配;具体步骤包括:
首先,将图神经网络中的注意力网络全部屏蔽,单独对于图神经网络进行训练,并优化相应超参数以达到最优的目标效果;
第二步,将注意力网络添加进入图神经网络中,固定图神经网络的所有参数,单独针对于注意力网络进行训练直到效果最优,然后固定注意力网络的参数优化图神经网络的参数,迭代训练直到结果的精度不变为止;
最后,将图神经网络和注意力网络参数同时设置为可学习状态,从而能够进行微调。
8.基于图神经网络的终端运行状态预测系统,其特征是,包括:
获取模块,其被配置为:在终端上布设传感器,获取由传感器采集的终端的时间序列状态数据;
数据增强模块,其被配置为:对终端的每个时间序列状态数据进行数据增强处理;
特征提取模块,其被配置为:对数据增强处理后的数据进行特征提取;利用提取的特征构建图神经网络;对图神经网络的权重进行自适应分配;
状态预测模块,其被配置为:基于传感器采集终端的待预测时间序列状态数据,利用图神经网络对终端下一时刻的运行状态进行预测。
9.一种电子设备,其特征是,包括:一个或多个处理器、一个或多个存储器、以及一个或多个计算机程序;其中,处理器与存储器连接,上述一个或多个计算机程序被存储在存储器中,当电子设备运行时,该处理器执行该存储器存储的一个或多个计算机程序,以使电子设备执行上述权利要求1-7任一项所述的方法。
10.一种计算机可读存储介质,其特征是,用于存储计算机指令,所述计算机指令被处理器执行时,完成权利要求1-7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011095419.1A CN112364975B (zh) | 2020-10-14 | 2020-10-14 | 基于图神经网络的终端运行状态预测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011095419.1A CN112364975B (zh) | 2020-10-14 | 2020-10-14 | 基于图神经网络的终端运行状态预测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112364975A true CN112364975A (zh) | 2021-02-12 |
CN112364975B CN112364975B (zh) | 2023-06-02 |
Family
ID=74508002
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011095419.1A Active CN112364975B (zh) | 2020-10-14 | 2020-10-14 | 基于图神经网络的终端运行状态预测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112364975B (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112925778A (zh) * | 2021-02-25 | 2021-06-08 | 山东大学 | 一种电热冷综合能源系统数据处理方法及系统 |
CN113012113A (zh) * | 2021-03-01 | 2021-06-22 | 和远智能科技股份有限公司 | 一种高铁接触网供电设备螺栓松动自动检测方法 |
CN113276119A (zh) * | 2021-05-25 | 2021-08-20 | 清华大学深圳国际研究生院 | 一种基于图Wasserstein自编码网络的机器人运动规划方法及系统 |
CN113298083A (zh) * | 2021-02-25 | 2021-08-24 | 阿里巴巴集团控股有限公司 | 一种数据处理方法及装置 |
CN113516556A (zh) * | 2021-05-13 | 2021-10-19 | 支付宝(杭州)信息技术有限公司 | 基于多维时间序列数据进行预测或训练模型的方法和系统 |
CN113592008A (zh) * | 2021-08-05 | 2021-11-02 | 哈尔滨理工大学 | 一种基于自编码器的图神经网络机制解决小样本图像分类的系统、方法、设备及存储介质 |
CN113780679A (zh) * | 2021-09-27 | 2021-12-10 | 深圳供电局有限公司 | 一种基于泛在电力物联网的负荷预测方法及装置 |
CN115019061A (zh) * | 2022-08-03 | 2022-09-06 | 清华大学 | 一种基于深度神经网络信息熵估计的熵优化方法 |
CN115495320A (zh) * | 2022-11-16 | 2022-12-20 | 智联信通科技股份有限公司 | 一种基于大数据的通信机房防护的监测管理系统 |
WO2023056786A1 (en) * | 2021-10-06 | 2023-04-13 | International Business Machines Corporation | Attenuation weight tracking in graph neural networks |
CN116541794A (zh) * | 2023-07-06 | 2023-08-04 | 中国科学技术大学 | 一种基于自适应图注意网络的传感器数据异常检测方法 |
CN117171696A (zh) * | 2023-11-03 | 2023-12-05 | 深圳市欧利德仪器仪表有限公司 | 一种基于物联网的传感器生产监测方法及系统 |
CN118364432A (zh) * | 2024-06-19 | 2024-07-19 | 中汽智联技术有限公司 | 基于图神经网络的传感器数据融合方法、设备和存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108965609A (zh) * | 2018-08-31 | 2018-12-07 | 南京宽塔信息技术有限公司 | 移动终端应用场景的识别方法和装置 |
CN109408560A (zh) * | 2018-10-10 | 2019-03-01 | 中国石油大学(华东) | 一种基于自编码器的周期性时间序列数据生成方法 |
CN110688857A (zh) * | 2019-10-08 | 2020-01-14 | 北京金山数字娱乐科技有限公司 | 一种文章生成的方法和装置 |
CN110942637A (zh) * | 2019-12-17 | 2020-03-31 | 浙江工业大学 | 基于空域图卷积神经网络的scats系统道路交通流预测方法 |
CN111161535A (zh) * | 2019-12-23 | 2020-05-15 | 山东大学 | 基于注意力机制的图神经网络交通流量预测方法及系统 |
CN111367961A (zh) * | 2020-02-27 | 2020-07-03 | 西安交通大学 | 基于图卷积神经网络的时序数据事件预测方法、系统及其应用 |
US20200307692A1 (en) * | 2019-03-28 | 2020-10-01 | Volkswagen Aktiengesellschaft | On-road localization methodologies and equipment utilizing road surface characteristics |
-
2020
- 2020-10-14 CN CN202011095419.1A patent/CN112364975B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108965609A (zh) * | 2018-08-31 | 2018-12-07 | 南京宽塔信息技术有限公司 | 移动终端应用场景的识别方法和装置 |
CN109408560A (zh) * | 2018-10-10 | 2019-03-01 | 中国石油大学(华东) | 一种基于自编码器的周期性时间序列数据生成方法 |
US20200307692A1 (en) * | 2019-03-28 | 2020-10-01 | Volkswagen Aktiengesellschaft | On-road localization methodologies and equipment utilizing road surface characteristics |
CN110688857A (zh) * | 2019-10-08 | 2020-01-14 | 北京金山数字娱乐科技有限公司 | 一种文章生成的方法和装置 |
CN110942637A (zh) * | 2019-12-17 | 2020-03-31 | 浙江工业大学 | 基于空域图卷积神经网络的scats系统道路交通流预测方法 |
CN111161535A (zh) * | 2019-12-23 | 2020-05-15 | 山东大学 | 基于注意力机制的图神经网络交通流量预测方法及系统 |
CN111367961A (zh) * | 2020-02-27 | 2020-07-03 | 西安交通大学 | 基于图卷积神经网络的时序数据事件预测方法、系统及其应用 |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113298083A (zh) * | 2021-02-25 | 2021-08-24 | 阿里巴巴集团控股有限公司 | 一种数据处理方法及装置 |
WO2022179424A1 (zh) * | 2021-02-25 | 2022-09-01 | 阿里巴巴集团控股有限公司 | 一种数据处理方法及装置 |
CN112925778A (zh) * | 2021-02-25 | 2021-06-08 | 山东大学 | 一种电热冷综合能源系统数据处理方法及系统 |
CN112925778B (zh) * | 2021-02-25 | 2023-01-06 | 山东大学 | 一种电热冷综合能源系统数据处理方法及系统 |
CN113012113A (zh) * | 2021-03-01 | 2021-06-22 | 和远智能科技股份有限公司 | 一种高铁接触网供电设备螺栓松动自动检测方法 |
CN113516556A (zh) * | 2021-05-13 | 2021-10-19 | 支付宝(杭州)信息技术有限公司 | 基于多维时间序列数据进行预测或训练模型的方法和系统 |
CN113276119A (zh) * | 2021-05-25 | 2021-08-20 | 清华大学深圳国际研究生院 | 一种基于图Wasserstein自编码网络的机器人运动规划方法及系统 |
CN113592008A (zh) * | 2021-08-05 | 2021-11-02 | 哈尔滨理工大学 | 一种基于自编码器的图神经网络机制解决小样本图像分类的系统、方法、设备及存储介质 |
CN113780679A (zh) * | 2021-09-27 | 2021-12-10 | 深圳供电局有限公司 | 一种基于泛在电力物联网的负荷预测方法及装置 |
CN113780679B (zh) * | 2021-09-27 | 2024-04-16 | 深圳供电局有限公司 | 一种基于泛在电力物联网的负荷预测方法及装置 |
WO2023056786A1 (en) * | 2021-10-06 | 2023-04-13 | International Business Machines Corporation | Attenuation weight tracking in graph neural networks |
CN115019061A (zh) * | 2022-08-03 | 2022-09-06 | 清华大学 | 一种基于深度神经网络信息熵估计的熵优化方法 |
CN115495320A (zh) * | 2022-11-16 | 2022-12-20 | 智联信通科技股份有限公司 | 一种基于大数据的通信机房防护的监测管理系统 |
CN116541794A (zh) * | 2023-07-06 | 2023-08-04 | 中国科学技术大学 | 一种基于自适应图注意网络的传感器数据异常检测方法 |
CN116541794B (zh) * | 2023-07-06 | 2023-10-20 | 中国科学技术大学 | 一种基于自适应图注意网络的传感器数据异常检测方法 |
CN117171696A (zh) * | 2023-11-03 | 2023-12-05 | 深圳市欧利德仪器仪表有限公司 | 一种基于物联网的传感器生产监测方法及系统 |
CN117171696B (zh) * | 2023-11-03 | 2024-02-23 | 深圳市欧利德仪器仪表有限公司 | 一种基于物联网的传感器生产监测方法及系统 |
CN118364432A (zh) * | 2024-06-19 | 2024-07-19 | 中汽智联技术有限公司 | 基于图神经网络的传感器数据融合方法、设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112364975B (zh) | 2023-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112364975B (zh) | 基于图神经网络的终端运行状态预测方法及系统 | |
CN111191841B (zh) | 一种电力负荷预测方法、装置、计算机设备及存储介质 | |
CN109816221B (zh) | 项目风险决策方法、装置、计算机设备和存储介质 | |
Tax | Human activity prediction in smart home environments with LSTM neural networks | |
CN110245801A (zh) | 一种基于组合挖掘模型的电力负荷预测方法及系统 | |
CN111832825B (zh) | 融合长短期记忆网络和极限学习机的风电预测方法及系统 | |
CN113159361A (zh) | 基于VDM和Stacking模型融合的短期负荷预测方法及系统 | |
CN110443417A (zh) | 基于小波变换的多模型集成负荷预测方法 | |
CN105678422A (zh) | 基于经验模态神经网络的混沌时间序列预测方法 | |
CN112468326A (zh) | 基于时间卷积神经网络的访问流量预测方法 | |
CN111027672A (zh) | 一种基于交互式多尺度循环神经网络的时间序列预测方法 | |
CN117175588B (zh) | 基于时空相关性的用电负荷预测方法及装置 | |
Lu | Research on GDP forecast analysis combining BP neural network and ARIMA model | |
CN114676645B (zh) | 一种非平稳时间序列预测方法及系统 | |
CN114169645A (zh) | 一种智能电网短期负荷预测方法 | |
CN112288140A (zh) | 一种基于Keras的短期电力负荷预测方法、存储介质和设备 | |
CN114694379B (zh) | 一种基于自适应动态图卷积的交通流预测方法及系统 | |
CN115034430A (zh) | 碳排放量预测方法、装置、终端及存储介质 | |
CN113393034A (zh) | 一种在线自适应oselm-garch模型的电量预测方法 | |
CN117786602A (zh) | 一种基于多元信息交互的长周期多元时间序列预测方法 | |
Zhou et al. | Functional networks and applications: A survey | |
CN117592593A (zh) | 基于改进二次模态分解和WOA优化BILSTM-attention的短期电力负荷预测方法 | |
CN117436029A (zh) | 一种多个大模型串行协作融合的方法和系统 | |
CN115713044B (zh) | 一种多工况切换下的机电设备剩余寿命分析方法和装置 | |
CN116822722A (zh) | 水位预测方法、系统、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |