CN114819295A - 数据分析预测方法、装置、服务器、存储介质和程序产品 - Google Patents

数据分析预测方法、装置、服务器、存储介质和程序产品 Download PDF

Info

Publication number
CN114819295A
CN114819295A CN202210359434.5A CN202210359434A CN114819295A CN 114819295 A CN114819295 A CN 114819295A CN 202210359434 A CN202210359434 A CN 202210359434A CN 114819295 A CN114819295 A CN 114819295A
Authority
CN
China
Prior art keywords
data
layer
time
neural network
variable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210359434.5A
Other languages
English (en)
Inventor
刘志骏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial and Commercial Bank of China Ltd ICBC
Original Assignee
Industrial and Commercial Bank of China Ltd ICBC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial and Commercial Bank of China Ltd ICBC filed Critical Industrial and Commercial Bank of China Ltd ICBC
Priority to CN202210359434.5A priority Critical patent/CN114819295A/zh
Publication of CN114819295A publication Critical patent/CN114819295A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Data Mining & Analysis (AREA)
  • Development Economics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Human Resources & Organizations (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Health & Medical Sciences (AREA)
  • Technology Law (AREA)
  • Finance (AREA)
  • Game Theory and Decision Science (AREA)
  • Accounting & Taxation (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请涉及人工智能技术领域,特别是涉及一种数据分析预测方法、装置、服务器、存储介质和程序产品。该方法包括:根据目标主体的多个变量的历史时间序列数据,获取各变量的历史时间序列数据的图结构数据;将图结构数据输入预设的图卷积神经网络模型中,通过图卷积神经网络模型中各卷积层将图结构数据在时间维度上进行聚合后,得到多变量的预测时间序列数据;图卷积神经网络模型中卷积层的数量是基于时间维度上的采样时刻数量确定的。采用本方法能够提高时间序列的预测准确率。

Description

数据分析预测方法、装置、服务器、存储介质和程序产品
技术领域
本申请涉及人工智能技术领域,特别是涉及一种数据分析预测方法、装置、服务器、存储介质和程序产品。
背景技术
随着数据收集技术的不断发展,金融及其他领域收集到丰富的动态数据,例如股票数据、个人客户资产数据、程序运行指标数据等,这些数据通常被建模为时间序列数据。而对时间序列数据进行分析预测能够辅助企业实现精准营销及金融风险预判,帮助规避业务风险及金融风险等等。
相关技术中,时间序列数据预测算法包括基于统计学方法的预测算法和基于神经网络的预测算法。其中,基于统计学方法的预测算法可以是自回归差分移动平均算法,利用差分算子对非平稳时间序列数据消去局部水平或者趋势后,假设时间序列数据的部分之间具有相似性,再选择已有的模型对时间序列数据进行预测。基于神经网络的预测算法可以是基于双窗口机制的多变量时间序列数据预测模型,利用两个神经网络窗口分别提取出时间序列数据中的近期平稳的短序列特征和周期性、季节性的长序列特征,同时利用两种特征聚合对时间序列数据进行预测。
然而,相关技术的方法对时间序列的预测准确率不高。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高时间序列的预测准确率的数据分析预测方法、装置、服务器、存储介质和程序产品。
第一方面,本申请提供了一种数据分析预测方法,该方法包括:
根据目标主体的多个变量的历史时间序列数据,获取各变量的历史时间序列数据的图结构数据;
将图结构数据输入预设的图卷积神经网络模型中,通过图卷积神经网络模型中各卷积层将图结构数据在时间维度上进行聚合后,得到多变量的预测时间序列数据;图卷积神经网络模型中卷积层的数量是基于时间维度上的采样时刻数量确定的。
在其中一个实施例中,根据目标主体的多个变量的历史时间序列数据,获取各变量的历史时间序列数据的图结构数据,包括:
获取各变量的历史时间序列数据中的所有变量节点;
对各变量节点进行连边处理,得到各变量的历史时间序列数据的图结构数据。
在其中一个实施例中,对各变量节点进行连边处理,得到各变量的历史时间序列数据的图结构数据,包括:
对各变量节点执行预设次数的连边操作,得到各变量的历史时间序列数据的图结构数据;
其中,连边操作包括:
对各变量节点进行随机分组,得到多个变量节点集合;
获取各变量节点集合中变量节点的相似度;
将各变量节点集合中大于预设阈值的相似度对应的变量节点进行连接。
在其中一个实施例中,若卷积层的数量和采样时刻数量均为N,N为正整数;
则通过图卷积神经网络模型中各卷积层将图结构数据在时间维度上进行聚合,得到多变量的预测时间序列数据,包括:
获取图结构数据在第一层卷积层中各采样时刻的特征;
将第一层卷积层中各采样时刻的特征输入至第二层卷积层中,并将第一层卷积层中N采样时刻的特征和N-1采样时刻的特征进行聚合形成第二层卷积层中N采样时刻的特征,得到第二层卷积层中各采样时刻的特征;
将第二层卷积层中各采样时刻的特征输入至第三层卷积层中,并将第二层卷积层中N采样时刻的特征、N-1采样时刻的特征以及N-2采样时刻的特征进行聚合形成第三层卷积层中N采样时刻的特征,得到第三层卷积层中各采样时刻的特征;
以此类推,得到第N层卷积层中各采样时刻的特征,并将第N层卷积层中最后一个采样时刻的特征确定为多变量聚合特征;
根据多变量聚合特征,生成多变量的预测时间序列数据。
在其中一个实施例中,预设的图卷积神经网络模型还包括预测层;则根据多变量聚合特征,生成多变量的预测时间序列数据,包括:
将多变量聚合特征输入至预测层,通过预测层对多变量聚合特征进行分析预测,得到多变量的预测时间序列数据。
在其中一个实施例中,该方法还包括:
获取各变量的预测时间序列数据对应的真实时间序列数据;
根据各变量的预测时间序列数据与对应的真实时间序列数据之间的差值,更新图卷积神经网络模型中的模型参数。
在其中一个实施例中,图卷积神经网络模型的构建过程包括:
获取多个样本变量的历史时间序列样本数据;
根据各样本变量的历史时间序列样本数据,获取各样本变量的历史时间序列样本数据对应的样本图结构数据;
通过样本图结构数据训练初始图卷积神经网络模型,直至满足预设的收敛条件,确定图卷积神经网络模型收敛,得到预设的图卷积神经网络模型。
第二方面,本申请还提供了一种数据分析预测装置,该装置包括:
第一获取模块,用于根据目标主体的多个变量的历史时间序列数据,获取各多变量的历史时间序列数据的图结构数据;
第一确定模块,用于将图结构数据输入预设的图卷积神经网络模型中,通过图卷积神经网络模型中各卷积层将图结构数据在时间维度上进行聚合后,得到多变量的预测时间序列数据;图卷积神经网络模型中卷积层的数量是基于时间维度上的采样时刻数量确定的。
第三方面,本申请还提供了一种服务器,该服务器包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现上述方法实施例中的所有内容。
第四方面,本申请还提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现上述方法实施例中的所有内容。
第五方面,本申请还提供了一种计算机程序产品,该计算机程序产品包括计算机程序,该计算机程序被处理器执行时实现上述方法实施例中的所有内容。
上述数据分析预测方法、装置、服务器、存储介质和程序产品,该方法根据目标主体的多个变量的历史时间序列数据,获取各变量的历史时间序列数据的图结构数据,将图结构数据输入预设的图卷积神经网络模型中,通过图卷积神经网络模型中各卷积层将图结构数据在时间维度上进行聚合后,得到多变量的预测时间序列数据。该方法中的图卷积神经网络模型中卷积层的数量是基于时间维度上的采样时刻数量确定的,针对不同的多变量的历史时间序列数据,可以选择不同的图卷积神经网络模型进行预测,使得各变量的历史时间序列数据的预测过程更加灵活;同时,通过对多变量的历史时间序列数据进行预测,相比于仅针对单个变量的历史时间序列数据进行预测,预测的结果更加精确;通过图卷积神经网络中的卷积层可以将各变量的历史时间序列数据进行聚合,通过聚合后的各变量的历史时间序列数据,可以准确的预测未来一段时间内的多变量时间序列数据。
附图说明
图1为一个实施例中数据分析预测方法的应用环境图;
图2为一个实施例中数据分析预测方法的流程示意图;
图3为一个实施例中数据分析预测方法的流程示意图;
图4为一个实施例中数据分析预测方法的流程示意图;
图5为一个实施例中数据分析预测方法的流程示意图;
图6为一个实施例中数据分析预测方法的流程示意图;
图7为一个实施例中数据分析预测方法的流程示意图;
图8为一个实施例中数据分析预测方法的流程示意图;
图9为一个实施例中数据分析预测方法的流程示意图;
图10为一个实施例中数据分析预测装置的结构框图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
需要说明的是,本公开的数据分析预测方法、装置、服务器、存储介质和程序产品可以应用在人工智能技术领域,也可用于除人工智能技术外的其他技术领域,本公开对数据分析预测方法、装置、服务器、存储介质和程序产品的应用领域不做限定。
首先,在具体介绍本申请实施例的技术方案之前,先对本申请实施例基于的技术背景进行介绍。
实际生活中,时间序列数据大多都是由多变量共同影响的,多个变量之间也存在着相互的联系,通过对多变量时间序列数据进行分析,可以预测未来某一段时间的多变量预测时间序列数据,该过程可以辅助企业实现精准营销及金融风险预判等,帮助规避业务风险及金融风险等。例如,将用户的存款数作为时间序列数据时,存款利率间、基金购买量和基金历史收益率可以作为影响用户的存款数的多个变量。
但是,目前的预测方法仅通过分析单变量时间序列数据,预测未来某一段时间的预测时间序列数据,该过程忽略了同一时间内不同变量间的相互作用,同时多个变量间不同时间上的非线性相互作用,无法提取多个变量之间的动态依赖和周期依赖,造成预测的准确度不高。
本申请实施例提供的数据分析预测方法,可以应用于如图1所示的应用环境中。该服务器包括通过系统总线连接的处理器、存储器和网络接口。其中,该服务器的处理器用于提供计算和控制能力。该服务器的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该服务器的数据库用于存储数据分析预测数据。该服务器的网络接口用于与外部的终端通过网络连接通信。其中,服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,如图2所示,提供了一种数据分析预测方法,以该方法应用于图1中的服务器为例进行说明,包括以下步骤:
S201,根据目标主体的多个变量的历史时间序列数据,获取各变量的历史时间序列数据的图结构数据。
其中,多个变量的时间序列数据是指随着时间变化不断变化的数据,多变量是指同一个系统内同时存在多个变量,且多个变量的值随时间变化而不断变化。例如,多变量可以包括用户的存款数和存款利率等,多个变量的时间序列数据可以是用户存款数、股票或期货的价格等。上述图结构数据是指将变量作为节点,将节点间的关系作为边,根据节点和节点之间的边建模生成的图结构数据。例如,通过社交网络数据建模生成对应的图结构数据时,将用户作为节点,将用户之间的交互如点赞、转发、评论等作为节点之间的边。
可选的,服务器可以根据目标主体的电子标签在对应的数据库中获取与该电子标签一致的多个变量的历史时间序列数据,或者,服务器还可以根据目标主体的关键词信息在对应的数据库中获取关键词信息对应的多个变量的历史时间序列数据。本实施例对于获取目标主体的多个变量的历史时间序列数据的方式不做限定。进一步的,当服务器获取到多个变量的历史时间序列数据后,可以根据变量之间的依存关系和/或变量之间的相似度确定各变量的历史时间序列数据的图结构数据。
S202,将图结构数据输入预设的图卷积神经网络模型中,通过图卷积神经网络模型中各卷积层将图结构数据在时间维度上进行聚合后,得到多变量的预测时间序列数据;图卷积神经网络模型中卷积层的数量是基于时间维度上的采样时刻数量确定的。
其中,图卷积神经网络是面向图结构数据的新型神经网络算法,通过图卷积神经网络模型得到图结构数据中节点间的拓扑结构特征以及节点各自的属性特征。传统神经网络只考虑节点的特征而忽略了图结构数据中节点间的结构关系,而图神经网络能利用结构关系从而在图结构数据分析上获得更加准确的特征。
具体的,预设的图卷积神经网络模型是通过大量的样本数据进行训练的,通过预设的图卷积神经网络模型输出的预测结果准确度较高。服务器将时间维度上的图结构数据作为预设的图卷积神经网络模型的输入,通过图卷积神经网络模型中的卷积层将时间维度上的图结构数据全部聚合在最后一个采样时刻上,通过最后一个采样时刻上的聚合数据,预测未来某一段时间内的多变量的时间序列数据,将该数据作为多变量的预测时间序列数据。其中,卷积层的数量可以和时间维度上的采样时刻数量相等,也可以与时间维度上的采样时刻数量呈线性关系。
上述数据分析预测方法中,该方法根据目标主体的多个变量的历史时间序列数据,获取各变量的历史时间序列数据的图结构数据,将图结构数据输入预设的图卷积神经网络模型中,通过图卷积神经网络模型中各卷积层将图结构数据在时间维度上进行聚合后,得到多变量的预测时间序列数据。该方法中的图卷积神经网络模型中卷积层的数量是基于时间维度上的采样时刻数量确定的,针对不同的多变量的历史时间序列数据,可以选择不同的图卷积神经网络模型进行预测,使得各变量的历史时间序列数据的预测过程更加灵活;同时,通过对多变量的历史时间序列数据进行预测,相比于仅针对单个变量的历史时间序列数据进行预测,预测的结果更加精确;通过图卷积神经网络中的卷积层可以将各变量的历史时间序列数据进行聚合,通过聚合后的各变量的历史时间序列数据,可以准确的预测未来一段时间内的多变量时间序列数据。
图3为本申请实施例提供的数据分析预测方法的流程示意图。本申请实施例涉及根据目标主体的多个变量的历史时间序列数据,获取各变量的历史时间序列数据的图结构数据的一种可选的实现方式。在图2所示实施例的基础上,如图3所示,上述S201可以包括如下步骤:
S301,获取各变量的历史时间序列数据中的所有变量节点。
具体的,服务器可以将影响历史时间序列数据的每个变量作为一个变量节点,得到所有的变量节点。例如,计算机的历史时间序列数据受到计算机配置、计算机使用年限、计算机中的中央处理器(Central Processing Unit,CPU)的占用量、内存占用量和响应时间等因素的影响,将计算机配置、计算机使用年限、计算机中的中央处理器(CentralProcessing Unit,CPU)的占用量、内存占用量和响应时间等作为历史时间序列数据中的所有变量节点。
S302,对各变量节点进行连边处理,得到各变量的历史时间序列数据的图结构数据。
可选的,两个变量之间的依存关系量化值越大,说明这两个变量之间的关系越大,需要对这两个变量之间进行连边操作,服务器可以调用变量依存关系提取器提取多个变量之间的依存关系量化值,根据多个变量之间的依存关系量化值确定多个变量的历史时间序列数据对应的图结构数据。可选的,两个变量之间的相似度越大,说明两个变量之间的关系越大,需要对这两个变量之间进行连边操作,服务器可以计算各个变量之间的相似度,若变量之间的相似度大于预设的相似度阈值时,对该变量进行连边操作,若变量之间的相似度小于预设的相似度阈值时,无需对该变量进行连边操作,根据变量的连边结果确定多个变量的历史时间序列数据对应的图结构数据。本实施例对此不做限定。
图4为本申请实施例提供的数据分析预测方法的流程示意图。本申请实施例涉及对各变量节点进行连边处理,得到各变量的历史时间序列数据的图结构数据的一种可选的实现方式。在图3所示实施例的基础上,如图4所示,上述S302可以包括如下步骤:
对各变量节点执行预设次数的连边操作,得到各变量的历史时间序列数据的图结构数据;
具体的,直接计算每对节点间的相似度关系会导致算法的时间复杂度为O(N)2,为了降低时间复杂度,服务器可以将多个变量节点随机分为g个组,在每个组内利用余弦相似度算法计算变量节点间的相似度,将相似度最大的k个节点对进行连边,从而降低构图算法的时间复杂度为
Figure BDA0003584403960000081
重复进行m次随机分组和计算相似度的过程,可以得到更加精确的图结构数据,该图结构数据也可以称为邻接矩阵。
其中,连边操作包括:
S401,对各变量节点进行随机分组,得到多个变量节点集合。
具体的,服务器可以通过随机分组算法对各变量节点进行随机分组,将每一组中的变量节点确定为多个变量节点集合。其中,随机分组算法可以是克拉伯算法等。例如,历史时间序列数据中存在N个变量节点,将该N个变量节点随机分为m组,每个组中的变量节点数量可能相同,也可以不同。
S402,获取各变量节点集合中变量节点的相似度。
具体的,服务器可以通过余弦相似度算法计算各变量节点集合中变量节点的相似度。其中,余弦相似性通过测量两个向量的夹角的余弦值来度量它们之间的相似性,0度角的余弦值是1,而其他任何角度的余弦值都不大于1;并且其最小值是-1,由于余弦相似度通常用于正空间,因此给出的值为-1到1之间。例如,变量1和变量2之间的相似度越大,余弦值越接近1。
S403,将各变量节点集合中大于预设阈值的相似度对应的变量节点进行连接。
具体的,服务器可以将各变量节点集合中变量节点的相似度与预设阈值进行比较,当各变量节点集合中变量节点的相似度大于预设阈值时,将该变量节点进行连接;当各变量节点集合中变量节点的相似度小于或等于预设阈值时,该变量节点之间无需连接。例如,预设阈值为0.3时,变量1和变量2之间的相似度为0.5时,变量1和变量2之间的相似度大于预设阈值,将变量1和变量2进行连接。
上述数据分析预测方法中,获取各变量的历史时间序列数据中的所有变量节点,对各变量节点执行预设次数的连边操作,得到各变量的历史时间序列数据的图结构数据。该方法中的连边操作包括对各变量节点进行随机分组,得到多个变量节点集合,获取各变量节点集合中变量节点的相似度,将各变量节点集合中大于预设阈值的相似度对应的变量节点进行连接。该方法通过随机分组过程可以降低运算过程中的时间复杂度,通过将变量节点的相似度与预设阈值进行比较,可以更准确的确定各个变量之间是否进行连边,使得到的图结构数据更加精确。
图5为本申请实施例提供的数据分析预测方法的流程示意图。本申请实施例涉及通过图卷积神经网络模型中各卷积层将图结构数据在时间维度上进行聚合,得到多变量的预测时间序列数据的一种可选的实现方式。在图2所示实施例的基础上,如图5所示,上述S202可以包括如下步骤:
S501,获取图结构数据在第一层卷积层中各采样时刻的特征。
具体的,服务器将各采样时刻对应的图结构数据输入至图卷积神经网络模型中,通过第一层卷积层对各采样时刻对应的图结构数据中的特征进行提取,输出各采样时刻的特征。
S502,将第一层卷积层中各采样时刻的特征输入至第二层卷积层中,并将第一层卷积层中N采样时刻的特征和N-1采样时刻的特征进行聚合形成第二层卷积层中N采样时刻的特征,得到第二层卷积层中各采样时刻的特征。
具体的,将第一层卷积层中输出的各采样时刻的特征作为第二层卷积层的输入信息,将第一层卷积层中各相邻两个时刻的采样时刻的特征进行聚合,得到第二层卷积层中各采样时刻的特征。例如,第一个采样时刻与第二个采样时刻的特征进行聚合,第二个采样时刻与第三个采样时刻的特征进行聚合,第N-1个采样时刻的特征与第N个采样时刻的特征进行聚合。
S503,将第二层卷积层中各采样时刻的特征输入至第三层卷积层中,并将第二层卷积层中N采样时刻的特征、N-1采样时刻的特征以及N-2采样时刻的特征进行聚合形成第三层卷积层中N采样时刻的特征,得到第三层卷积层中各采样时刻的特征。
具体的,将第二层卷积层中输出的各采样时刻的特征作为第三层卷积层的输入信息,将第二层卷积层中各相邻两个时刻的采样时刻的特征进行聚合,得到第三层卷积层中各采样时刻的特征。例如,第一个采样时刻、第二个采样时刻的特征和第三个采样时刻的特征进行聚合,第二个采样时刻、第三个采样时刻的特征和第四个采样时刻的特征进行聚合,第N-1个采样时刻的特征、第N个采样时刻的特征和第N-2个采样时刻的特征进行聚合。
S504,以此类推,得到第N层卷积层中各采样时刻的特征,并将第N层卷积层中最后一个采样时刻的特征确定为多变量聚合特征。
具体的,将第N-1层卷积层中输出的各采样时刻的特征作为第N层卷积层的输入信息,将第N-1层卷积层中各相邻两个时刻的采样时刻的特征进行聚合,得到第N层卷积层中各采样时刻的特征,此时,将所有的特征都聚合在第N个采样时刻上,将第N个采样时刻上的特征作为多变量聚合特征。各个卷积层对图结构数据特征进行聚合的过程可以表示为:
Figure BDA0003584403960000111
Figure BDA0003584403960000112
Figure BDA0003584403960000113
Figure BDA0003584403960000114
Figure BDA0003584403960000115
其中,
Figure BDA0003584403960000116
为第1层卷积层中变量节点在第t时刻的特征;Xt是变量节点的初始特征;W是图卷积神经网络模型中各卷积层可以训练的权重矩阵;(·)-1为时间移位操作,将上一个时刻的潜在特征向量移位到当前时刻;dropout(·)是以一定概率随机丢弃学得的潜在特征,避免图卷积神经网络模型学习时过拟合;
Figure BDA0003584403960000117
为At对应的度矩阵。
S505,根据多变量聚合特征,生成多变量的预测时间序列数据。
具体的,服务器将多变量聚合特征输入预测层中,通过预测层对多变量的历史时间序列数据进行预测,预测未来某个时刻或某个时间段内的多变量的时间序列数据,将该数据确定为多变量的预测时间序列数据。
上述数据分析预测方法中,获取图结构数据在第一层卷积层中各采样时刻的特征,将第一层卷积层中各采样时刻的特征输入至第二层卷积层中,并将第一层卷积层中N采样时刻的特征和N-1采样时刻的特征进行聚合形成第二层卷积层中N采样时刻的特征,得到第二层卷积层中各采样时刻的特征,将第二层卷积层中各采样时刻的特征输入至第三层卷积层中,并将第二层卷积层中N采样时刻的特征、N-1采样时刻的特征以及N-2采样时刻的特征进行聚合形成第三层卷积层中N采样时刻的特征,得到第三层卷积层中各采样时刻的特征,以此类推,得到第N层卷积层中各采样时刻的特征,并将第N层卷积层中最后一个采样时刻的特征确定为多变量聚合特征,根据多变量聚合特征,生成多变量的预测时间序列数据。该方法中的通过图卷积神经网络模型不仅可以获取到同一采样时刻的多个变量之间的交互关系,同时还可以获取到多个变量在不同时刻之间的动态变化,通过各卷积层将不同时刻的变量特征聚合至最后一个采样时刻中,使得生成多变量的预测时间序列数据的计算量较小。
在另一个实施例中,本申请实施例涉及根据多变量聚合特征,生成多变量的预测时间序列数据的一种可选的实现方式。在图5所示实施例的基础上,上述过程还可以包括如下步骤:将多变量聚合特征输入至预测层,通过预测层对多变量聚合特征进行分析预测,得到多变量的预测时间序列数据。
具体的,预测层可以是多层感知器(Multilayer Perceptron,MLP),将多变量聚合特征输入至多层感知器中,通过多层感知机对多变量聚合特征进行分析预测,输出多变量的预测时间序列数据。通过多层感知机进行分析预测的过程可以表示为:
Figure BDA0003584403960000121
其中,
Figure BDA0003584403960000122
为多层感知机的预测值;σ是激活函数;
Figure BDA0003584403960000123
表示多变量聚合特征;s1:sp表示多变量中的p个特征;Wpre和bpre为图卷积神经网络模型中的参数。
上述数据分析预测方法中,将多变量聚合特征输入至预测层,通过预测层对多变量聚合特征进行分析预测,得到多变量的预测时间序列数据。该方法中通过图卷积神经网络模型中的预测层对多变量聚合特征进行预测,使得到的多变量的预测时间序列数据更加精确。
图6为本申请实施例提供的数据分析预测方法的流程示意图。本申请实施例涉及更新图卷积神经网络模型参数的一种可选的实现方式。在图2所示实施例的基础上,如图6所示,上述过程还可以包括如下步骤:
S601,获取各变量的预测时间序列数据对应的真实时间序列数据。
具体的,服务器可以根据各变量的预测时间序列数据对应的时刻,根据目标主体的电子标签获取该时刻的真实时间序列数据。例如,各变量的预测时间序列数据对应的时刻为2022年3月24日9时,到2022年3月24日9时之后的时间,获取该时刻对应的真实时间序列数据。
S602,根据各变量的预测时间序列数据与对应的真实时间序列数据之间的差值,更新图卷积神经网络模型中的模型参数。
具体的,服务器可以计算各变量的预测时间序列数据与对应的真实时间序列数据之间的差值,差值越小,说明图卷积神经网络模型越精确;差值越大,说明图卷积神经网络模型越不精确,根据该差值,更新图卷积神经网络模型中的模型参数,使得图卷积神经网络模型的预测时间序列数据与对应的真实时间序列数据之间的差值趋近于零。该过程可以表示为:
Figure BDA0003584403960000131
其中,Θ为图卷积神经网络模型中可训练的参数,MSE为均方误差,
Figure BDA0003584403960000132
为各变量的预测时间序列数据,
Figure BDA0003584403960000133
为真实时间序列数据,通过梯度下降算法迭代优化图卷积神经网络模型参数,直到图卷积神经网络模型收敛。
上述数据分析预测方法中,获取各变量的预测时间序列数据对应的真实时间序列数据,根据各变量的预测时间序列数据与对应的真实时间序列数据之间的差值,更新图卷积神经网络模型中的模型参数。该方法通过将预测时间序列数据与真实时间序列数据的差值,重新训练图卷积神经网络模型,更新图卷积神经网络模型中的模型参数,增加了图卷积神经网络模型的训练数据,使得到的图卷积神经网络模型更加精准。
图7为本申请实施例提供的数据分析预测方法的流程示意图。本申请实施例涉及图卷积神经网络模型的构建过程的一种可选的实现方式。在图2所示实施例的基础上,如图7所示,上述过程还可以包括如下步骤:
S701,获取多个样本变量的历史时间序列样本数据。
具体获取步骤可参见步骤S201。
S702,根据各样本变量的历史时间序列样本数据,获取各样本变量的历史时间序列样本数据对应的样本图结构数据。
可选的,服务器可以调用变量依存关系提取器提取各样本变量之间的依存关系量化值,根据各样本变量之间的依存关系量化值确定各样本变量的历史时间序列样本数据对应的样本图结构数据。可选的,服务器可以计算各样本变量之间的相似度,若各样本变量之间的相似度大于预设的相似度阈值时,对各样本变量进行连边操作,若各样本变量之间的相似度小于预设的相似度阈值时,无需对该样本变量进行连边操作,根据各样本变量的连边结果确定各样本变量的历史时间序列样本数据对应的样本图结构数据。
S703,通过样本图结构数据训练初始图卷积神经网络模型,直至满足预设的收敛条件,确定图卷积神经网络模型收敛,得到预设的图卷积神经网络模型。
可选的,将样本图结构数据输入至图卷积神经网络中进行训练,图卷积神经网络模型通过若干卷积层提取到样本图结构数据的特征,再图结构数据的特征输入至迁移学习模型中得到迁移损失函数,采用随机梯度下降算法对迁移损失函数优化直至迁移损失函数收敛,根据收敛的迁移损失函数对图卷积神经网络模型各个层的参数进行优化更新,得到图卷积神经网络模型,将该图卷积神经网络模型作为预设的图卷积神经网络模型。
上述数据分析预测方法中,获取多个样本变量的历史时间序列样本数据,根据各样本变量的历史时间序列样本数据,获取各样本变量的历史时间序列样本数据对应的样本图结构数据,通过样本图结构数据训练初始图卷积神经网络模型,直至满足预设的收敛条件,确定图卷积神经网络模型收敛,得到预设的图卷积神经网络模型。该方法通过多个样本变量的历史时间序列样本数据对初始图卷积神经网络模型进行训练,相比于通过单个样本得到的预测结果,本方法的预测准确率和预测效率更高。
在一个实施例中,为了便于本领域技术人员的理解,以下对数据分析预测方法进行详细介绍,如图8所示,该方法可以包括:
S801,获取各变量的历史时间序列数据中的所有变量节点;
S802,对各变量节点进行随机分组,得到多个变量节点集合;
S803,获取图结构数据在第一层卷积层中各采样时刻的特征;
S804,将第一层卷积层中各采样时刻的特征输入至第二层卷积层中,并将第一层卷积层中N采样时刻的特征和N-1采样时刻的特征进行聚合形成第二层卷积层中N采样时刻的特征,得到第二层卷积层中各采样时刻的特征;
S805,将第二层卷积层中各采样时刻的特征输入至第三层卷积层中,并将第二层卷积层中N采样时刻的特征、N-1采样时刻的特征以及N-2采样时刻的特征进行聚合形成第三层卷积层中N采样时刻的特征,得到第三层卷积层中各采样时刻的特征;
S806,以此类推,得到第N层卷积层中各采样时刻的特征,并将第N层卷积层中最后一个采样时刻的特征确定为多变量聚合特征;
S807,将多变量聚合特征输入至预测层,通过预测层对多变量聚合特征进行分析预测,得到多变量的预测时间序列数据;
S808,获取各变量的预测时间序列数据对应的真实时间序列数据;
S809,根据各变量的预测时间序列数据与对应的真实时间序列数据之间的差值,更新图卷积神经网络模型中的模型参数。
需要说明的是,针对上述S801-S809中的描述可以参见上述实施例中相关的描述,且其效果类似,本实施例在此不再赘述。
进一步的,可以理解的是,图9表示数据分析预测方法的流程示意图,图9中第一卷积层下面的图表示在不同采样时刻的图结构数据,将该图结构数据输入至图卷积神经网络模型中的第一卷积层中,第一卷积层将N采样时刻的特征与N-1采样时刻的特征进行聚合,第二卷积层将N采样时刻的特征、N-1采样时刻的特征和N-2采样时刻的特征进行聚合,以此类推,最后一个卷积层将所有采样时刻的特征都聚合到N采样时刻中,得到多变量聚合特征,将该多变量聚合特征输入至预测层中,通过预测层对多变量聚合特征进行预测,得到多变量的预测时间序列数据。
上述数据分析预测方法中,获取各变量的历史时间序列数据中的所有变量节点,对各变量节点进行随机分组,得到多个变量节点集合,对各变量节点执行预设次数的连边操作,得到各变量的历史时间序列数据的图结构数据,获取图结构数据在第一层卷积层中各采样时刻的特征,将第一层卷积层中各采样时刻的特征输入至第二层卷积层中,并将第一层卷积层中N采样时刻的特征和N-1采样时刻的特征进行聚合形成第二层卷积层中N采样时刻的特征,得到第二层卷积层中各采样时刻的特征,将第二层卷积层中各采样时刻的特征输入至第三层卷积层中,并将第二层卷积层中N采样时刻的特征、N-1采样时刻的特征以及N-2采样时刻的特征进行聚合形成第三层卷积层中N采样时刻的特征,得到第三层卷积层中各采样时刻的特征,以此类推,得到第N层卷积层中各采样时刻的特征,并将第N层卷积层中最后一个采样时刻的特征确定为多变量聚合特征,将多变量聚合特征输入至预测层,通过预测层对多变量聚合特征进行分析预测,得到多变量的预测时间序列数据,获取各变量的预测时间序列数据对应的真实时间序列数据,根据各变量的预测时间序列数据与对应的真实时间序列数据之间的差值,更新图卷积神经网络模型中的模型参数。该方法中的图卷积神经网络模型中卷积层的数量是基于时间维度上的采样时刻数量确定的,针对不同的多变量的历史时间序列数据,可以选择不同的图卷积神经网络模型进行预测,使得各变量的历史时间序列数据的预测过程更加灵活;同时,通过对多变量的历史时间序列数据进行预测,相比于仅针对单个变量的历史时间序列数据进行预测,预测的结果更加精确;通过图卷积神经网络中的卷积层可以将各变量的历史时间序列数据进行聚合,通过聚合后的各变量的历史时间序列数据,可以准确的预测未来一段时间内的多变量时间序列数据。
应该理解的是,虽然如上的各实施例所涉及的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,如上的各实施例所涉及的流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
基于同样的发明构思,本申请实施例还提供了一种用于实现上述所涉及的数据分析预测方法的数据分析预测装置。该装置所提供的解决问题的实现方案与上述方法中所记载的实现方案相似,故下面所提供的一个或多个数据分析预测装置实施例中的具体限定可以参见上文中对于数据分析预测方法的限定,在此不再赘述。
在一个实施例中,如图10所示,提供了一种数据分析预测装置,包括:第一获取模块11和第一确定模块12,其中:
第一获取模块11,用于根据目标主体的多个变量的历史时间序列数据,获取各多变量的历史时间序列数据的图结构数据;
第一确定模块12,用于将图结构数据输入预设的图卷积神经网络模型中,通过图卷积神经网络模型中各卷积层将图结构数据在时间维度上进行聚合后,得到多变量的预测时间序列数据;图卷积神经网络模型中卷积层的数量是基于时间维度上的采样时刻数量确定的。
本实施例提供的数据分析预测装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
在一个实施例中,上述第一获取模块包括:获取单元和处理单元,其中:
第一获取单元,用于获取各变量的历史时间序列数据中的所有变量节点;
第一处理单元,用于对各变量节点进行连边处理,得到各变量的历史时间序列数据的图结构数据。
本实施例提供的数据分析预测装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
可选的,上述第一处理单元具体用于对各变量节点执行预设次数的连边操作,得到各变量的历史时间序列数据的图结构数据;其中,连边操作包括:对各变量节点进行随机分组,得到多个变量节点集合;获取各变量节点集合中变量节点的相似度;将各变量节点集合中大于预设阈值的相似度对应的变量节点进行连接。
本实施例提供的数据分析预测装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
在一个实施例中,上述第一确定模块包括:第二获取单元、第二处理单元、第三处理单元、第N处理单元和生成单元,其中:
第二获取单元,用于获取图结构数据在第一层卷积层中各采样时刻的特征;
第二处理单元,用于将第一层卷积层中各采样时刻的特征输入至第二层卷积层中,并将第一层卷积层中N采样时刻的特征和N-1采样时刻的特征进行聚合形成第二层卷积层中N采样时刻的特征,得到第二层卷积层中各采样时刻的特征;
第三处理单元,用于将第二层卷积层中各采样时刻的特征输入至第三层卷积层中,并将第二层卷积层中N采样时刻的特征、N-1采样时刻的特征以及N-2采样时刻的特征进行聚合形成第三层卷积层中N采样时刻的特征,得到第三层卷积层中各采样时刻的特征;
第N处理单元,用于以此类推,得到第N层卷积层中各采样时刻的特征,并将第N层卷积层中最后一个采样时刻的特征确定为多变量聚合特征;
生成单元,用于根据多变量聚合特征,生成多变量的预测时间序列数据。
本实施例提供的数据分析预测装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
可选的,上述生成单元具体用于将多变量聚合特征输入至预测层,通过预测层对多变量聚合特征进行分析预测,得到多变量的预测时间序列数据。
本实施例提供的数据分析预测装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
在一个实施例中,上述数据分析预测装置还包括:第二获取模块和更新模块,其中:
第二获取模块,用于获取各变量的预测时间序列数据对应的真实时间序列数据;
更新模块,用于根据各变量的预测时间序列数据与对应的真实时间序列数据之间的差值,更新图卷积神经网络模型中的模型参数。
本实施例提供的数据分析预测装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
在一个实施例中,上述数据分析预测装置还包括:第三获取模块、第四获取模块和第二确定模块,其中:
第三获取模块,用于获取多个样本变量的历史时间序列样本数据;
第四获取模块,用于根据各样本变量的历史时间序列样本数据,获取各样本变量的历史时间序列样本数据对应的样本图结构数据;
第二确定模块,用于通过样本图结构数据训练初始图卷积神经网络模型,直至满足预设的收敛条件,确定图卷积神经网络模型收敛,得到预设的图卷积神经网络模型。
本实施例提供的数据分析预测装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
上述数据分析预测装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于服务器中的处理器中,也可以以软件形式存储于服务器中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种服务器,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述方法实施例中的所有内容。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述方法实施例中的所有内容。
在一个实施例中,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述方法实施例中的所有内容。
需要说明的是,本申请所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-OnlyMemory,ROM)、磁带、软盘、闪存、光存储器、高密度嵌入式非易失性存储器、阻变存储器(ReRAM)、磁变存储器(Magnetoresistive Random Access Memory,MRAM)、铁电存储器(Ferroelectric Random Access Memory,FRAM)、相变存储器(Phase Change Memory,PCM)、石墨烯存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器等。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic RandomAccess Memory,DRAM)等。本申请所提供的各实施例中所涉及的数据库可包括关系型数据库和非关系型数据库中至少一种。非关系型数据库可包括基于区块链的分布式数据库等,不限于此。本申请所提供的各实施例中所涉及的处理器可为通用处理器、中央处理器、图形处理器、数字信号处理器、可编程逻辑器、基于量子计算的数据处理逻辑器等,不限于此。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请的保护范围应以所附权利要求为准。

Claims (11)

1.一种数据分析预测方法,其特征在于,所述方法包括:
根据目标主体的多个变量的历史时间序列数据,获取各所述变量的历史时间序列数据的图结构数据;
将所述图结构数据输入预设的图卷积神经网络模型中,通过所述图卷积神经网络模型中各卷积层将所述图结构数据在时间维度上进行聚合后,得到多变量的预测时间序列数据;所述图卷积神经网络模型中卷积层的数量是基于时间维度上的采样时刻数量确定的。
2.根据权利要求1所述的方法,其特征在于,所述根据目标主体的多个变量的历史时间序列数据,获取各所述变量的历史时间序列数据的图结构数据,包括:
获取各所述变量的历史时间序列数据中的所有变量节点;
对各所述变量节点进行连边处理,得到各所述变量的历史时间序列数据的图结构数据。
3.根据权利要求2所述的方法,其特征在于,所述对各所述变量节点进行连边处理,得到各所述变量的历史时间序列数据的图结构数据,包括:
对各所述变量节点执行预设次数的连边操作,得到各所述变量的历史时间序列数据的图结构数据;
其中,所述连边操作包括:
对各所述变量节点进行随机分组,得到多个变量节点集合;
获取各所述变量节点集合中变量节点的相似度;
将各所述变量节点集合中大于预设阈值的相似度对应的变量节点进行连接。
4.根据权利要求1-3任一项所述的方法,其特征在于,若所述卷积层的数量和所述采样时刻数量均为N,所述N为正整数;
则所述通过所述图卷积神经网络模型中各卷积层将所述图结构数据在时间维度上进行聚合,得到所述多变量的预测时间序列数据,包括:
获取所述图结构数据在第一层卷积层中各采样时刻的特征;
将所述第一层卷积层中各采样时刻的特征输入至第二层卷积层中,并将所述第一层卷积层中N采样时刻的特征和N-1采样时刻的特征进行聚合形成所述第二层卷积层中N采样时刻的特征,得到第二层卷积层中各采样时刻的特征;
将所述第二层卷积层中各采样时刻的特征输入至第三层卷积层中,并将所述第二层卷积层中N采样时刻的特征、N-1采样时刻的特征以及N-2采样时刻的特征进行聚合形成所述第三层卷积层中N采样时刻的特征,得到所述第三层卷积层中各采样时刻的特征;
以此类推,得到第N层卷积层中各采样时刻的特征,并将所述第N层卷积层中最后一个采样时刻的特征确定为多变量聚合特征;
根据所述多变量聚合特征,生成所述多变量的预测时间序列数据。
5.根据权利要求4所述的方法,其特征在于,所述预设的图卷积神经网络模型还包括预测层;则所述根据所述多变量聚合特征,生成所述多变量的预测时间序列数据,包括:
将所述多变量聚合特征输入至所述预测层,通过所述预测层对所述多变量聚合特征进行分析预测,得到所述多变量的预测时间序列数据。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取各所述变量的预测时间序列数据对应的真实时间序列数据;
根据各所述变量的预测时间序列数据与对应的真实时间序列数据之间的差值,更新所述图卷积神经网络模型中的模型参数。
7.根据权利要求1所述的方法,其特征在于,所述图卷积神经网络模型的构建过程包括:
获取多个样本变量的历史时间序列样本数据;
根据各所述样本变量的历史时间序列样本数据,获取各所述样本变量的历史时间序列样本数据对应的样本图结构数据;
通过所述样本图结构数据训练初始图卷积神经网络模型,直至满足预设的收敛条件,确定所述图卷积神经网络模型收敛,得到所述预设的图卷积神经网络模型。
8.一种数据分析预测装置,其特征在于,所述装置包括:
第一获取模块,用于根据目标主体的多个变量的历史时间序列数据,获取各所述变量的历史时间序列数据的图结构数据;
第一确定模块,用于将所述图结构数据输入预设的图卷积神经网络模型中,通过所述图卷积神经网络模型中各卷积层将所述图结构数据在时间维度上进行聚合后,得到多变量的预测时间序列数据;所述图卷积神经网络模型中卷积层的数量是基于时间维度上的采样时刻数量确定的。
9.一种服务器,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
11.一种计算机程序产品,包括计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
CN202210359434.5A 2022-04-07 2022-04-07 数据分析预测方法、装置、服务器、存储介质和程序产品 Pending CN114819295A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210359434.5A CN114819295A (zh) 2022-04-07 2022-04-07 数据分析预测方法、装置、服务器、存储介质和程序产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210359434.5A CN114819295A (zh) 2022-04-07 2022-04-07 数据分析预测方法、装置、服务器、存储介质和程序产品

Publications (1)

Publication Number Publication Date
CN114819295A true CN114819295A (zh) 2022-07-29

Family

ID=82535273

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210359434.5A Pending CN114819295A (zh) 2022-04-07 2022-04-07 数据分析预测方法、装置、服务器、存储介质和程序产品

Country Status (1)

Country Link
CN (1) CN114819295A (zh)

Similar Documents

Publication Publication Date Title
CN112529168B (zh) 一种基于gcn的属性多层网络表示学习方法
Tsymbalov et al. Dropout-based active learning for regression
Aydilek et al. A novel hybrid approach to estimating missing values in databases using k-nearest neighbors and neural networks
AU2019371339B2 (en) Finite rank deep kernel learning for robust time series forecasting and regression
Li et al. Dynamic structure embedded online multiple-output regression for streaming data
Chang et al. IoT big-data centred knowledge granule analytic and cluster framework for BI applications: a case base analysis
Weinzierl et al. XNAP: making LSTM-based next activity predictions explainable by using LRP
CN112529071B (zh) 一种文本分类方法、系统、计算机设备和存储介质
US11977978B2 (en) Finite rank deep kernel learning with linear computational complexity
US20230306505A1 (en) Extending finite rank deep kernel learning to forecasting over long time horizons
Zhu et al. Deep learning for learning graph representations
Luo et al. Hope: High-order graph ode for modeling interacting dynamics
Sebt et al. Predicting the number of customer transactions using stacked LSTM recurrent neural networks
CN114154557A (zh) 癌症组织分类方法、装置、电子设备及存储介质
CN111178986A (zh) 用户-商品偏好的预测方法及系统
Haroon et al. Application of machine learning in forensic science
Zhou et al. Online recommendation based on incremental-input self-organizing map
Zhang et al. Learning relational fractals for deep knowledge graph embedding in online social networks
CN114819295A (zh) 数据分析预测方法、装置、服务器、存储介质和程序产品
Tinawi Machine learning for time series anomaly detection
CN114529399A (zh) 用户数据处理方法、装置、计算机设备和存储介质
Liu et al. Hybrid learning network: a novel architecture for fast learning
Chen et al. Attentive capsule graph neural networks for session-based recommendation
Tian-hao et al. Enhancing graph convolutional network of knowledge-based co-evolution for industrial process key variable prediction.
Kalidindi et al. Discrete Deep Learning Based Collaborative Filtering Approach for Cold Start Problem.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination