CN117592537A - 一种动态场景下的图数据表示学习方法 - Google Patents
一种动态场景下的图数据表示学习方法 Download PDFInfo
- Publication number
- CN117592537A CN117592537A CN202311621321.9A CN202311621321A CN117592537A CN 117592537 A CN117592537 A CN 117592537A CN 202311621321 A CN202311621321 A CN 202311621321A CN 117592537 A CN117592537 A CN 117592537A
- Authority
- CN
- China
- Prior art keywords
- node
- neural network
- time
- graph
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000013528 artificial neural network Methods 0.000 claims abstract description 82
- 230000000306 recurrent effect Effects 0.000 claims abstract description 13
- 230000015654 memory Effects 0.000 claims abstract description 10
- 239000011159 matrix material Substances 0.000 claims description 24
- 230000006870 function Effects 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 11
- 230000004913 activation Effects 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 6
- 238000003062 neural network model Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 239000013598 vector Substances 0.000 claims description 3
- 238000012512 characterization method Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 12
- 230000002123 temporal effect Effects 0.000 description 4
- 238000009472 formulation Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000036962 time dependent Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000003280 down draw process Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 206010027175 memory impairment Diseases 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开一种动态场景下的图数据表示学习方法,针对动态场景下动态图数据表示学习方法网络参数和节点特征之间动态关联问题,提出了一种离散动态的图神经网络,该网络通过设计门限递归神经网络层,编码每个时刻图神经网络层的权重参数,确保图神经网络参数在时间上的关联性;通过设计长短时记忆神经网络层,处理经由图神经网络嵌入节点的时序特征,确保所嵌入的节点特征在时间上的关联性。离散动态图神经网络实现了比动态图表学习模型更优的识别性能和良好的泛化能力。
Description
技术领域
本发明涉及计算机领域,尤其是一种动态场景下的图数据表示学习方法。
背景技术
在现实场景中,图的拓扑结构不是一成不变的——节点会出现和消失,边也会产生和消亡。因此,动态场景下图数据的节点和边都是随时间动态变化的。为了表示动态场景下的图数据变化,研究者们提出了众多的动态图神经网络。根据时间维度描述的粒度,动态图神经网络具体可分为三类:伪动态、离散动态和连续动态的图神经网络模型。
动态图模型的选择取决于具体的研究问题。伪动态模型在标准的图神经网络的基础上对边进行加权,适用于仅拓扑结构发生变化的网络,而不是时间变化的网络。为了同时刻画图中节点和拓扑结构的变化过程,研究者们会更多地考虑离散动态和连续动态的图模型。离散动态模型通常对网络的时间片段逐一进行编码,其中每个片段的编码类似于图神经网络对于静态图的编码。该编码过程离散地表示图神经网络随时间的动态变化。连续动态模型在网络上逐边地连续迭代,更加细粒度地描述网络随时间变化的过程。在给定相同数量的特征和网络层数时,离散动态模型相比连续动态模型训练得更快,且模型更简单。因此,离散动态模型适合解决大多数动态网络问题。如果需要更加细粒度地描述网络随时间的变化或者处理密集的网络,则需要选择连续动态模型。相比离散动态模型,连续模型逐一地表示边的迭代过程,其训练时间开销较大。
发明内容
本发明目的是提供一种动态场景下的图数据表示学习方法,借鉴动态图神经网络中堆叠和集成两种模型:GCRNM1模型和EvolveGCN模型的EGCUH层,以解决现有技术中网络参数和节点特征同步关联的问题。
本发明提供一种动态场景下的图数据表示学习方法,包括以下步骤:
S1、建立GNN模块,为具有时间维度的图神经网络模型,用于计算时刻邻居节点的嵌入特征;
S2、建立GRU模块,用于生成每个时刻图神经网络的参数,描述不同时刻下图神经网络权重参数在时间上的关联性;
S3、建立LSTM模块,用于处理嵌入节点的时间序列,描述不同时刻图神经网络输出节点特征随时间的变化情况;
S4、建立MLP模块,用于将节点特征投影到预测任务的空间中,通过交叉熵损失训练。
进一步的,所述GNN模块建模如下:
其中,σ(·)表示激活函数,表示第t个时刻第l层的图神经网络的权重参数;表示时刻t的归一化邻接矩阵,其归一化操作由度矩阵和邻接矩阵参与,
其中,Dt表示第t个时刻的节点度矩阵,At表示第t个时刻的邻接矩阵,I表示与邻接矩阵相同大小的单位矩阵。
更进一步的,所述GNN模块表示为:
GNNt(·)用于计算时刻t邻居节点的嵌入特征。
更进一步的,所述GRU模块网络结构表示为:
其中,sigmoid(·)和tanh(·)分别表示sigmoid和tanh非线性激活函数,⊙表示哈达玛积,即两个矩阵或向量的对应元素乘积;
通过重置门限和更新门限/>门限递归神经网络控制前一时刻网络参数Wt-1的遗忘程度和该时刻网络参数/>的更新程度。
更进一步的,每一层的图网络层采用同一个GRU,前一时刻对应网络层的参数和输入节点特征作为GRU的隐藏状态和输入特征,GRU输出该时刻对应网络层的参数。
更进一步的,所述GRU模块表达式如下:
GRU()用于生成每个时刻图神经网络的参数
更进一步的,所述LSTM模块包括遗忘门、记忆门、更新门和输出门;网络结构式为:
Ht,u=Ot,v⊙tanh(Ct,v).
遗忘门Ft,v控制上一时刻嵌入节点特征的遗忘程度,更新门生成当前时刻节点特征信息,记忆门It,v控制当前时刻更新节点特征的记忆程度,输出门Ot,v控制输出结果的范围大小;
合并LSTM中所有时刻的输出结果,得到具有时序特性的节点特征,
更进一步的,所述LSTM模块公式表达为:
LSTMv()用于处理第v个嵌入节点的时间序列。
更进一步的,所述交叉熵损失训练,预测划分的训练时间片段t∈[1,T0]中所有节点的类别,
其中,W和b分别表示全连接网络的权重和偏置参数,softmax(·)函数将预测的结果归一化到概率空间;和Yt,v分别表示节点类别预测概率矩阵和节点类别标签,共同参与交叉熵损失函数计算;
所述MLP模块公式表达为:
MLP(·)用于将节点特征投影到预测任务的空间中。
更进一步的,所述动态场景下的图数据表示学习方法具体步骤包括:
GRU(l)将GNN中第l层的节点特征和权重参数/>作为输入,输出GNN中第l+1层的权重参数/>每个GNN利用GRU生成的权重参数,嵌入该时间片段的节点特征;LSTM族将GNN中最后一层的输出/>作为输入,处理每个节点的时间序列,输出对应的节点特征
本发明针对动态场景下动态图数据表示学习方法网络参数和节点特征之间动态关联问题,提出了一种离散动态的图神经网络,该网络通过设计门限递归神经网络层,编码每个时刻图神经网络层的权重参数,确保图神经网络参数在时间上的关联性;通过设计长短时记忆神经网络层,处理经由图神经网络嵌入节点的时序特征,确保所嵌入的节点特征在时间上的关联性。离散动态图神经网络实现了比动态图表示学习模型更优的识别性能和良好的泛化能力。
附图说明
图1本发明实施例离散动态图神经网络结构图;
图2门限递归神经网络结构示意图;
图3基于门限递归神经网络参数生成的时序图神经网络示意图;
图4长短时记忆神经网络结构示意图;
图5长短时记忆神经网络结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
实施例1公开的动态场景下的图数据表示学习方法,包括以下步骤:
S1、建立GNN模块,为具有时间维度的图神经网络模型,用于计算时刻邻居节点的嵌入特征;
S2、建立GRU模块,用于生成每个时刻图神经网络的参数,描述不同时刻下图神经网络权重参数在时间上的关联性;
S3、建立LSTM模块,用于处理嵌入节点的时间序列,描述不同时刻图神经网络输出节点特征随时间的变化情况;
S4、建立MLP模块,用于将节点特征投影到预测任务的空间中,通过交叉熵损失训练。
具体的,如图1所示,离散动态图神经网络结构图,包含一层GNN族、一个GRU、一层LSTM族和一个MLP。
建模不同时刻下的图神经网络后,这些网络中随机生成的参数是相互独立的,独立的参数意味着不同图神经网络是不相关的。在现实场景的动态图中,节点特征、边特征和拓扑结构是随时间变化的,待预测的标签也是随时间动态变化的。这种时间上的关联特性与动态图中网络参数的独立性是存在矛盾的。当具有时序特性的节点特征、边特征和拓扑结构作为不同时刻图神经网络的输入时,由于网络参数的不相关性,网络的输出特征也不具有时间上的关联性。为了解决这种矛盾,本实施例通过门限递归神经网络层(GatedRecurrent Unit,GRU)描述不同时刻下图神经网络权重参数在时间上的关联性。
上述门限递归神经网络实现了不同时刻图神经网络参数的时序化建模,但是经过神经网络嵌入的节点特征也应该具有时间上的关联性,从而确保图神经网络的预测结果的时序特性。因此,需要描述不同时刻图神经网络输出节点特征随时间的变化情况,通过将LSTM集成到不同时刻的图神经网络当中,神经网络输出的节点特征具有了时间上的关联性。。
上述各个模块分别实现了节点特征嵌入、图神经网络参数的时序关联以及节点嵌入特征的时序关联。然而,动态图神经网络针对不同的学习任务,需要相应的全连接网络与损失函数设计,得到适用于特定学习任务的输出结果,本实施例采用MLP模块,将节点特征投影到预测任务的空间中,通过交叉熵损失训练,获得学习训练结果。
本发明实施例针对动态场景下动态图数据表示学习方法网络参数和节点特征之间动态关联问题,提出了一种离散动态的图神经网络,该网络通过设计门限递归神经网络层,编码每个时刻图神经网络层的权重参数,确保图神经网络参数在时间上的关联性;通过设计长短时记忆神经网络层,处理经由图神经网络嵌入节点的时序特征,确保所嵌入的节点特征在时间上的关联性。离散动态图神经网络实现了比动态图表示学习模型更优的识别性能和良好的泛化能力。
实施例2公开的动态场景下的图数据表示学习方法,在实施例1的基础上,
1.所述GNN模块具体建模如下:
其中,σ(·)表示激活函数,表示第t个时刻第l层的图神经网络的权重参数;表示时刻t的归一化邻接矩阵,其归一化操作由度矩阵和邻接矩阵参与,
其中,Dt表示第t个时刻的节点度矩阵,At表示第t个时刻的邻接矩阵,I表示与邻接矩阵相同大小的单位矩阵。
获得所述GNN模块公式表达为:
GNNt(·)用于计算时刻t邻居节点的嵌入特征。建模了不同时刻下的图神经网络,但是这些网络中随机生成的参数是相互独立的,独立的参数意味着不同图神经网络是不相关的。
2.所述GRU模块具体建模网络结构表示为:
其中,sigmoid(·)和tanh(·)分别表示sigmoid和tanh非线性激活函数,⊙表示哈达玛积,即两个矩阵或向量的对应元素乘积。
如图2所示,通过重置门限和更新门限/>门限递归神经网络控制前一时刻网络参数Wt-1的遗忘程度和该时刻网络参数/>的更新程度。
通过GRU生成不同时刻下图神经网络的参数,使得网络参数具有时间上的关联性。具体结构如图3所示,每一层的图网络层采用同一个GRU,前一时刻对应网络层的参数和输入节点特征作为GRU的隐藏状态和输入特征,GRU输出该时刻对应网络层的参数。
获得所述GRU模块表达式如下:
GRU()用于生成每个时刻图神经网络的参数通过门限递归神经网络层(Gated Recurrent Unit,GRU)描述不同时刻下图神经网络权重参数在时间上的关联性。
3.LSTM模块具体建模,如图4所示包括:遗忘门、记忆门、更新门和输出门等;网络结构式为:
Ht,v=Ot,v⊙tanh(Ct,v).
遗忘门Ft,v控制上一时刻嵌入节点特征的遗忘程度,更新门生成当前时刻节点特征信息,记忆门It,v控制当前时刻更新节点特征的记忆程度,输出门Ot,v控制输出结果的范围大小;
合并LSTM中所有时刻的输出结果,得到具有时序特性的节点特征,
获得所述LSTM模块公式表达为:
LSTMv()用于处理第v个嵌入节点的时间序列。
通过将LSTM集成到不同时刻的图神经网络当中,神经网络输出的节点特征具有时间上的关联性。具体结构如图5所示,每个时刻的图神经网络输出嵌入节点的特征信息。对于每个节点,其特征信息是随时间动态变化的。通过将每个节点的嵌入特征作为LSTM的输入,得到具有时序特性的节点特征。
4.全连接网络和损失函数设计
上述各个模块分别实现了节点特征嵌入、图神经网络参数的时序关联以及节点嵌入特征的时序关联。然而,动态图神经网络针对不同的学习任务,需要相应的全连接网络与损失函数设计,得到适用于特定学习任务的输出结果。
对于节点分类任务,全连接网络将节点特征维度映射到节点类别维度,通过交叉熵损失训练,预测划分的训练时间片段t∈[1,T0]中所有节点的类别,
其中,W和b分别表示全连接网络的权重和偏置参数,softmax(·)函数将预测的结果归一化到概率空间;和Yt,v分别表示节点类别预测概率矩阵和节点类别标签,共同参与交叉熵损失函数计算;
获得MLP模块公式表达为:
MLP(·)用于将节点特征投影到预测任务的空间中。
本发明实施例所述动态场景下的图数据表示学习方法具体步骤包括:
GRU(1)将GNN中第l层的节点特征和权重参数/>作为输入,输出GNN中第l+1层的权重参数/>每个GNN利用GRU生成的权重参数,嵌入该时间片段的节点特征;LSTM族将GNN中最后一层的输出/>作为输入,处理每个节点的时间序列,输出对应的节点特征/>
本发明主要考虑的是对于通用的动态图数据表示和实际场景部署的可行性,因而选择模型相对简单和训练速度较快的离散图动态模型。针对动态场景下动态图数据表示学习方法网络参数和节点特征的动态关联问题,受到动态图神经网络中堆叠和集成模型的启发,通过门限递归神经网络层,编码每个时刻下的图神经网络层的权重参数,确保图神经网络参数的时序性;通过长短时记忆神经网络层,处理经由图神经网络嵌入节点的时序特征,确保所嵌入的节点特征的时序性。
最后应当说明的是,以上实施例仅用以说明本发明的技术方案而非对其限制,尽管参照上述实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解,技术人员阅读本申请说明书后依然可以对本发明的具体实施方式进行修改或者等同替换,但这些修改或变更均未脱离本发明申请待批权利要求保护范围之内。
Claims (10)
1.一种动态场景下的图数据表示学习方法,其特征在于,包括以下步骤:
S1、建立GNN模块,为具有时间维度的图神经网络模型,用于计算时刻邻居节点的嵌入特征;
S2、建立GRU模块,用于生成每个时刻图神经网络的参数,描述不同时刻下图神经网络权重参数在时间上的关联性;
S3、建立LSTM模块,用于处理嵌入节点的时间序列,描述不同时刻图神经网络输出节点特征随时间的变化情况;
S4、建立MLP模块,用于将节点特征投影到预测任务的空间中,通过交叉熵损失训练。
2.根据权利要求1所述一种动态场景下的图数据表示学习方法,其特征在于,所述GNN模块建模如下:
其中,σ(·)表示激活函数,表示第t个时刻第l层的图神经网络的权重参数;/>表示时刻t的归一化邻接矩阵,其归一化操作由度矩阵和邻接矩阵参与,
其中,Dt表示第t个时刻的节点度矩阵,At表示第t个时刻的邻接矩阵,I表示与邻接矩阵相同大小的单位矩阵。
3.根据权利要求2所述一种动态场景下的图数据表示学习方法,其特征在于,所述GNN模块表示为:
GNNt(·)用于计算时刻t邻居节点的嵌入特征。
4.根据权利要求3所述一种动态场景下的图数据表示学习方法,其特征在于,所述GRU模块网络结构表示为:
其中,sigmoid(·)和tanh(·)分别表示sigmoid和tanh非线性激活函数,⊙表示哈达玛积,即两个矩阵或向量的对应元素乘积;
通过重置门限和更新门限/>门限递归神经网络控制前一时刻网络参数Wt-1的遗忘程度和该时刻网络参数/>的更新程度。
5.根据权利要求4所述一种动态场景下的图数据表示学习方法,其特征在于,每一层的图网络层采用同一个GRU,前一时刻对应网络层的参数和输入节点特征作为GRU的隐藏状态和输入特征,GRU输出该时刻对应网络层的参数。
6.根据权利要求5所述一种动态场景下的图数据表示学习方法,其特征在于,所述GRU模块表达式如下:
GRU()用于生成每个时刻图神经网络的参数
7.根据权利要求6所述一种动态场景下的图数据表示学习方法,其特征在于,所述LSTM模块网络结构式为:
Ht,v=Ot,v☉tanh(Ct,v).
所述LSTM模块包括遗忘门、记忆门、更新门和输出门;
遗忘门Ft,v控制上一时刻嵌入节点特征的遗忘程度,更新门生成当前时刻节点特征信息,记忆门It,v控制当前时刻更新节点特征的记忆程度,输出门Ot,v控制输出结果的范围大小;
合并LSTM中所有时刻的输出结果,得到具有时序特性的节点特征,
8.根据权利要求7所述一种动态场景下的图数据表示学习方法,其特征在于,所述LSTM模块公式表达为:
LSTMv( )用于处理第v个嵌入节点的时间序列。
9.根据权利要求8所述一种动态场景下的图数据表示学习方法,其特征在于,所述交叉熵损失训练,预测划分的训练时间片段t∈[1,T0]中所有节点的类别,
其中,W和b分别表示全连接网络的权重和偏置参数,softmax(·)函数将预测的结果归一化到概率空间;和Yt,v分别表示节点类别预测概率矩阵和节点类别标签,共同参与交叉熵损失函数计算;
所述MLP模块公式表达为:
MLP(·)用于将节点特征投影到预测任务的空间中。
10.根据权利要求9所述一种动态场景下的图数据表示学习方法,其特征在于,所述动态场景下的图数据表示学习方法具体步骤包括:
GRU(l)将GNN中第l层的节点特征和权重参数/>作为输入,输出GNN中第l+1层的权重参数/>每个GNN利用GRU生成的权重参数,嵌入该时间片段的节点特征;LSTM族将GNN中最后一层的输出/>作为输入,处理每个节点的时间序列,输出对应的节点特征
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311621321.9A CN117592537A (zh) | 2023-11-30 | 2023-11-30 | 一种动态场景下的图数据表示学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311621321.9A CN117592537A (zh) | 2023-11-30 | 2023-11-30 | 一种动态场景下的图数据表示学习方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117592537A true CN117592537A (zh) | 2024-02-23 |
Family
ID=89912997
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311621321.9A Pending CN117592537A (zh) | 2023-11-30 | 2023-11-30 | 一种动态场景下的图数据表示学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117592537A (zh) |
-
2023
- 2023-11-30 CN CN202311621321.9A patent/CN117592537A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109635917B (zh) | 一种多智能体合作决策及训练方法 | |
Tang et al. | # exploration: A study of count-based exploration for deep reinforcement learning | |
Appathurai et al. | An efficient optimal neural network-based moving vehicle detection in traffic video surveillance system | |
CN109948029B (zh) | 基于神经网络自适应的深度哈希图像搜索方法 | |
Lee et al. | Deep asymmetric multi-task feature learning | |
Torralba et al. | Contextual models for object detection using boosted random fields | |
CN111079931A (zh) | 一种基于图神经网络的状态空间概率性多时间序列预测方法 | |
Li et al. | Rain: Reinforced hybrid attention inference network for motion forecasting | |
CN110138595A (zh) | 动态加权网络的时间链路预测方法、装置、设备及介质 | |
CN110570035B (zh) | 同时建模时空依赖性和每日流量相关性的人流量预测系统 | |
TW201626293A (zh) | 由知識圖譜偏置的資料分類 | |
CN117642753A (zh) | 神经网络模型的低秩适应 | |
CN112633463B (zh) | 用于建模序列数据中长期依赖性的双重递归神经网络架构 | |
CN113987236B (zh) | 基于图卷积网络的视觉检索模型的无监督训练方法和装置 | |
CN116090504A (zh) | 图神经网络模型训练方法及装置、分类方法、计算设备 | |
CN109697511B (zh) | 数据推理方法、装置及计算机设备 | |
CN112949590B (zh) | 一种跨域行人重识别模型构建方法及构建系统 | |
JP2023548201A (ja) | タスク学習システムおよび方法、ならびに関連デバイス | |
CN117671952A (zh) | 基于时空同步动态图注意力网络的交通流预测方法及系统 | |
CN116975642A (zh) | 一种使用动态多图融合进行交通流量预测的方法 | |
CN116910608A (zh) | 一种基于时空门控图卷积网络的多源数据预测方法和装置及计算机和存储介质 | |
Martin et al. | Probabilistic program neurogenesis | |
CN117592537A (zh) | 一种动态场景下的图数据表示学习方法 | |
Chien et al. | Bayesian multi-temporal-difference learning | |
Lin et al. | Collaborative Framework of Accelerating Reinforcement Learning Training with Supervised Learning Based on Edge Computing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |