CN113627591A - 动态图数据的处理方法、装置、电子设备及存储介质 - Google Patents
动态图数据的处理方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN113627591A CN113627591A CN202110869073.4A CN202110869073A CN113627591A CN 113627591 A CN113627591 A CN 113627591A CN 202110869073 A CN202110869073 A CN 202110869073A CN 113627591 A CN113627591 A CN 113627591A
- Authority
- CN
- China
- Prior art keywords
- sub
- neural network
- graph data
- output results
- hidden variable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title description 6
- 238000013528 artificial neural network Methods 0.000 claims abstract description 166
- 238000000034 method Methods 0.000 claims abstract description 80
- 238000012545 processing Methods 0.000 claims abstract description 79
- 239000011159 matrix material Substances 0.000 claims description 69
- 230000000306 recurrent effect Effects 0.000 claims description 53
- 230000008569 process Effects 0.000 claims description 25
- 230000000875 corresponding effect Effects 0.000 claims description 24
- 238000013527 convolutional neural network Methods 0.000 claims description 21
- 125000004122 cyclic group Chemical group 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 12
- 230000006399 behavior Effects 0.000 claims description 3
- 238000004891 communication Methods 0.000 claims description 3
- 230000002596 correlated effect Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 16
- 238000012549 training Methods 0.000 description 14
- 238000012360 testing method Methods 0.000 description 13
- 238000003062 neural network model Methods 0.000 description 11
- 230000006835 compression Effects 0.000 description 8
- 238000007906 compression Methods 0.000 description 8
- 230000005284 excitation Effects 0.000 description 8
- 238000002474 experimental method Methods 0.000 description 6
- 238000000605 extraction Methods 0.000 description 6
- 238000012795 verification Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000011176 pooling Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000004900 laundering Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000000547 structure data Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请提供一种动态图数据的处理方法、装置、电子设备及存储介质,动态图数据的处理方法包括:获取动态图数据中时间连续的M个子图数据;通过神经网络处理M个子图数据,得到M个第一输出结果,M个第一输出结果用于表征M个子图数据的结构特征和时序特征;根据M个第一输出结果确定M个第二输出结果,M个第二输出结果用于表征M个第一输出结果的时序特征;根据M个第二输出结果确定M个子图数据中第M个子图数据的预测结果。不仅针对神经网络中图卷积神经网络的参数进行演化,还针对卷积神经网络的输出结果进行演化,能够准地提取动态图数据中的动态序列信息,进而提高动态图数据预测的准确性。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及一种动态图数据的处理方法、装置、电子设备及存储介质。
背景技术
随着人工神经网络研究的不断深入,图神经网络(Graph Neural Networks,GNN)已经被广泛应用于图结构数据的建模、学习以及表征。鉴于现实生活中存在着大量的动态场景,在很多情况下,正是这些动态场景中的动态行为能够表达出一些重要信息。在动态场景中,存在着随着时间的变化,其结构和性质不断变化的动态图数据,而处理这种动态图数据的网络就是动态图神经网络(Dynamic Graph Neural Networks,DGNN)。
一般来说,动态图神经网络DGNN就是将图神经网络GNN与循环神经网络(Recurrent Neural Network,RNN)进行组合,通过图神经网络GNN捕获动态图数据中各子图数据的结构特征,通过循环神经网络RNN捕获动态图数据的时序特征。这样,就实现了动态图神经网络DGNN对于动态图数据的处理。例如:现有的EvolveGCN,就是利用循环神经网络RNN演化图卷积神经网络(Graph Convolutional Network,GCN)中的参数,进而捕获动态图数据中图序列的动态信息。
但是,EvolveGCN的学习能力有限,在特征提取方面,EvolveGCN无法精准地提取动态图数据中的动态序列信息,进而降低动态图数据预测的准确性。
发明内容
本申请实施例的目的是提供一种动态图数据的处理方法、装置、电子设备及存储介质,以使精准地提取动态图数据中的动态序列信息,进而提升动态图数据预测的准确性。
为解决上述技术问题,本申请实施例提供如下技术方案:
本申请第一方面提供一种动态图数据的处理方法,所述方法包括:获取动态图数据中时间连续的M个子图数据,所述M个子图数据中前M-1个子图数据的节点的预测结果已知,所述M为大于或等于2的正整数;通过神经网络处理所述M个子图数据,得到M个第一输出结果,所述M个第一输出结果用于表征所述M个子图数据的结构特征和时序特征;根据所述M个第一输出结果确定M个第二输出结果,所述M个第二输出结果用于表征所述M个第一输出结果的时序特征;根据所述M个第二输出结果确定所述M个子图数据中第M个子图数据的预测结果。
本申请第二方面提供一种动态图数据的处理装置,所述装置包括:接收模块,用于获取动态图数据中时间连续的M个子图数据,所述M个子图数据中前M-1个子图数据的节点的预测结果已知,所述M为大于或等于2的正整数;第一处理模块,用于通过神经网络处理所述M个子图数据,得到M个第一输出结果,所述M个第一输出结果用于表征所述M个子图数据的结构特征和时序特征;第二处理模块,用于根据所述M个第一输出结果确定M个第二输出结果,所述M个第二输出结果用于表征所述M个第一输出结果的时序特征;预测模块,用于根据所述M个第二输出结果确定所述M个子图数据中第M个子图数据的预测结果。
本申请第三方面提供一种电子设备,包括:处理器、存储器、总线;其中,所述处理器、所述存储器通过所述总线完成相互间的通信;所述处理器用于调用所述存储器中的程序指令,以执行第一方面中的方法。
本申请第四方面提供一种计算机可读存储介质,包括:存储的程序;其中,在所述程序运行时控制所述存储介质所在设备执行第一方面中的方法。
相较于现有技术,本申请第一方面提供的动态图数据的处理方法,首先,获取动态图数据中时间连续的M个子图数据;然后,通过神经网络处理M个子图数据,得到M个第一输出结果,M个第一输出结果用于表征M个子图数据的结构特征和时序特征;接着,根据M个第一输出结果确定M个第二输出结果,M个第二输出结果用于表征M个第一输出结果的时序特征;最后,根据M个第二输出结果确定M个子图数据中第M个子图数据的预测结果。在通过神经网络处理动态图数据中的多个子图数据后,进一步对得到的多个输出结果进行处理。这样,不仅针对神经网络中图卷积神经网络的参数进行演化,还针对卷积神经网络的输出结果进行演化。通过双通道演化,能够精准地提取动态图数据中的动态序列信息,进而提高动态图数据预测的准确性。
本申请第二方面提供的动态图数据的处理装置、第三方面提供的电子设备、第四方面提供的计算机可读存储介质,与第一方面提供的动态图数据的处理方法具有相同或相似的有益效果。
附图说明
通过参考附图阅读下文的详细描述,本申请示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本申请的若干实施方式,相同或对应的标号表示相同或对应的部分,其中:
图1为本申请实施例中动态图数据的处理方法的流程示意图一;
图2为本申请实施例中动态图数据的示意图;
图3为本申请实施例中处理动态图数据的网络架构示意图一;
图4为本申请实施例中动态图数据的处理方法的流程示意图二;
图5为本申请实施例中压缩与激励网络SENet的架构示意图;
图6为本申请实施例中处理动态图数据的网络架构示意图二;
图7为本申请实施例中动态图数据的架构示意图;
图8为本申请实施例中动态图数据的处理装置的结构示意图一;
图9为本申请实施例中动态图数据的处理装置的结构示意图二;
图10为本申请实施例中电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本申请的示例性实施方式。虽然附图中显示了本申请的示例性实施方式,然而应当理解,可以以各种形式实现本申请而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了能够更透彻地理解本申请,并且能够将本申请的范围完整的传达给本领域的技术人员。
需要注意的是,除非另有说明,本申请使用的技术术语或者科学术语应当为本申请所属领域技术人员所理解的通常意义。
在现有技术中,动态图神经网络DGNN,例如:EvolveGCN,虽然能够利用循环神经网络RNN演化图卷积神经网络GCN中的参数,进而捕获动态图数据中图序列的动态信息,但是,EvolveGCN的学习能力有限,还是无法精准地提取动态图数据中的动态序列信息,进而降低动态图数据预测的准确性。
有鉴于此,本申请实施例提供了一种动态图数据的处理方法,在通过神经网络处理完动态图数据后,进一步对得到的多个输出结果进行处理。即,不仅针对神经网络中图卷积神经网络的参数进行演化,还针对卷积神经网络的输出结果进行演化。通过双通道演化,能够精准地提取动态图数据中的动态序列信息,进而提高动态图数据预测的准确性。
接下来,详细对本申请实施例提供的动态图数据的处理方法进行说明。
图1为本申请实施例中动态图数据的处理方法的流程示意图一,参见图1所示,该方法可以包括:
S101:获取动态图数据中时间连续的M个子图数据。
其中,M个子图数据中前M-1个子图数据的节点的预测结果已知。M为大于或等于2的正整数。
所述时间连续表示所述动态图数据变化的时间连续,相比于静态图,动态图中的节点和边是会随着时间变化的。而动态图中每个时间点对应的节点和边是固定的。所以,在获得动态图数据后,能够通过动态图数据获取动态图数据中每个时间点对应的子图数据,进而基于节点和边固定的子图数据对动态图数据进行处理。
图2为本申请实施例中动态图数据的示意图,参见图2所示,在该动态图中,包含有M个子图数据。在每个子图数据中,节点和边都是不变的。而在每个子图数据之间,节点和边是会随着时间发生变化的。
一般来说,处理动态图数据,都是为了实现预测。即通过动态图数据中前M-1个子图数据(前M-1个子图数据中节点和边所表征的内容已知),来对第M个子图数据中的节点或边所表征的内容进行预测(第M个子图数据中的节点或边所表征的内容当前未知)。而为了预测的准确性,一般都是获取动态图数据中时间连续的M个子图数据。
这里需要说明的是,这里的M可以是动态图数据中所有子图数据的数量,也可以是动态图数据中部分子图数据的数量。对于M的具体数值,可以根据动态图数据以及预测的实际情况确定,此处不做具体限定。但是,M的数值一定是大于或等于2的正整数,这样才能够称之为动态图数据。
S102:通过神经网络处理M个子图数据,得到M个第一输出结果。
其中,M个第一输出结果用于表征M个子图数据的结构特征和时序特征。
为了处理动态图数据,进而获得动态图数据的结构特征和时序特征,以实现动态图的预测。在获取到动态图数据中时间连续的M个子图数据后,可以将M个子图数据输入到神经网络中,神经网络能够对M个子图数据进行处理,处理后会输出M个第一输出结果。
这里需要说明的是,实际上,真正能够输出的只有M个第一输出结果中的第M个输出结果,即对第M子图数据的预测。而M个第一输出结果中的前M-1个第一输出结果都是神经网络中的隐状态,并不会直接输出。但是,神经网络是能够知道M个子图数据对应有M个第一输出结果的。每一个输出结果都是对相应子图数据的预测。
在实际应用中,神经网络可以是动态图神经网络DGNN。例如:EvolveGCN、EvolveGCN的变体(EGCN-H、EGCN-O)等。对于神经网络的具体类型,此处不做限定。
S103:根据M个第一输出结果确定M个第二输出结果。
其中,M个第二输出结果用于表征M个第一输出结果的时序特征。
也就是说,在神经网络对M个子图数据进行处理,得到M个第一输出结果后,再次对神经网络处理后得到的M个第一输出结果进行处理,得到M个第二输出结果。即,不仅在步骤S102中针对神经网络的参数进行演化,还在步骤S103中针对神经网络的输出进行演化。通过双演化来提升动态图数据中动态序列信息提取的准确性,进而动态图预测的准确性。
在具体实施过程中,可以将M个第一输出结果输入循环神经网络中进行处理,循环神经网络的输出就是M个第二输出结果。由于循环神经网络是用来提取时序特征的,因此,M个第二输出结果就能够表征M个第一输出结果的时序特征。通过循环神经网络再次对之前神经网络的输出进行特征提取,能够提升动态图数据中动态序列信息提取的准确性,进而提高动态图预测的准确性。
在实际应用中,循环神经网络也就是Recurrent Neural Network,即RNN。
这里的M个第二输出结果与上述的M个第一输出结果类似。只有M个第二输出结果中第M个第二输出结果能够真正实现输出。而M个第二输出结果中前M-1个第二输出结果是在循环神经网络的内部输出的,只有循环神经网络能够获知。
S104:根据M个第二输出结果确定M个子图数据中第M个子图数据的预测结果。
在得到M个第二输出结果后,由于M个第二输出结果中的第M个输出结果就是基于前M-1个第二输出结果得到的,因此,基于M个第二输出结果就能够准确地获得M个子图数据中第M个子图数据的预测结果。
在具体实施过程中,可以将M个第二输出结果代入全连接(Fully Connected,FC)层,通过全连接FC层,能够输出M个子图的预测结果。而M个子图的预测结果中的第M个子图的预测结果就是最终需要的动态图的预测。
这里的M个子图的预测结果与上述的M个第一输出结果类似。只有M个子图的预测结果中第M个子图的预测结果能够真正实现输出。而M个子图的预测结果中前M-1个子图的预测结果是在全连接FC层的内部输出的,只有全连接FC层能够获知。
接着,结合本申请实施例中处理动态数据的网络架构,再次对图1中的动态图数据的处理方法进行说明。
图3为本申请实施例中处理动态图数据的网络架构示意图一,参见图3所示,首先,将动态图数据中的M个子图数据(节点特征矩阵X1、X2、……、XM,邻接矩阵A1、A2、……、AM)输入神经网络,得到M个第一输出结果(H1、H2、……、HM)。然后,将(H1、H2、……、HM)输入循环神经网络RNN,得到M个第二输出结果(图中未示出)。接着,将M个第二输出结果代入全连接FC层,得到M个子图数据对应的预测结果(Z1、Z2、……、ZM)。在M个预测结果中,第M个预测结果(ZM)就是最终需要的动态图的预测结果。
由上述内容可知,本申请实施例提供的动态图数据的处理方法,首先,获取动态图数据中时间连续的M个子图数据;然后,通过神经网络处理M个子图数据,得到M个第一输出结果,M个第一输出结果用于表征M个子图数据的结构特征和时序特征;接着,根据M个第一输出结果确定M个第二输出结果,M个第二输出结果用于表征M个第一输出结果的时序特征;最后,根据M个第二输出结果确定M个子图数据中第M个子图数据的预测结果。在通过神经网络处理动态图数据中的多个子图数据后,进一步对得到的多个输出结果进行处理。这样,不仅针对神经网络中图卷积神经网络的参数进行演化,还针对卷积神经网络的输出结果进行演化。通过双通道演化,能够精准地提取动态图数据中的动态序列信息,进而提高动态图数据预测的准确性。
进一步地,作为图1所示方法的细化和扩展,本申请实施例还提供了一种动态图数据的处理方法。图4为本申请实施例中动态图数据的处理方法的流程示意图二,参见图4所示,该方法可以包括:
S401:获取动态图数据中时间连续的M个子图数据。
S402:通过第一循环神经网络和图卷积神经网络处理M个子图数据,得到M个第一输出结果。
由于后续对动态图数据中的M个子图数据进行处理采用的是循环神经网络,为了便于对子图数据的处理过程进行说明,下面以某一个循环过程为例,进行说明。然而,这并不意在限制本申请实施例提供的方法仅涉及一个循环过程。
假设M个子图数据包括第一子图数据和第二子图数据。第一子图数据和第二子图数据为M个子图数据中任意两个时序相邻的子图数据。第一子图数据的时序位于第二子图数据的时序之前。后续以处理第二子图数据的过程为例进行说明。
并且,神经网络包括第一循环神经网络和图卷积神经网络。其中,第一循环神经网络和图卷积神经网络组成的网络可以设置为一层,也可以设置为两层。下面以两层第一循环神经网络和图卷积神经网络为例进行说明,即神经网路依次为:一层循环神经网络、一层图卷积神经网络、二层循环神经网络、二层图卷积神经网络。图卷积神经网络中包含有待训练的参数矩阵。
在实际应用中,第一循环神经网络也就是Recurrent Neural Network,即RNN。为了与后面的第二循环神经网络进行区分,可以称之为RNN1。而图卷积神经网络也就是GraphConvolutional Network,即GCN。
具体的,步骤S402可以包括:
S4021:将第一参数矩阵输入一层循环神经网络,得到第二参数矩阵。
其中,第一参数矩阵为一层图卷积神经网络处理第一子图数据时的参数矩阵。当第一子图数据为M个子图数据中的第1个子图数据时,第一参数矩阵就是一层图卷积神经网络中随机生成的参数矩阵。
将第一参数矩阵输入至一层循环神经网络中进行优化,得到优化后的第二参数矩阵,使用优化后的第二参数矩阵替换一层图卷积神经网络中原有的参数矩阵(在这里是第一参数矩阵),能够使得替换为第二参数矩阵后的一层图卷积神经网络更加准确地对第二子图数据的结构特征和时序特征进行提取,进而提高最终预测结果的准确性。
S4022:将第二参数矩阵和第二子图数据输入一层图卷积神经网络,得到第四隐变量。
第二参数矩阵就是一层图卷积神经网络在处理第二子图数据时,一层图卷积神经网络中演化的参数。此时,将演化后的第二参数矩阵代入一层图卷积神经网络,进而将第二子图数据再代入参数演化后的一层图卷积神经网络,一层图卷积神经网络的输出就可以看作是一个预测结果(只是这个预测结果只有一层图卷积神经网络,也并不是本申请实施例中最终输出的预测结果),即第四隐变量。
在这里,第一子图数据通过一层图卷积神经网络后输出的为第三隐变量,第二子图数据通过一层图卷积神经网络后输出的则为第四隐变量。
至此,第一层中的第一循环神经网络和图卷积神经网络的处理就进行完成了。当然,此时也可以将一层图卷积神经网络输出的第四隐变量作为第一输出结果。这样,可以不再进行第二层的第一循环神经网络和图卷积神经网络的处理,能够提高预测速度。
而为了提高预测的精度,也可以继续进行第二层的第一循环神经网络和图卷积神经网络的处理。下面继续说明第二层第一循环神经网络和图卷积神经网络的处理。
S4023:将第二参数矩阵输入二层循环神经网络,得到第四参数矩阵。
其中,第二参数矩阵为一层图卷积神经网络处理第二子图数据时的参数矩阵。此时,将第二参数矩阵输入二层循环神经网络中进行优化,得到二次优化后的第四参数矩阵,使用二次优化后的第四参数矩阵替换二层图卷积神经网络中原有的参数矩阵(在这里是第三参数矩阵),能够使得替换为第四参数矩阵后的二层图卷积神经网络再次精准地对第二子图数据的结构特征和时序特征(即第一层中输出的第四隐变量)进行二次结构特征和时序特征的提取,进而提高最终预测结果的准确性。
S4024:将第四参数矩阵、第四隐变量和第二子图数据中的邻接矩阵输入二层图卷积神经网络,得到第二隐变量。
其中,第二隐变量为M个第一输出结果中的一个。
步骤S4022与步骤S4024的处理过程大致相同。而不同之处是,在将演化后的第四参数矩阵代入二层图卷积神经网络后,再代入参数演化后的二层图卷积神经网络的不再是第二子图数据,而是第四隐变量和第二子图数据中的邻接矩阵。在子图数据中,包括有节点矩阵和邻接矩阵。节点矩阵用于表征子图数据中各节点的信息,而邻接矩阵用于表征子图数据中各节点相互之间的信息。在步骤S4024中,仅仅将第二子图数据中的邻接矩阵输入二层图卷积神经网络,是为了进一步更好地提取第二子图数据中的时序特征,进而提高最终预测结果的准确性。
在经过二层图卷积神经网络的处理后,就能够输出第二子图数据对应的预测结果,即第二隐变量。这个预测结果仍然是不可见的,只有图卷积神经网络知道。而第M个子图数据都会输出对应的隐变量,即第M个第一输出结果。
S403:确定M个第一输出结果对应的M个权重。
在M个子图数据经过两层第一循环神经网络和图卷积神经网络处理后,得到M个第一输出结果。而输出的第M个第一输出结果并不能够兼顾全局特征,进而降低结果预测的准确性。申请人经过大量研究后发现,导致第M个第一输出结果无法兼顾全局特征的根本原因在于循环神经网络的固有缺陷,即只能够兼顾到较近时间点的子图数据的特征,而会遗忘较远时间点的子图数据的特征。举例来说,假设动态图数据中包含10个时间点的子图数据,循环神经网络在处理第10个时间点的子图数据时,仅能够兼顾到第7、8、9个时间点的子图数据的特征,而无法兼顾到1、2、3这些较早时间点的子图数据的特征。
有鉴于此,为了能够兼顾全局特征,进而提高结果预测的准确性。在M个子图数据经过循环神经网络和图卷积神经网络处理,得到M个第一输出结果后,根据这M个第一输出结果对应的M个子图数据的有效信息量,赋予这M个第一输出结果不同的权重,即M个权重。其中,M个权重的值与M个子图数据的有效信息量正相关。也就是说,M个子图数据中越重要、有效信息越多的子图数据,其相应的权重值越高。
在实际应用中,在确定M个第一输出结果对应的M个权重时,可以采用权重计算网络。即,将M个第一输出结果输入权重计算网络,权重计算网络就会有M个输出,这M个输出分别就是M个第一输出结果对应的M个权重。
在实际应用中,权重计算网络可以是压缩与激励网络(Squeeze-and-ExcitationNetworks,SENet)。图5为本申请实施例中压缩与激励网络SENet的架构示意图,参见图5所示,压缩与激励网络SENet包括1个全局池化(Global Pooling)层和2个全连接FC层(FC1、FC2)。当需要获得M个第一输出结果(H1、H2、……、HM)对应的M个权重(α1、α2、……、αM)时,可以将M个第一输出结果(H1、H2、……、HM)输入压缩与激励网络SENet,压缩与激励网络SENet就能够输出M个第一输出结果(H1、H2、……、HM)对应的M个权重(α1、α2、……、αM)。压缩与激励网络SENet为现有的用于计算一幅图中各部分的权重的网络,而本申请实施例中压缩与激励网络SENet计算权重的具体过程与现有的计算一幅图中各部分的权重的过程类似,故此处不再赘述。当然,权重计算网络也可以是其它类型的用于计算权重的神经网络。对于权重计算网络的具体类型,此处不做限定。
当然,除了采用权重计算网络计算M个第一输出结果对应的M个权重,还可以采用其它计算方式进行计算,例如:Attention机制。此处对于权重的具体计算方式,不做限定。
这样,将赋予权重后的M个第一输出结果后续再输入循环神经网络以及全连接FC层,最终输出的结果就能够兼顾到全局特征,进而提高预测的准确性。
S404:根据M个第一输出结果和M个权重确定M个第二输出结果。
第一输出结果即隐变量。有多少个第一输出结果,就有多少个隐变量。即,有M个第一输出结果,就有M个隐变量。为了便于后续循环过程的说明,以两次循环过程进行说明。然而,意并不在仅有两次循环过程。
假设M个第一输出结果包括第一隐变量和第二隐变量。第一隐变量和第二隐变量为任意两个时序相邻的第一输出结果。第一隐变量的时序位于第二隐变量的时序之前。这样,将第一隐变量和第二隐变量输入至第二循环神经网络,第二循环神经网络就能够对第一隐变量和第二隐变量进行处理,通过第一隐变量和第二隐变量之间的关系,实现对下一个子图数据的结果的预测。
具体的,步骤S407可以包括:
S4041:将第一隐变量及其权重输入第二循环神经网络,得到第五隐变量。
在第一循环神经网络和图卷积神经网络处理完第一子图数据和第二子图数据后,得到第一隐变量和第二隐变量。然后,将第一隐变量及其权重输入第二循环神经网络,就得到了第五隐变量。
在实际应用中,第二循环神经网络也就是Recurrent Neural Network,即RNN。为了与前面的第一循环神经网络进行区分,可以称之为RNN2。
S4042:将第五隐变量和第二隐变量输入第二循环神经网络,得到第六隐变量。
其中,第六隐变量为M个第二输出结果中的一个。
有M个子图数据,在第二循环神经网络中就有M次循环,进而就有M个对应的隐变量,即M个第二输出结果。
S405:根据M个第二输出结果确定M个子图数据中第M个子图数据的预测结果。
在具体实施过程中,可以将M个第二输出结果代入全连接FC层中,全连接FC层就能够计算出M个子图数据对应的M个预测结果。而前M个子图数据对应的预测结果是不可见的,存在于全连接FC层中。真正输出的只有的第M个子图数据的预测结果,即最终的动态图的预测结果。
至此,动态图的预测过程就结束了。
接着,结合本申请实施例中处理动态数据的网络架构,再次对图4中的动态图数据的处理方法进行说明。
图6为本申请实施例中处理动态图数据的网络架构示意图二,参见图6所示,处理动态图数据可以包括以下步骤:
1、将图卷积神经网络GCN中的参数矩阵W依次输入第一循环神经网络RNN1,得到参数矩阵(W1、W2、……、WM)。
其中,t表示时间点。一个时间点对应动态图数据中的一个子图数据。l表示图卷积的层数。
2、将动态图数据中的M个子图数据(节点特征矩阵X1、X2、……、XM,邻接矩阵A1、A2、……、AM)以及参数矩阵(W1、W2、……、WM)分别依次输入图卷积神经网络GCN,再次通过第一循环神经网络RNN1以及图卷积神经网络GCN,得到M个第一输出结果(H1、H2、……、HM),即隐状态,而首层初始参数矩阵是随机生成的。
由于两层以上的图卷积神经网络GCN的特征提取能力会出现下降的情况,因此,本申请实施例中使用两次第一循环神经网络RNN1与图卷积神经网络GCN的组合网络。
3、将M个第一输出结果(H1、H2、……、HM)输入压缩与激励网络SENet,得到M个权重(α1、α2、……、αM),进而得到加权后的M个第一输出结果(α1H1、α2H2、……、αM HM)。
4、将加权后的M个第一输出结果(α1H1、α2H2、……、αM HM)输入第二循环神经网络RNN2,得到M个第二输出结果,所述M个第二输出结果用隐变量″表示,也即得到M个第二输出结果包括隐变量1″、隐变量2″、……、隐变量M″(图中未示出)。
5、将M个第二输出结果(第一隐变量′、第二隐变量′、……、隐变量M″)输入全连接FC层,得到M个预测结果(Z1、Z2、……、ZM)。
其中,Z1、Z2、……、ZM-1为训练集中节点性质预测结果(训练前,对应节点带有标签),ZM为测试样本的预测结果(训练前,对应节点没有标签)。而ZM就是第M个时间点的输出矩阵,表示节点性质的预测结果,即最终需要的动态图预测结果。
在上述步骤1中,采用第一循环神经网络RNN1对图卷积神经网络GCN中的参数进行演化。在上述步骤4中,采用第二循环神经网络RNN2对图卷积神经网络GCN的输出进行演化。以长短期记忆网络(Long-Short Term Memory,LSTM)为例,具体的计算过程如下:
Ft=sigmoid(VFXt+UFYt-1+BF)
It=sigmoid(VIXt+UIYt-1+BI)
Ot=sigmoid(VOXt+UOYt-1+BO)
Yt=Ot*tanh(Ct)
其中,Wx,Ux和Bx等为待训练参数,x∈{F,I,O,C},sigmoid和tanh为激活函数,*表示按元素相乘。Xt为(当前)t时刻的输入,Yt-1为(上一时刻)t-1时刻的隐状态,Yt为输出的隐状态。Ct为t时刻的单位状态。C0和Y0来自于随机初始化。Ft称为遗忘门,It称为输入门,Ot称为输出门。
第一循环神经网络RNN1与第二循环神经网络RNN2的不同之处在于:第一循环神经网络RNN1的输入为Xt=Yt-1=Wt-1,输出为Yt=Wt。此时,Yt-1不是隐状态,而是输入数据。第二循环神经网络RNN2的输入为Xt=αtHt,输出为t时刻的隐状态Yt。
在实际应用中,上述动态图数据的处理方法具体可以通过双演化的动态图神经网络模型进行处理。仍参见图6所示,图6中示出有双演化的动态图神经网络模型的架构,在该双演化的动态图神经网络模型中,依次搭建有:第一循环神经网络、图卷积神经网络、第一循环神经网络、图卷积神经网络、权重计算网络、第二循环神经网络、全连接层。在双演化的动态图神经网络模型搭建完成后,将动态图数据中的M个子图数据输入到搭建好的双演化的动态图神经网络模型中,双演化的动态图神经网络模型的输出就是第M个子图数据的预测结果。
也就是说,双演化的动态图神经网络模型是一边训练一边使用的。即,在动态图数据中的M个子图数据中,前M-1个子图数据的预测结果已知,第M个子图数据的预测结果未知。那么,就将前M-1个子图数据按照一定的比例分为训练集和验证集,将第M个子图数据作为测试集。为了得到测试集中该第M个子图数据的预测结果,同时将训练集、验证集、测试集都输入到双演化的动态图神经网络模型中。由于双演化的动态图神经网络模型中的参数在初始时刻是随机的,即采用随机的参数处理训练集中的第1个子图数据。双演化的动态图神经网络模型在处理第2个子图数据时,参数就会基于第1个子图数据的输出结果进行调整。而双演化的动态图神经网络模型在处理第3个子图数据时,参数就会基于第2个子图数据的输出结果进行调整。也就是说,双演化的动态图神经网络模型中的参数会随着时间基于训练集中各个子图数据的输出结果进行调整,直到第M个子图数据处理完成。这样,就实现了第M个子图数据的预测,并且预测结果与其前面的子图数据的特征存在关联性,实现了动态图的预测。
接着,以金融领域的两个具体场景为例,对本申请实施例提供的动态图数据的处理方法的使用场景进行说明。
在实际应用中,输入的数据为动态图数据中的各个子图数据,这些子图数据为离散数据。将这些子图数据分为训练集、验证集和测试集。图7为本申请实施例中动态图数据的架构示意图,参见图7所示,在动态图数据中,可以将第一子图数据、第二子图数据、第三子图数据作为训练集和验证集,将子第t-1图数据、第t子图数据作为测试集。由于本申请实施例中处理动态图数据的模型为半监督学习模型,因此需要将训练集、验证集和测试集全部输入到模型中。
1、可疑交易识别(节点分类)
在动态图数据的各子图数据中,节点用于表征交易,边用于表征交易之间具有关联关系。通过将动态图数据对应的训练集、验证集和测试集全部输入到模型中,进而获得模型的输出。即通过相邻节点的特征以及中心节点自身的特征,来预测(更新)中心节点自身的特征。其目的是预测测试集中各交易节点的性质,即根据交易节点的特征进行分类,判断节点对应的交易合法/非法、正常/异常等。例如:与非法交易节点相邻的交易节点(中心节点),如果二者属性接近(交易额度、交易地点等),有一定概率也是非法交易(性质预测)。
2、链接推荐(链接预测)
在动态图数据的各子图数据中,节点用于表征用户和商品,边用于表征用户的消费行为。通过将动态图数据对应的训练集、验证集和测试集全部输入到模型中,进而获得模型的输出。即在各个时间点进行图表示学习,采集用户节点和商品节点的结构信息,判断用户节点和商品节点的表示向量是否接近,如果接近则建立连接边,即向该用户推荐该商品。即在测试集中预测用户节点与商品节点之间是否存在边,即预测未来交易是否进行。
举例来说,假设在测试集中,用户节点u与商品节点v在t时间点没有连接,通过历史交易的情况预测用户节点u与商品节点是否存在边。这里需要对全连接FC层进行调整:将t时间点的用户节点u与商品节点v的Embedding进行拼接,代入到一个全连接FC层中,判断二者的Embedding是否相似,其输出为是否存在连接的评价分数,1表示二者Embedding相似,建立连接边,0表示二者Embedding不相似,不建立连接边。
最后,以一组对比实验对本申请实施例提供的动态图数据的处理方法的特征提取效果进行说明。
对比实验用于可疑交易识别。采用的是Elliptic(英国的一家比特币监控公司)提供的比特币数据集。该比特币数据集为具有时间属性的离散动态图数据,包括合法交易(来自合法的交易所、服务等),以及非法洗钱交易(来自诈骗、恶意软件、恐怖组织融资、勒索软件、庞氏骗局等)。节点表示交易的实体,边表示比特币的短时间内的连续交易。实验使用了交易的前94个常规特征,使用前38个时间点数据,30用于训练,8个用于测试。
实验中,将本申请实施例提供的动态图数据的处理方法与EvolveGCN的两个变体(EGCN-H和EGCN-O)进行比较。三种算法参数设置相同,设学习率为0.001,迭代次数为1000。由于数据不平衡,因此实验仅对非法交易进行评价。实验结果如下表所示:
编号 | 算法 | Precise | Recall | F1 |
1 | EGCN-H | 0.681 | 0.848 | 0.755 |
2 | EGCN-O | 0.667 | 0.691 | 0.681 |
3 | 本申请 | 0.857 | 0.765 | 0.808 |
其中,Precise表示准确性,Recall表示记忆,F1表示得分。
通过对比可知,由于EGCN-H与EGCN-O关注的是图卷积网络GCN参数的演化。EGCN-H进行了图卷积网络GCN参数的单演化,更多考虑子图数据中节点(自身)特征的提取。EGCN-O借助图卷积网络GCN的输出信息对图卷积网络GCN参数进行单演化,更多考虑节点的结构信息的提取。二者任务学习能力有限。相比之下,本申请对图卷积网络GCN参数和图卷积网络GCN输出进行双演化,同时关注节点特征与节点结构信息,在Precise(精准度)与F1(得分)这两种指标下均为最优,证明了本申请实施例提供的动态图数据的处理方法能够精准地提取动态图数据中的动态序列信息,进而提升动态图数据预测的准确性。
基于同一发明构思,作为上述方法的实现,本申请实施例还提供了一种动态图数据的处理装置。图8为本申请实施例中动态图数据的处理装置的结构示意图一,参见图8所示,该装置可以包括:
接收模块801,用于获取动态图数据中时间连续的M个子图数据,所述M个子图数据中前M-1个子图数据的节点的预测结果已知,所述M为大于或等于2的正整数。
第一处理模块802,用于通过神经网络处理所述M个子图数据,得到M个第一输出结果,所述M个第一输出结果用于表征所述M个子图数据的结构特征和时序特征。
第二处理模块803,用于根据所述M个第一输出结果确定M个第二输出结果,所述M个第二输出结果用于表征所述M个第一输出结果的时序特征。
预测模块804,用于根据所述M个第二输出结果确定所述M个子图数据中第M个子图数据的预测结果。
进一步地,作为图8所示方法的细化和扩展,本申请实施例还提供了一种动态图数据的处理装置。图9为本申请实施例中动态图数据的处理装置的结构示意图二,参见图9所示,该方法可以包括:
接收模块901,用于获取动态图数据中时间连续的M个子图数据,所述M个子图数据中前M-1个子图数据的节点的预测结果已知,所述M为大于或等于2的正整数。
所述神经网络包括第一循环神经网络和图卷积神经网络,所述M个子图数据包括第一子图数据和第二子图数据,所述第一子图数据和所述第二子图数据为任意两个时序相邻的子图数据,所述第一子图数据的时序位于所述第二子图数据的时序之前。
第一处理模块902,用于通过神经网络处理所述M个子图数据,得到M个第一输出结果,所述M个第一输出结果用于表征所述M个子图数据的结构特征和时序特征。
具体的,所述第一处理模块902包括:
第一演化单元9021,用于将第一参数矩阵输入所述第一循环神经网络,得到第二参数矩阵,所述第一参数矩阵为所述图卷积神经网络处理所述第一子图数据时的参数矩阵。
第一提取单元9022,用于将所述第二参数矩阵和所述第二子图数据输入所述图卷积神经网络,得到第四隐变量。
第二演化单元9023,用于将所述第二参数矩阵输入所述第一循环神经网络,得到第四参数矩阵。
第二提取单元9024,用于将所述第四参数矩阵、所述第四隐变量和所述第二子图数据的邻接矩阵输入所述图卷积神经网络,得到第二隐变量,所述第二隐变量为所述M个第一输出结果中的一个。
第二处理模块903,用于根据所述M个第一输出结果确定M个第二输出结果,所述M个第二输出结果用于表征所述M个第一输出结果的时序特征。
具体的,所述第二处理模块903包括:
确定单元9031,用于确定所述M个第一输出结果对应的M个权重,所述M个权重的值与所述M个子图数据的有效信息量正相关。
所述确定单元9031,具体用于将所述M个第一输出结果输入权重计算网络,得到所述M个权重。
处理单元9032,用于根据所述M个第一输出结果和所述M个权重确定所述M个第二输出结果。
所述M个第一输出结果包括第一隐变量和第二隐变量,所述第一隐变量和所述第二隐变量为任意两个时序相邻的第一输出结果,所述第一隐变量的时序位于所述第二隐变量的时序之前。
所述处理单元9032包括:
第一循环单元3021a,用于将所述第一隐变量输入第二循环神经网络,得到第五隐变量。
第二循环单元9032b,用于将所述第五隐变量和所述第二隐变量输入所述第二循环神经网络,得到第六隐变量,所述第六隐变量为所述M个第二输出结果中的一个。
预测模块904,用于根据所述M个第二输出结果确定所述M个子图数据中第M个子图数据的预测结果。
这里需要指出的是,以上装置实施例的描述,与上述方法实施例的描述是类似的,具有同方法实施例相似的有益效果。对于本申请装置实施例中未披露的技术细节,请参照本申请方法实施例的描述而理解。
基于同一发明构思,本申请实施例还提供了一种电子设备。图10为本申请实施例中电子设备的结构示意图,参见图10所示,该电子设备可以包括:处理器1001、存储器1002、总线1003;其中,处理器1001、存储器1002通过总线1003完成相互间的通信;处理器1001用于调用存储器1002中的程序指令,以执行上述一个或多个实施例中的方法。
这里需要指出的是,以上电子设备实施例的描述,与上述方法实施例的描述是类似的,具有同方法实施例相似的有益效果。对于本申请电子设备实施例中未披露的技术细节,请参照本申请方法实施例的描述而理解。
基于同一发明构思,本申请实施例还提供了一种计算机可读存储介质,该存储介质可以包括:存储的程序;其中,在程序运行时控制存储介质所在设备执行上述一个或多个实施例中的方法。
这里需要指出的是,以上存储介质实施例的描述,与上述方法实施例的描述是类似的,具有同方法实施例相似的有益效果。对于本申请存储介质实施例中未披露的技术细节,请参照本申请方法实施例的描述而理解。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (11)
1.一种动态图数据的处理方法,其特征在于,所述方法包括:
获取动态图数据中时间连续的M个子图数据,所述M个子图数据中前M-1个子图数据的节点的预测结果已知,所述M为大于或等于2的正整数;
通过神经网络处理所述M个子图数据,得到M个第一输出结果,所述M个第一输出结果用于表征所述M个子图数据的结构特征和时序特征;
根据所述M个第一输出结果确定M个第二输出结果,所述M个第二输出结果用于表征所述M个第一输出结果的时序特征;
根据所述M个第二输出结果确定所述M个子图数据中第M个子图数据的预测结果。
2.根据权利要求1所述的方法,其特征在于,所述根据所述M个第一输出结果确定M个第二输出结果,包括:
确定所述M个第一输出结果对应的M个权重,所述M个权重的值与所述M个子图数据的有效信息量正相关;
根据所述M个第一输出结果和所述M个权重确定所述M个第二输出结果。
3.根据权利要求2所述的方法,其特征在于,所述确定所述M个第一输出结果对应的M个权重,包括:
将所述M个第一输出结果输入权重计算网络,得到所述M个权重。
4.根据权利要求1至3中任一项所述的方法,其特征在于,所述神经网络包括第一循环神经网络和图卷积神经网络,所述M个子图数据包括第一子图数据和第二子图数据,所述第一子图数据和所述第二子图数据为任意两个时序相邻的子图数据,所述第一子图数据的时序位于所述第二子图数据的时序之前;
所述通过神经网络处理所述M个子图数据,得到M个第一输出结果,包括:
通过所述第一循环神经网络处理第一参数矩阵,得到第二参数矩阵,所述第一参数矩阵为所述图卷积神经网络处理所述第一子图数据时的参数矩阵;
基于所述第二参数矩阵、所述第二子图数据和所述图卷积神经网络获得第二隐变量,所述第二隐变量为所述M个第一输出结果中的一个。
5.根据权利要求4所述的方法,其特征在于,所述第一循环神经网络包括一层循环神经网络和二层循环神经网络,所述图卷积神经网络包括一层图卷积神经网络和二层图卷积神经网络;
所述通过所述第一循环神经网络处理第一参数矩阵,得到第二参数矩阵,包括:
将第一参数矩阵输入所述一层循环神经网络,得到第二参数矩阵,所述第一参数矩阵为所述一层图卷积神经网络处理所述第一子图数据时的参数矩阵;
将所述第二参数矩阵输入所述二层循环神经网络,得到第四参数矩阵;
所述基于所述第二参数矩阵、所述第二子图数据和所述图卷积神经网络获得第二隐变量,包括:
将所述第二参数矩阵和所述第二子图数据输入所述一层图卷积神经网络,得到第四隐变量;
将所述第二子图数据中的邻接矩阵、所述第四参数矩阵和所述第四隐变量输入所述二层图卷积神经网络,得到第二隐变量,所述第二隐变量为所述M个第一输出结果中的一个。
6.根据权利要求1至3中任一项所述的方法,其特征在于,所述M个第一输出结果包括第一隐变量和第二隐变量,所述第一隐变量和所述第二隐变量为任意两个时序相邻的第一输出结果,所述第一隐变量的时序位于所述第二隐变量的时序之前;
所述根据所述M个第一输出结果确定M个第二输出结果,包括:
将所述第一隐变量和所述第二隐变量输入第二循环神经网络,得到第六隐变量,所述第六隐变量为所述M个第二输出结果中的一个。
7.根据权利要求6所述的方法,其特征在于,所述将所述第一隐变量和所述第二隐变量输入第二循环神经网络,得到第六隐变量,包括:
将所述第一隐变量输入第二循环神经网络,得到第五隐变量;
将所述第五隐变量和所述第二隐变量输入所述第二循环神经网络,得到第六隐变量。
8.根据权利要求1至3中任一项所述的方法,其特征在于,所述M个子图数据中包括节点和边,所述节点用于表征交易,所述边用于表征交易之间具有关联关系;或者,所述节点用于表征用户和商品,所述边用于表征所述用户的消费行为。
9.一种动态图数据的处理装置,其特征在于,所述装置包括:
接收模块,用于获取动态图数据中时间连续的M个子图数据,所述M个子图数据中前M-1个子图数据的节点的预测结果已知,所述M为大于或等于2的正整数;
第一处理模块,用于通过神经网络处理所述M个子图数据,得到M个第一输出结果,所述M个第一输出结果用于表征所述M个子图数据的结构特征和时序特征;
第二处理模块,用于根据所述M个第一输出结果确定M个第二输出结果,所述M个第二输出结果用于表征所述M个第一输出结果的时序特征;
预测模块,用于根据所述M个第二输出结果确定所述M个子图数据中第M个子图数据的预测结果。
10.一种电子设备,其特征在于,包括:处理器、存储器、总线;
其中,所述处理器、所述存储器通过所述总线完成相互间的通信;所述处理器用于调用所述存储器中的程序指令,以执行如权利要求1至8中任一项所述的方法。
11.一种计算机可读存储介质,其特征在于,包括:存储的程序;其中,在所述程序运行时控制所述存储介质所在设备执行如权利要求1至8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110869073.4A CN113627591A (zh) | 2021-07-30 | 2021-07-30 | 动态图数据的处理方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110869073.4A CN113627591A (zh) | 2021-07-30 | 2021-07-30 | 动态图数据的处理方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113627591A true CN113627591A (zh) | 2021-11-09 |
Family
ID=78381796
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110869073.4A Pending CN113627591A (zh) | 2021-07-30 | 2021-07-30 | 动态图数据的处理方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113627591A (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110263280A (zh) * | 2019-06-11 | 2019-09-20 | 浙江工业大学 | 一种基于多视图的动态链路预测深度模型及应用 |
CN110413844A (zh) * | 2019-05-24 | 2019-11-05 | 浙江工业大学 | 基于时空注意力深度模型的动态链路预测方法 |
CN111310068A (zh) * | 2020-03-11 | 2020-06-19 | 广东工业大学 | 基于动态图的社交网络节点分类方法 |
CN111950810A (zh) * | 2020-08-27 | 2020-11-17 | 南京大学 | 一种基于自演化预训练的多变量时间序列预测方法和设备 |
CN112395466A (zh) * | 2020-11-27 | 2021-02-23 | 上海交通大学 | 一种基于图嵌入表示和循环神经网络的欺诈节点识别方法 |
CN112418547A (zh) * | 2020-12-03 | 2021-02-26 | 北京工业大学 | 一种基于gcn-lstm组合模型的公交车站点客流量预测方法 |
US20210067527A1 (en) * | 2019-08-28 | 2021-03-04 | Nec Laboratories America, Inc. | Structural graph neural networks for suspicious event detection |
CN112487305A (zh) * | 2020-12-01 | 2021-03-12 | 重庆邮电大学 | 一种基于gcn的动态社交用户对齐方法 |
CN112686376A (zh) * | 2021-01-11 | 2021-04-20 | 东北大学 | 一种基于时序图神经网络的节点表示方法及增量学习方法 |
CN113159414A (zh) * | 2021-04-19 | 2021-07-23 | 华南理工大学 | 一种基于时序图神经网络的交通速度预测方法 |
-
2021
- 2021-07-30 CN CN202110869073.4A patent/CN113627591A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110413844A (zh) * | 2019-05-24 | 2019-11-05 | 浙江工业大学 | 基于时空注意力深度模型的动态链路预测方法 |
CN110263280A (zh) * | 2019-06-11 | 2019-09-20 | 浙江工业大学 | 一种基于多视图的动态链路预测深度模型及应用 |
US20210067527A1 (en) * | 2019-08-28 | 2021-03-04 | Nec Laboratories America, Inc. | Structural graph neural networks for suspicious event detection |
CN111310068A (zh) * | 2020-03-11 | 2020-06-19 | 广东工业大学 | 基于动态图的社交网络节点分类方法 |
CN111950810A (zh) * | 2020-08-27 | 2020-11-17 | 南京大学 | 一种基于自演化预训练的多变量时间序列预测方法和设备 |
CN112395466A (zh) * | 2020-11-27 | 2021-02-23 | 上海交通大学 | 一种基于图嵌入表示和循环神经网络的欺诈节点识别方法 |
CN112487305A (zh) * | 2020-12-01 | 2021-03-12 | 重庆邮电大学 | 一种基于gcn的动态社交用户对齐方法 |
CN112418547A (zh) * | 2020-12-03 | 2021-02-26 | 北京工业大学 | 一种基于gcn-lstm组合模型的公交车站点客流量预测方法 |
CN112686376A (zh) * | 2021-01-11 | 2021-04-20 | 东北大学 | 一种基于时序图神经网络的节点表示方法及增量学习方法 |
CN113159414A (zh) * | 2021-04-19 | 2021-07-23 | 华南理工大学 | 一种基于时序图神经网络的交通速度预测方法 |
Non-Patent Citations (3)
Title |
---|
K. LEI ET. AL: "GCN-GAN: A Non-linear Temporal Link Prediction Model for Weighted Dynamic Networks", IEEE CONFERENCE ON COMPUTER COMMUNICATIONS, 17 June 2019 (2019-06-17), pages 388 - 396 * |
张志扬等: "基于分层注意力的信息级联预测模型", 计算机科学, no. 06, 15 June 2020 (2020-06-15), pages 207 - 215 * |
艾擎: "基于社交网络的信息流行度预测方法研究", 中国优秀硕士学位论文全文数据库-基础科学辑2020年07期, 15 July 2020 (2020-07-15), pages 002 - 105 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109034660B (zh) | 基于预测模型的风险控制策略的确定方法及相关装置 | |
CN109345260B (zh) | 一种异常操作行为的检测方法 | |
CN111444952B (zh) | 样本识别模型的生成方法、装置、计算机设备和存储介质 | |
CN110096938B (zh) | 一种视频中的动作行为的处理方法和装置 | |
CN112580952A (zh) | 用户行为风险预测方法、装置、电子设备及存储介质 | |
CN112966754B (zh) | 样本筛选方法、样本筛选装置及终端设备 | |
CN112669143A (zh) | 基于关联网络的风险评估方法、装置、设备以及存储介质 | |
CN111459922A (zh) | 用户识别方法、装置、设备及存储介质 | |
CN113269149A (zh) | 活体人脸图像的检测方法、装置、计算机设备及存储介质 | |
CN107038165B (zh) | 一种业务参数获取方法及装置 | |
CN114548300B (zh) | 解释业务处理模型的业务处理结果的方法和装置 | |
CN113963200A (zh) | 模态数据融合处理方法、装置、设备及存储介质 | |
CN114782161A (zh) | 识别风险用户的方法、装置、存储介质及电子装置 | |
CN116994044A (zh) | 一种基于掩码多模态生成对抗网络的图像异常检测模型的构建方法 | |
CN113537020B (zh) | 基于改进神经网络的复数sar图像目标识别方法 | |
CN111626098B (zh) | 模型的参数值更新方法、装置、设备及介质 | |
CN117540336A (zh) | 时间序列预测方法、装置及电子设备 | |
CN114549849A (zh) | 图像识别方法、装置、计算机设备和存储介质 | |
CN117095541A (zh) | 时空特征融合交通流预测方法、装置、设备及存储介质 | |
CN113627591A (zh) | 动态图数据的处理方法、装置、电子设备及存储介质 | |
CN115314239A (zh) | 基于多模型融合的隐匿恶意行为的分析方法和相关设备 | |
CN114140246A (zh) | 模型训练方法、欺诈交易识别方法、装置和计算机设备 | |
CN112905987B (zh) | 账号识别方法、装置、服务器及存储介质 | |
CN116451050A (zh) | 异常行为识别模型训练、异常行为识别方法和装置 | |
CN114358186A (zh) | 一种数据处理方法、装置及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |