CN110909868A - 基于图神经网络模型的节点表示方法和装置 - Google Patents

基于图神经网络模型的节点表示方法和装置 Download PDF

Info

Publication number
CN110909868A
CN110909868A CN201911226793.8A CN201911226793A CN110909868A CN 110909868 A CN110909868 A CN 110909868A CN 201911226793 A CN201911226793 A CN 201911226793A CN 110909868 A CN110909868 A CN 110909868A
Authority
CN
China
Prior art keywords
node
graph
vector
neural network
target node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911226793.8A
Other languages
English (en)
Inventor
胡斌斌
张志强
周俊
杨双红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN201911226793.8A priority Critical patent/CN110909868A/zh
Publication of CN110909868A publication Critical patent/CN110909868A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)

Abstract

本说明书实施例提供一种基于图神经网络模型的节点表示方法和装置,方法包括:获取动态变化的关系网络图在多个时间切片中对应的多个图结构,以及基于所述多个图结构分别训练的多个图神经网络模型;从所述多个图结构中,分别提取目标节点对应于所述多个时间切片的多个子图;将所述多个子图对应输入到所述多个图神经网络模型,得到所述目标节点对应于所述多个时间切片的多个节点嵌入向量;通过基于时序的神经网络模型,融合所述多个节点嵌入向量,得到所述目标节点的融合向量。能够提升基于图神经网络模型的节点表示的准确性。

Description

基于图神经网络模型的节点表示方法和装置
技术领域
本说明书一个或多个实施例涉及计算机领域,尤其涉及基于图神经网络模型的节点表示方法和装置。
背景技术
当前,图神经网络模型在生产、生活的各个领域都得到了广泛的应用。其中,图神经网络模型是一种在图结构数据上聚合信息并生成节点表示的深度模型,图神经网络模型在经过表示学习后,可以将关系网络图中的节点映射为低维向量。
现有技术的基于图神经网络模型的节点表示方法中,由于关系网络图中可能存在信息缺失,以及误差的因素,生成的节点表示往往无法准确表征该节点,相应影响根据该节点表示的后续应用。
因此,希望能有改进的方案,能够提升基于图神经网络模型的节点表示的准确性。
发明内容
本说明书一个或多个实施例描述了一种基于图神经网络模型的节点表示方法和装置,能够提升基于图神经网络模型的节点表示的准确性。
第一方面,提供了一种基于图神经网络模型的节点表示方法,方法包括:
获取动态变化的关系网络图在多个时间切片中对应的多个图结构,以及基于所述多个图结构分别训练的多个图神经网络模型;
从所述多个图结构中,分别提取目标节点对应于所述多个时间切片的多个子图;
将所述多个子图对应输入到所述多个图神经网络模型,得到所述目标节点对应于所述多个时间切片的多个节点嵌入向量;
通过基于时序的神经网络模型,融合所述多个节点嵌入向量,得到所述目标节点的融合向量。
在一种可能的实施方式中,所述得到所述目标节点的融合向量之后,所述方法还包括:
根据所述目标节点的融合向量,确定所述目标节点的类别。
在一种可能的实施方式中,所述关系网络图包括第一节点,在所述多个图结构中,所述第一节点具有不同的节点特征,和/或,所述第一节点具有不同的邻居节点。
在一种可能的实施方式中,所述从所述多个图结构中,分别提取目标节点对应于所述多个时间切片的多个子图,包括:
从所述多个图结构中,按照与所述目标节点具有连接关系,且满足经过的连接边的数目不超过预设阈值提取所述目标节点的各关联节点;
提取所述目标节点、所述各关联节点,以及所述图结构中连接所述目标节点与所述各关联节点的各连接边,得到所述目标节点对应于所述多个时间切片的多个子图。
在一种可能的实施方式中,所述通过基于时序的神经网络模型,融合所述多个节点嵌入向量,得到所述目标节点的融合向量,包括:
针对所述多个时间切片中的任意两个相邻时间切片,确定所述任意两个相邻时间切片对应的子图的差异向量;
对于所述多个时间切片中的每个时间切片,将所述目标节点对应于该时间切片的节点嵌入向量,以及该时间切片与上一个时间切片对应的子图的差异向量构成向量组,将多个时间切片对应的向量组按照时间切片的顺序依次输入基于时序的第一神经网络,将第一神经网络处理各个向量组后得到的隐向量作为对应时间切片的初始融合向量;
将所述目标节点对应于各时间切片的各初始融合向量,利用第二神经网络进行融合处理,得到所述目标节点的融合向量。
进一步地,所述针对所述多个时间切片中的任意两个相邻时间切片,确定所述任意两个相邻时间切片对应的子图的差异向量,包括:
根据所述目标节点对应于任意两个相邻时间切片的两个节点嵌入向量的差,得到所述差异向量。
进一步地,所述针对所述多个时间切片中的任意两个相邻时间切片,确定所述任意两个相邻时间切片对应的子图的差异向量,包括:
将所述目标节点对应于任意两个相邻时间切片的两个节点嵌入向量输入第三神经网络,通过所述第三神经网络输出所述差异向量。
进一步地,当目标时间切片在所述多个时间切片中按照时序先后为第一个时间切片时,所述目标时间切片与上一个时间切片对应的子图的差异向量为预设向量。
进一步地,所述第一神经网络包括长短期记忆(long short-term memory,LSTM)网络。
进一步地,所述第二神经网络包括多层感知器(multilayer perceptron,MLP)网络。
在一种可能的实施方式中,所述关系网络图包括多个节点和节点之间的连接边,所述节点代表用户,具有连接边的两个用户之间具有关联关系。
第二方面,提供了一种基于图神经网络模型的节点表示装置,装置包括:
获取单元,用于获取动态变化的关系网络图在多个时间切片中对应的多个图结构,以及基于所述多个图结构分别训练的多个图神经网络模型;
提取单元,用于从所述获取单元获取的多个图结构中,分别提取目标节点对应于所述多个时间切片的多个子图;
嵌入单元,用于将所述提取单元提取的多个子图对应输入到所述获取单元获取的多个图神经网络模型,得到所述目标节点对应于所述多个时间切片的多个节点嵌入向量;
融合单元,用于通过基于时序的神经网络模型,融合所述嵌入单元得到的多个节点嵌入向量,得到所述目标节点的融合向量。
第三方面,提供了一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行第一方面的方法。
第四方面,提供了一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现第一方面的方法。
通过本说明书实施例提供的方法和装置,针对动态变化的关系网络图不是仅获取最近的时间切片对应的图结构,以及基于该图结构训练的图神经网络模型,而是获取在多个时间切片中对应的多个图结构,以及基于所述多个图结构分别训练的多个图神经网络模型;然后从所述多个图结构中,分别提取目标节点对应于所述多个时间切片的多个子图;接着将所述多个子图对应输入到所述多个图神经网络模型,得到所述目标节点对应于所述多个时间切片的多个节点嵌入向量;最后通过基于时序的神经网络模型,融合所述多个节点嵌入向量,得到所述目标节点的融合向量。由上可见,本说明书实施例,对各个时间切片的信息进行了综合利用,一方面,有效的利用好更多的信息可以提高节点表示的精度,另一方面,可以消除一些误差的因素,并且当前时间切片的缺失信息可以由之前的时间切片的信息来弥补,从而能够提升基于图神经网络模型的节点表示的准确性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本说明书披露的一个实施例的实施场景示意图;
图2示出根据一个实施例的基于图神经网络模型的节点表示方法流程图;
图3示出根据一个实施例的基于图神经网络模型的图处理过程示意图;
图4示出根据一个实施例的基于图神经网络模型的节点表示装置的示意性框图。
具体实施方式
下面结合附图,对本说明书提供的方案进行描述。
图1为本说明书披露的一个实施例的实施场景示意图。该实施场景涉及基于图神经网络(graph neural network,GNN)模型的节点表示,具体地,涉及动态变化的关系网络图中的节点表示。动态变化的关系网络图,是一种结构和特征会沿着时间点进行变化的图。参照图1,示出了图结构随时间变化的关系网络图,对应于时间切片T的图结构中,节点3和节点4之间具有连接边,节点3和节点2之间不具有连接边;对应于时间切片T-1的图结构中,节点3和节点4之间不具有连接边,节点3和节点2之间具有连接边。本说明书实施例,动态变化的关系网络图不仅可以体现在图结构随时间发生变化,还可以体现在节点特征和/或连接边的边特征随时间发生变化。
本说明书实施例,对于时间切片的时间跨度不做限定,例如,可以为1个月、1周或1个季度等。
图2示出根据一个实施例的基于图神经网络模型的节点表示方法流程图,该方法可以基于图1所示的实施场景。如图2所示,该实施例中基于图神经网络模型的节点表示方法包括以下步骤:步骤21,获取动态变化的关系网络图在多个时间切片中对应的多个图结构,以及基于所述多个图结构分别训练的多个图神经网络模型;步骤22,从所述多个图结构中,分别提取目标节点对应于所述多个时间切片的多个子图;步骤23,将所述多个子图对应输入到所述多个图神经网络模型,得到所述目标节点对应于所述多个时间切片的多个节点嵌入向量;步骤24,通过基于时序的神经网络模型,融合所述多个节点嵌入向量,得到所述目标节点的融合向量。下面描述以上各个步骤的具体执行方式。
首先在步骤21,获取动态变化的关系网络图在多个时间切片中对应的多个图结构,以及基于所述多个图结构分别训练的多个图神经网络模型。可以理解的是,上述多个时间切片的数量和每个时间切片的时间跨度均可以预先设定,例如,可以预先设定获取动态变化的关系网络图在最近的3个时间切片中分别对应的图结构,每个时间切片的时间跨度为1个月,也就是说,获取动态变化的关系网络图在1个月前对应的图结构、2个月前对应的图结构和3个月前对应的图结构。针对每个图结构分别训练一个图神经网络模型。
在一个示例中,所述关系网络图包括第一节点,在所述多个图结构中,所述第一节点具有不同的节点特征,和/或,所述第一节点具有不同的邻居节点。
在一个示例中,所述关系网络图包括多个节点和节点之间的连接边,所述节点代表用户,具有连接边的两个用户之间具有关联关系。例如,所述关系网络图对应通讯录网络,若用户A的通讯录中包括用户B的联系方式,则用户A和用户B之间具有关联关系,可以理解的是,用户在不同时间切片的邻居节点可能不同,用户的特征以及其邻居节点的特征也可能随着时间切片的推进而演化。
在一个示例中,可以将多个图结构中的任一图结构作为目标图结构,通过以下方式训练对应的图神经网络模型:
确定目标图结构中各个节点的节点特征,各个连接边的边特征;
基于所述节点特征确定各个节点的初级迭代的节点嵌入向量;
执行多级向量迭代,以确定各个节点的多级迭代的节点嵌入向量,其中所述多级向量迭代的每级向量迭代包括,对于各个节点,至少基于该节点的邻居节点的上一级迭代的节点嵌入向量、连接该节点的连接边的边特征向量,以及参数集,确定该节点的本级迭代的节点嵌入向量;
利用训练样本及对应的标签值,基于该训练样本的多级迭代的节点嵌入向量,确定该训练样本对应的预测值;
调整所述参数集中的参数值,使得预定义的损失函数的函数值达到最小,其中所述损失函数的函数值基于该训练样本对应的预测值和标签值而确定。
然后在步骤22,从所述多个图结构中,分别提取目标节点对应于所述多个时间切片的多个子图。可以理解的是,图结构对应一个时间切片,从该图结构中提取的子图也对应该时间切片。
例如,表一为图结构、时间切片与子图的对应关系表。
表一:图结构、时间切片与子图的对应关系表
图结构 时间切片 子图
图结构1 时间切片1 子图1
图结构2 时间切片2 子图2
图结构3 时间切片3 子图3
参照表一,动态变化的关系网络图在时间切片1对应图结构1,从图结构1,提取目标节点对应于时间切片1的子图1;动态变化的关系网络图在时间切片2对应图结构2,从图结构2,提取目标节点对应于时间切片2的子图2;动态变化的关系网络图在时间切片3对应图结构3,从图结构3,提取目标节点对应于时间切片3的子图3。
在一个示例中,从所述多个图结构中,按照与所述目标节点具有连接关系,且满足经过的连接边的数目不超过预设阈值提取所述目标节点的各关联节点;提取所述目标节点、所述各关联节点,以及所述图结构中连接所述目标节点与所述各关联节点的各连接边,得到所述目标节点对应于所述多个时间切片的多个子图。可以理解的是,通常的图结构很复杂,为了得到目标节点的节点表示,只需提取与目标节点关联比较密切的子图。
接着在步骤23,将所述多个子图对应输入到所述多个图神经网络模型,得到所述目标节点对应于所述多个时间切片的多个节点嵌入向量。可以理解的是,各子图、各图神经网络模型、以及目标节点的各节点嵌入向量均与时间切片一一对应。
举例来说,图神经网络模型1为基于时间切片1对应的图结构1训练的,子图1为从图结构1中提取的,将子图1输入到图神经网络模型1,得到目标节点对应于时间切片1的节点嵌入向量1;图神经网络模型2为基于时间切片2对应的图结构2训练的,子图2为从图结构2中提取的,将子图2输入到图神经网络模型2,得到目标节点对应于时间切片2的节点嵌入向量2;图神经网络模型3为基于时间切片3对应的图结构3训练的,子图3为从图结构3中提取的,将子图3输入到图神经网络模型3,得到目标节点对应于时间切片3的节点嵌入向量3。
最后在步骤24,通过基于时序的神经网络模型,融合所述多个节点嵌入向量,得到所述目标节点的融合向量。本说明书实施例,基于时序特征融合各节点嵌入向量得到融合向量,融合向量可以更准确的表征目标节点。
在一个示例中,针对所述多个时间切片中的任意两个相邻时间切片,确定所述任意两个相邻时间切片对应的子图的差异向量;对于所述多个时间切片中的每个时间切片,将所述目标节点对应于该时间切片的节点嵌入向量,以及该时间切片与上一个时间切片对应的子图的差异向量构成向量组,将多个时间切片对应的向量组按照时间切片的顺序依次输入基于时序的第一神经网络,将第一神经网络处理各个向量组后得到的隐向量作为对应时间切片的初始融合向量;将所述目标节点对应于各时间切片的各初始融合向量,利用第二神经网络进行融合处理,得到所述目标节点的融合向量。该示例,通过差异向量对图结构的差异性进行了显式的刻画,并将节点嵌入向量和差异向量进行融合,以提高节点表示的准确性。
进一步地,作为一种可选的实施方式,可以根据所述目标节点对应于任意两个相邻时间切片的两个节点嵌入向量的差,得到所述差异向量。
进一步地,作为另一种可选的实施方式,可以将所述目标节点对应于任意两个相邻时间切片的两个节点嵌入向量输入第三神经网络,通过所述第三神经网络输出所述差异向量。
需要说明的是,还可以采用其他的方式确定子图的差异向量,例如,不采用前述确定好的节点嵌入向量,而是采取其他的方式对子图进行汇聚,得到汇聚向量,基于该汇聚向量确定子图的差异向量。
进一步地,当目标时间切片在所述多个时间切片中按照时序先后为第一个时间切片时,所述目标时间切片与上一个时间切片对应的子图的差异向量为预设向量。
进一步地,所述第一神经网络包括长短期记忆(long short-term memory,LSTM)网络。
进一步地,所述第二神经网络包括多层感知器(multilayer perceptron,MLP)网络。
在一个示例中,步骤24之后,还可以根据所述目标节点的融合向量,确定所述目标节点的类别。例如,通过目标节点的类别指示目标节点对应的用户是否有逾期还款风险。本说明书实施例提供的方法,通过综合多个时间片的信息进行节点表示,有利于提高分类的准确性。
图3示出根据一个实施例的基于图神经网络模型的图处理过程示意图,参照图3,首先获取带时间戳的关系网络图,然后针对目标节点在不同时间切片下抽取子图(T,T-1,T-2),利用在不同的时间切片下分别训练的GNN(T)、GNN(T-1)和GNN(T-2),分别获得目标节点在各时间片下的节点嵌入向量。接着利用相似性模块,来获得目标节点在相邻时间片中构造的子图的差异向量。再通过LSTM层融合各个时间片下的节点表示,LSTM单元在每个时间片上获得两个输入,一个是目标节点在该时间片上的节点嵌入向量,另一个则是当前时间片上的子图和上一个时间片的子图的差异向量。最后获得LSTM的各时序输出后,可以利用MLP层来融合各时序输出,得到融合向量,根据该融合向量来预测目标用户的用户标签。
本说明书实施例将动态变化的关系网络图按照时间片进行分割,然后使用LSTM来对各时间片的节点嵌入向量进行融合,通过端到端的模型,可以有效利用时序特征来提高预测的性能。
根据另一方面的实施例,还提供一种基于图神经网络模型的节点表示装置,该装置用于执行本说明书实施例提供的基于图神经网络模型的节点表示方法。图4示出根据一个实施例的基于图神经网络模型的节点表示装置的示意性框图。如图4所示,该装置400包括:
获取单元41,用于获取动态变化的关系网络图在多个时间切片中对应的多个图结构,以及基于所述多个图结构分别训练的多个图神经网络模型;
提取单元42,用于从所述获取单元41获取的多个图结构中,分别提取目标节点对应于所述多个时间切片的多个子图;
嵌入单元43,用于将所述提取单元42提取的多个子图对应输入到所述获取单元获取的多个图神经网络模型,得到所述目标节点对应于所述多个时间切片的多个节点嵌入向量;
融合单元44,用于通过基于时序的神经网络模型,融合所述嵌入单元43得到的多个节点嵌入向量,得到所述目标节点的融合向量。
可选地,作为一个实施例,所述装置还包括:
分类单元,用于在所述融合单元44得到所述目标节点的融合向量之后,根据所述目标节点的融合向量,确定所述目标节点的类别。
可选地,作为一个实施例,所述关系网络图包括第一节点,在所述多个图结构中,所述第一节点具有不同的节点特征,和/或,所述第一节点具有不同的邻居节点。
可选地,作为一个实施例,所述提取单元42,具体用于:
从所述多个图结构中,按照与所述目标节点具有连接关系,且满足经过的连接边的数目不超过预设阈值提取所述目标节点的各关联节点;
提取所述目标节点、所述各关联节点,以及所述图结构中连接所述目标节点与所述各关联节点的各连接边,得到所述目标节点对应于所述多个时间切片的多个子图。
可选地,作为一个实施例,所述融合单元44,包括:
确定子单元,用于针对所述多个时间切片中的任意两个相邻时间切片,确定所述任意两个相邻时间切片对应的子图的差异向量;
第一融合子单元,用于对于所述多个时间切片中的每个时间切片,将所述目标节点对应于该时间切片的节点嵌入向量,以及所述确定子单元确定的该时间切片与上一个时间切片对应的子图的差异向量构成向量组,将多个时间切片对应的向量组按照时间切片的顺序依次输入基于时序的第一神经网络,将第一神经网络处理各个向量组后得到的隐向量作为对应时间切片的初始融合向量;
第二融合子单元,用于将所述第一融合子单元得到的所述目标节点对应于各时间切片的各初始融合向量,利用第二神经网络进行融合处理,得到所述目标节点的融合向量。
进一步地,所述确定子单元,具体用于根据所述目标节点对应于任意两个相邻时间切片的两个节点嵌入向量的差,得到所述差异向量。
进一步地,所述确定子单元,具体用于将所述目标节点对应于任意两个相邻时间切片的两个节点嵌入向量输入第三神经网络,通过所述第三神经网络输出所述差异向量。
进一步地,当目标时间切片在所述多个时间切片中按照时序先后为第一个时间切片时,所述目标时间切片与上一个时间切片对应的子图的差异向量为预设向量。
进一步地,所述第一神经网络包括长短期记忆LSTM网络。
进一步地,所述第二神经网络包括多层感知器MLP网络。
可选地,作为一个实施例,所述关系网络图包括多个节点和节点之间的连接边,所述节点代表用户,具有连接边的两个用户之间具有关联关系。
通过本说明书实施例提供的装置,获取单元41针对动态变化的关系网络图不是仅获取最近的时间切片对应的图结构,以及基于该图结构训练的图神经网络模型,而是获取在多个时间切片中对应的多个图结构,以及基于所述多个图结构分别训练的多个图神经网络模型;然后提取单元42从所述多个图结构中,分别提取目标节点对应于所述多个时间切片的多个子图;接着嵌入单元43将所述多个子图对应输入到所述多个图神经网络模型,得到所述目标节点对应于所述多个时间切片的多个节点嵌入向量;最后融合单元44通过基于时序的神经网络模型,融合所述多个节点嵌入向量,得到所述目标节点的融合向量。由上可见,本说明书实施例,对各个时间切片的信息进行了综合利用,一方面,有效的利用好更多的信息可以提高节点表示的精度,另一方面,可以消除一些误差的因素,并且当前时间切片的缺失信息可以由之前的时间切片的信息来弥补,从而能够提升基于图神经网络模型的节点表示的准确性。
根据另一方面的实施例,还提供一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行结合图2所描述的方法。
根据再一方面的实施例,还提供一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现结合图2所描述的方法。
本领域技术人员应该可以意识到,在上述一个或多个示例中,本发明所描述的功能可以用硬件、软件、固件或它们的任意组合来实现。当使用软件实现时,可以将这些功能存储在计算机可读介质中或者作为计算机可读介质上的一个或多个指令或代码进行传输。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的技术方案的基础之上,所做的任何修改、等同替换、改进等,均应包括在本发明的保护范围之内。

Claims (24)

1.一种基于图神经网络模型的节点表示方法,所述方法包括:
获取动态变化的关系网络图在多个时间切片中对应的多个图结构,以及基于所述多个图结构分别训练的多个图神经网络模型;
从所述多个图结构中,分别提取目标节点对应于所述多个时间切片的多个子图;
将所述多个子图对应输入到所述多个图神经网络模型,得到所述目标节点对应于所述多个时间切片的多个节点嵌入向量;
通过基于时序的神经网络模型,融合所述多个节点嵌入向量,得到所述目标节点的融合向量。
2.如权利要求1所述的方法,其中,所述得到所述目标节点的融合向量之后,所述方法还包括:
根据所述目标节点的融合向量,确定所述目标节点的类别。
3.如权利要求1所述的方法,其中,所述关系网络图包括第一节点,在所述多个图结构中,所述第一节点具有不同的节点特征,和/或,所述第一节点具有不同的邻居节点。
4.如权利要求1所述的方法,其中,所述从所述多个图结构中,分别提取目标节点对应于所述多个时间切片的多个子图,包括:
从所述多个图结构中,按照与所述目标节点具有连接关系,且满足经过的连接边的数目不超过预设阈值提取所述目标节点的各关联节点;
提取所述目标节点、所述各关联节点,以及所述图结构中连接所述目标节点与所述各关联节点的各连接边,得到所述目标节点对应于所述多个时间切片的多个子图。
5.如权利要求1所述的方法,其中,所述通过基于时序的神经网络模型,融合所述多个节点嵌入向量,得到所述目标节点的融合向量,包括:
针对所述多个时间切片中的任意两个相邻时间切片,确定所述任意两个相邻时间切片对应的子图的差异向量;
对于所述多个时间切片中的每个时间切片,将所述目标节点对应于该时间切片的节点嵌入向量,以及该时间切片与上一个时间切片对应的子图的差异向量构成向量组,将多个时间切片对应的向量组按照时间切片的顺序依次输入基于时序的第一神经网络,将第一神经网络处理各个向量组后得到的隐向量作为对应时间切片的初始融合向量;
将所述目标节点对应于各时间切片的各初始融合向量,利用第二神经网络进行融合处理,得到所述目标节点的融合向量。
6.如权利要求5所述的方法,其中,所述针对所述多个时间切片中的任意两个相邻时间切片,确定所述任意两个相邻时间切片对应的子图的差异向量,包括:
根据所述目标节点对应于任意两个相邻时间切片的两个节点嵌入向量的差,得到所述差异向量。
7.如权利要求5所述的方法,其中,所述针对所述多个时间切片中的任意两个相邻时间切片,确定所述任意两个相邻时间切片对应的子图的差异向量,包括:
将所述目标节点对应于任意两个相邻时间切片的两个节点嵌入向量输入第三神经网络,通过所述第三神经网络输出所述差异向量。
8.如权利要求5所述的方法,其中,当目标时间切片在所述多个时间切片中按照时序先后为第一个时间切片时,所述目标时间切片与上一个时间切片对应的子图的差异向量为预设向量。
9.如权利要求5所述的方法,其中,所述第一神经网络包括长短期记忆LSTM网络。
10.如权利要求5所述的方法,其中,所述第二神经网络包括多层感知器MLP网络。
11.如权利要求1所述的方法,其中,所述关系网络图包括多个节点和节点之间的连接边,所述节点代表用户,具有连接边的两个用户之间具有关联关系。
12.一种基于图神经网络模型的节点表示装置,所述装置包括:
获取单元,用于获取动态变化的关系网络图在多个时间切片中对应的多个图结构,以及基于所述多个图结构分别训练的多个图神经网络模型;
提取单元,用于从所述获取单元获取的多个图结构中,分别提取目标节点对应于所述多个时间切片的多个子图;
嵌入单元,用于将所述提取单元提取的多个子图对应输入到所述获取单元获取的多个图神经网络模型,得到所述目标节点对应于所述多个时间切片的多个节点嵌入向量;
融合单元,用于通过基于时序的神经网络模型,融合所述嵌入单元得到的多个节点嵌入向量,得到所述目标节点的融合向量。
13.如权利要求12所述的装置,其中,所述装置还包括:
分类单元,用于在所述融合单元得到所述目标节点的融合向量之后,根据所述目标节点的融合向量,确定所述目标节点的类别。
14.如权利要求12所述的装置,其中,所述关系网络图包括第一节点,在所述多个图结构中,所述第一节点具有不同的节点特征,和/或,所述第一节点具有不同的邻居节点。
15.如权利要求12所述的装置,其中,所述提取单元,具体用于:
从所述多个图结构中,按照与所述目标节点具有连接关系,且满足经过的连接边的数目不超过预设阈值提取所述目标节点的各关联节点;
提取所述目标节点、所述各关联节点,以及所述图结构中连接所述目标节点与所述各关联节点的各连接边,得到所述目标节点对应于所述多个时间切片的多个子图。
16.如权利要求12所述的装置,其中,所述融合单元,包括:
确定子单元,用于针对所述多个时间切片中的任意两个相邻时间切片,确定所述任意两个相邻时间切片对应的子图的差异向量;
第一融合子单元,用于对于所述多个时间切片中的每个时间切片,将所述目标节点对应于该时间切片的节点嵌入向量,以及所述确定子单元确定的该时间切片与上一个时间切片对应的子图的差异向量构成向量组,将多个时间切片对应的向量组按照时间切片的顺序依次输入基于时序的第一神经网络,将第一神经网络处理各个向量组后得到的隐向量作为对应时间切片的初始融合向量;
第二融合子单元,用于将所述第一融合子单元得到的所述目标节点对应于各时间切片的各初始融合向量,利用第二神经网络进行融合处理,得到所述目标节点的融合向量。
17.如权利要求16所述的装置,其中,所述确定子单元,具体用于根据所述目标节点对应于任意两个相邻时间切片的两个节点嵌入向量的差,得到所述差异向量。
18.如权利要求16所述的装置,其中,所述确定子单元,具体用于将所述目标节点对应于任意两个相邻时间切片的两个节点嵌入向量输入第三神经网络,通过所述第三神经网络输出所述差异向量。
19.如权利要求16所述的装置,其中,当目标时间切片在所述多个时间切片中按照时序先后为第一个时间切片时,所述目标时间切片与上一个时间切片对应的子图的差异向量为预设向量。
20.如权利要求16所述的装置,其中,所述第一神经网络包括长短期记忆LSTM网络。
21.如权利要求16所述的装置,其中,所述第二神经网络包括多层感知器MLP网络。
22.如权利要求12所述的装置,其中,所述关系网络图包括多个节点和节点之间的连接边,所述节点代表用户,具有连接边的两个用户之间具有关联关系。
23.一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行权利要求1-11中任一项的所述的方法。
24.一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现权利要求1-11中任一项的所述的方法。
CN201911226793.8A 2019-12-04 2019-12-04 基于图神经网络模型的节点表示方法和装置 Pending CN110909868A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911226793.8A CN110909868A (zh) 2019-12-04 2019-12-04 基于图神经网络模型的节点表示方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911226793.8A CN110909868A (zh) 2019-12-04 2019-12-04 基于图神经网络模型的节点表示方法和装置

Publications (1)

Publication Number Publication Date
CN110909868A true CN110909868A (zh) 2020-03-24

Family

ID=69822121

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911226793.8A Pending CN110909868A (zh) 2019-12-04 2019-12-04 基于图神经网络模型的节点表示方法和装置

Country Status (1)

Country Link
CN (1) CN110909868A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111476668A (zh) * 2020-06-24 2020-07-31 支付宝(杭州)信息技术有限公司 可信关系的识别方法、装置、存储介质和计算机设备
CN111798934A (zh) * 2020-06-23 2020-10-20 苏州浦意智能医疗科技有限公司 一种基于图神经网络的分子性质预测方法
CN112508691A (zh) * 2021-02-04 2021-03-16 北京淇瑀信息科技有限公司 基于关系网标签化和图神经网络的风险预测方法及装置
CN112634043A (zh) * 2020-12-28 2021-04-09 中国农业银行股份有限公司 一种数据监测方法及装置
CN113297571A (zh) * 2021-05-31 2021-08-24 浙江工业大学 面向图神经网络模型后门攻击的检测方法和装置
CN113987280A (zh) * 2021-10-27 2022-01-28 支付宝(杭州)信息技术有限公司 针对动态图训练图模型的方法及装置
CN117273086A (zh) * 2023-11-17 2023-12-22 支付宝(杭州)信息技术有限公司 多方联合训练图神经网络的方法及装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111798934A (zh) * 2020-06-23 2020-10-20 苏州浦意智能医疗科技有限公司 一种基于图神经网络的分子性质预测方法
CN111798934B (zh) * 2020-06-23 2023-11-14 苏州浦意智能医疗科技有限公司 一种基于图神经网络的分子性质预测方法
CN111476668A (zh) * 2020-06-24 2020-07-31 支付宝(杭州)信息技术有限公司 可信关系的识别方法、装置、存储介质和计算机设备
CN112634043A (zh) * 2020-12-28 2021-04-09 中国农业银行股份有限公司 一种数据监测方法及装置
CN112634043B (zh) * 2020-12-28 2023-10-13 中国农业银行股份有限公司 一种数据监测方法及装置
CN112508691A (zh) * 2021-02-04 2021-03-16 北京淇瑀信息科技有限公司 基于关系网标签化和图神经网络的风险预测方法及装置
CN113297571A (zh) * 2021-05-31 2021-08-24 浙江工业大学 面向图神经网络模型后门攻击的检测方法和装置
CN113297571B (zh) * 2021-05-31 2022-06-07 浙江工业大学 面向图神经网络模型后门攻击的检测方法和装置
CN113987280A (zh) * 2021-10-27 2022-01-28 支付宝(杭州)信息技术有限公司 针对动态图训练图模型的方法及装置
CN117273086A (zh) * 2023-11-17 2023-12-22 支付宝(杭州)信息技术有限公司 多方联合训练图神经网络的方法及装置
CN117273086B (zh) * 2023-11-17 2024-03-08 支付宝(杭州)信息技术有限公司 多方联合训练图神经网络的方法及装置

Similar Documents

Publication Publication Date Title
CN110909868A (zh) 基于图神经网络模型的节点表示方法和装置
US10846052B2 (en) Community discovery method, device, server and computer storage medium
AU2014344497B2 (en) Image object category recognition method and device
US20210295114A1 (en) Method and apparatus for extracting structured data from image, and device
US20150242761A1 (en) Interactive visualization of machine-learning performance
JP2017224184A (ja) 機械学習装置
CN108564102A (zh) 图像聚类结果评价方法和装置
CN110070140B (zh) 基于多类别信息的用户相似性确定方法及装置
CN109816043B (zh) 用户识别模型的确定方法、装置、电子设备及存储介质
US10885593B2 (en) Hybrid classification system
CN110942090A (zh) 模型训练、图像处理方法、装置、电子设备及存储介质
CN112597997A (zh) 感兴趣区域确定方法、图像内容识别方法及装置
CN111159241A (zh) 一种点击转化预估方法及装置
AU2021251463B2 (en) Generating performance predictions with uncertainty intervals
CN113591881A (zh) 基于模型融合的意图识别方法、装置、电子设备及介质
US11847187B2 (en) Device identification device, device identification method, and device identification program
Miao et al. Informative core identification in complex networks
CN111488400B (zh) 数据分类方法、装置和计算机可读存储介质
CN110717037A (zh) 对用户分类的方法和装置
CN114676927B (zh) 风险预测方法和装置、电子设备、计算机可读存储介质
CN110705889A (zh) 一种企业筛选方法、装置、设备及存储介质
US9378466B2 (en) Data reduction in nearest neighbor classification
CN112861962B (zh) 样本处理方法、装置、电子设备和存储介质
CN112463964B (zh) 文本分类及模型训练方法、装置、设备及存储介质
CN110414845B (zh) 针对目标交易的风险评估方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination