CN112966165A - 基于图神经网络的交互式社区搜索方法及装置 - Google Patents

基于图神经网络的交互式社区搜索方法及装置 Download PDF

Info

Publication number
CN112966165A
CN112966165A CN202110147855.7A CN202110147855A CN112966165A CN 112966165 A CN112966165 A CN 112966165A CN 202110147855 A CN202110147855 A CN 202110147855A CN 112966165 A CN112966165 A CN 112966165A
Authority
CN
China
Prior art keywords
node
community
neural network
graph neural
graph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110147855.7A
Other languages
English (en)
Inventor
高军
陈嘉尊
王佳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University
Original Assignee
Peking University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University filed Critical Peking University
Priority to CN202110147855.7A priority Critical patent/CN112966165A/zh
Publication of CN112966165A publication Critical patent/CN112966165A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于图神经网络的交互式社区搜索方法及装置,依据用户的查询节点和标记节点构造给定候选子图GS;通过给定候选子图GS构造图神经网络模型M;对图神经网络模型M进行收敛,得到各节点的图神经网络分数,并依据图神经网络分数,更新给定候选子图;依据更新后的给定候选子图及设定社区大小k,选取最终目标社区。本发明通过在线网络中动态采集的子图来定位目标社区,利用图神经网络将社区成员关系问题重构为节点分类问题,并引入一个k大小的社区来描述目标社区,能够灵活地结合内容和结构特征来捕获图节点与标注节点之间的相似性与差异性,以迭代和交互的方式搜索出准确率高、大小精确的社区,且利用排序损失减轻用户负担。

Description

基于图神经网络的交互式社区搜索方法及装置
技术领域
本发明属于信息技术领域,尤其涉及一种基于图神经网络的交互式社区搜索方法及装置。
背景技术
社区搜索是网络分析的重要工具,在线上社交网络中搜索一个包含给定查询节点的社区,在推荐、团队组织等方面有着广泛的应用。它的目标是寻找包含查询节点的密集连通子图。发现的社区可以作为一个有效的候选集,用于如商品/朋友推荐、非法组织发现等应用。
虽然这个问题已经得到了很好的研究,但目前的方法在应用于现实社会网络时仍面临挑战。首先,几乎所有这些方法都假设数据已经被抓取过,它们只对收集到的数据进行分析。但是,我们不能将数据抓取和社区搜索清晰地分开。每天在网络上都会出现大量新活跃账户和信息,如果不控制收集政策,网络爬虫会发现大量的无关紧要的数据,带来不必要的存储、网络传输、计算等资源消耗。
其次,现有的方法大部分利用规则度量社区成员,有些社区结构关系较为紧密,现有的社区搜索模型(例如文献Xin Huang,Hong Cheng,Lu Qin,Wentao Tian,and JeffreyXu Yu.2014.Querying k-truss community in large and dynamic graphs.InSIGMOD.1311–1322、文献Mauro Sozio and Aristides Gionis.2010.The community-search problem and how to plan a successful cocktail party.In SIGKDD.939–948与文献H.Wang Y.Lu W.Cui,Y.Xiao and W.Wang.2013.Online search of overlappingcommunities.In SIGMOD)可以捕捉到这一点,但结构关系较弱、内容相似度较高的社区定位具有一定的挑战性。例如,同一公司的用户可能在网络中大致采取分层形式,网络结构关系相对稀疏,但用户的内容特征相似,因此社区搜索具有灵活性,几乎不可能直接使用预定义的社区规则生成高质量的社区。此外,如果使用现有的基于规则的方法来逐步寻找社区,会带来沉重的负担。一般情况下,用户需要根据每次结果反馈调整结构约束中的参数,选择具有代表性的属性,平衡内容与结构特征之间的权重,但考虑大量内容关键字及其复杂的关系,规则调整会带来更多的挑战。
图神经网络通过同时捕获内容特性和结构关系来用来学习节点的高维表示。图神经网络通过将内容和结构特征编码成函数来实现这一目标,并在监督或非监督训练信号的指导下对函数进行优化。通过将社交网络中各个节点发布的消息作为内容特性以及将互动(关注,转发,评论等)作为边,利用图神经网络可以更准确地反映出社交网络中不同节点之间的关系。
在大型社交网络中的社区搜索是研究和工业领域关注的对象。有效地利用社交网络中各种信息,如结构、内容,并将它们灵活地组合起来,是解决上述问题的关键所在。现有社区搜索方法,更加侧重于结构,忽略了内容信息,而内容在社区搜索的研究中是不可忽略的,而且社区大小不可控。另外,现有方法多为在整个图上分析,这对于真实社交网络的场景不太适用,也一定程度上制约了社区搜索的应用。
发明内容
本发明提出一种基于图神经网络的交互式社区搜索方法及装置,通过在线网络中动态采集的子图来定位目标社区,利用图神经网络将社区成员关系问题重构为一个节点分类问题,在用户标注的指导下,灵活地结合内容和结构特征来捕获图节点与标注节点之间的相似性与差异性,以迭代和交互的方式发现目标社区。
本发明的技术内容包括:
一种基于图神经网络的交互式社区搜索方法,其步骤包括:
1)通过用户的查询节点和标记节点,从在线社交网络中构造给定候选子图GS
2)通过给定候选子图GS的各节点构建邻接矩阵A,依据给定候选子图各样本正节点u的内容特征及预训练好的嵌入集D,构建内容特征矩阵FM,并通过交叉熵与排序损失相结合的方式作为损失函数,构造图神经网络模型M=(A,FM,W),其中A为邻接矩阵,W为参数矩阵;
3)对图神经网络模型M进行收敛,得到各节点的图神经网络分数,并依据图神经网络分数,更新给定候选子图GS
4)依据更新后的给定候选子图及设定社区大小k,通过保证社区连通且社区中节点分数尽可能大,选取大小为k的最终目标社区。
进一步地,构造给定候选子图GS的方法包括:局部边缘增强的广度优先搜索策略或广度优先搜索。
进一步地,依据局部边缘增强的广度优先搜索策略,通过以下步骤构造给定候选子图:
1)每轮迭代前,查找先前候选子图GB,其中若未查找先前候选子图GB,则先前候选子图GB为空;
2)依据先前候选子图GB=(VB,EB,FB)与正样本集合Sp,计算节点集合VS=Sp∪VB、边集合ES=EB及节点内容特征集合FS=FB,其中,VB、EB与FB分别为先前候选子图GB的节点集合、边集合与节点内容特征集合,样本节点集合S包括:正样本集合Sp和标记负节点集合Sn,正样本集合Sp包括标记正节点集合和查询节点;
3)对节点集合VS中每一节点u,获得与节点u连边的节点集合N及节点u的新发布信息,将节点u的新发布信息特征加入节点内容特征集合FS中,更新节点内容特征集合FS,并继续更新节点集合VS与边集合ES,其中若节点u∈Sp且节点v∈N,则节点集合VS←VS+{v}及边集合ES←ES+{(u,v)};若节点
Figure BDA0002930918260000031
且v∈N∧v∈VS,则节点集合VS不变,边集合ES←ES+{(u,v)};
4)根据更新后的节点集合VS、边集合ES与节点内容特征集合FS,构造给定候选子图GS=(VS,ES,FS),其中将当前候选子图GS保存以用于下次迭代。
进一步地,损失函数Lossa=Lossc+λLossr,其中交叉熵损失函数
Figure BDA0002930918260000032
Figure BDA0002930918260000033
排名损失函数
Figure BDA0002930918260000034
Figure BDA0002930918260000035
λ为权重参数,S为样本节点集合,uS.y为节点uS的标记结果,P[uS]为节点uS的图神经网络分数,R为用户标记的一组排序节点对,(uR,vR)∈R代表u获得比v更高的图神经网络分数,v为社区网络的一节点,m∈[0,1]是允许排序误差的容忍度。
进一步地,构造图神经网络模型M的方法包括:利用图卷积神经网络GCN、利用图注意力网络GAT或利用图自编码器GAE。
进一步地,图神经网络模型M进行收敛的方法包括:常规梯度下降方法。
进一步地,选取目标社区的方法包括:基于局部边缘增强的广度优先搜索策略的最终社区定位算法或基于贪心的最终社区定位算法;其中,
1)通过以下步骤实现基于局部边缘增强的广度优先搜索策略的最终社区定位算法:
1.1)对于更新后给定候选子图GS=(VS,ES,FS,PS),从查询节点q开始执行局部边缘增强的广度优先搜索策略,将遇到的新节点v加入节点集合Vc,直到|Vc|=k,得到节点集合Vc,其中VS、ES、FS及PS分别为给定候选子图GS的节点集合、边集合、节点内容特征集合与图神经网络得分集合;
1.2)获取节点集合Vc中各节点u′的连边节点集合N(u′);
1.3)分别通过以下步骤每一节点u′进行操作,获取节点集合V′c
1.3.a)找到一个节点v′,其中
Figure BDA0002930918260000036
1.3.b)找到一个节点c,其中c∈Vc∧c≠u′且节点c的图神经网络分数在节点集合Vc中是最小的;
1.3.c)若节点v′的图神经网络分数大于节点c的图神经网络分数且不存在节点d∈Vc,则通过节点c与节点v′对节点集合Vc进行更新,其中节点c是节点d的父亲节点;
1.4)依据更新后的节点集合Vc,得到最终目标社区;
2)通过以下步骤实现基于贪心的最终社区定位算法:
2.1)对于更新后给定候选子图G′S=(V′S,E′S,F′S,P′S)和查询节点q,初始化社区节点集合V′c={q};
2.2)初始化队列Q=V′c,分别通过以下步骤对每一节点u″进行操作,其中u″∈Q:
2.2.a)获取节点u″的邻居集合N(u″);
2.2.b)对于节点v″,其中
Figure BDA0002930918260000041
找到一条节点v″到当前社区V′c的最短路径path(v″,V′c),计算并记录下v″的相对价值;
2.2.c)将相对价值最大的节点v″加入节点集合V′c
2.3)重复步骤2.2)直到节点集合V′c中的节点数量达到k,得到最终目标社区V′c
进一步地,通过衡量最短路径的边权,计算所述相对价值;衡量最短路径边权包括:全为相同值、为两端点图神经网络分数或PageRank值之和。
一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行上述所述的方法。
一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机以执行上述所述的方法。
相对于现有方法,本发明的有益效果如下:
1)通过在线网络中动态采集的子图来定位目标社区,利用图神经网络将社区成员关系问题重构为一个节点分类问题,并引入一个k大小的社区来描述目标社区,在用户标注的指导下,灵活地结合内容和结构特征来捕获图节点与标注节点之间的相似性与差异性,以迭代和交互的方式发现目标社区;
2)提出了利用排序损失帮助用户更好的标记社区,减轻用户负担;
3)最后提出了两种发现目标社区的具体算法,能在各种情况下搜索出准确率高,大小精确的社区。
附图说明
图1为整体方法的流程图。
图2为构建候选子图示意图,其中(A)为底层数据图,(B)为a为标记正样本结果示意图,(C)为a,b为标记正样本结果示意图。
图3为寻找目标社区示意图,其中(A)为以a为查询节点,k为正样例,b为负样例的示意图,(B)为搜索后的中间社区示意图,(C)为交换后的目标社区示意图。
具体实施方式
为了使本发明的目的、技术方案更加清楚明白,下文中将结合附图对本发明的实施例进行详细说明。
本发明提出了在社交网络中基于图神经网络(GNN)的交互式社区搜索方法,图1为整体方法流程图。给出一个查询节点q,构造一个包含q的候选子图,训练一个GNN模型来推断社区中节点的概率,并在子图中定位目标社区。随着用户反馈的结合,这个过程不断重复。该方法能够达到更高的有效性和效率,同时降低人类的标注负担。我们的数据模型记为图G=(V,E,F,P),其中,V表示节点集合,E表示边集合,F代表节点内容特征,P代表节点分数。对于节点v∈V,F[v]为该节点的内容特性,P[v]为在图神经网络训练收敛时该点训练出的分数,在社交网络中,v代表某个用户,F[v]代表该用户发布的信息所转化的内容特征,P[v]代表了该用户属于目标社区的概率。边(u,v)∈E表示两个用户之间存在关系。
图神经网络模型可以抽象为M=GNN(A,FM,W),其中A,FM,W分别为邻接矩阵,特征矩阵,参数矩阵。A={0,1}|V|×|V|,如果A[i,j]=1代表第i个节点和第j个节点是连通的,为0则代表不连通。
Figure BDA0002930918260000051
为内容特征矩阵,其中FM[i]是第i个节点的大小为d的特征向量。
Figure BDA0002930918260000052
M[i]∈[0,1]表示第i个节点的GNN分数,也用P[u]∈[0,1]来表示节点u的GNN分数。显然P[u]越大,u属于社区的概率也越大,我们也可以认为GNN分数代表其属于社区的概率。
Figure BDA0002930918260000053
为候选子图中用户标记的样本,
Figure BDA0002930918260000054
为正样本(包括查询节点)对于up∈Sp,up应该属于社区并且P[up]=1。
Figure BDA0002930918260000055
为负样本,对于un∈Sn,un不应该属于社区并且P[un]=0。R为用户标记的一组排序节点对,对于(uR,vR)∈R,代表uR应该获得比vR更高的GNN分数,也就是uR比vR更应该在社区中。
最终的目标社区,应该为大小为k的连通图,并且满足社区中节点的图神经网络分数最大,我们简称为kMG(k-Sized Community with Maximum GNN Scores),定义为Gc=(Vc,Ec,Fc,Pc),为候选子图Gs的诱导子图,首先查询节点q∈Vc,本发明对社区的结构关系进行了放松,因为社区是灵活的并且受爬行策略影响导致候选子图可能不是密集的。其次,保证|Vc|=k,用户可以根据发现结果的质量调整k值(一些应用程序需要k指定的限制,例如一个有组织的团队中最多有k个人、为了在后续工具中清晰地可视化最多有k个节点等),用以解决之前研究中关于结构的定义不能精确地控制社区规模的难题。最后,保证
Figure BDA0002930918260000061
最大,这个限制是为了保证选择的社区是在标记节点的指导下,通过GNN模型学习利用内容和结构特征后得到的最优解。有时为了方便起见,也会用Vc作为目标社区。
本发明的交互式社区搜索方法,包括以下步骤:
1)用户给定查询节点和标记节点,从在线社交网络中构造候选子图。
子图构造是在一个大型社交网络中定位潜在有用的节点及其关系,它可以通过在查询节点和标记的正节点周围爬行来实现。本发明采用了一种局部边缘增强的广度优先搜索策略(BFS)。初始子图使用来自BFS标记的正节点(包括查询节点)的1跳邻居,允许BFS从1跳邻居中搜索,但只加入边而跳过新遇到的节点。
2)使用图神经网络模型推断出候选子图中未标记节点GNN分数
在构建候选子图的基础上,继续建立一个GNN模型来度量属于目标社区节点的概率。本发明受GraphSage(William L.Hamilton,Zhitao Ying,and JureLeskovec.2017.Inductive Representation Learning on Large Graphs.In NIPS.1024–1034)启发,我们将u发布的所有消息中每个关键字t的emb(t)取平均值来聚合u的内容特征,其中emb(t)是预先训练的嵌入集中的嵌入,并提出了交叉熵与排序损失相结合的方式作为模型的损失函数。其中Lossc为交叉熵损失函数,uS.y为标记节点uS的标记结果,P[uS]为uS的GNN分数。
Figure BDA0002930918260000062
Lossr为排序损失函数,m∈[0,1]是允许排序误差的容忍度,P[uR],P[vR]分别代表节点uR和vR的GNN分数。用户可能不确定某个节点必须在社区中。相反,用户很容易在两个候选节点上排名,即与节点vR∈GC相比,节点uR∈GS应该在社区中,这类用户反馈可以通过排名损失来捕捉。
Figure BDA0002930918260000063
Lossa为最终的损失函数,其中λ为超参数用于调整交叉熵损失和排名损失之间的权重参数。
Lossa=Lossc+λLossr
当训练收敛时,使用训练后的模型来推断候选子图中其他未标记节点上的GNN分数,作为定位目标社区的基础。本发明采用增量爬行策略来构建候选子图,但在每个候选子图上完全训练模型。这是因为通过控制候选子图的大小,与人类标记和页面爬行所需要的时间相比,模型训练的时间成本并不是瓶颈。此外,完全训练的模型通常比增量训练的模型有更好的性能支持社区搜索。
3)利用GNN分数定位kMG社区
本发明证明定位kMG社区的决策版本是NP-hard,即检查是否存在一个GNN评分总和大于阈值的k-大小子图。首先,验证发现的结果需要一个多项式的时间。其次,将NP-hard问题中的背包问题(Richard M.Karp.1972.Reducibility Among CombinatorialProblems.In Proceedings of a symposium on the Complexity of ComputerComputations.85–103)转化为kMG的决策问题。背包问题是对于物品集合I,对于i∈I,有自己的价值i.v和重量i.c,给定背包容量b和阈值t,选择一个子集的物品
Figure BDA0002930918260000072
使得∑i∈I′i.v≥t并且∑i∈I′i.c≤b。对于背包问题,构造一个树T。对于每个i∈I,我们建立一条从T的根到叶节点i长度为i.c的路径,在i上的GNN得分为i.v,在路径上的其他节点上的GNN得分为0,根节点被选择为查询节点,每个节点的重量为1。显然,存在满足背包容量b的物品子集∑i∈I′i.v≥t当且仅当存在(b+1)MG社区(包括查询节点),其GNN分数的总和大于t。因此,寻找一个(b+1)MG社区的复杂度也是NP-hard。由于问题的复杂性,本发明提出了两种启发式的近似算法。
i)基于BFS的kMG定位算法
直观地说,靠近查询节点的节点有更多的机会出现在社区中。社区可以由BFS初始化,从查询节点开始直到遇到k个节点,接下来,在保持连通性的情况下交换社区内分数低的点与社区外分数高的点。
ii)基于贪心的kMG定位算法
当查询节点是社区的边界节点时,算法i处理起来比较困难。例如,假设一个节点v被标记为正的,但它离查询节点很远。如果v不直接与中间社区中的任何节点相连,因此没有机会被交换到最终社区中,则v可能不包含在最终社区中。因此,该算法不假设查询节点位于社区中心,而是提出一种动态的相对价值,以决定节点是否应该在社区中。假设Vc为我们发现的中间社区,对于节点
Figure BDA0002930918260000071
v寻找一条最短路径path(v,Vc)使得v到Vc中任意一个节点距离最短。如果想将v加入Vc我们需要将path(v,Vc)中的点都加入Vc。因此,定义v的相对价值为:
Figure BDA0002930918260000081
每次选择相对价值最大的节点vmax,将其path(vmax,Vc)加入Vc。例如对于一个标记正样本节点v的情况,它与查询节点q距离很远。最初,社区Vc只包含q,由于path(v,Vc)的长度很大,所以v的相对收益很低。v的相对利益在每个节点被选择进入团体后重新计算。当群体向v扩展时,路径长度会减少,相对效益会增加,从而使v有更多的机会被选择。
第一阶段计算流程如下:
a)给定标记的正样本Sp(包含查询节点),载入先前候选子图GB=(VB,EB,FB),如果是首次运行,GB为空,通过GB初始化当前候选子图GS=(VS,ES,FS),VS=Sp∪VB,ES=EB,FS=FB
b)针对每个u∈VS,分别执行下列操作:
c)如果u∈Sp∧u∈VS,获得与u连边的节点集合N,对于v∈N,VS←VS+{v},ES←ES+{(u,v)}
d)如果
Figure BDA0002930918260000082
获得与u连边的节点集合N,对于v∈N∧v∈VS,VS不变,ES←ES+{(u,v)}
e)获得u新发布的信息,将其加入于F[u]中
f)重复b)-e)步骤直到建立完当前候选子图GS,将GS保存下次迭代使用
第二阶段计算流程如下:
a)给定候选子图GS=(VS,ES,FS),标记节点集合S,预训练好的嵌入集D(例如FastText,参考网址:https://fasttext.cc/)
b)每个u∈VS,使用D创建u的内容特征
c)使用Lossa建立GNN模型M=GNN(A,FM,W)
d)通过常规梯度下降,学习模型的参数,直到收敛。获得Gs=(Vs,Es,Fs,Ps)第三阶段算法i计算流程如下:
a)给定Gs=(Vs,Es,Fs,Ps),查询节点q和社区大小k
b)初始化Vc=φ
c)从q点开始BFS,将新遇到的点加入Vc,直到|Vc|=k
d)对于u′∈Vc,分别执行下面的操作
e)找到一个节点v′,
Figure BDA0002930918260000091
f)找到一个节点c,c∈Vc∧c≠u′,并且P[c]是Vc中值最小的
g)如果满足P[v′]>P[c]并且不存在d∈Vc使得c是d的父亲节点,则Vc←Vc-{c}+{v′}
h)重复d)-g)直到结束,得到目标社区Vc
第三阶段算法ii计算流程如下:
a)给定Gs=(V′s,E′s,F′s,P′s),查询节点q和社区大小k
b)初始化Vx′={q}
c)初始化队列Q=V′c
d)对于u″∈Q,执行下面的操作
e)获取u″的邻居集合N(u″),对于
Figure BDA0002930918260000092
找到一条v″到当前社区V′c的最短路径path(v″,Vc′),计算并记录下v″的相对价值。
f)重复d)-e)直到结束,找到相对价值最大的vmax,将path(vmax,V′c)中的点加入V′c
g)重复c)-f)的步骤,直到|V′c|=k
下文更具体地对本发明做进一步描述。
1、如图2表示查询节点a所在的底层数据图构建给定候选子图示例。本发明针对的是开放社交网络中的社区搜索,在开放社交网络中,用户的关系和发布的信息可以被他人访问,从而可以通过应用程序接口获取,我们可以在不同的社交网络中找到类似的接口。即使社交网络不提供这些功能,也可以通过爬虫获取。通常用户发布的消息和关系被存放在多个页面中,爬虫时需要记录节点的状态来支持增量爬行策略。当邻居数量很大时,一次爬行到达所有邻居是不可行的。当用户发布的消息占据了许多页面时,情况也类似。给定图2中(A)的底层数据图和查询节点a,设置每次最多爬行4个邻居,第一轮爬行结果如图2中的(B)。假设此时用户在节点b上做了一个正标签。在第二轮的爬行中,将以存储状态继续从a开始的进行局部边缘增强的广度优先搜索,并从b开始一个新的搜索,在这个过程中遇到并添加c,结果如图2中的(C)。进一步地,本方法还从非标记的节点(如节点2)开始创建一个新的搜索。然而,只在节点2和现有节点(如o)之间建立一条边,而没有将新遇到的节点(如节点5)添加到子图中。
2、在处理内容特征时,本方法首先将不同节点的不同长度的消息转换成固定长度的特征,同时处理不同关键字含义相似的问题。设u为候选子图中的一个节点,F(u)包含了u发布的消息,对于每条消息m∈F(u),m包含多个关键字。要构建u的内容特征,需要对每个关键字进行嵌入(Embedding)获得其表示,并将所有表示组合起来。具体可以参考GraphSage处理数据集Reddit(Richard M.Karp.1972.Reducibility Among CombinatorialProblems.In Proceedings of a symposium on the Complexity of ComputerComputations.85–103)。
3、图神经网络GNN(Jie Zhou,Ganqu Cui,Zhengyan Zhang,Cheng Yang,ZhiyuanLiu,and Maosong Sun.2018.Graph Neural Networks:A Review of Methods andApplications.CoRR(2018))通过捕获节点的内容特征和结构关系学习其高维表示。GNN通过将内容和结构特征编码成函数来实现这一目标,并在(监督或非监督)训练信号的指导下对函数进行优化。GNN模型的工作原理如下。节点的嵌入用内容特征上初始化,其中W0是函数中的参数:
H0=g(F,W0)
然后,递归更新邻居的嵌入。第i+1层的嵌入Hi+1可以计算为以下式子,其中A是相邻矩阵,
Figure BDA0002930918260000101
Figure BDA0002930918260000102
是参数。
Figure BDA0002930918260000103
在监督设置下,损失函数测量标记结果和预测结果之间的差异。采用梯度下降等策略学习模型中的参数,以最小化损失。具体实施时,本发明采用的是两层的图卷积神经网络(GCN(Thomas N.Kipf and Max Welling.2017.Semi-Supervised Classification withGraph onvolutional Networks.In ICLR))是基于光谱的GNN模型的简化版本,并分配与节点度数相关的邻居权重。
4、图3表示寻找目标社区示意图。如图3中的(A),假设查询节点是a,最终用户在k上做一个正标签,在d上做一个负标签。因此,目标社区中节点的概率相对高于其他节点。如图3中的(B),使用基于局部边缘增强的目标社区定位算法从查询节点a初始化了具有5个节点的社区。然后该算法用社区中图神经网络分数得分最低的节点进行交换。例如j是k的邻居,P[b]=0.4小于P[j]=0.8,去掉b,将j加入到社区中。最后,在图3中的(C)获得了期望的目标社区。
此外,本发明不限于以上实施例中描述的方式,比如:
1.获取候选子图的具体方法,可以为局部边缘增强的广度优先搜索,也可以仅为广度优先搜索。
2.图神经网络模型训练出候选子图每个节点属于目标社区的概率时,选择其他图神经网络,例如GAE,GAT等。
3.基于贪心的目标定位算法时,选择多种度量衡量最短路,从而影响相对收益来衡量节点是否应该在社区中,例如边权可以为相同值,为两端点的图神经网络分数或PageRank值之和等。
4.本方法的交互性体现于可以单独对某一环节进行迭代重复,例如多次爬行,多次标记节点训练图神经网络等,并非一定按照图1流程图进行。
实验数据
本发明与LocATC(参考文献Xin Huang and LaksV.S.Lakshmanan.2017.Attribute-Driven Community Search.Proc.VLDB Endow.10,9(2017),949–960.)在Facebook数据集(参考网址http://snap.stanford.edu/data/ego-Facebook.html)上进行对比,在遵循LocATC的实验设置下,针对10个Facebook的自我中心网络,本发明在9个网络上获得了比LocATC更高的F1分数。
以上实施例仅用以说明本发明的技术方案而非对其进行限制,本领域的普通技术人员可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明的原理和范围,本发明的保护范围应以权利要求书所述为准。

Claims (10)

1.一种基于图神经网络的交互式社区搜索方法,其步骤包括:
1)通过用户的查询节点和标记节点,从在线社交网络中构造给定候选子图GS
2)通过给定候选子图GS的各节点构建邻接矩阵A,依据给定候选子图各样本正节点u的内容特征及预训练好的嵌入集D,构建内容特征矩阵FM,并通过交叉熵与排序损失相结合的方式作为损失函数,构造图神经网络模型M=(A,FM,W),其中A为邻接矩阵,W为参数矩阵;
3)对图神经网络模型M进行收敛,得到各节点的图神经网络分数,并依据图神经网络分数,更新给定候选子图GS
4)依据更新后的给定候选子图及设定社区大小k,通过保证社区连通且社区中节点分数尽可能大,选取大小为k的最终目标社区。
2.如权利要求1所述的方法,其特征在于,构造给定候选子图GS的方法包括:局部边缘增强的广度优先搜索策略或广度优先搜索。
3.如权利要求2所述的方法,其特征在于,依据局部边缘增强的广度优先搜索策略,通过以下步骤构造给定候选子图:
1)每轮迭代前,查找先前候选子图GB,其中若未查找先前候选子图GB,则先前候选子图GB为空;
2)依据先前候选子图GB=(VB,EB,FB)与正样本集合Sp,计算节点集合VS=Sp∪VB、边集合ES=EB及节点内容特征集合FS=FB,其中,VB、EB与FB分别为先前候选子图GB的节点集合、边集合与节点内容特征集合,样本节点集合S包括:正样本集合Sp和标记负节点集合Sn,正样本集合Sp包括标记正节点集合和查询节点;
3)对节点集合VS中每一节点u,获得与节点u连边的节点集合N及节点u的新发布信息,将节点u的新发布信息特征加入节点内容特征集合FS中,更新节点内容特征集合FS,并继续更新节点集合VS与边集合ES,其中若节点u∈Sp且节点v∈N,则节点集合VS←VS+{v}及边集合ES←ES+{(u,v)};若节点
Figure FDA0002930918250000012
且v∈N∧v∈VS,则节点集合VS不变,边集合ES←ES+{(u,v)};
4)根据更新后的节点集合VS、边集合ES与节点内容特征集合FS,构造给定候选子图GS=(VS,ES,FS),其中将当前候选子图GS保存以用于下次迭代。
4.如权利要求1所述的方法,其特征在于,损失函数Lossa=Lossc+λLossr,其中交叉熵损失函数
Figure FDA0002930918250000011
排名损失函数
Figure FDA0002930918250000021
λ为权重参数,S为样本节点集合,uS.y为节点uS的标记结果,P[uS]为节点uS的图神经网络分数,R为用户标记的一组排序节点对,(uR,vR)∈R代表u获得比v更高的图神经网络分数,v为社区网络的一节点,m∈[0,1]是允许排序误差的容忍度。
5.如权利要求1所述的方法,其特征在于,构造图神经网络模型M的方法包括:利用图卷积神经网络GCN、利用图注意力网络GAT或利用图自编码器GAE。
6.如权利要求1所述的方法,其特征在于,图神经网络模型M进行收敛的方法包括:常规梯度下降方法。
7.如权利要求1所述的方法,其特征在于,选取目标社区的方法包括:基于局部边缘增强的广度优先搜索策略的最终社区定位算法或基于贪心的最终社区定位算法;其中,
1)通过以下步骤实现基于局部边缘增强的广度优先搜索策略的最终社区定位算法:
1.1)对于更新后给定候选子图GS=(VS,ES,FS,PS),从查询节点q开始执行局部边缘增强的广度优先搜索策略,将遇到的新节点v加入节点集合Vc,直到|Vc|=k,得到节点集合Vc,其中VS、ES、FS及PS分别为给定候选子图GS的节点集合、边集合、节点内容特征集合与图神经网络得分集合;
1.2)获取节点集合Vc中各节点u′的连边节点集合N(u′);
1.3)分别通过以下步骤每一节点u′进行操作,获取节点集合V′c
1.3.a)找到一个节点v′,其中
Figure FDA0002930918250000022
1.3.b)找到一个节点c,其中c∈Vc∧c≠u′且节点c的图神经网络分数在节点集合Vc中是最小的;
1.3.c)若节点v′的图神经网络分数大于节点c的图神经网络分数且不存在节点d∈Vc,则通过节点c与节点v′对节点集合Vc进行更新,其中节点c是节点d的父亲节点;
1.4)依据更新后的节点集合Vc,得到最终目标社区;
2)通过以下步骤实现基于贪心的最终社区定位算法:
2.1)对于更新后给定候选子图G′S=(V′S,E′S,F′S,P′S)和查询节点q,初始化社区节点集合V′c={q};
2.2)初始化队列Q=V′c,分别通过以下步骤对每一节点u″进行操作,其中u″∈Q:
2.2.a)获取节点u″的邻居集合N(u″);
2.2.b)对于节点v″,其中
Figure FDA0002930918250000031
找到一条节点v″到当前社区V′c的最短路径path(v″,V′c),计算并记录下v″的相对价值;
2.2.c)将相对价值最大的节点v″加入节点集合V′c
2.3)重复步骤2.2)直到节点集合V′c中的节点数量达到k,得到最终目标社区V′c
8.如权利要求7所述的方法,其特征在于,通过衡量最短路径的边权,计算所述相对价值;衡量最短路径边权包括:全为相同值、为两端点图神经网络分数或PageRank值之和。。
9.一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行权利要求1-8中任一所述方法。
10.一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行如权利要求1-8中任一所述方法。
CN202110147855.7A 2021-02-03 2021-02-03 基于图神经网络的交互式社区搜索方法及装置 Pending CN112966165A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110147855.7A CN112966165A (zh) 2021-02-03 2021-02-03 基于图神经网络的交互式社区搜索方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110147855.7A CN112966165A (zh) 2021-02-03 2021-02-03 基于图神经网络的交互式社区搜索方法及装置

Publications (1)

Publication Number Publication Date
CN112966165A true CN112966165A (zh) 2021-06-15

Family

ID=76273755

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110147855.7A Pending CN112966165A (zh) 2021-02-03 2021-02-03 基于图神经网络的交互式社区搜索方法及装置

Country Status (1)

Country Link
CN (1) CN112966165A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023019427A1 (en) * 2021-08-17 2023-02-23 Robert Bosch Gmbh Method and apparatus for graph-based recommendation
WO2023155306A1 (zh) * 2022-02-16 2023-08-24 平安科技(深圳)有限公司 基于图神经网络的数据推荐方法及装置、电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111309975A (zh) * 2020-02-20 2020-06-19 支付宝(杭州)信息技术有限公司 一种增强图模型抗攻击能力的方法和系统
CN111898039A (zh) * 2020-07-03 2020-11-06 哈尔滨工程大学 一种融合隐藏关系的属性社区搜索方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111309975A (zh) * 2020-02-20 2020-06-19 支付宝(杭州)信息技术有限公司 一种增强图模型抗攻击能力的方法和系统
CN111898039A (zh) * 2020-07-03 2020-11-06 哈尔滨工程大学 一种融合隐藏关系的属性社区搜索方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ICS-GNN: LIGHTWEIGHT INTERACTIVECOMMUNITY SEARCH VIA GRAPH NEURA: "ICS-GNN: Lightweight InteractiveCommunity Search via Graph NeuralNetwork", 《PROCEEDINGS OF THE VLDB ENDOWMENT》 *
刘阳等: "网络社区发现优化:基于随机游走的边权预处理方法", 《电子与信息学报》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023019427A1 (en) * 2021-08-17 2023-02-23 Robert Bosch Gmbh Method and apparatus for graph-based recommendation
WO2023155306A1 (zh) * 2022-02-16 2023-08-24 平安科技(深圳)有限公司 基于图神经网络的数据推荐方法及装置、电子设备

Similar Documents

Publication Publication Date Title
Zhang et al. Scalable multiplex network embedding.
Kashef et al. An advanced ACO algorithm for feature subset selection
Qi et al. Mining collective intelligence in diverse groups
Ma et al. Adaptive-step graph meta-learner for few-shot graph classification
Fu et al. Deep reinforcement learning framework for category-based item recommendation
Wen et al. Meta-inductive node classification across graphs
Gu et al. Learning universal network representation via link prediction by graph convolutional neural network
Liu et al. Neighbor selection for multilabel classification
CN112966165A (zh) 基于图神经网络的交互式社区搜索方法及装置
CN112115971B (zh) 一种基于异质学术网络进行学者画像的方法及系统
Yu et al. Toward naive Bayes with attribute value weighting
Trivedi et al. Graphopt: Learning optimization models of graph formation
Zhou et al. Betweenness centrality-based community adaptive network representation for link prediction
Wang et al. Graph active learning for GCN-based zero-shot classification
Shakibian et al. Multi-kernel one class link prediction in heterogeneous complex networks
Zhang et al. HG-Meta: Graph meta-learning over heterogeneous graphs
Zhou et al. Rank2vec: learning node embeddings with local structure and global ranking
Shen et al. UniSKGRep: A unified representation learning framework of social network and knowledge graph
Zhang et al. Pairwise link prediction model for out of vocabulary knowledge base entities
Tran et al. IM-META: Influence maximization using node metadata in networks with unknown topology
Zhang et al. Disconnected emerging knowledge graph oriented inductive link prediction
CN116861923A (zh) 多视图无监督图对比学习模型构建方法、系统、计算机、存储介质及应用
Han et al. A triple-branch neural network for knowledge graph embedding
Pan et al. Lumos: Heterogeneity-aware federated graph learning over decentralized devices
CN111126443A (zh) 基于随机游走的网络表示学习方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20210615

WD01 Invention patent application deemed withdrawn after publication