CN114399025A - 一种图神经网络解释方法、系统、终端以及存储介质 - Google Patents

一种图神经网络解释方法、系统、终端以及存储介质 Download PDF

Info

Publication number
CN114399025A
CN114399025A CN202111571139.8A CN202111571139A CN114399025A CN 114399025 A CN114399025 A CN 114399025A CN 202111571139 A CN202111571139 A CN 202111571139A CN 114399025 A CN114399025 A CN 114399025A
Authority
CN
China
Prior art keywords
model
matrix
node
graph
interpretation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111571139.8A
Other languages
English (en)
Inventor
纪超杰
吴红艳
王如心
蔡云鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Institute of Advanced Technology of CAS
Original Assignee
Shenzhen Institute of Advanced Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Institute of Advanced Technology of CAS filed Critical Shenzhen Institute of Advanced Technology of CAS
Priority to CN202111571139.8A priority Critical patent/CN114399025A/zh
Publication of CN114399025A publication Critical patent/CN114399025A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请涉及一种图神经网络解释方法、系统、终端以及存储介质。所述方法包括:根据设定的扰动策略对初始图网络进行扰动,得到扰动后的邻接矩阵;将扰动后的邻接矩阵和原始特征矩阵输入待解释模型,通过待解释模型输出分类预测结果,并将特征矩阵输入解释模型,通过解释模型输出每个特征的重要性预测结果;根据特征的重要性预测结果计算图网络中每个节点的独立贡献度,并根据节点的独立贡献度计算边的贡献度;将贡献度大于设定阈值的边作为重要的边,并通过重要的边以及与之相连的节点生成用于对解释模型的预测行为进行解释的解释性子图。本申请充分考虑了被解释模型对实例周围的其它实例的反应,能够获得一个准确的局部忠诚的解释模型。

Description

一种图神经网络解释方法、系统、终端以及存储介质
技术领域
本申请属于深度学习技术领域,特别涉及一种图神经网络解释方法、系统、终端以及存储介质。
背景技术
传统的针对机器学习或者深度学习模型提出的可解释模型包括基于梯度的图解释模型[Pope,Phillip E.,et al."Explainability methods for graph convolutionalneural networks."Proceedings of the IEEE/CVF Conference on Computer Visionand Pattern Recognition.2019.]和LIME模型[M.T.Ribeiro,S. Singh,C.Guestrin,Whyshould i trust you?:Explaining the predictions of any classifier,in:Proc.SIGKDD,2016,pp.1135–1144.],基于梯度的图解释模型的设计思路是针对图像数据而设计的深度学习模型的解释模型,通过观察被解释模型在反向传播过程中产生的梯度值来定位可解释信息。由于该模型需要明确的知道被解释模型的内部参数和结构信息,因此不能归为模型不可知的解释模型(被解释模型的内部参数无需暴露给解释模型)。LIME模型是一个广泛运用于表格数据、文本数据和图像数据中的解释模型,由于该模型无法处理图拓扑结构,因此无法运用到图神经网络模型中。
现有的实例级的图神经网络解释模型,在生成针对一个实例的解释时,只观察被解释模型对这一个实例的反馈行为,而没有考虑被解释模型对目标实例周围其它实例的反应。但往往只有通过观察被解释模型在多个相似实例样本预测行为的反馈才能获得一个准确的局部忠诚的解释模型。
在图神经网络结构的数据中,解释模型需要用一个子图来解释图神经网络对一个实例的预测逻辑。同时,如何做到一个针对图神经网络来说模型不可知的解释模型就更加成为一个挑战。
发明内容
本申请提供了一种图神经网络解释方法、系统、终端以及存储介质,旨在至少在一定程度上解决现有技术中的上述技术问题之一。
为了解决上述问题,本申请提供了如下技术方案:
一种图神经网络解释方法,包括:
根据设定的扰动策略对初始图网络进行扰动,得到扰动后的邻接矩阵;
将所述扰动后的邻接矩阵和原始特征矩阵输入待解释模型,通过所述待解释模型输出分类预测结果,并将所述特征矩阵输入解释模型,通过所述解释模型输出每个特征的重要性预测结果;
根据所述特征的重要性预测结果计算图网络中每个节点的独立贡献度,并根据所述节点的独立贡献度计算边的贡献度;
将所述贡献度大于设定阈值的边作为重要的边,并通过所述重要的边以及与之相连的节点生成用于对所述解释模型的预测行为进行解释的解释性子图。
本申请实施例采取的技术方案还包括:所述根据设定的扰动策略对初始图网络进行扰动包括:
根据设定的扰动系数确定随机扰动率:
zE~BernouJli(l,,p1)
上式中,Bernoulli(1,p1)指以p1为概率生成一个伯努利分布,zE为在当前分布下生成的数字;
对所述初始图网络进行m次扰动,得到m个扰动后的邻接矩阵:
Figure BDA0003423365850000031
其中
Figure BDA0003423365850000032
表示产生的第j个
Figure BDA0003423365850000033
遍历所述邻接矩阵中的所有两两节点对,按照以下公式进行扰动:
Figure BDA0003423365850000034
上式中,[A]p,q表示邻接矩阵A中第p行第q列的元素,
Figure BDA0003423365850000035
表示异或操作。
本申请实施例采取的技术方案还包括:所述将所述扰动后的邻接矩阵和原始特征矩阵输入待解释模型还包括:
将所述邻接矩阵和原始特征矩阵的表示形式
Figure BDA0003423365850000036
转换为具有可解释性的模型能够接受的输入形式
Figure BDA0003423365850000037
Figure BDA0003423365850000038
上式中,
Figure BDA0003423365850000041
表示对邻接矩阵A做的第*次扰动所得到的邻接矩阵做 P次幂运算,
Figure BDA0003423365850000042
表示
Figure BDA0003423365850000043
中的第i行第j列元素;[X]j,:表示特征矩阵X中的第j行,·表示点乘运算,实数
Figure BDA0003423365850000044
逐元素乘以一个 1维向量[X]j,:;
Figure BDA0003423365850000045
表示向量拼接运算,将j从1到n分别带入
Figure BDA0003423365850000046
中,得到n个向量,n为所述初始图网络中节点的数量; (*)表示某一次扰动后的数据,k为待解释模型的层数。
本申请实施例采取的技术方案还包括:所述根据所述特征的重要性预测结果计算图网络中每个节点的独立贡献度之前还包括:
拟合所述待解释模型和解释模型的输出结果,使所述解释模型的预测结果趋近于待解释模型的预测结果。
本申请实施例采取的技术方案还包括:所述拟合所述待解释模型和解释模型的输出结果具体为:
Figure BDA0003423365850000047
上式中,
Figure BDA0003423365850000048
表示遍历所有扰动后的图网络数据,
Figure BDA0003423365850000049
表示遍历所有节点类别集合并观察待解释模型和解释模型对每个类别的预测结果,
Figure BDA00034233658500000410
为损失函数;f()为待解释模型,
Figure BDA00034233658500000411
表示输入第j个被扰动的邻接矩阵和原始特征矩阵时待解释模型的预测结果;g()为解释模型,输入为特征矩阵;wθ是解释模型g()的参数,ζΩ(·)用于限制wθ,使其变得稀疏。
本申请实施例采取的技术方案还包括:所述根据所述特征的重要性预测结果计算图网络中每个节点的独立贡献度具体为:
Figure BDA0003423365850000051
上式中,abs()为取绝对值操作,p为当前计算贡献度的节点,d为节点特征维度数,[wθ]j表示节点p内某个特征的贡献度。
本申请实施例采取的技术方案还包括:所述根据所述节点的独立贡献度计算边的贡献度具体为:
Figure BDA0003423365850000052
上式中,
Figure BDA0003423365850000053
表示针对节点i进行解释时,节点p的贡献度;
Figure BDA0003423365850000054
Figure BDA0003423365850000055
是两个相连的节点,平均之后即为
Figure BDA0003423365850000056
Figure BDA0003423365850000057
之间的边的贡献度。
本申请实施例采取的另一技术方案为:一种图神经网络解释系统,包括:
图网络扰动模块:用于根据设定的扰动策略对初始图网络进行扰动,得到扰动后的邻接矩阵;
预测模块:用于将所述扰动后的邻接矩阵和原始特征矩阵输入待解释模型,通过所述待解释模型输出分类预测结果,并将所述特征矩阵输入解释模型,通过所述解释模型输出每个特征的重要性预测结果;
贡献度计算模块:用于根据所述特征的重要性预测结果计算图网络中每个节点的独立贡献度,并根据所述节点的独立贡献度计算边的贡献度;
解释图生成模块:用于将所述贡献度大于设定阈值的边作为重要的边,并通过所述重要的边以及与之相连的节点生成用于对所述解释模型的预测行为进行解释的解释性子图。
本申请实施例采取的又一技术方案为:一种终端,所述终端包括处理器、与所述处理器耦接的存储器,其中,
所述存储器存储有用于实现所述图神经网络解释方法的程序指令;
所述处理器用于执行所述存储器存储的所述程序指令以控制图神经网络解释。
本申请实施例采取的又一技术方案为:一种存储介质,存储有处理器可运行的程序指令,所述程序指令用于执行所述图神经网络解释方法。
相对于现有技术,本申请实施例产生的有益效果在于:本申请实施例的图神经网络解释方法、系统、终端以及存储介质设计了一个针对图结构的扰动策略,从而取得待解释模型对目标解释实例周围样本的多个预测行为的观察,充分考虑了被解释模型对实例周围的其它实例的反应,能够获得一个准确的局部忠诚的解释模型,再通过解释模型获取对待解释模型的预测行为进行解释的解释子图,解决了现有的解释模型不能对图神经网络进行局部忠诚的解释的不足。同时,本申请不需要获知完整的模型内部结构,被解释模型的内部参数无需暴露给解释模型,扩展了解释模型的应用场景。
附图说明
图1是本申请实施例的图神经网络解释方法的流程图;
图2为本申请实施例的图神经网络解释系统结构示意图;
图3为本申请实施例的终端结构示意图;
图4为本申请实施例的存储介质的结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
请参阅图1,是本申请实施例的图神经网络解释方法的流程图。本申请实施例的图神经网络解释方法包括以下步骤:
S10:对初始图网络进行m次扰动,生成扰动后的邻接矩阵;
本步骤中,初始图网络中节点之间的连接关系可以用邻接矩阵A来表示。初始图网络中节点的特征矩阵X=[x1,x2,...,xn]T,其中xi维度为d,n为图网络中节点的数量。特征矩阵的构建方法可根据具体场景而定,例如,在论文学科分类中,可以使用每个节点所表示的论文标题或文本内容的词向量构建特征矩阵;在蛋白质细胞功能预测任务中,可以用蛋白质生物特性描述构建特征矩阵。
本申请实施例中,初始图网络的扰动系数p1决定对初始图网络的扰动程度,对初始图网络进行多次扰动的扰动过程具体包括:
S11:根据设定的扰动系数确定随机扰动率:
zE~Bernoulli(1,p1) (1)
式(1)中,Bernoulli(1,p1)指以p1为概率生成一个伯努利分布,即按照概率p1随机生成一个{0,1}的数字,p1越大生成数字1的概率越大,zE即为在当前分布下生成的数字。
S12:对初始图网络进行m次扰动,得到m个独立的扰动后的邻接矩阵,记为:
Figure BDA0003423365850000081
因为有m次扰动,因此会产生m个不同的
Figure BDA0003423365850000082
Figure BDA0003423365850000083
表示产生的第j个
Figure BDA0003423365850000084
S13:遍历邻接矩阵中的所有两两节点对,按照以下公式进行扰动:
Figure BDA0003423365850000085
式(3)中,[A]p,q表示邻接矩阵A中第p行第q列的元素,
Figure BDA0003423365850000086
表示异或操作。本申请实施例提供了三种不同的扰动策略,分别为:仅仅加边、仅仅减边以及加边或者减边,可根据不同的应用场景和图数据分布情况采用不同的扰动策略。
基于上述,本申请实施例通过基于图结构的扰动策略对初始图网络进行扰动,得到多个待解释目标样本附近的多个样本,为之后模型的解释提供更丰富的观察。
S20:将扰动后的邻接矩阵和原始特征矩阵输入已训练好的待解释模型 f,通过待解释模型f输出分类结果,同时将扰动后的特征矩阵输入解释模型,通过解释模型输出每个特征的重要性预测结果;
本步骤中,将所有扰动后的邻接矩阵和原始特征矩阵输入已训练好的待解释模型f还包括:将邻接矩阵和特征矩阵的表示形式
Figure BDA0003423365850000087
转换为一般的具有可解释性的模型能够接受的输入形式
Figure BDA0003423365850000088
Figure BDA0003423365850000089
式(4)中,
Figure BDA00034233658500000810
表示对邻接矩阵A做的第*次扰动所得到的邻接矩阵做P次幂运算,
Figure BDA00034233658500000811
表示
Figure BDA00034233658500000812
中的第i行第j列元素;[X]j,:表示特征矩阵X中的第j行。·表示点乘运算,前面的实数
Figure BDA00034233658500000813
逐元素乘以一个1维向量[X]j,:。
Figure BDA0003423365850000091
表示向量拼接运算,将j从1到n分别带入
Figure BDA0003423365850000092
中,得到n个向量,假设每个向量为300维,则拼接后会得到300n维的向量。(*)表示某一次扰动后的数据,k为待解释模型的层数,通过此操作可将邻接矩阵和特征矩阵合并转换为一个1维向量。
本申请实施例中,解释模型包括但不限于线性回归或随机森林等任何具有可解释性的算法。在完成模型训练后通过解释模型能够得到每个特征的重要性。在本申请实施例中,特征和节点是对应的,因此能够通过特征对节点进行定位。
S30:拟合待解释模型和解释模型的输出结果,使得解释模型的预测结果趋近于待解释模型的预测结果;
本步骤中,拟合待解释模型和解释模型的输出结果具体为:
Figure BDA0003423365850000093
式(5)中,
Figure BDA0003423365850000094
表示遍历所有扰动后的图网络数据,
Figure BDA0003423365850000095
表示遍历所有节点类别集合并观察待解释模型和解释模型对每个类别的预测结果,
Figure BDA0003423365850000096
是一个损失函数,包括但不限于交叉墒损失等。f()为待解释模型,
Figure BDA0003423365850000097
表示输入第j个被扰动的邻接矩阵和原始特征矩阵时待解释模型的预测结果。g()为解释模型,输入为特征矩阵。wθ是解释模型 g()的参数,ζΩ(·)用来限制wθ,使其变得更加稀疏,更便于理解。经过拟合后,解释模型g的预测行为在这些扰动产生的目标样本中和待解释模型f达到了近似。
当拟合相关的损失函数收敛后,即可通过解释模型得到每个节点在待解释模型预测行为中的贡献度,再通过节点的贡献提取出边的贡献度,最后根据贡献度较大的边生成对待解释目标的预测行为进行解释的解释子图。
S40:根据解释模型输出的特征重要性预测结果计算每个节点在待解释模型预测行为中的独立贡献度;
本步骤中,节点的独立贡献度计算公式为:
Figure BDA0003423365850000101
式(6)中,abs()为取绝对值操作,p为当前计算贡献度的节点,d为节点特征维度数,[wθ]j表示节点p内某个特征的贡献度。
S50:遍历在邻接矩阵A中存在连接关系的两两节点对,根据节点的独立贡献度计算边的贡献度;
本步骤中,边的贡献度计算公式为:
Figure BDA0003423365850000102
式(7)中,
Figure BDA0003423365850000103
表示针对节点i进行解释时,节点p的贡献度。
Figure BDA0003423365850000104
Figure BDA0003423365850000105
是两个相连的节点,平均之后即为
Figure BDA0003423365850000106
Figure BDA0003423365850000107
之间的边的贡献度。
S60:将贡献度大于设定阈值的边作为重要的边,并通过重要的边以及与之相连的节点生成用于对解释模型f的预测行为进行解释的解释性子图
Figure BDA0003423365850000108
基于上述,本申请实施例的图神经网络解释方法设计了一个针对图结构的扰动策略,从而取得待解释模型对目标解释实例周围样本的多个预测行为的观察,从而充分考虑了被解释模型对实例周围的其它实例的反应,能够获得一个准确的局部忠诚的解释模型,再通过解释模型获取对待解释模型的预测行为进行解释的解释子图,解决了现有的解释模型不能对图神经网络进行解释的不足。同时,本申请不需要获知完整的模型内部结构,被解释模型的内部参数无需暴露给解释模型,扩展了解释模型的应用场景。
请参阅图2,为本申请实施例的图神经网络解释系统结构示意图。本申请实施例的图神经网络解释系统40包括:
图网络扰动模块41:用于根据设定的扰动策略对初始图网络进行扰动,得到扰动后的邻接矩阵;
预测模块42:用于将扰动后的邻接矩阵和原始特征矩阵输入待解释模型,通过待解释模型输出分类预测结果,并将特征矩阵输入解释模型,通过解释模型输出每个特征的重要性预测结果;
贡献度计算模块43:用于根据特征的重要性预测结果计算图网络中每个节点的独立贡献度,并根据节点的独立贡献度计算边的贡献度;
解释图生成模块44:用于将贡献度大于设定阈值的边作为重要的边,并通过重要的边以及与之相连的节点生成用于对解释模型的预测行为进行解释的解释性子图。
请参阅图3,为本申请实施例的终端结构示意图。该终端50包括处理器 51、与处理器51耦接的存储器52。
存储器52存储有用于实现上述图神经网络解释方法的程序指令。
处理器51用于执行存储器52存储的程序指令以控制图神经网络解释。
其中,处理器51还可以称为CPU(Central Processing Unit,中央处理单元)。处理器51可能是一种集成电路芯片,具有信号的处理能力。处理器51 还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
请参阅图4,为本申请实施例的存储介质的结构示意图。本申请实施例的存储介质存储有能够实现上述所有方法的程序文件61,其中,该程序文件61 可以以软件产品的形式存储在上述存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器 (processor)执行本发明各个实施方式方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质,或者是计算机、服务器、手机、平板等终端设备。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本申请中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本申请所示的这些实施例,而是要符合与本申请所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种图神经网络解释方法,其特征在于,包括:
根据设定的扰动策略对初始图网络进行扰动,得到扰动后的邻接矩阵;
将所述扰动后的邻接矩阵和原始特征矩阵输入待解释模型,通过所述待解释模型输出分类预测结果,并将所述特征矩阵输入解释模型,通过所述解释模型输出每个特征的重要性预测结果;
根据所述特征的重要性预测结果计算图网络中每个节点的独立贡献度,并根据所述节点的独立贡献度计算边的贡献度;
将所述贡献度大于设定阈值的边作为重要的边,并通过所述重要的边以及与之相连的节点生成用于对所述解释模型的预测行为进行解释的解释性子图。
2.根据权利要求1所述的图神经网络解释方法,其特征在于,所述根据设定的扰动策略对初始图网络进行扰动包括:
根据设定的扰动系数确定随机扰动率:
zE~Bernoulli(l,,p1)
上式中,Bernoulli(1,p1)指以p1为概率生成一个伯努利分布,zE为在当前分布下生成的数字;
对所述初始图网络进行m次扰动,得到m个扰动后的邻接矩阵:
Figure FDA0003423365840000011
其中
Figure FDA0003423365840000012
表示产生的第j个
Figure FDA0003423365840000014
遍历所述邻接矩阵中的所有两两节点对,按照以下公式进行扰动:
Figure FDA0003423365840000013
上式中,[A]p,q表示邻接矩阵A中第p行第q列的元素,
Figure FDA0003423365840000021
表示异或操作。
3.根据权利要求2所述的图神经网络解释方法,其特征在于,所述将所述扰动后的邻接矩阵和原始特征矩阵输入待解释模型还包括:
将所述邻接矩阵和原始特征矩阵的表示形式
Figure FDA0003423365840000022
转换为具有可解释性的模型能够接受的输入形式
Figure FDA0003423365840000023
Figure FDA0003423365840000024
上式中,
Figure FDA0003423365840000025
表示对邻接矩阵A做的第*次扰动所得到的邻接矩阵做P次幂运算,
Figure FDA0003423365840000026
表示
Figure FDA0003423365840000027
中的第i行第j列元素;[X]j,:表示特征矩阵X中的第j行,·表示点乘运算,实数
Figure FDA0003423365840000028
逐元素乘以一个1维向量[X]j,:
Figure FDA0003423365840000029
表示向量拼接运算,将j从1到n分别带入
Figure FDA00034233658400000210
中,得到n个向量,n为所述初始图网络中节点的数量;(*)表示某一次扰动后的数据,k为待解释模型的层数。
4.根据权利要求3所述的图神经网络解释方法,其特征在于,所述根据所述特征的重要性预测结果计算图网络中每个节点的独立贡献度之前还包括:
拟合所述待解释模型和解释模型的输出结果,使所述解释模型的预测结果趋近于待解释模型的预测结果。
5.根据权利要求4所述的图神经网络解释方法,其特征在于,所述拟合所述待解释模型和解释模型的输出结果具体为:
Figure FDA00034233658400000211
上式中,
Figure FDA00034233658400000212
表示遍历所有扰动后的图网络数据,
Figure FDA00034233658400000213
表示遍历所有节点类别集合并观察待解释模型和解释模型对每个类别的预测结果,
Figure FDA00034233658400000214
为损失函数;f()为待解释模型,
Figure FDA0003423365840000031
表示输入第j个被扰动的邻接矩阵和原始特征矩阵时待解释模型的预测结果;g()为解释模型,输入为特征矩阵;wθ是解释模型g()的参数,ζΩ(·)用于限制wθ,使其变得稀疏。
6.根据权利要求1至5任一项所述的图神经网络解释方法,其特征在于,所述根据所述特征的重要性预测结果计算图网络中每个节点的独立贡献度具体为:
Figure FDA0003423365840000032
上式中,abs()为取绝对值操作,p为当前计算贡献度的节点,d为节点特征维度数,[wθ]j表示节点p内某个特征的贡献度。
7.根据权利要求6所述的图神经网络解释方法,其特征在于,所述根据所述节点的独立贡献度计算边的贡献度具体为:
Figure FDA0003423365840000033
上式中,
Figure FDA0003423365840000034
表示针对节点i进行解释时,节点p的贡献度;
Figure FDA0003423365840000035
Figure FDA0003423365840000036
是两个相连的节点,平均之后即为
Figure FDA0003423365840000037
Figure FDA0003423365840000038
之间的边的贡献度。
8.一种图神经网络解释系统,其特征在于,包括:
图网络扰动模块:用于根据设定的扰动策略对初始图网络进行扰动,得到扰动后的邻接矩阵;
预测模块:用于将所述扰动后的邻接矩阵和原始特征矩阵输入待解释模型,通过所述待解释模型输出分类预测结果,并将所述特征矩阵输入解释模型,通过所述解释模型输出每个特征的重要性预测结果;
贡献度计算模块:用于根据所述特征的重要性预测结果计算图网络中每个节点的独立贡献度,并根据所述节点的独立贡献度计算边的贡献度;
解释图生成模块:用于将所述贡献度大于设定阈值的边作为重要的边,并通过所述重要的边以及与之相连的节点生成用于对所述解释模型的预测行为进行解释的解释性子图。
9.一种终端,其特征在于,所述终端包括处理器、与所述处理器耦接的存储器,其中,
所述存储器存储有用于实现权利要求1-7任一项所述的图神经网络解释方法的程序指令;
所述处理器用于执行所述存储器存储的所述程序指令以控制图神经网络解释。
10.一种存储介质,其特征在于,存储有处理器可运行的程序指令,所述程序指令用于执行权利要求1至7任一项所述图神经网络解释方法。
CN202111571139.8A 2021-12-21 2021-12-21 一种图神经网络解释方法、系统、终端以及存储介质 Pending CN114399025A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111571139.8A CN114399025A (zh) 2021-12-21 2021-12-21 一种图神经网络解释方法、系统、终端以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111571139.8A CN114399025A (zh) 2021-12-21 2021-12-21 一种图神经网络解释方法、系统、终端以及存储介质

Publications (1)

Publication Number Publication Date
CN114399025A true CN114399025A (zh) 2022-04-26

Family

ID=81226540

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111571139.8A Pending CN114399025A (zh) 2021-12-21 2021-12-21 一种图神经网络解释方法、系统、终端以及存储介质

Country Status (1)

Country Link
CN (1) CN114399025A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114913921A (zh) * 2022-05-07 2022-08-16 厦门大学 一种标志基因识别的系统和方法
CN114964476A (zh) * 2022-05-27 2022-08-30 中国石油大学(北京) 油气管道系统动设备的故障诊断方法、装置及设备

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114913921A (zh) * 2022-05-07 2022-08-16 厦门大学 一种标志基因识别的系统和方法
CN114964476A (zh) * 2022-05-27 2022-08-30 中国石油大学(北京) 油气管道系统动设备的故障诊断方法、装置及设备
CN114964476B (zh) * 2022-05-27 2023-08-22 中国石油大学(北京) 油气管道系统动设备的故障诊断方法、装置及设备

Similar Documents

Publication Publication Date Title
Raschka et al. Python machine learning: Machine learning and deep learning with Python, scikit-learn, and TensorFlow 2
Raschka et al. Machine Learning with PyTorch and Scikit-Learn: Develop machine learning and deep learning models with Python
Huang et al. Graphlime: Local interpretable model explanations for graph neural networks
US11741361B2 (en) Machine learning-based network model building method and apparatus
CN110334742B (zh) 一种用于文档分类的基于强化学习的通过添加虚假节点的图对抗样本生成方法
Zandkarimi et al. A generic framework for trace clustering in process mining
Yamaguchi et al. Camlp: Confidence-aware modulated label propagation
CN114399025A (zh) 一种图神经网络解释方法、系统、终端以及存储介质
Raschka et al. Python machine learning second edition
KR20240128645A (ko) Qa 모델을 이용하여 지식 그래프를 구축하는 방법, 장치 및 컴퓨터 프로그램
Leon-Alcaide et al. An evolutionary approach for efficient prototyping of large time series datasets
Huang et al. Evolutionary analysis and interaction prediction for protein-protein interaction network in geometric space
Latona et al. The AI Review Lottery: Widespread AI-Assisted Peer Reviews Boost Paper Scores and Acceptance Rates
Kang et al. Unsupervised domain adaptation for 3D point clouds by searched transformations
US11609936B2 (en) Graph data processing method, device, and computer program product
CN113516182B (zh) 视觉问答模型训练、视觉问答方法和装置
CN115640517A (zh) 多方协同模型训练方法、装置、设备和介质
Yang et al. Model free estimation of graphical model using gene expression data
Hasanzadeh et al. Bayesian graph contrastive learning
US11568255B2 (en) Fine tuning of trained artificial neural network
Gomez et al. Computing and evaluating saliency maps for image classification: a tutorial
CN114399026A (zh) 一种图神经网络解释方法、系统、终端以及存储介质
Turki et al. A learning framework to improve unsupervised gene network inference
Bellot et al. Linear Deconfounded Score Method: Scoring DAGs With Dense Unobserved Confounding
Cuzzocrea Multidimensional Clustering over Big Data: Models, Issues, Analysis, Emerging Trends

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination