CN114550737A - 一种基于神经通路的图垂直联邦数据增强方法与装置 - Google Patents

一种基于神经通路的图垂直联邦数据增强方法与装置 Download PDF

Info

Publication number
CN114550737A
CN114550737A CN202210138124.0A CN202210138124A CN114550737A CN 114550737 A CN114550737 A CN 114550737A CN 202210138124 A CN202210138124 A CN 202210138124A CN 114550737 A CN114550737 A CN 114550737A
Authority
CN
China
Prior art keywords
node
model
local
graph
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210138124.0A
Other languages
English (en)
Inventor
陈晋音
黄国瀚
刘涛
李荣昌
俞山青
赵云波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202210138124.0A priority Critical patent/CN114550737A/zh
Publication of CN114550737A publication Critical patent/CN114550737A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Molecular Biology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种基于神经通路的图垂直联邦数据增强方法与装置,首先构建具有奖励机制的图垂直联邦学习框架;在训练过程中,通过计算本地模型神经元激活值,根据其与模型每一层输入的梯度关系,获得本地模型的逆向神经通路,通过模型神经通路寻找有利于中心服务器模型性能的图拓扑结构;再通过计算本地模型神经元激活值,根据其与模型每一层输入的梯度关系,获得本地模型的逆向神经通路,通过模型神经通路寻找有利于中心服务器模型性能的节点特征;然后基于寻找到的图拓扑结构和节点特征,对本地数据进行数据增强;最后将经过增强后的本地数据继续用于图垂直联邦学习模型的训练,从而提高本地参与方在图垂直联邦模型中的贡献度。

Description

一种基于神经通路的图垂直联邦数据增强方法与装置
技术领域
本发明属于网络安全技术领域,具体涉及一种基于神经通路的图垂直联邦数据增强方法与装置。
背景技术
图神经网络已经在图表示学习领域中取得了引人瞩目的成绩,它可以高效地对非规则的图结构数据进行处理和分析,并极大地便利了下游应用的使用,例如节点分类、图分类以及链路预测等。图卷积模型是其中一种经典的图神经网络。然而,现有的图神经网络依赖于完整的节点连接信息以及丰富的节点特征信息,这在现实生活中往往是难以达到的。不同的机构拥有的数据信息可能不完全相同,由于隐私限制以及竞争关系的存在,这些数据往往不能被直接共享,造成了“数据孤岛”的现象,这导致图神经网络难以最大程度地发挥其作用。而图垂直联邦学习的提出,正是为了解决这种数据隔离的问题。在图垂直联邦学习中,不同图数据拥有者可以通过交换模型计算的中间结果,在保证数据隐私不出本地的情况下,共同维护一个可靠的中心模型,并提高本地端模型的质量,从而获得较仅有本地数据的情况下更好的结果。
然而,在一些联邦学习框架中,中心服务器将根据不同参与方上传数据的质量计算各参与方的贡献度,并通过该贡献度指标为不同参与方分配不同的奖励,以此促进参与者提供更优质的数据,而优质数据将进一步提高中心服务器模型的业务能力,以获得更多的收益。因此,如何通过数据增强的方式,提高参与方在图垂直联邦场景中的贡献度,以获得更好的模型预测能力以及更多的奖励具有重要的现实意义。
发明内容
在图垂直联邦模型在多方联合训练的场景中,其中可能存在一些参与方数据质量较差的情况,为了提高这些参与方在图垂直联邦模型中的贡献度,提高中心服务器模型的业务能力,获取更多的收益,本发明提供了一种基于神经通路的图垂直联邦数据增强方法,通过本地模型的神经通路逆向寻找最有利于服务器模型性能的图结构和节点特征,并进行数据增强,从而提高该参与方在图垂直联邦模型中的贡献度。
为实现上述发明,本发明提供的技术方案为:
本发明实施例的第一方面提出了一种基于神经通路的图垂直联邦数据增强方法,包括以下步骤:
步骤S1,定义奖励机制,基于若干本地模型参与方与一中心服务器组成图垂直联邦学习框架;
步骤S2,通过计算本地模型神经元激活值,根据其与本地模型每一层输入的梯度关系,获得本地模型的逆向神经通路,通过该逆向神经通路寻找图拓扑结构;
步骤S3,基于步骤S2得到的逆向神经通路寻找有利于中心服务器模型性能的目标修改节点的节点特征;
步骤S4,基于步骤S2和步骤S3得到的图拓扑结构和节点特征,对本地数据进行数据增强。
进一步地,所述本地模型具体为图神经网络,所述本地模型的输出的本地节点嵌入向量E为:
Figure BDA0003505792050000021
Figure BDA0003505792050000022
其中,ρ(·)代表ReLU激活函数,X为节点特征矩阵,W1和W2分别为第1层和第2层的模型参数,A为图结构对应的邻接矩阵;IN为N×N的对角矩阵,N为节点数量;
Figure BDA0003505792050000023
为节点的度矩阵。
进一步地,所述中心服务器模型具体为:本地模型将本地节点嵌入向量E上传至中心服务器模型,所述中心服务器模型对上传的本地节点嵌入向量进行拼接处理后生成全局节点嵌入向量Eglobal
Eglobal=E1||...||Em
其中,||为拼接操作符,m为参与方数量;
利用全局节点嵌入向量Eglobal训练中心服务器模型;
所述中心服务器的训练目标为:
Figure BDA0003505792050000024
其中,{VL}为带标签的节点集合,|P|为图中节点的类别数。Y为节点的真实标签。中心服务器模型以上述训练目标,更新中心服务器模型参数[θ1...θl]。
进一步地,所述奖励机制具体为:所述中心服务器根据各本地模型的贡献度分配奖励,第i个参与方的贡献度Ci计算公式为:
Figure BDA0003505792050000031
其中,acci代表仅有第i个参与方数据情况下服务器的预测准确率,η为贡献度放缩常数,m为参与方数量;
所述本地模型的贡献度进行奖励分配的计算公式为:
Figure BDA0003505792050000032
其中,Rtotal为总体奖励值,m为参与方数量。
进一步地,所述步骤S2具体为:训练中央服务器模型,选取一本地模型作为数据增强方,数据增强方对上传的本地节点嵌入向量取最大值对应的神经元作为逆向神经通路的起始神经元,并将该神经元激活值M对上一层输入求梯度,获得神经元梯度矩阵gneural,则第l-1层梯度矩阵为:
Figure BDA0003505792050000033
其中,Ml为第l层神经元激活最大值:
Figure BDA0003505792050000034
其中,hl代表模型第l层神经元激活值。获得上一层重要神经元直至获得输入层神经元,形成逆向神经通路;
将所有样本进行上述测试,获得每个样本的重要输入层神经元,统计得到同类节点中的重要输入神经元,并取对应神经元激活值最小的k个节点作为目标修改节点集合{vs},取输入层神经元激活值Min最大的节点作为目标生成节点vt
将目标生成节点对应神经元激活值对输入的邻接矩阵求导,获得连边梯度矩阵gedge
Figure BDA0003505792050000035
选择目标生成节点vt在gedge中梯度最大的K条连边集合{ed}和对应的节点集合{vd},(·)T代表矩阵转置操作,得到图拓扑结构。
进一步地,所述步骤S3具体为:
根据步骤S2获得的逆向神经通路、目标修改节点集合{vs}、目标生成节点vt以及对应的神经元激活值Min,将目标生成节点对应神经元激活值对输入的节点特征矩阵求导,获得特征梯度矩阵Gattri
Figure BDA0003505792050000041
选择目标生成节点上梯度最大的特征集合{Fd}作为目标修改节点需要添加的节点特征。
进一步地,所述步骤S4具体为:
将图拓扑结构对应的节点与目标修改节点相连接:
{vnei}={vori}∪{vd}
{enei}={eori}∪{ed}
其中,{vnei}为目标修改节点的邻居节点集合,{vori}为原有的邻居节点集合,{enei}为目标修改节点的连边集合,{eori}为原有的连边集合;
将目标修改节点的特征中添加步骤S3获得的节点特征,完成本地数据的数据增强,公式如下:
{F}={Fori}∪{Fd}
其中,{F}为目标修改节点的经数据增强后的节点特征集合,{Fori}为原有的节点特征集合,{Fd}为目标修改节点。
进一步地,将经过增强后的本地数据用于训练图垂直联邦学习框架。
本发明实施例的第二方面提供了一种基于神经通路的图垂直联邦数据增强,包括存储器和处理器,其中,所述存储器与所述处理器耦接;其中,所述存储器用于存储程序数据,所述处理器用于执行所述程序数据以实现上述的基于神经通路的图垂直联邦数据增强方法。
本发明实施例的第三方面提供了一种计算机可读存储介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现上述的基于神经通路的图垂直联邦数据增强方法。
与现有技术相比,本发明具有的有益效果至少包括:本发明提供的基于神经通路的图垂直联邦数据增强方法,通过计算神经元激活值,根据其与模型每一层输入的梯度关系,获得本地模型的逆向神经通路;通过找到的神经通路寻找最有利于中心服务器模型性能的图拓扑结构和节点特征;基于寻找到的图拓扑结构和节点特征对本地数据进行数据增强;最后将经过增强后的本地数据继续用于图垂直联邦学习模型的训练,从而提高本地参与方在图垂直联邦模型中的贡献度。
附图说明
图1是基于神经通路的图垂直联邦数据增强方法的整体框架示意图;
图2为本发明装置的示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
在本发明使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本发明可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本发明范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
下面结合附图,对本发明的基于神经通路的图垂直联邦数据增强进行详细说明。在不冲突的情况下,下述的实施例及实施方式中的特征可以相互组合。
为使本发明的目的、技术方案及优点更加清楚明白,下面结合附图对本发明作进一步详细描述。
参照图1,本发明实施例提出了一种基于神经通路的图垂直联邦数据增强方法,包括以下步骤:
1)构建具有奖励机制的图垂直联邦学习模型;
如图1所示,由各训练参与方以及一个中心服务器模型共同构建图垂直联邦学习框架。
具体包括以下子步骤:
1.1)构建基于图神经网络的本地模型;
训练参与方本地端使用图神经网络作为本地模型,本发明实施例以其中一个参与方并以双层图卷积网络模型为例,其本地模型输出的本地节点嵌入向量E为:
Figure BDA0003505792050000061
其中,ρ(·)代表ReLU激活函数,X为节点特征矩阵,W1和W2分别为图卷积模型第1层和第2层的参数,A为图结构对应的邻接矩阵。IN为N×N的对角矩阵(N为图中包含的节点数量),代表了节点的自连接。此外
Figure BDA0003505792050000062
为图中节点的度矩阵。
在训练过程中,训练参与方向中心服务器模型上传本地节点嵌入向量E,用于中心服务器模型的训练,并通过中心服务器模型反馈的梯度信息,更新本地图卷积模型参数W1和W2。其余训练参与方均以相同的方式构建与训练本地模型。
1.2)构建中心服务器模型;
中心服务器模型对各训练参与方上传的本地节点嵌入向量进行拼接处理后生成全局节点嵌入向量Eglobal
Eglobal=E1||...||Em (2)
其中,||为拼接操作符,m为参与方数量。
根据全局节点嵌入向量Eglobal训练中心服务器模型,这里中心服务器模型以l层的多层感知机为例,输出置信度Y':
Y'=f(θl·ρ(...ρ(θ1·Eglobal))) (3)
其中,θl为第l层的模型参数,f(·)为softmax函数,ρ(·)代表ReLU激活函数。
中心服务器的训练目标为:
Figure BDA0003505792050000063
其中,{VL}为带标签的节点集合,|P|为图中节点的类别数。Y为节点的真实标签。中心服务器模型以上述训练目标,更新中心服务器模型参数[θ1...θl]。
1.3)建立基于贡献度的奖励机制;
中心服务器向各训练参与方本地模型反馈梯度以及置信度信息,并根据各训练参与方的贡献度,为训练参与方分配奖励,第i个参与方的贡献度计算公式为:
Figure BDA0003505792050000071
其中,acci代表仅有第i个参与方数据情况下,服务器的预测准确率,η为贡献度放缩常数,m为参与方数量。
基于训练参与方的贡献度进行奖励分配的计算公式为:
Figure BDA0003505792050000072
其中,Rtotal为总体奖励值,m为参与方数量。
2)通过计算本地模型神经元激活值,根据其与模型每一层输入的梯度关系,获得本地模型的逆向神经通路,通过模型神经通路寻找最有利于中心服务器模型性能的图拓扑结构;具体为:
首先,在中央服务器模型进行训练后,选取一本地模型作为数据增强方,数据增强方对上传的本地节点嵌入向量取最大值对应的神经元作为逆向神经通路的起始神经元,并将该神经元激活值M对上一层输入求梯度,获得神经元梯度矩阵gneural,则第l-1层梯度矩阵为:
Figure BDA0003505792050000073
其中,Ml为第l层神经元激活最大值:
Figure BDA0003505792050000074
其中,hl代表模型第l层神经元激活值。根据公式(7)和(8)获得上一层重要神经元直至获得输入层神经元,形成逆向神经通路。
将所有训练样本均进行上述步骤测试,获得每个样本的重要输入层神经元,并按训练节点的标签进行统计,得到同类节点中的重要输入神经元,并取对应神经元激活值最小的k个节点作为目标修改节点集合{vs},取输入层神经元激活值Min最大的节点作为目标生成节点vt
将目标生成节点对应神经元激活值对输入的邻接矩阵求导,获得连边梯度矩阵gedge
Figure BDA0003505792050000081
选择目标生成节点vt在gedge中梯度最大的K条连边集合{ed}和对应的节点集合{vd},(·)T代表矩阵转置操作,得到有利于中心服务器模型性能的图拓扑结构。
3)根据步骤2)得到的逆向神经通路,通过模型神经通路寻找最有利于训练中心服务器模型性能的目标修改节点的节点特征;
根据步骤2)获得的逆向神经通路、目标修改节点集合{vs}、目标生成节点vt以及对应的神经元激活值Min。将目标生成节点对应神经元激活值对输入的节点特征矩阵求导,获得特征梯度矩阵Gattri
Figure BDA0003505792050000082
选择特征梯度矩阵Gattri中梯度最大的特征集合{Fd}作为目标修改节点需要添加的节点特征,所述目标修改节点的节点特征有利于提升中心服务器模型性能。
4)基于步骤2)和步骤3)寻找到的图拓扑结构和节点特征,对本地数据进行数据增强;
根据步骤2)和步骤3)获得有利于中心服务器模型性能的图拓扑结构和目标修改节点的节点特征,以及目标修改节点。
将图拓扑结构对应的节点与目标修改节点相连接:
{vnei}={vori}∪{vd} (11)
{enei}={eori}∪{ed} (12)
其中,{vnei}为目标修改节点的邻居节点集合,{vori}为原有的邻居节点集合,{enei}为目标修改节点的连边集合,{eori}为原有的连边集合。
将目标修改节点的特征中添加步骤3)获得的节点特征:
{F}={Fori}∪{Fd} (13)
其中,{F}为目标修改节点的经过数据增强后的节点特征集合,{Fori}为原有的节点特征集合,最终完成对本地数据的数据增强。
5)将经过增强后的本地数据继续用于图垂直联邦学习框架的训练;
经过步骤4)获得经过数据增强后的本地图结构数据和节点特征数据,在接下来的训练中使用增强后的数据继续训练图垂直联邦模型,以提高数据增强参与方在图垂直联邦模型中的贡献度。
与前述基于神经通路的图垂直联邦数据增强方法的实施例相对应,本发明还提供了基于神经通路的图垂直联邦数据增强装置的实施例。
参见图2,本发明实施例提供的一种基于神经通路的图垂直联邦数据增强装置,包括一个或多个处理器,用于实现上述实施例中的基于神经通路的图垂直联邦数据增强方法。
本发明基于神经通路的图垂直联邦数据增强装置的实施例可以应用在任意具备数据处理能力的设备上,该任意具备数据处理能力的设备可以为诸如计算机等设备或装置。装置实施例可以通过软件实现,也可以通过硬件或者软硬件结合的方式实现。以软件实现为例,作为一个逻辑意义上的装置,是通过其所在任意具备数据处理能力的设备的处理器将非易失性存储器中对应的计算机程序指令读取到内存中运行形成的。从硬件层面而言,如图2所示,为本发明基于神经通路的图垂直联邦数据增强装置所在任意具备数据处理能力的设备的一种硬件结构图,除了图2所示的处理器、内存、网络接口、以及非易失性存储器之外,实施例中装置所在的任意具备数据处理能力的设备通常根据该任意具备数据处理能力的设备的实际功能,还可以包括其他硬件,对此不再赘述。
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本发明方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本发明实施例还提供一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时,实现上述实施例中的基于神经通路的图垂直联邦数据增强方法。
所述计算机可读存储介质可以是前述任一实施例所述的任意具备数据处理能力的设备的内部存储单元,例如硬盘或内存。所述计算机可读存储介质也可以是任意具备数据处理能力的设备,例如所述设备上配备的插接式硬盘、智能存储卡(Smart Media Card,SMC)、SD卡、闪存卡(Flash Card)等。进一步的,所述计算机可读存储介质还可以既包括任意具备数据处理能力的设备的内部存储单元也包括外部存储设备。所述计算机可读存储介质用于存储所述计算机程序以及所述任意具备数据处理能力的设备所需的其他程序和数据,还可以用于暂时地存储已经输出或者将要输出的数据。
综上所述,本发明提供的基于神经通路的图垂直联邦数据增强方法,通过计算神经元激活值,根据其与模型每一层输入的梯度关系,获得本地模型的逆向神经通路;通过找到的神经通路寻找最有利于中心服务器模型性能的图拓扑结构和节点特征;基于寻找到的图拓扑结构和节点特征对本地数据进行数据增强;最后将经过增强后的本地数据继续用于图垂直联邦学习模型的训练,从而提高本地参与方在图垂直联邦模型中的贡献度。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (10)

1.一种基于神经通路的图垂直联邦数据增强方法,其特征在于,包括以下步骤:
步骤S1,定义奖励机制,基于若干本地模型参与方与一中心服务器组成图垂直联邦学习框架;
步骤S2,通过计算本地模型神经元激活值,根据其与本地模型每一层输入的梯度关系,获得本地模型的逆向神经通路,通过该逆向神经通路寻找图拓扑结构;
步骤S3,基于步骤S2得到的逆向神经通路寻找有利于中心服务器模型性能的目标修改节点的节点特征;
步骤S4,基于步骤S2和步骤S3得到的图拓扑结构和节点特征,对本地数据进行数据增强。
2.根据权利要求1所述的基于神经通路的图垂直联邦数据增强方法,其特征在于,所述本地模型具体为图神经网络,所述本地模型的输出的本地节点嵌入向量E为:
Figure FDA0003505792040000011
Figure FDA0003505792040000012
其中,ρ(·)代表ReLU激活函数,X为节点特征矩阵,W1和W2分别为第1层和第2层的模型参数,A为图结构对应的邻接矩阵;IN为N×N的对角矩阵,N为节点数量;
Figure FDA0003505792040000013
为节点的度矩阵。
3.根据权利要求2所述的基于神经通路的图垂直联邦数据增强方法,其特征在于,所述中心服务器模型具体为:本地模型将本地节点嵌入向量E上传至中心服务器模型,所述中心服务器模型对上传的本地节点嵌入向量进行拼接处理后生成全局节点嵌入向量Eglobal
Eglobal=E1||...||Em
其中,||为拼接操作符,m为参与方数量;
利用全局节点嵌入向量Eglobal训练中心服务器模型;
所述中心服务器的训练目标为:
Figure FDA0003505792040000014
其中,{VL}为带标签的节点集合,|P|为图中节点的类别数。Y为节点的真实标签。中心服务器模型以上述训练目标,更新中心服务器模型参数[θ1...θl]。
4.根据权利要求1所述的基于神经通路的图垂直联邦数据增强方法,其特征在于,所述奖励机制具体为:所述中心服务器根据各本地模型的贡献度分配奖励,第i个参与方的贡献度Ci计算公式为:
Figure FDA0003505792040000021
其中,acci代表仅有第i个参与方数据情况下服务器的预测准确率,η为贡献度放缩常数,m为参与方数量;
所述本地模型的贡献度进行奖励分配的计算公式为:
Figure FDA0003505792040000022
其中,Rtotal为总体奖励值,m为参与方数量。
5.根据权利要求1所述的基于神经通路的图垂直联邦数据增强方法,其特征在于,所述步骤S2具体为:训练中央服务器模型,选取一本地模型作为数据增强方,数据增强方对上传的本地节点嵌入向量取最大值对应的神经元作为逆向神经通路的起始神经元,并将该神经元激活值M对上一层输入求梯度,获得神经元梯度矩阵gneural,则第l-1层梯度矩阵为:
Figure FDA0003505792040000023
其中,Ml为第l层神经元激活最大值:
Figure FDA0003505792040000024
其中,hl代表模型第l层神经元激活值。获得上一层重要神经元直至获得输入层神经元,形成逆向神经通路;
将所有样本进行上述测试,获得每个样本的重要输入层神经元,统计得到同类节点中的重要输入神经元,并取对应神经元激活值最小的k个节点作为目标修改节点集合{vs},取输入层神经元激活值Min最大的节点作为目标生成节点vt
将目标生成节点对应神经元激活值对输入的邻接矩阵求导,获得连边梯度矩阵gedge
Figure FDA0003505792040000031
选择目标生成节点vt在gedge中梯度最大的K条连边集合{ed}和对应的节点集合{vd},(·)T代表矩阵转置操作,得到图拓扑结构。
6.根据权利要求1所述的基于神经通路的图垂直联邦数据增强方法,其特征在于,所述步骤S3具体为:
根据步骤S2获得的逆向神经通路、目标修改节点集合{vs}、目标生成节点vt以及对应的神经元激活值Min,将目标生成节点对应神经元激活值对输入的节点特征矩阵求导,获得特征梯度矩阵Gattri
Figure FDA0003505792040000032
选择目标生成节点上梯度最大的特征集合{Fd}作为目标修改节点需要添加的节点特征。
7.根据权利要求1所述的基于神经通路的图垂直联邦数据增强方法,其特征在于,所述步骤S4具体为:
将图拓扑结构对应的节点与目标修改节点相连接:
{vnei}={vori}∪{vd}
{enei}={eori}∪{ed}
其中,{vnei}为目标修改节点的邻居节点集合,{vori}为原有的邻居节点集合,{enei}为目标修改节点的连边集合,{eori}为原有的连边集合;
将目标修改节点的特征中添加步骤S3获得的节点特征,完成本地数据的数据增强,公式如下:
{F}={Fori}∪{Fd}
其中,{F}为目标修改节点的经数据增强后的节点特征集合,{Fori}为原有的节点特征集合,{Fd}为目标修改节点。
8.根据权利要求1所述的基于神经通路的图垂直联邦数据增强方法,其特征在于,将经过增强后的本地数据用于训练图垂直联邦学习框架。
9.一种基于神经通路的图垂直联邦数据增强,包括存储器和处理器,其中,所述存储器与所述处理器耦接;其中,所述存储器用于存储程序数据,所述处理器用于执行所述程序数据以实现上述权利要求1-8任一项所述的基于神经通路的图垂直联邦数据增强方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-8中任一所述的基于神经通路的图垂直联邦数据增强方法。
CN202210138124.0A 2022-02-15 2022-02-15 一种基于神经通路的图垂直联邦数据增强方法与装置 Pending CN114550737A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210138124.0A CN114550737A (zh) 2022-02-15 2022-02-15 一种基于神经通路的图垂直联邦数据增强方法与装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210138124.0A CN114550737A (zh) 2022-02-15 2022-02-15 一种基于神经通路的图垂直联邦数据增强方法与装置

Publications (1)

Publication Number Publication Date
CN114550737A true CN114550737A (zh) 2022-05-27

Family

ID=81676176

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210138124.0A Pending CN114550737A (zh) 2022-02-15 2022-02-15 一种基于神经通路的图垂直联邦数据增强方法与装置

Country Status (1)

Country Link
CN (1) CN114550737A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117453414A (zh) * 2023-11-10 2024-01-26 国网山东省电力公司营销服务中心(计量中心) 电力数据参与数据共享计算的贡献度预测方法及系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117453414A (zh) * 2023-11-10 2024-01-26 国网山东省电力公司营销服务中心(计量中心) 电力数据参与数据共享计算的贡献度预测方法及系统

Similar Documents

Publication Publication Date Title
CN108133330B (zh) 一种面向社交众包任务分配方法及其系统
CN112949837A (zh) 一种基于可信网络的目标识别联邦深度学习方法
CN110175850B (zh) 一种交易信息的处理方法及装置
Ou et al. A novel rank learning based no-reference image quality assessment method
CN109558902A (zh) 一种快速目标检测方法
CN111222847B (zh) 基于深度学习与非监督聚类的开源社区开发者推荐方法
CN113361928B (zh) 一种基于异构图注意力网络的众包任务推荐方法
Kazemi et al. Unsupervised facial geometry learning for sketch to photo synthesis
de Meer Pardo Enriching financial datasets with generative adversarial networks
CN115358809A (zh) 一种基于图对比学习的多意图推荐方法及装置
CN111079930B (zh) 数据集质量参数的确定方法、装置及电子设备
CN114925854A (zh) 一种基于梯度相似性度量的联邦学习节点选择方法及系统
CN116187430A (zh) 一种联邦学习方法及相关装置
Yin et al. Finite mixtures of ERGMS for modeling ensembles of networks
CN112365007A (zh) 模型参数确定方法、装置、设备及存储介质
CN110502701B (zh) 引入注意力机制的好友推荐方法、系统和存储介质
CN114997374A (zh) 一种针对数据倾斜的快速高效联邦学习方法
CN116227624A (zh) 面向异构模型的联邦知识蒸馏方法和系统
CN114550737A (zh) 一种基于神经通路的图垂直联邦数据增强方法与装置
Huang et al. An Ad CTR prediction method based on feature learning of deep and shallow layers
Faezi et al. Degan: Decentralized generative adversarial networks
DE102024101470A1 (de) Text-zu-bild-diffusionsmodell mit komponentensperre und rang-eins-bearbeitung
Li et al. Dual-track spatio-temporal learning for urban flow prediction with adaptive normalization
CN109359542A (zh) 基于神经网络的车辆损伤级别的确定方法及终端设备
CN116431915A (zh) 一种基于联邦学习和注意力机制的跨域推荐方法与装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination