CN113850381A - 一种图神经网络训练方法及装置 - Google Patents

一种图神经网络训练方法及装置 Download PDF

Info

Publication number
CN113850381A
CN113850381A CN202111081570.4A CN202111081570A CN113850381A CN 113850381 A CN113850381 A CN 113850381A CN 202111081570 A CN202111081570 A CN 202111081570A CN 113850381 A CN113850381 A CN 113850381A
Authority
CN
China
Prior art keywords
node
nodes
graph
neural network
input matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111081570.4A
Other languages
English (en)
Inventor
张屹綮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202111081570.4A priority Critical patent/CN113850381A/zh
Publication of CN113850381A publication Critical patent/CN113850381A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/03Credit; Loans; Processing thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/04Trading; Exchange, e.g. stocks, commodities, derivatives or currency exchange

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • General Business, Economics & Management (AREA)
  • Technology Law (AREA)
  • Strategic Management (AREA)
  • Computing Systems (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Development Economics (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本说明书一个或多个实施例提供一种图神经网络训练方法及装置,获取初始图数据后,计算获取的初始图数据中每两个节点之间的亲密度,亲密度大小反应了两个节点拓扑结构的相似度。通过亲密度大小,针对每个节点,按照亲密度从大到小的顺序,将用于更新该节点的节点构造成输入矩阵,并将每个节点的输入矩阵作为输入,每个节点的风险分类标签作为输出,根据每个节点的风险分类标签,训练图神经网络。这样,根据亲密度来筛选节点,更新节点所考虑的节点不仅局限于一阶邻域的节点,还可以考虑到高阶邻域上的节点,使得节点更新可以考虑全局信息,特征表征更加准确。

Description

一种图神经网络训练方法及装置
技术领域
本说明书一个或多个实施例涉及计算机应用技术领域,尤其涉及一种图神经网络训练方法及装置。
背景技术
金融风控场景中,为了能更好地识别金融欺诈风险,通常是基于机器学习,来对每条交易数据进行特征表征,再通过训练的分类器来对特征进行分类,从而确定是否存在金融欺诈风险。为了能更好地实现金融欺诈风险的检测,相关技术中通常使用能反映多个交易数据之间关系信息的图神经网络来进行特征表征。图神经网络中的图指的是,由若干个节点和节点之间相连的边组成的具有拓扑结构的图。图神经网络中,每个节点一般代表交易的一方,边一般用于表征两个节点之间的关系,也就是交易双方之间的关系等。
而目前的图神经网络的训练方法,存在节点更新过程中无法对全局信息进行学习,这使得目前的图神经网络仍无法对样本特征进行有效表征,无法较好排查金融欺诈风险。
发明内容
有鉴于此,本说明书一个或多个实施例提供一种图神经网络训练方法及装置。
根据本说明书一个或多个实施例的第一方面,提出了一种图神经网络训练方法,所述方法包括:
获取初始图数据;所述初始图数据为包含若干个节点且具有拓扑结构的图的数据;
计算所述初始图数据中每两个节点之间的亲密度;所述亲密度的大小与所述亲密度对应的两个节点的拓扑结构相似度正相关;
针对每个节点i,i=1,2,3,...N,N为图中的节点总数,构建该节点的输入矩阵Hi,其中,输入矩阵的第1列对应于节点i的特征向量,第2~M列分别对应于:与节点i的亲密度由大到小排序的其他M-1个节点的特征向量;M为预设的小于等于N的自然数;
以每个节点的输入矩阵作为输入,以每个节点的交易风险分类为输出,根据节点对应的交易风险分类标签,训练图神经网络;所述图神经网络用于对每个节点对应的用户的交易风险进行分类。
根据本说明书一个或多个实施例的第二方面,提出了一种图神经网络训练装置,所述装置包括:
初始图数据获取模块,用于获取初始图数据;所述初始图数据为包含若干个节点且具有拓扑结构的图的数据;
亲密度计算模块,用于计算所述初始图数据中每两个节点之间的亲密度;所述亲密度的大小与所述亲密度对应的两个节点的拓扑结构相似度正相关;
输入矩阵构造模块,用于针对每个节点i,i=1,2,3,...N,N为图中的节点总数,构建该节点的输入矩阵Hi,其中,输入矩阵的第1列对应于节点i的特征向量,第2~M列分别对应于:与节点i的亲密度由大到小排序的其他M-1个节点的特征向量;M为预设的小于等于N的自然数;
图神经网络训练模块,用于以每个节点的输入矩阵作为输入,以每个节点的交易风险分类为输出,根据节点对应的交易风险分类标签,训练图神经网络;所述图神经网络用于对每个节点对应的用户的交易风险进行分类。
根据本说明书实施例的第三方面,提供一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现如本说明书实施例第一方面所述的图神经网络训练方法。
根据本说明书实施例的第四方面,提供一种电子设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器通过运行所述可执行指令以实现如本说明书实施例第一方面所述的图神经网络训练方法。
本说明书一个或多个实施例提供一种图神经网络训练方法及装置,获取初始图数据后,计算获取的初始图数据中每两个节点之间的亲密度,亲密度大小反应了两个节点拓扑结构的相似度。通过亲密度大小,针对每个节点,按照亲密度从大到小的顺序,将用于更新该节点的节点构造成输入矩阵,并将每个节点的输入矩阵作为输入,每个节点的交易风险的分类标签作为输出,根据每个节点的节点分类标签,训练图神经网络。这样,根据亲密度来筛选节点,更新节点所考虑的节点不仅局限于一阶邻域的节点,还可以考虑到高阶邻域上的节点,使得节点更新可以考虑全局信息,特征表征更加准确。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本说明书。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本说明书的实施例,并与说明书一起用于解释本说明书的原理。
图1是本说明书根据一示例性实施例示出的一种图神经网络训练方法的流程图。
图2是本说明书根据一具体实施例示出的一种图神经网络训练方法的示意图。
图3是本说明书根据一示例性实施例示出的一种图神经网络训练装置的框图。
图4本说明书根据一示例性实施例示出的一种图神经网络训练装置所在计算机设备的一种硬件结构图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本说明书一个或多个实施例相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本说明书一个或多个实施例的一些方面相一致的装置和方法的例子。
需要说明的是:在其他实施例中并不一定按照本说明书示出和描述的顺序来执行相应方法的步骤。在一些其他实施例中,其方法所包括的步骤可以比本说明书所描述的更多或更少。此外,本说明书中所描述的单个步骤,在其他实施例中可能被分解为多个步骤进行描述;而本说明书中所描述的多个步骤,在其他实施例中也可能被合并为单个步骤进行描述。
大数据时代,为了防范金融欺诈,一般是基于机器学习,通过大量的有标签的交易数据训练出可以识别金融欺诈的网络,通过该网络找出可能存在风险的交易数据。而为了能更有效的找出存在风险的交易数据,需要对交易数据的金融欺诈(比如信用卡盗用、及交易欺诈和作弊违法违规等)的特征进行有效表征。相关技术中存在很多特征表征方法,将在下文对这些特征表征方法及其缺点进行一一说明。
首先是基于树模型的特征提取方法,该方法针对交易数据,基于树模型,利用每个属性下的取值分布,加入一系列复杂的人工设计规则,来区分每条交易数据是否存在金融欺诈风险。这种方法虽然有较强的可解释性,但是人工设计规则受限于人的经验,且设计较为复杂,通常为了确保该模型不会丢失一些特征,需要不断往该模型中加入新的规则,最终容易导致整个模型庞大,难以维护;此外,这种方法容易丢失高阶隐含特征。
其次,由于风控场景中,除了交易数据本身,交易关系、社群关系(两个用户之间是否为好友,是否加入了相同的群等)和设备关系(两个用户账号是否使用同一个设备等)等,都会对该交易数据的金融欺诈特征表征有贡献,为了学习到这些关系,相关技术中还先将交易数据及其他业务数据(比如用户的风险画像、操作行为及关系数据等)转换成图的形式,用每个节点表征一个用户(交易的一方),用边来表征两个用户之间的关系,再利用图神经网络的方法来对金融欺诈的特征进行高阶的特征表征。此外,需要说明的是,在进行特征表征后,还要根据节点的特征对节点进行分类,进而可以知晓每个节点对应的用户的交易是否存在金融欺诈风险。
图神经网络的方法中,为了学习到高阶特征,一般是先通过特定算法对节点进行更新,从而使得节点的特征表征能表征出高阶特征。由于图数据中,每个节点都受图中其他节点的影响,与需要更新的节点关系越亲密,对该节点的影响越大,因此,更新过程中,一般是通过图上的其他节点进行更新。在对图神经网络的基本更新方法进行说明后,接下来将对相关技术中常见的图神经网络进行详细说明。
图卷积神经网络(Graph Convolutional Networks,GCN)可以对金融欺诈风险进行特征表征。GCN基于图上的拉普拉斯矩阵来学习节点的低维表征,利用卷积定理,先把图和卷积核映射到傅里叶域,将两者在傅里叶域相乘,再做傅里叶逆变换,实现两者在原域的卷积。而GCN中,由于傅里叶域相乘,所使用的一般为图整体的节点特征矩阵、邻接矩阵和度矩阵,在大规模的图上使用时,会由于复杂度较高,无法并行运算,甚至无法计算等;此外,GCN的方法对于每个节点来说,由于一般使用邻接矩阵与特征矩阵相乘的方式来更新,如果两个节点之间没有连接,其邻接矩阵对应位置上的值将会为0,那么对该节点更新起到作用的仅仅是一阶邻域(即和该节点直接相连的节点)的节点,会使得节点的感受野(receptivepath)较小。
图注意力网络(Graph Attention Network,GAT)也可以对金融欺诈风险进行特征表征。GAT基于注意力机制对节点的一阶邻域节点的特征进行加权求和,利用多头注意力机制来对图中的节点的特征向量进行学习,注意力机制可以学习出一阶邻域节点内,不同节点对于需要更新的节点的影响力,根据学习到的影响力为不同的节点分配不同的权重。然而,GAT中增加了注意力机制学习权重的过程,使得参数量增大,复杂度增加。此外,GAT的方法,对于每个节点来说,虽然其高阶邻域节点(和该节点未直接相连的节点)会间接对该节点的更新起到作用(该节点的一阶邻域节点同时通过注意力机制更新自身,该节点通过更新后的一阶邻域节点更新自身),但是对于该节点来说,其感受野(会对该节点直接起作用的节点的最大跳数)仍较小。
从上述对相关技术的描述可知,相关技术中虽然通过图神经网络对节点的特征进行了表征,但是存在感受野较小、复杂度较高等问题,这使得相关技术中,存在节点更新过程中无法学习到全局信息,特征表征不够准确,且大规模的图上网络训练较慢甚至无法训练等问题。
首先,针对节点特征表征不够准确的问题,通过上述分析可知,无法学习到全局信息是因为相关技术中只能通过一阶邻域节点来更新该节点,感受野较小,为了解决上述问题,考虑到相关技术中一般都是通过跳数来评判该节点对于需要更新的节点的影响力大小,而有些情况下,在金融欺诈领域,有相似的拓扑结构的节点,虽然并未直接相连,但是两个节点的特征表征是相似的,换言之,拓扑结构相似的两个节点会互相对彼此的特征表征产生影响。因此,考虑找出与需要更新的节点拓扑结构相似的节点,用这些节点来更新需要更新的节点,使得该节点可以不仅学习到一阶邻域内的节点的信息,还可以学习到高阶邻域内与该节点相似的节点的信息,使得感受野增大,特征表征更加准确。
进一步地,虽然通过所有节点来更新需要更新的节点,能让节点更新能学习到全局的信息,但是这样做复杂度太高,可能会使得网络无法训练,为了降低复杂度,可以并行训练,考虑到对于每个节点来说,对其影响最大的可能只是一个图数据中的一小部分节点,因此,只使用一小部分节点,就能更新一个节点,换言之,在更新节点之前,针对每个节点生成一个子图,该子图中包括对该节点影响最大的若干个节点,在更新节点时,根据每个节点的业务数据及每个节点在子图内的反应拓扑结构的特征,来更新每个节点,这样使得多个节点的更新任务可以并行执行,同时对于网络来说,无需学习如何更新一个大图,只需要学习如何更新一个小图,就能对整个大图进行更新,降低了网络的复杂度,提升了训练效率。
基于此,本说明书提供一种图神经网络训练方法,获取初始图数据后,计算获取的初始图数据中每两个节点之间的亲密度,亲密度大小反应了两个节点拓扑结构的相似度。通过亲密度大小,针对每个节点,按照亲密度从大到小的顺序,将用于更新该节点的节点构造成输入矩阵,并将每个节点的输入矩阵作为输入,每个节点的金融欺诈风险的分类标签作为输出,根据每个节点的节点分类标签,训练图神经网络。这样,根据亲密度来筛选节点,更新节点所考虑的节点不仅局限于一阶邻域的节点,还可以考虑到高阶邻域上的节点,使得节点更新可以考虑全局信息,特征表征更加准确。
接下来将对本说明书实施例提供的一种图神经网络训练方法进行详细说明。
如图1所示,图1是本说明书根据一示例性实施例示出的一种图神经网络训练方法的流程图,包括以下步骤:
步骤101,获取初始图数据;所述初始图数据为包含若干个节点且具有拓扑结构的图的数据。
其中,所获取的初始图数据,是由带有是否为金融欺诈的标签的交易数据样本及其他业务数据,根据预设的规则转换而来的。
对于初始图数据中的节点而言,每个节点用于表征交易数据的收款方或者打款方,换言之,每个节点用于表征交易数据中的用户。其他业务数据可以包括:用户的风险画像、操作行为等,用户的风险画像可以包括用户的属性、设备的属性和交易历史中是否存在欺诈行为等信息,操作行为可以包括,该节点对应的交易数据发生的前后一段时间(比如7天)内的交易行为。交易数据中除了交易数额、交易双方的标识之外,还可以包括交易地点和交易时间等信息。此外,对于交易数据的标签来说,由于标签用于反应每个交易数据对应的交易是否为金融欺诈,所以一般是将该标签作为交易数据中对应收款方的标签,换言之,对应标签会作为收款方节点的分类标签。
对于初始图数据的边而言,初始图数据是具有拓扑结构的图,存在若干个用于连接两个节点的边,边表示两个节点之间的关系,关系可以是交易关系、设备关系和社群关系等关系,各个关系的具体含义见上文描述,在此不再赘述。
对于图数据的表示方法而言,一般通过节点的特征矩阵和邻接矩阵来表示,在一个图上有N个节点的情况下,节点的特征矩阵是N×D维的矩阵,D代表每个节点的特征向量的维数。邻接矩阵一般为N×N维的矩阵,邻接矩阵的第i行第j列的值,用于表征第i个节点和第j个节点是否具有连接/或者连接的边的权重。
对于所获取的初始图数据的意义而言,由于该初始图数据是根据人工设置的规则转化而来的,而高阶隐含特征指的是经神经网络所更新出的特征,初始图数据中缺乏高阶隐含特征,对金融欺诈风险的特征表征并不准确。所以需要通过神经网络来更新该图数据,以对特征进行更为准确的特征表征。因此,需要训练图神经网络,用于对每个节点的特征向量进行更新,并基于更新后的特征向量来确定该节点的交易风险分类。
此外,还需要说明的是,本说明书中虽然只是通过金融欺诈的场景对本说明书提供的图神经网络训练方法进行说明,但是这并不表示本说明书提供的图神经网络训练方法只能应用于金融欺诈场景中,还可以应用于其他场景,比如路况预测,通过输入历史交通图数据,来预测未来的交通图数据。
步骤103,计算所述初始图数据中每两个节点之间的亲密度;所述亲密度的大小与所述亲密度对应的两个节点的拓扑结构相似度正相关。
具体而言,相比于相关技术中,通过跳数的多少,来判断两个节点之间会不会相互影响(如果两个节点互相影响,则一个节点的特征向量会影响另一个节点的特征向量的更新),本说明书提供的方法中,通过用于反应两个节点拓扑结构相似度的亲密度,来判断两个节点之间会不会相互影响。
其中,节点的跳数指的是两个节点之间最短路径所包含的边的数量,比如两个直接相连的节点,一个节点相对于另一个节点来说,是一跳节点。而节点的拓扑结构指的是两个节点在图中所处的位置,与其他节点的关系。
而用节点的拓扑结构来代替跳数的原因,是因为,有些节点可能是直接相连的,但是他们之间的影响不强,有些节点虽然未直接相连,但是他们之间的仍会互相影响。比如。两个节点相连可能只是因为两个节点之间发生过交易或者是好友,这并不能保证两个节点中其中一个的交易数据存在金融欺诈风险,另一个节点的交易也存在金融欺诈风险。比如两个节点之间存在交易,且存在的交易为金融欺诈的交易,该金融欺诈交易的收款方是欺诈方,并不代表该金融欺诈交易的打款方也是欺诈方,因此用跳数来衡量两个节点是否会互相影响并不准确。而两个节点之间拓扑结构较为相似,表明两个节点的行为可能更为相似,说明两个节点的标签也应该相似,那么对应的特征表征也应该相似,因此,选择用节点的拓扑结构来衡量两个节点之间是否会相互影响。
对于亲密度的计算方法而言,考虑图论中,拉普拉斯矩阵的第i行其实是第i个节点在产生扰动时对其他节点产生的收益累积。因此考虑,可以根据拉普拉斯矩阵,得到亲密度计算矩阵。得到的亲密度计算矩阵可以如下公式(1)及公式(2)所示。换言之,步骤103具体包括:根据亲密度计算公式,计算初始图数据中每两个节点直接的亲密度;所述亲密度计算公式为:
Figure BDA0003264241360000061
Figure BDA0003264241360000062
其中,S为计算得到的亲密度矩阵,S(i,j)表示节点i和节点j之间的亲密度;α∈[0,1],为超参数;A为初始图数据的邻接矩阵,D为初始图数据的度矩阵。度矩阵为对角阵,计算公式如下同时(3)所示:
D(i,i)=∑jA(i,j) (3)
上述亲密度计算方法只是一种可行的方法,并不代表对本说明书实施例的限定,其他的能反应拓扑结构相似性的亲密度计算方法也能应用于本说明书实施例中。
步骤105,针对每个节点i(i=1,2,3,...N,N为图中的节点总数),构建该节点的输入矩阵Hi,其中,输入矩阵的第1列对应于节点i的特征向量,第2~M列分别对应于:与节点i的亲密度由大到小排序的其他M-1个节点的特征向量;M为预设的小于等于N的自然数。
其中,可以针对每个节点构造该节点的输入矩阵,但是进一步地考虑到初始图数据中,由于样本标签是跟随着收款方用户的,那么初始图数据中,并不是每个节点都有标签。而更新节点后,需要通过有监督学习来对节点进行交易风险分类,进一步地根据分类损失来更新权重,那么,对于该图神经网络的训练来说,更新没有标签的节点的特征向量是对网络训练无用的,而构造输入矩阵是为了节点更新,并在更新后进行交易风险分类判别,那么对于没有标签的节点来说,并不需要构造这些节点的输入矩阵。因此,步骤105中,可以只针对每个有交易风险分类标签的节点,构造该节点的输入矩阵。
对于按照步骤105的形式构造输入矩阵的目的而言,为了尽可能利用更少的参数完成节点的更新,减少复杂度,输入矩阵中只输入对该节点更新起作用的节点,没有输入其他信息,比如每个节点的亲密度信息。在这种情况下,由于亲密度不同对需要更新的节点的影响力不同,对于网络来说,需要学习到这种亲密度的不同。因此,为所有的节点构造的输入矩阵都具有同一形式,这样输入网络后,网络可以根据这一先后顺序学习到不同亲密度大小的节点对需要更新的节点的影响力差异,使得训练完成后的网络在更新节点的特征向量时,更多地考虑亲密度大的节点,更少地考虑亲密度小的节点。
此外,为了使得模型可以学习到亲密度大小在输入矩阵中的位置,只需要保证所有的节点的输入矩阵都按照同一方法构造。所以,除了步骤105中的构造方法外,还可以根据其他方法构造输入矩阵,比如输入矩阵的第1列对应于节点i的特征向量,第2~M列分别对应于:与节点i的亲密度由小到达排序的其他M-1个节点的特征向量;M为预设的小于等于N的自然数。在这种情况下,预设的网络的权重也要相应的更改,否则网络可能比较难训练。
对于M的取值而言,考虑到如果初始图数据很大,M如果取得很大,可能会导致网络无法输入到现有的电子设备中进行训练。此外,考虑到M减小,可以减少网络的参数数量,及网络的复杂度,且对于初始图数据中任一节点而言,大部分节点对该节点的影响力很小,因此可以在保证精度的情况下,M取地尽可能地小。比如M可以取500,当然500只是举一个例子,并不构成对于本说明书的限定。
此外,由于每个节点更新只用了M个节点,可以针对每个节点构造由M个节点组成的子图。换言之,针对每个节点,以该节点作为中心节点,构建子图;该子图包括M个节点,该子图中除中心节点外任一节点与中心节点的亲密度,大于任一未在该子图中的节点与中心节点的亲密度;M<<N,M为自然数。对于网络而言,只要能使得包括M个节点的子图的中心节点可以更新,就能使得整个网络可以用于节点的更新。
对于节点的特征向量而言,可以仅包括每个节点的业务数据。进一步地,由于输入矩阵是根据亲密度大小来构造的,而亲密度大小用于反应拓扑结构的相似性的大小,为了使得网络可以学习到网络的拓扑结构,节点的特征向量还可以包括节点的拓扑结构特征,而由于每个节点只是通过M个节点的子图进行更新,因此节点的特征向量所包括的节点的拓扑结构特征,实际上是节点在该子图中的拓扑结构特征。换言之,输入矩阵中的节点的特征向量包括:节点对应的业务特征,及节点在该子图中的拓扑结构特征。
对于节点在该子图中的拓扑结构特征而言,所述拓扑结构特征包括以下至少一种:该节点的绝对角色嵌入值;该节点与中心节点的亲密度;该节点距离子图中心节点的跳数;该节点的度数;该节点的核数(kernel);该节点的邻域影响力;该节点的一跳邻域连通性。其中,绝对角色嵌入值指的是Weisfeiler-Lehman绝对角色嵌入值;亲密度可以根据公式(1)所计算的亲密度获得;子图的中心节点即为需要更新的节点,也是步骤105所构造的输入矩阵中第1列的节点;跳数和度数的计算方法详见上文,在此不再赘述;该节点的一跳邻域连通性的计算公式如下公式(4)所示:
Figure BDA0003264241360000081
其中,CC(i)指的是节点i的一跳邻域连通性,Deg(i)指的是节点i的度。此外,在节点的特征向量包括多种向量的情况下,不同节点的特征向量的同一位置所代表的的含义应该相同,比如节点i的特征向量,第1行是业务特征,其他节点的特征向量的第i行也是业务特征。由于上述拓扑结构特征中,有些特征和子图相关,那么对于同一节点,其在不同子图内的特征向量可能是不同的。
步骤107,以每个节点的输入矩阵作为输入,以每个节点的交易风险分类为输出,根据节点对应的交易风险分类标签,训练图神经网络;所述图神经网络用于对每个节点对应的用户的交易风险进行分类。
如上文所述,训练图神经网络的过程主要包括,更新每个节点,获得每个节点的交易风险分类类别,根据交易风险分类类别和交易风险分类标签,确定输出损失,再根据输出损失更新权重,需要更新的权重包括更新每个节点的过程中所使用的权重,及获得每个节点的交易风险分类类别过程中所使用的权重。
换言之,所述以每个节点的输入矩阵作为输入,以每个节点的交易风险分类为输出,根据节点对应的交易风险分类标签,训练图神经网络,包括:迭代执行以下步骤,直至输出损失小于预设的损失阈值,或迭代次数大于预设的次数阈值:针对每个节点,基于自注意力机制,通过该节点的输入矩阵及注意力权重,更新该节点的特征向量;基于更新后的节点的特征向量与分类权重,确定每个更新后的节点的交易风险分类结果,并根据每个节点的交易风险分类标签,获得输出损失;根据输出损失更新注意力权重和节点分类权重;迭代结束后,基于当前的注意力权重和节点分类权重确定图神经网络。
还需要说明的是,本说明实施例中只是以交易风险分类标签为监督信号来进行有监督训练,当然在存在其他的判断目的时,也可以根据其他的监督信号进行有监督学习。此外,本说明实施例步骤107中将整个用于判断交易风险分类的图神经网络作为了输出的网络,当然,如果只是想获得可以获得图数据的准确金融欺诈风险表征的网络,也可以只将该网络的用于更新节点的前半部分网络作为最后得到的网络。
在网络训练过程中,更新节点过程,所述针对每个节点,基于自注意力机制,通过该节点的输入矩阵及注意力权重,更新该节点的特征向量,包括:针对每个节点,基于至少一层自注意力层,更新节点的输入矩阵;将最后一层自注意力层更新后的输入矩阵的各列求平均,得到该节点更新后的特征向量。上述方法可以通过Transform来实现,当然使用Transform来实现节点的更新知识一种可以实现的方法,并不构成对于本说明书实施例的限制。
通过Transform来实现节点的更新,具体的每一层的节点方法可以参见公式(5)-(8):
Figure BDA0003264241360000091
Figure BDA0003264241360000092
Figure BDA0003264241360000093
Figure BDA0003264241360000094
其中,
Figure BDA0003264241360000095
表示输入矩阵Hi第l层的输出,softmax是一种可以进行归一化的激活函数,本说明书实施例还可以用其他激活函数,这里只是用softmax函数为例,
Figure BDA0003264241360000096
表示输入矩阵Hi第l-1层的输出,
Figure BDA0003264241360000097
Figure BDA0003264241360000098
是第l层的三个权重矩阵,dh为键向量K的维数。那么网络的更新节点的过程可以通过如下公式(9)-(11)进行描述:
Figure BDA0003264241360000099
Figure BDA00032642413600000910
Figure BDA00032642413600000911
其中,
Figure BDA00032642413600000912
表示第1层的输入,即为输入矩阵Hi
Figure BDA00032642413600000913
表示初始图数据或子图中,需要更新的节点的特征向量,
Figure BDA00032642413600000914
为步骤105中所确定的,与需要更新的节点,亲密度最高的节点在初始图数据或子图中的特征向量。
Figure BDA00032642413600000915
的获得方法详见步骤105,在此不再赘述。公式(10)中的GTSD表示该网络,公式(10)的计算方法详见公式(5),zi表示更新后的输入矩阵Hi对应的节点。
Figure BDA00032642413600000916
表示最后一层的输出。
更新完节点后,还需要将每个更新后的节点作为输入,获得每个更新后的节点的交易风险分类,并根据交易风险分类标签,获得网络的输出,并根据输出来更新网络的相关权重。获得交易风险分类可以根据全连接层来获取,更新权重可以根据梯度下降法等更新,当然也可以用其他的获取分类及更新权重的方法。
此外,训练完成后,可以使用该网络进行节点的交易风险分类,具体的使用方法如下:在训练完成后,所述方法还包括:获取待判断图数据,所述待判断图数据中不包含节点交易风险分类标签;计算所述待判断图数据中每两个节点之间的亲密度;所述亲密度的大小与所述亲密度对应的两个节点的拓扑结构相似度正相关;针对每个节点i,i=1,2,3,...N,N为图中的节点总数,构建该节点的输入矩阵Hi,其中,输入矩阵的第1列对应于节点i的特征向量,第2~M列分别对应于:与节点i的亲密度由大到小排序的其他M-1个节点的特征向量;M为预设的小于等于N的自然数;针对每个节点,将该节点的输入矩阵输入所述图神经网络,获取该节点的交易风险分类。
通过上述方法,实现了对于金融欺诈风险特征的准确表征。由于上述方法中,通过亲密度来度量节点之间的距离,提高了感受野,使得节点更新通过全局信息进行更新,能更有效地学习到节点的隐层表征。此外,通过子图分解,摆脱了传统图神经网络在图数据上进行训练时,需要对图进行整体建模,无法在大规模图数据集上训练的缺点。使得本说明书提供的方法可以通过并行化的方式对大图数据进行处理。本说明书所训练的图神经网络,使用NLP中的Transformer替代了图卷积神经网络(GCN),来进行图数据的学习,避免了GCN等方法使用大量参数将卷积层做深的方式,降低了参数量和计算复杂度。
接下来将通过一具体实施例来对本说明书提供的图神经网络训练方法进行详细说明。
如图2所示,图2是本说明书根据一具体实施例示出的一种图神经网络训练方法的示意图。如图2所示,该图神经网络包括嵌入层,注意力表征层及节点分类层。
嵌入层用于对初始图数据进行子图分解,并针对每个子图,构造该子图中每个节点的特征向量,并根据该子图中每个节点的特征向量,及这些节点与中心节点的亲密度大小,构造中心节点的输入矩阵。
其中,子图分解是依据亲密度的大小,和预设的M值进行分解的,具体的分解方法详见对于步骤103中的说明。特征向量可以包括业务特征和该节点在该子图中的拓扑结构特征,具体的构造每个节点的特征向量及输入矩阵的方法,详见上文中对步骤105的说明。
注意力表征层根据Transform,来针对每个子图,更新该子图的中心节点的特征向量。具体的更新方法详见上文对步骤107的描述。注意力表征层以输入矩阵为输入,子图的中心节点特征向量为输出。
节点分类层可以是全连接层,以节点的特征向量为输入,节点的交易风险分类为输出,根据节点的交易风险分类标签,更新节点分类层和注意力表征层的权重。
与前述方法的实施例相对应,本说明书还提供了图神经网络训练装置及其所应用的电子设备的实施例。
如图3所示,图3是本说明书根据一示例性实施例示出的一种图神经网络训练装置的框图,所述装置包括:
初始图数据获取模块310,用于获取初始图数据;所述初始图数据为包含若干个节点且具有拓扑结构的图的数据。
亲密度计算模块320,用于计算所述初始图数据中每两个节点之间的亲密度;所述亲密度的大小与所述亲密度对应的两个节点的拓扑结构相似度正相关。
输入矩阵构造模块330,用于针对每个节点i,i=1,2,3,...N,N为图中的节点总数,构建该节点的输入矩阵Hi,其中,输入矩阵的第1列对应于节点i的特征向量,第2~M列分别对应于:与节点i的亲密度由大到小排序的其他M-1个节点的特征向量;M为预设的小于等于N的自然数。
图神经网络训练模块340,用于以每个节点的输入矩阵作为输入,以每个节点的交易风险分类为输出,根据节点对应的交易风险分类标签,训练图神经网络;所述图神经网络用于对每个节点对应的用户交易进行交易风险分类。
此外,所述装置还包括子图构建模块300,用于针对每个节点,以该节点作为中心节点,构建子图;该子图包括M个节点,该子图中除中心节点外任一节点与中心节点的亲密度,大于任一未在该子图中的节点与中心节点的亲密度;M<<N,M为自然数。
其中,输入矩阵中的节点的特征向量包括:节点对应的业务特征,及节点在该子图中的拓扑结构特征。所述拓扑结构特征包括以下至少一种:该节点的绝对角色嵌入值;该节点与中心节点的亲密度;该节点距离子图中心节点的跳数;该节点的度数;该节点的核数;该节点的邻域影响力;该节点的一跳邻域连通性。
其中,所述图神经网络训练模块340,包括:
迭代训练子模块341,用于迭代执行以下步骤,直至输出损失小于预设的损失阈值,或迭代次数大于预设的次数阈值:针对每个节点,基于自注意力机制,通过该节点的输入矩阵及注意力权重,更新该节点的特征向量。基于更新后的节点的特征向量与分类权重,确定每个更新后的节点的交易风险分类结果,并根据每个节点的交易风险分类标签,获得输出损失。根据输出损失更新注意力权重和节点分类权重。
图神经网络确定子模块342,迭代结束后,基于当前的注意力权重和节点分类权重确定图神经网络。
迭代训练子模块341中,所述针对每个节点,基于自注意力机制,通过该节点的输入矩阵及注意力权重,更新该节点的特征向量,包括:针对每个节点,基于至少一层自注意力层,更新节点的输入矩阵;将最后一层自注意力层更新后的输入矩阵的各列求平均,得到该节点更新后的特征向量。
在训练完成后,还包括:交易风险分类获取模块350,用于获取待判断图数据,所述待判断图数据中不包含节点交易风险分类标签;计算所述待判断图数据中每两个节点之间的亲密度;所述亲密度的大小与所述亲密度对应的两个节点的拓扑结构相似度正相关;针对每个节点i,i=1,2,3,...N,N为图中的节点总数,构建该节点的输入矩阵Hi,其中,输入矩阵的第1列对应于节点i的特征向量,第2~M列分别对应于:与节点i的亲密度由大到小排序的其他M-1个节点的特征向量;M为预设的小于等于N的自然数;针对每个节点,将该节点的输入矩阵输入所述图神经网络,获取该节点的交易风险分类。
上述装置中各个模块的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本说明书方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
如图4所示,图4示出了实施例图神经网络训练装置所在电子设备的一种硬件结构图,该设备可以包括:处理器1010、存储器1020、输入/输出接口1030、通信接口1040和总线1050。其中处理器1010、存储器1020、输入/输出接口1030和通信接口1040通过总线1050实现彼此之间在设备内部的通信连接。
处理器1010可以采用通用的CPU(Central Processing Unit,中央处理器)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本说明书实施例所提供的技术方案。
存储器1020可以采用ROM(Read Only Memory,只读存储器)、RAM(Random AccessMemory,随机存取存储器)、静态存储设备,动态存储设备等形式实现。存储器1020可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器1020中,并由处理器1010来调用执行。
输入/输出接口1030用于连接输入/输出模块,以实现信息输入及输出。输入输出/模块可以作为组件配置在设备中(图中未示出),也可以外接于设备以提供相应功能。其中输入设备可以包括键盘、鼠标、触摸屏、麦克风、各类传感器等,输出设备可以包括显示器、扬声器、振动器、指示灯等。
通信接口1040用于连接通信模块(图中未示出),以实现本设备与其他设备的通信交互。其中通信模块可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信。
总线1050包括一通路,在设备的各个组件(例如处理器1010、存储器1020、输入/输出接口1030和通信接口1040)之间传输信息。
需要说明的是,尽管上述设备仅示出了处理器1010、存储器1020、输入/输出接口1030、通信接口1040以及总线1050,但是在具体实施过程中,该设备还可以包括实现正常运行所必需的其他组件。此外,本领域的技术人员可以理解的是,上述设备中也可以仅包含实现本说明书实施例方案所必需的组件,而不必包含图中所示的全部组件。
本说明书实施例还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本说明书实施例第一方面所述的图神经网络训练方法。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。

Claims (10)

1.一种图神经网络训练方法,所述方法包括:
获取初始图数据;所述初始图数据为包含若干个节点且具有拓扑结构的图的数据;
计算所述初始图数据中每两个节点之间的亲密度;所述亲密度的大小与所述亲密度对应的两个节点的拓扑结构相似度正相关;
针对每个节点i(i=1,2,3,...N,N为图中的节点总数),构建该节点的输入矩阵Hi,其中,输入矩阵的第1列对应于节点i的特征向量,第2~M列分别对应于:与节点i的亲密度由大到小排序的其他M-1个节点的特征向量;M为预设的小于等于N的自然数;
以每个节点的输入矩阵作为输入,以每个节点的交易风险分类为输出,根据节点对应的交易风险分类标签,训练图神经网络;所述图神经网络用于对每个节点对应的用户的交易风险进行分类。
2.根据权利要求1所述方法,所述方法还包括:
针对每个节点,以该节点作为中心节点,构建子图;该子图包括M个节点,该子图中除中心节点外任一节点与中心节点的亲密度,大于任一未在该子图中的节点与中心节点的亲密度;M<<N,M为自然数。
3.根据权利要求2所述方法,输入矩阵中的节点的特征向量包括:节点对应的业务特征,及节点在该子图中的拓扑结构特征。
4.根据权利要求3所述方法,所述拓扑结构特征包括以下至少一种:
该节点的绝对角色嵌入值;该节点与中心节点的亲密度;该节点距离子图中心节点的跳数;该节点的度数;该节点的核数;该节点的邻域影响力;该节点的一跳邻域连通性。
5.根据权利要求1所述方法,所述以每个节点的输入矩阵作为输入,以每个节点的交易风险分类为输出,根据节点对应的交易风险分类标签,训练图神经网络,包括:
迭代执行以下步骤,直至输出损失小于预设的损失阈值,或迭代次数大于预设的次数阈值:
针对每个节点,基于自注意力机制,通过该节点的输入矩阵及注意力权重,更新该节点的特征向量;
基于更新后的节点的特征向量与分类权重,确定每个更新后的节点的交易风险分类结果,并根据每个节点的交易风险分类标签,获得输出损失;
根据输出损失更新注意力权重和节点分类权重;
迭代结束后,基于当前的注意力权重和节点分类权重确定图神经网络。
6.根据权利要求5所述方法,所述针对每个节点,基于自注意力机制,通过该节点的输入矩阵及注意力权重,更新该节点的特征向量,包括:
针对每个节点,基于至少一层自注意力层,更新节点的输入矩阵;
将最后一层自注意力层更新后的输入矩阵的各列求平均,得到该节点更新后的特征向量。
7.根据权利要求1所述方法,在训练完成后,所述方法还包括:
获取待判断图数据,所述待判断图数据中不包含节点交易风险分类标签;
计算所述待判断图数据中每两个节点之间的亲密度;所述亲密度的大小与所述亲密度对应的两个节点的拓扑结构相似度正相关;
针对每个节点i,i=1,2,3,...N,N为图中的节点总数,构建该节点的输入矩阵Hi,其中,输入矩阵的第1列对应于节点i的特征向量,第2~M列分别对应于:与节点i的亲密度由大到小排序的其他M-1个节点的特征向量;M为预设的小于等于N的自然数;
针对每个节点,将该节点的输入矩阵输入所述图神经网络,获取该节点的交易风险分类。
8.一种图神经网络训练装置,所述装置包括:
初始图数据获取模块,用于获取初始图数据;所述初始图数据为包含若干个节点且具有拓扑结构的图的数据;
亲密度计算模块,用于计算所述初始图数据中每两个节点之间的亲密度;所述亲密度的大小与所述亲密度对应的两个节点的拓扑结构相似度正相关;
输入矩阵构造模块,用于针对每个节点i(i=1,2,3,...N,N为图中的节点总数),构建该节点的输入矩阵Hi,其中,输入矩阵的第1列对应于节点i的特征向量,第2~M列分别对应于:与节点i的亲密度由大到小排序的其他M-1个节点的特征向量;M为预设的小于等于N的自然数;
图神经网络训练模块,用于以每个节点的输入矩阵作为输入,以每个节点的交易风险分类为输出,根据节点对应的交易风险分类标签,训练图神经网络;所述图神经网络用于对每个节点对应的用户的交易风险进行分类。
9.一种电子设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器通过运行所述可执行指令以实现如权利要求1-7中任一项所述图神经网络训练方法。
10.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机指令,所述计算机指令被处理器执行时实现如权利要求1-7中任一项所述图神经网络训练方法。
CN202111081570.4A 2021-09-15 2021-09-15 一种图神经网络训练方法及装置 Pending CN113850381A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111081570.4A CN113850381A (zh) 2021-09-15 2021-09-15 一种图神经网络训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111081570.4A CN113850381A (zh) 2021-09-15 2021-09-15 一种图神经网络训练方法及装置

Publications (1)

Publication Number Publication Date
CN113850381A true CN113850381A (zh) 2021-12-28

Family

ID=78974112

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111081570.4A Pending CN113850381A (zh) 2021-09-15 2021-09-15 一种图神经网络训练方法及装置

Country Status (1)

Country Link
CN (1) CN113850381A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114090326A (zh) * 2022-01-14 2022-02-25 云智慧(北京)科技有限公司 一种告警的根因确定方法、装置及设备
CN115131409A (zh) * 2022-08-26 2022-09-30 深圳深知未来智能有限公司 一种基于深度学习的亲密矩阵视点合成方法、应用及系统
CN116756232A (zh) * 2023-08-17 2023-09-15 杭州比智科技有限公司 一种智能生成动态网络图的数据可视化方法及系统
WO2024000512A1 (zh) * 2022-06-30 2024-01-04 华为技术有限公司 一种模型训练方法以及相关设备

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110169833A1 (en) * 2010-01-08 2011-07-14 International Business Machines Corporation Ranking Nodes in a Graph
CN111814842A (zh) * 2020-06-17 2020-10-23 北京邮电大学 基于多通路图卷积神经网络的对象分类方法及装置
CN112153221A (zh) * 2020-09-16 2020-12-29 北京邮电大学 一种基于社交网络图计算的通信行为识别方法
US20210058345A1 (en) * 2019-08-22 2021-02-25 Adobe Inc. Utilizing a graph neural network to identify supporting text phrases and generate digital query responses
US20210110242A1 (en) * 2019-10-14 2021-04-15 Industry-Academic Cooperation Foundation Yonsei University Method and device for completing social network using artificial neural network
CN112766500A (zh) * 2021-02-07 2021-05-07 支付宝(杭州)信息技术有限公司 图神经网络的训练方法及装置
CN112926990A (zh) * 2021-03-25 2021-06-08 支付宝(杭州)信息技术有限公司 欺诈识别的方法和装置
CN113139654A (zh) * 2021-03-18 2021-07-20 北京三快在线科技有限公司 图神经网络模型的训练方法及装置
CN113255895A (zh) * 2021-06-07 2021-08-13 之江实验室 基于图神经网络表示学习的结构图对齐方法和多图联合数据挖掘方法
CN113269239A (zh) * 2021-05-13 2021-08-17 河南大学 一种基于多通道卷积神经网络的关系网络节点分类方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110169833A1 (en) * 2010-01-08 2011-07-14 International Business Machines Corporation Ranking Nodes in a Graph
US20210058345A1 (en) * 2019-08-22 2021-02-25 Adobe Inc. Utilizing a graph neural network to identify supporting text phrases and generate digital query responses
US20210110242A1 (en) * 2019-10-14 2021-04-15 Industry-Academic Cooperation Foundation Yonsei University Method and device for completing social network using artificial neural network
CN111814842A (zh) * 2020-06-17 2020-10-23 北京邮电大学 基于多通路图卷积神经网络的对象分类方法及装置
CN112153221A (zh) * 2020-09-16 2020-12-29 北京邮电大学 一种基于社交网络图计算的通信行为识别方法
CN112766500A (zh) * 2021-02-07 2021-05-07 支付宝(杭州)信息技术有限公司 图神经网络的训练方法及装置
CN113139654A (zh) * 2021-03-18 2021-07-20 北京三快在线科技有限公司 图神经网络模型的训练方法及装置
CN112926990A (zh) * 2021-03-25 2021-06-08 支付宝(杭州)信息技术有限公司 欺诈识别的方法和装置
CN113269239A (zh) * 2021-05-13 2021-08-17 河南大学 一种基于多通道卷积神经网络的关系网络节点分类方法
CN113255895A (zh) * 2021-06-07 2021-08-13 之江实验室 基于图神经网络表示学习的结构图对齐方法和多图联合数据挖掘方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王杰;张曦煌;: "基于图卷积网络和自编码器的半监督网络表示学习模型", 模式识别与人工智能, no. 04, 15 April 2019 (2019-04-15) *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114090326A (zh) * 2022-01-14 2022-02-25 云智慧(北京)科技有限公司 一种告警的根因确定方法、装置及设备
WO2024000512A1 (zh) * 2022-06-30 2024-01-04 华为技术有限公司 一种模型训练方法以及相关设备
CN115131409A (zh) * 2022-08-26 2022-09-30 深圳深知未来智能有限公司 一种基于深度学习的亲密矩阵视点合成方法、应用及系统
CN115131409B (zh) * 2022-08-26 2023-01-24 深圳深知未来智能有限公司 一种基于深度学习的亲密矩阵视点合成方法、应用及系统
CN116756232A (zh) * 2023-08-17 2023-09-15 杭州比智科技有限公司 一种智能生成动态网络图的数据可视化方法及系统
CN116756232B (zh) * 2023-08-17 2023-11-24 杭州比智科技有限公司 一种智能生成动态网络图的数据可视化方法及系统

Similar Documents

Publication Publication Date Title
US11238065B1 (en) Systems and methods for generating and implementing knowledge graphs for knowledge representation and analysis
CN113850381A (zh) 一种图神经网络训练方法及装置
CN107808122B (zh) 目标跟踪方法及装置
CN112528275B (zh) 基于元路径学习与子图采样的apt网络攻击检测方法
CN111582538B (zh) 一种基于图神经网络的社群价值预测方法及系统
CN108540988B (zh) 一种场景划分方法及装置
CN111695046B (zh) 基于时空移动数据表征学习的用户画像推断方法及装置
CN111369258A (zh) 实体对象类型的预测方法、装置及设备
CN109064212A (zh) 商品价格预测方法及装置
CN115659985B (zh) 电力知识图谱实体对齐方法、装置和计算机设备
CN116151319A (zh) 搜索神经网络集成模型的方法、装置和电子设备
CN110674178B (zh) 构建用户画像标签的方法及其系统
CN112084865A (zh) 目标检测方法、装置、电子设备和存储介质
CN115170565A (zh) 基于自动神经网络架构搜索的图像欺诈检测方法及装置
CN110889493A (zh) 针对关系网络添加扰动的方法及装置
CN113144624A (zh) 一种数据处理方法、装置、设备及存储介质
US11810001B1 (en) Systems and methods for generating and implementing knowledge graphs for knowledge representation and analysis
CN112241920A (zh) 基于图神经网络的投融资机构评估方法、系统及设备
CN116452007A (zh) 一种基于胶囊网络的企业税收合规风险评估方法
CN113836156A (zh) 有向图节点更新方法及装置
CN116383441A (zh) 社群检测方法、装置、计算机设备和存储介质
CN114882020A (zh) 产品的缺陷检测方法、装置、设备及计算机可读介质
CN115345687A (zh) 一种跨网站商品对齐方法及装置
CN113469696A (zh) 一种用户异常度评估方法、装置及计算机可读存储介质
CN113408564A (zh) 图处理方法、网络训练方法、装置、设备以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination