CN111026544A - 图网络模型的节点分类方法、装置及终端设备 - Google Patents

图网络模型的节点分类方法、装置及终端设备 Download PDF

Info

Publication number
CN111026544A
CN111026544A CN201911075701.0A CN201911075701A CN111026544A CN 111026544 A CN111026544 A CN 111026544A CN 201911075701 A CN201911075701 A CN 201911075701A CN 111026544 A CN111026544 A CN 111026544A
Authority
CN
China
Prior art keywords
node
sample
graph network
nodes
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911075701.0A
Other languages
English (en)
Other versions
CN111026544B (zh
Inventor
吴红艳
纪超杰
李烨
蔡云鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Institute of Advanced Technology of CAS
Original Assignee
Shenzhen Institute of Advanced Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Institute of Advanced Technology of CAS filed Critical Shenzhen Institute of Advanced Technology of CAS
Priority to CN201911075701.0A priority Critical patent/CN111026544B/zh
Publication of CN111026544A publication Critical patent/CN111026544A/zh
Priority to PCT/CN2020/127253 priority patent/WO2021089012A1/zh
Application granted granted Critical
Publication of CN111026544B publication Critical patent/CN111026544B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请适用于计算机技术领域,提供了一种图网络模型的节点分类方法、装置及终端设备,通过将待测节点输入已训练的图网络模型中进行分类,提高分类的准确性。且该已训练的图网络模型是基于图网络结构以及图网络结构中的所有节点的节点特征进行正向传播训练,并基于关联度损失和分类损失进行反向传播训练得到的,能够将图网络结构中的所有节点应用在该图网络模型的训练过程,增加用于训练的训练样本节点的数量,有效地提高了分类图网络模型中节点分类的准确度。

Description

图网络模型的节点分类方法、装置及终端设备
技术领域
本申请属于计算机技术领域,尤其涉及一种图网络模型的节点分类方法、装置及终端设备。
背景技术
目前关于图网络模型的节点分类任务中,图网络结构(点和边的连接关系)、节点特征和部分已标记的节点类别作为图网络模型的输入信息,用于进行模型训练,其它未标记的待测节点类别标签用于通过训练好的图网络模型进行输出,其输出内容则为预测待测节点类别。
然而在实际场景中,每次在进行模型训练的过程中,仅是通过部分已标记的相邻节点类别作为一次模型训练的输入信息,而后迭代得到训练后的图网络模型。因此,用于进行模型训练的训练样本(已标记的节点类别标签)数量有限,严重影响了模型的表现(准确率和泛化能力),导致模型在预测过程中难以准确识别待测节点所属的类别,使得分类准确度较低。
综上所述,目前的图网络模型的节点分类方法存在分类准确度低的问题。
发明内容
本申请实施例提供了一种图网络模型的节点分类方法、装置及终端设备,可以解决目前的图网络模型的节点分类方法存在分类准确度低的问题。
第一方面,本申请实施例提供了一种图网络模型的节点分类方法,包括:
获取包含待测节点的图网络结构和所述待测节点的节点特征;
将所述包含待测节点的图网络结构和所述待测节点的节点特征输入至已训练的图网络模型进行处理,得到所述待测节点的分类结果;
其中,所述已训练的图网络模型是基于图网络结构以及图网络结构中的所有节点的节点特征进行正向传播训练,并基于关联度损失和分类损失进行反向传播训练得到的。
在应用中,所述图网络模型的训练步骤如下:
获取训练数据,所述训练数据包括样本图网络结构和所述样本图网络结构中所有样本节点的节点特征,所述样本节点包括已标记分类结果的第一样本节点和未标记分类结果的第二样本节点;
将所述训练数据输入初始图网络模型进行正向传播训练,得到所述第一样本节点的预测节点类别及所述第一样本节点与所有样本节点的关联度损失;
根据所述第一样本节点的真实节点类别与所述预测节点类别确定所述第一样本节点的分类损失;
根据所述第一样本节点的关联度损失和所述第一样本节点的分类损失进行反向传播训练,迭代更新所述初始图网络模型的模型参数;
若迭代更新过程中所述第一样本节点的关联度损失和所述第一样本节点的分类损失收敛,则结束训练所述初始图网络模型,并将所述初始图网络模型作为已训练的图网络模型;
若迭代更新过程中所述第一样本节点的关联度损失和所述第一样本节点的分类损失未收敛,则调整所述初始图网络模型的模型参数,并返回执行所述将所述训练数据输入初始图网络模型进行正向传播训练处理,得到所述第一样本节点的预测节点类别及所述第一样本节点与所有样本节点的关联度损失的步骤以及后续步骤。
在一实施例中,所述将所述训练数据输入初始图网络模型进行正向传播训练处理,得到所述第一样本节点的预测节点类别及所述第一样本节点与所有样本节点的关联度损失,包括:
根据当前样本节点的节点特征和所有所述样本节点的节点特征,分别计算所述当前样本节点与所有所述样本节点之间的关联度;
根据预设关联度模板及所述当前样本节点与各个所述样本节点的关联距离,确定所述当前样本节点与各个所述样本节点的预设关联度;
根据所述当前样本节点与所有所述样本节点之间的关联度和预设关联度对所述初始图网络模型进行正向传播训练,得到所述当前样本节点与所有样本节点的关联度损失。
在一实施例中,所述根据预设关联度模板及所述当前样本节点与各个所述样本节点的关联距离,确定所述当前样本节点与各个所述样本节点的预设关联度之后,包括:
分别获取所述当前样本节点与所有所述样本节点之间的关联距离;
将与所述当前样本节点的关联距离小于预设距离的样本节点确定为目标样本节点;
获取所述当前样本节点与所有所述目标样本节点的关联度,并对当前所有关联度进行归一化处理,得到归一化关联度;
根据所述当前样本节点与所有所述目标样本节点的归一化关联度更新所述当前样本节点的节点特征;
将更新后的当前样本节点的节点特征输入至所述初始图网络模型的全连接层进行处理,得到所述当前样本节点的预测节点类别。
在一实施例中,所述将所述训练数据输入初始图网络模型进行正向传播训练处理,得到所述第一样本节点的预测节点类别及所述第一样本节点与所有样本节点的关联度损失,包括:
在所有所述样本节点中随机选择预设数量的所述样本节点;
根据当前样本节点的节点特征和所有预设数量的样本节点的节点特征,计算所述当前样本节点与所述预设数量的样本节点的关联度损失。
在一实施例中,所述根据所述第一样本节点的关联度损失和所述第一样本节点的分类损失进行反向传播训练,迭代更新所述初始图网络模型的模型参数,包括:
根据当前样本节点的所述关联度损失与所述分类损失确定所述当前样本节点的目标损失;
根据所述当前样本节点的目标损失对所述初始图网络模型进行反向传播训练,更新所述初始图网络模型的模型参数。
在一实施例中,所述根据当前样本节点的所述关联度损失与所述分类损失确定所述当前样本节点的目标损失之后,还包括;
判断迭代过程中所述目标损失在预设迭代步数下是否保持不变;
若迭代过程中所述目标损失在预设迭代步数下保持不变,则判定目标损失收敛,则结束训练所述初始图网络模型,并将所述初始图网络模型作为已训练的图网络模型。
第二方面,本申请实施例提供了一种图网络模型的节点分类装置,包括:
第一获取模块,用于获取包含待测节点的图网络结构和所述待测节点的节点特征;
分类模块,用于将包含所述待测节点的图网络结构和所述待测节点的节点特征输入至已训练的图网络模型进行处理,得到所述待测节点的分类结果;
其中,所述已训练的图网络模型是基于图网络结构以及图网络结构中的所有节点的节点特征进行正向传播训练,并基于关联度损失和分类损失进行反向传播训练得到的。
第三方面,本申请实施例提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面中任一项所述的图网络模型的节点分类方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行上述第一方面中任一项所述的图网络模型的节点分类方法。
第五方面,本申请实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行上述第一方面中任一项所述的图网络模型的节点分类方法。
可以理解的是,上述第二方面至第五方面的有益效果可以参见上述第一方面中的相关描述,在此不再赘述。
本申请实施例与现有技术相比存在的有益效果是:通过将待测节点输入已训练的图网络模型中进行分类,提高分类的准确性。且该已训练的图网络模型是基于图网络结构以及图网络结构中的所有节点的节点特征进行正向传播训练,并基于关联度损失和分类损失进行反向传播训练得到的,能够将图网络结构中的所有节点应用在该图网络模型的训练过程,增加用于训练的训练样本节点的数量,有效地提高了分类图网络模型中节点分类的准确度。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的图网络模型的节点分类方法的一种实现流程示意图;
图2是本申请实施例提供的图网络模型的节点分类方法的一种应用场景示意图;
图3是本申请实施例提供的图网络模型的节点分类方法的另一种实现流程示意图;
图4是本申请实施例提供的图网络模型的节点分类方法的又一种实现流程示意图;
图5是本申请实施例提供的图网络模型的节点分类方法的预测节点类别示意图;
图6是本申请实施例提供的图网络模型的节点分类装置的一种结构示意图;
图7是本申请实施例提供的终端设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
本申请实施例提供的图网络模型的节点分类方法可以应用于平板电脑、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本、个人数字助理(personal digital assistant,PDA)等终端设备上,本申请实施例对终端设备的具体类型不作任何限制。
请参阅图1,图1是本申请实施例提供的图网络模型的节点分类方法流程示意图。详述如下:
S101、获取包含待测节点的图网络结构和所述待测节点的节点特征。
在应用中,上述图网络模型具体为图卷积网络模型,其可以适用于对论文进行分类、对蛋白质功能进行分类等,对此不作限定。
在应用中,上述待测节点为图网络结构中未知节点类别的节点,与其余图网络结构中的节点具有一定的空间连接关系。在本实施例中,可以通过图网络结构中各个节点之间的距离和引用关系来表示该图网络结构的各个图网络节点之间的连接关系。除此之外,上述图网络结构包括各个图网络节点之间的连接关系,也可以用邻接矩阵来进行表示。如利用每个节点的节点特征及对应的特征向量维度构建节点与特征向量维度的邻接矩阵,若两个节点之间的特征向量维度之间具有联系或引用关系,则表示两个节点之间具有空间上的结构连接关系,其连接关系的关联度强弱,具体可以根据特征向量维度之间的耦合度进行评判,对此不作限定。
具体的,参照图2,图2为一个论文引用关系网络,每个节点表示一篇论文,其论文所属的学科领域表示每个节点的分类情况,其中每个节点之间的连接线则表示两个节点对应的论文在实际具有直接或间接的引用关系,两个节点之间若具有直接的引用关系(两个节点之间具有一段连接线)则认为两个节点之间的跳数或距离为1,例如节点1和节点8之间的跳数或距离可以为1,对此不作限定。
在应用中,上述节点特征用于表示每个节点的节点信息。例如,在论文学科分类中,可以使用每个节点特征表示对应论文标题的词袋或者词向量,或者在蛋白质细胞功能预测的任务中,可以使用子分子结构集等。具体的,论文1标题中出现“注意力机制”,论文2的标题中出现“胶囊机制”,将两篇论文的标题看成一个集合,列出集合中出现的所有词,并未其构建如下词典:
{“注”:1,“意”:2,“力”:3,“机”:4,“制”:5,“胶”:6,“囊”:7};
其中,词典有6个词,使用6的固定长度文档表示,并在向量中使用位置来对每个词进行评分。如将词的存在标记为布尔值,0表示缺席,1表示存在。使用词典中上面列出词的任意排序,在将论文1中的标题转换为二进制向量。
转换如下:
“注”:1,“意”:1,“力”:1,“机”:1,“制”:1,“胶”:0,“囊”:0,对应的二进制向量为:1,1,1,1,1,0,0。
则论文2的标题对应的节点特征向量可以表示为:0,0,0,1,1,1,1。其中,图网络结构中个节点的节点特征可表示为
Figure BDA0002262366900000081
其中n为图网络结构中节点个数,f为特征维度数。特征的构建方法根据具体场景而定,对此不作限定。
S102、将所述包含待测节点的图网络结构和所述待测节点的节点特征输入至已训练的图网络模型进行处理,得到所述待测节点的分类结果;
其中,所述已训练的图网络模型是基于图网络结构以及图网络结构中的所有节点的节点特征进行正向传播训练,并基于关联度损失和分类损失进行反向传播训练得到的。
在应用中,上述已训练的图网络模型是先由图网络结构(各个节点之间的连接关系)以及上述所有节点的节点特征进行正向传播训练,得到各个节点之间关联度损失和部分节点的分类损失,再根据关联度损失和分类损失进行反向传播训练得到的。将图网络结构中未知节点类别的待测节点,输入至已训练的图网络模型中,得到待测节点的分类结果。
在本实施例中,通过将待测节点输入已训练的图网络模型中进行分类,提高分类的准确性。且该已训练的图网络模型是基于图网络结构以及图网络结构中的所有节点的节点特征进行正向传播训练,并基于关联度损失和分类损失进行反向传播训练得到的,能够将图网络结构中的所有节点应用在该图网络模型的训练过程,增加用于训练的训练样本节点的数量,有效地提高了分类图网络模型中节点分类的准确度。
参照图3,在一实施例中,所述图网络模型的训练步骤如下:
S201、获取训练数据,所述训练数据包括样本图网络结构和所述样本图网络结构中所有样本节点的节点特征,所述样本节点包括已标记分类结果的第一样本节点和未标记分类结果的第二样本节点。
在应用中,上述样本图网络结构包括样本节点之间的连接关系,上述样本节点包括已标记分类结果的第一样本节点,和未标记分类结果的第二样本节点,其中,第一样本节点和第二样本节点均可具有多个。具体的,参照图2,图2为论文引用关系的图网络结构,其中节点1、节点2、节点3和节点4均为已标记分类结果的第一样本节点,节点5、节点6、节点7、节点8和节点9均为未标记分类结果的第二样本节点。在输入训练数据时,上述第一样本节点的节点特征、分类结果及第一样本节点与其他节点之间的连接关系作为已知的训练数据输入至图网络模型所在的服务器、设备中,通过图网络模型进行训练。可理解的是,上述第二样本节点的节点特征和与其他节点之间的连接关系也作为已知的训练数据输入至图网络模型进行训练,而第二样本节点的分类结果是未知的。上述训练数据可以是服务器或设备获取的历史数据,也可是是用户输入的由用户设定的数据,对此不作限定。
S202、将所述训练数据输入初始图网络模型进行正向传播训练,得到所述第一样本节点的预测节点类别及所述第一样本节点与所有样本节点的关联度损失。
在应用中,上述初始图网络模型为基于注意力机制构建的图卷积网络模型。为了更好的理解使用注意力机制来学习节点对之间的相关性强弱,可用“关联度”代替“注意力机制”来学习节点对之间的相关性强弱,可通过对各个节点在图网络结构中的引用/连接关系(图2之间各节点之间的跳数或距离)作为训练数据之一来对初始图网络模型进行训练,请参照图2,两个节点之间若具有直接的引用关系,则认为两个节点之间的跳数或距离距离为1,对应的,节点1和节点2、节点3、节点8的距离均可认为是1,节点1和节点4、节点5、节点6、节点7的距离均可认为是2,则认定对于节点1来说,节点2、节点3、节点8的相关性强于节点4、节点5、节点6、节点7。
在应用中,上述正向传播为将输入的样本节点的节点特征依次经过图网络模型的输入层、隐藏层和输出层进行处理,最后得到的结果,为一次正向传播,在一次正向传播过程结束后,可以得到某个第一样本节点的预测节点类别及某个第一样本节点与所有样本节点之间的关联度损失。即通过设定图网络模型中模型参数的初始值来初始化图网络模型,对初始图网络模型中的每个图网络节点之间的学习参数和偏置参数赋予随机值,而后输入训练的样本节点的连接结构和节点特征到图网络模型的输入层,根据输入层中当前样本节点对应的权重(学习参数)进行计算得到隐藏层的输入值,而后隐藏层根据激活函数得到样本节点的输出值,即为最后输出层输出当前样本节点的预测节点类别,根据预测节点类别和真实节点类别求出输出层的误差,基于误差进行反向传播更新图网络模型中模型参数的初始值。
S203、根据所述第一样本节点的真实节点类别与所述预测节点类别确定所述第一样本节点的分类损失。
在应用中,在获取训练数据时,第一样本节点作为已标记分类结果的样本节点,其真实分类结果是已知的,即第一样本节点的真实节点类别是已知的,因此,可将上述得到的第一样本节点的预测节点类别和该第一样本节点对应的真实节点类别输入分类误差公式进行计算。示例性的,上述误差公式为:
Figure BDA0002262366900000101
其中,m为已标记分类结果的节点数量,y'i为第i个第一样本节点的预测节点类别,yi为的第i个第一样本节点的真实节点类别。对应的,将真实节点类别与样本节点对应的预测节点类别进行比对,losscls为m个已标记真实节点类别的分类损失之和。
S204、根据所述第一样本节点的关联度损失和所述第一样本节点的分类损失进行反向传播训练,迭代更新所述初始图网络模型的模型参数。
在应用中,上述模型参数具体为初始化图网络模型中的学习参数w和偏置参数b。具体的,模型参数根据总损失值向后求出每一层中样本节点的学习参数对总损失值的误差影响,通过误差影响得到当前样本节点的输出层的误差,再乘以上负的学习率,得到样本节点当前层的学习参数的误差值Δw和偏置参数的误差值Δb,则新的学习参数为w+Δw,偏置参数为b+Δb。
S204、若迭代更新过程中所述第一样本节点的关联度损失和所述第一样本节点的分类损失收敛,则结束训练所述初始图网络模型,并将所述初始图网络模型作为已训练的图网络模型。
S205、若迭代更新过程中所述第一样本节点的关联度损失和所述第一样本节点的分类损失未收敛,则调整所述初始图网络模型的模型参数,并返回执行所述将所述训练数据输入初始图网络模型进行正向传播训练处理,得到所述第一样本节点的预测节点类别及所述第一样本节点与所有样本节点的关联度损失的步骤以及后续步骤。
在应用中,上述迭代更新过程中以得到关联度损失和分类损失之和判定图网络模型的收敛情况。具体的,当关联度损失和分类损失之和小于预先设置的某个数值,或经过一定次数后,得到的数值均保持不变,则判断图网络模型得到了收敛。否则,在将第一样本节点进行正向传播和反向传播后,将得到的新模型参数更新至初始图网络模型中与原本的模型参数,再次输入第一样本节点进行训练,重复上述训练步骤S202-S205。其中,每经历一次正向传播和反向传播即为一次迭代,每次迭代过程中反向传播训练时都会更新图网络模型中原本的模型参数,即为迭代更新。
在本实施例中,通过初始化图网络模型,将所有节点的图网络结构以及所有节点的节点特征进行正向传播训练,得到关联度损失和分类损失之和,再进行反向传播训练更新图网络模型,充分利用了图网络模型中所有节点的节点特征,增加训练数据的数量,有效地提高了图网络模型中节点分类的准确度。
参照图4,在一实施例中,步骤S202包括:
S301、根据当前样本节点的节点特征和所有所述样本节点的节点特征,分别计算所述当前样本节点与所有所述样本节点之间的关联度。
在应用中,上述训练的当前样本节点为某个第一样本节点,且当前样本节点还会计算与自身节点之间的关联度,增加用于计算关联度损失样本节点的数量。具体的,
Figure BDA0002262366900000111
其中eij表示当前样本节点i与样本节点j之间的关联度,a为全连接层网络,全连接层的线性函数可定义为:Z=WX+b,设定Z是X和W、b线性运算的结果,b为全连接层网络的偏置参数,W为图网络模型中的模型参数之一,X为
Figure BDA0002262366900000121
S302、根据预设关联度模板及所述当前样本节点与各个所述样本节点的关联距离,确定所述当前样本节点与各个所述样本节点的预设关联度。
在应用中,上述预设关联度模板为预先设定的模板,可用于根据当前样本节点与所有样本节点之间的直接或间接的引用关系或连接关系,确定当前样本节点与各个样本节点之间的预设关联度。如参照图2中的图网络结构之间的连接关系,若设定样本节点1为当前样本节点,则可判定与样本节点2、样本节点3和样本节点8与当前样本节点1具有直接的连接关系,可设定其关联距离为1。上述关联度模板具体可为
Figure BDA0002262366900000122
其中
Figure BDA0002262366900000123
为对应的当前样本节点i与样本节点j之间的预设关联度,hvij为当前样本节点i与样本节点j之间的关联距离,maxhv为针对不同的具体节点分类任务场景定义的最大距离。可认为在图网络结构中,距离(hvij)越远的两个节点(当前样本节点i和样本节点j)应该被赋予一个较小的预设关联度;反之,离的越近的两个节点应该有一个较大的预设关联度。而当距离超过maxhv的两个节点,则可设定节点之间的预设关联度为(1-maxhv),可理解两个节点之间为“无预设关联度”,其中,预设关联度模板可具体根据应用场景进行设定,对此不作限定。
S303、根据所述当前样本节点与所有所述样本节点之间的关联度和预设关联度对所述初始图网络模型进行正向传播训练,得到所述当前样本节点与所有样本节点的关联度损失。
在应用中,上述根据关联度和预设关联度可得到当前样本节点与所有样本节点之间的关联度损失。具体的,
Figure BDA0002262366900000124
其中,lossattn(i)为当前样本节点i与所有样本节点之间的关联度损失之和,N为所有样本节点,
Figure BDA0002262366900000131
为对应的当前样本节点i与样本节点j之间的预设关联度,eij为当前样本节点i与样本节点j之间的关联度。
在本实施例中,为解决训练数据少导致训练后的图网络模型预测不准确的现象。在通过计算出的关联度损失与是否已标记分类结果的样本节点无关,即使没有给出已标记分类结果的样本节点,在图网络结构中也一定会有与其余样本节点之间的连接关系,因此可以获得更多的训练数据,因此可以缓解图网络模型训练过拟合现象。另外,引入上述所提到的图网络结构中的节点间的关联距离信息,不仅能为图网络模型引入新的训练数据,而且能够有效提高图网络模型预测的准确率。
参照图4,在一实施例中,步骤S302之后,包括:
S304:分别获取所述当前样本节点与所有所述样本节点之间的关联距离。
在应用中,上述关联距离可由当前样本节点与所有样本节点之间是否具有直接或间接的引用关系确定。请参阅图2,图2中图网络结构之间的连接关系,若设定样本节点1为当前样本节点,则可判定样本节点2、样本节点3和样本节点8与当前样本节点1具有直接的连接关系,可设定其关联距离为1,与样本节点4、样本节点5、样本节点6、当前样本节点7具有间接的连接关系,可设定其关联距离为2。需要说明的是,对于根据直接或间接的连接关系对应的关联距离数值可以根据实际应用进行设定,在此不作限定。
S305:将与所述当前样本节点的关联距离小于预设距离的样本节点确定为目标样本节点。
在应用中,上述预设距离为用户事先根据应用场景设定的距离,如设定距离为2,则将与当前样本节点1的关联距离小于预设距离2的样本节点(节点1、节点2、节点3、节点8)作为目标样本节点。
S306:获取所述当前样本节点与所有所述目标样本节点的关联度,并对当前所有关联度进行归一化处理,得到归一化关联度。
在应用中,基于S301可得到当前样本节点与所有样本节点的多个关联度,而后基于步骤S305,可直接获取到当前样本节点与所有目标样本节点之间的关联度。将当前样本节点与所有目标样本节点之间的所有关联度均输入归一化公式中进行归一化处理,可得到当前样本节点与所有样本节点的归一化关联度。上述归一化为将样本节点的节点特征数据进缩放映射到[0,1]区间内。使用归一化方法处理所有得到关联度,可以将需要处理的关联度数据限制在一定范围内,用于后续方便处理关联度数据,其次可保证图网络模型正向传播时收敛加快。具体的,所有关联度的归一化公式可为,
Figure BDA0002262366900000141
其中,αij为归一化关联度,eij表示当前样本节点i与目标样本节点j之间的关联度,其中,样本节点k为当前样本节点i的相邻样本节点,
Figure BDA0002262366900000142
为计算当前样本节点i所有相邻样本节点之和。
S307:根据所述当前样本节点与所有所述目标样本节点的归一化关联度更新所述当前样本节点的节点特征。
S308:将更新后的当前样本节点的节点特征输入至所述初始图网络模型的全连接层进行处理,得到所述当前样本节点的预测节点类别。
在应用中,上述当前样本节点的预测节点类别由当前样本节点更新后的节点特征获得,具体的,
Figure BDA0002262366900000143
其中
Figure BDA0002262366900000144
为更新后的当前样本节点的节点特征,σ为设定的激活函数,可选用生成曲线函数(sigmoid),具体为σ(h)=1/(1+e-h),进行更新当前样本节点的节点特征,W为图网络模型的模型参数。
在应用中,上述将更新后的当前样本节点的节点特征输入至初始图网络模型的全连接层进行处理,得到当前样本节点的预测节点类别,具体的,可将上述得到的
Figure BDA0002262366900000145
输入一个全连接层和激活函数σ经过运算得到数值即为预测节点类别,其中激活函数σ选用生成曲线函数(sigmoid),具体为σ(h)=1/(1+e-h)。
在一具体应用中,参照图5,全连接层的线性函数可定义为:Z=WX+b,设定Z是X和W、b线性运算的结果,x1、x2、x3、x4为图网络模型中全连接层初始输入层的输入值,若当前样本节点的节点特征
Figure BDA0002262366900000151
为四维特征,则更新后的当前样本节点的节点特征
Figure BDA0002262366900000152
也为四维特征,更新后的每个维度的特征分别可为x1、x2、x3、x4进行表示,w和b为全连接层中每层的学习参数之一,也为每个维度特征x1、x2、x3、x4之间的的权重参数(图中未示出),b为全连接层中每层的偏置参数之一(图中未示出),其中z为全连接层的输出值。因此,图网络模型正向传播的训练运算过程可为:z=w1x1+w2x2+w3x3+w4x4+b;a=σ(z);所有w为需要更新的权重;将更新后样本节点1的节点特征
Figure BDA0002262366900000153
Figure BDA0002262366900000154
输入全连接层根据模型参数计算得到z,而后将z输入激活函数σ中得到a,即为更新后的当前样本节点对应的预测节点类别的概率y'i
在其他应用中,参照图5,因当前样本节点对应的预测节点类别可能存在大于2个,如预测节点类别包括“计算机学科”、“数学学科”、“物理学科”和“语言学科”,还可将更新后的当前样本节点的四维节点特征x1、x2、x3、x4输入全连接层中,使用全连接层中预先设置的不同权重参数w计算a。因此,还可对更新后的节点特征预测出四个a,即a1(对应附图5中y'1)、a2(对应附图5中y'2)、a3(对应附图5中y'3)和a4(对应附图5中y'4)。上述计算得到的四个a可分别设定为预测节点类别为“计算机学科”的概率(a1)、预测节点类别为“数学学科(a2)”、预测节点类别为“物理学科(a3)”和预测节点类别为“语言学科(a4)”的概率。选取三个a中的最大值对应的类别作为最终的预测节点类别。如a1=0.67,a2=0.1,a3=0.13和a4=0.1,则判定当前样本节点i为“计算机学科”,而后根据真实的已标记节点类别与预测节点类别计算分类损失。如预先设置当前样本节点i的节点类别概率为yi(1)=1,yi(2)=0,yi(3)=0和yi(4)=0,分别将预测节点类别a1、a2、a3和a4的概率对应与真实节点类别的概率计算平方差,得到分类损失。
在一实施例中,步骤S202包括:
在所有所述样本节点中随机选择预设数量的所述样本节点。
根据当前样本节点的节点特征和所有预设数量的样本节点的节点特征,计算所述当前样本节点与所述预设数量的样本节点的关联度损失。
在应用中,上述关联度损失还可以通过计算当前样本节点的节点特征与随机选取的预设数量的样本节点的节点特征进行计算。参照图2,以样本节点1作为当前样本节点,上述随机选取具体可以为,在距离当前样本节点的关联距离为1(包含1)以内的所有样本节点(即为图2中的四个样本节点:1、2、3、8)中随机选取一半(节点数量不足,则向上取整)的样本节点作为计算的样本节点(如选取样本节点2和样本节点8),在距离当前样本节点的关联距离大于1小于2(包含2)以内的所有样本节点(即为图2中的四个样本节点:4、5、6、7)中,选取四分之一(节点数量不足,则向上取整)的样本节点作为计算的样本节点(如选取样本节点4),对此不作限定。另外,在随机采样样本节点时,可以加重与当前样本节点之间的关联距离更近的比例,使用更多的关联度更高的样本节点进行计算,在每次通过随机采样部分样本节点计算样本节点之间的关联度损失满足预期数值时,还可以提升图网络模型的计算速度,缩短图网络模型的训练时间。
在一实施例中,步骤S204之后,包括:
根据当前样本节点的所述关联度损失与所述分类损失确定所述当前样本节点的目标损失。
在应用中,上述目标损失由关联度损失和分类损失确定。具体的,loss=βlossattn+γlosscls,其中loss为目标损失,lossattn为关联度损失,losscls为分类损失,β和γ为两个损失的强度系数,用于平衡两者对反向传播过程的影响,具体的数值,可根据实际应用场景进行设置。
根据所述当前样本节点的目标损失对所述初始图网络模型进行反向传播训练,更新所述初始图网络模型的模型参数。
在应用中,上述反向传播用于根据正向传播得到目标损失值反向训练,更新初始图网络模型的模型参数。具体的,使用目标损失对最后一层的学习参数进行求偏导步骤,如
Figure BDA0002262366900000171
其中c为根据目标损失反向传播训练得到的偏导值,W为全连接层网络中最后一层的学习参数,最后根据计算出的偏导值更新模型内部的学习参数,其中,W新=W旧-学习效率*偏导值得到,而后逐步前推计算每层学习参数,其中学习效率为构建图网络模型设定的初始值,在迭代过程中学习效率保持不变。在其他应用中,若全连接层网络的中的学习参数只有1个时,则可直接对激活函数σ求偏导,得到激活函数的偏导值更新当前全连接网络层的学习参数,对此不作限定。
在实施例中,通过当前样本节点与所有节点之间的关联损失和节点分类损失两者进行反向传播,解决当提供的已标记分类结果的节点数量有限或不足时,仅仅通过预测节点类别和真实的分类结果之间的误差进行训练得到图网络模型预测准确率低的问题。
在一实施例中,所述根据当前样本节点的所述关联度损失与所述分类损失确定所述当前样本节点的目标损失之后,还包括;
判断迭代过程中所述目标损失在预设迭代步数下是否保持不变;
若迭代过程中所述目标损失在预设迭代步数下保持不变,则判定目标损失收敛,则结束训练所述初始图网络模型,并将所述初始图网络模型作为已训练的图网络模型。
在应用中,上述目标损失收敛可为在预设迭代步数下,得到的目标损失保持不变,上述预设步数设定为3步,则在连续3次得到的目标损失均一致后,判断目标损失收敛,或者,迭代更新过程中,得到的目标损失值小于预设的数值,对此不作限定。
在一实施例中,包含待测节点的图网络结构和所述待测节点的节点特征输入至训练好的图网络模型中得到待测节点的分类结果时,可直接获取待测节点与所有节点的关联距离中小于预设距离的样本节点,并只计算待测节点与小于预设距离的样本节点之间的关联度即可,而后根据关联度更新待测节点的节点特征,获得待测节点的分类结果。则不需要计算所有节点与待测节点的关联度,减少使用训练好的图网络模型的计算量。
在本实施例中,通过将待测节点输入已训练的图网络模型中进行分类,提高分类的准确性。且该已训练的图网络模型是基于图网络结构以及图网络结构中的所有节点的节点特征进行正向传播训练,并基于关联度损失和分类损失进行反向传播训练得到的,能够将图网络结构中的所有节点应用在该图网络模型的训练过程,增加用于训练的训练样本节点的数量,有效地提高了分类图网络模型中节点分类的准确度。
如图6所示,本实施例还提供一种图网络模型的节点分类装置100,包括:
第一获取模块10,用于获取包含待测节点的图网络结构和所述待测节点的节点特征。
分类模块20,用于将包含所述待测节点的图网络结构和所述待测节点的节点特征输入至已训练的图网络模型进行处理,得到所述待测节点的分类结果;
其中,所述已训练的图网络模型是基于图网络结构以及图网络结构中的所有节点的节点特征进行正向传播训练,并基于关联度损失和分类损失进行反向传播训练得到的。
在一实施例中,图网络模型的节点分类装置100还可用于进行网络模型训练,包括:
第二获取模块,用于获取训练数据,所述训练数据包括样本图网络结构和所述样本图网络结构中所有样本节点的节点特征,所述样本节点包括已标记分类结果的第一样本节点和未标记分类结果的第二样本节点。
第一输入模块,用于将所述训练数据输入初始图网络模型进行正向传播训练,得到所述第一样本节点的预测节点类别及所述第一样本节点与所有样本节点的关联度损失。
第一确定模块,用于根据所述第一样本节点的真实节点类别与所述预测节点类别确定所述第一样本节点的分类损失。
第一更新模块,用于根据所述第一样本节点的关联度损失和所述第一样本节点的分类损失进行反向传播训练,迭代更新所述初始图网络模型的模型参数。
结束模块,用于若迭代更新过程中所述第一样本节点的关联度损失和所述第一样本节点的分类损失收敛,则结束训练所述初始图网络模型,并将所述初始图网络模型作为已训练的图网络模型。
迭代模块,用于若迭代更新过程中所述第一样本节点的关联度损失和所述第一样本节点的分类损失未收敛,则调整所述初始图网络模型的模型参数,并返回执行所述将所述训练数据输入初始图网络模型进行正向传播训练处理,得到所述第一样本节点的预测节点类别及所述第一样本节点与所有样本节点的关联度损失的步骤以及后续步骤。
在一实施例中,所述输入模块还用于:
根据当前样本节点的节点特征和所有所述样本节点的节点特征,分别计算所述当前样本节点与所有所述样本节点之间的关联度;
根据预设关联度模板及所述当前样本节点与各个所述样本节点的关联距离,确定所述当前样本节点与各个所述样本节点的预设关联度;
根据所述当前样本节点与所有所述样本节点之间的关联度和预设关联度对所述初始图网络模型进行正向传播训练,得到所述当前样本节点与所有样本节点的关联度损失。
在一实施例中,图网络模型的节点分类装置100还包括:
第三获取模块,用于分别获取所述当前样本节点与所有所述样本节点之间的关联距离。
第二确定模块,用于将与所述当前样本节点的关联距离小于预设距离的样本节点确定为目标样本节点。
第四获取模块,用于获取所述当前样本节点与所有所述目标样本节点的关联度,并对当前所有关联度进行归一化处理,得到归一化关联度。
第二更新模块,用于根据所述当前样本节点与所有所述目标样本节点的归一化关联度更新所述当前样本节点的节点特征;
第二输入模块,用于将更新后的当前样本节点的节点特征输入至所述初始图网络模型的全连接层进行处理,得到所述当前样本节点的预测节点类别。
在一实施例中,所述输入模块还用于:
在所有所述样本节点中随机选择预设数量的所述样本节点;
根据当前样本节点的节点特征和所有预设数量的样本节点的节点特征,计算所述当前样本节点与所述预设数量的样本节点的关联度损失。
在一实施例中,第一更新模块还用于:
根据当前样本节点的所述关联度损失与所述分类损失确定所述当前样本节点的目标损失;
根据所述当前样本节点的目标损失对所述初始图网络模型进行反向传播训练,更新所述初始图网络模型的模型参数。
在一实施例中,第一更新模块还用于:
判断迭代过程中所述目标损失在预设迭代步数下是否保持不变;
若迭代过程中所述目标损失在预设迭代步数下保持不变,则判定目标损失收敛,则结束训练所述初始图网络模型,并将所述初始图网络模型作为已训练的图网络模型。
在本实施例中,通过将待测节点输入已训练的图网络模型中进行分类,提高分类的准确性。且该已训练的图网络模型是基于图网络结构以及图网络结构中的所有节点的节点特征进行正向传播训练,并基于关联度损失和分类损失进行反向传播训练得到的,能够将图网络结构中的所有节点应用在该图网络模型的训练过程,增加用于训练的训练样本节点的数量,有效地提高了分类图网络模型中节点分类的准确度。
本申请实施例还提供了一种终端设备,该终端设备包括:至少一个处理器、存储器以及存储在所述存储器中并可在所述至少一个处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述任意各个方法实施例中的步骤。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时可实现上述各个方法实施例中的步骤。
本申请实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行时可实现上述各个方法实施例中的步骤。
图7是本申请一实施例提供的终端设备80的示意图。如图7所示,该实施例的终端设备80包括:处理器803、存储器801以及存储在所述存储器801中并可在所述处理器803上运行的计算机程序802。所述处理器803执行所述计算机程序802时实现上述各个方法实施例中的步骤,例如图1所示的步骤S101至S102。或者,所述处理器803执行所述计算机程序802时实现上述各装置实施例中各模块/单元的功能。
示例性的,所述计算机程序802可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器801中,并由所述处理器803执行,以完成本申请。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序802在所述终端设备80中的执行过程。例如,所述计算机程序802可以被分割成第一获取模块和分类模块,各模块具体功能如下:
第一获取模块,用于获取包含待测节点的图网络结构和所述待测节点的节点特征;
分类模块,用于将包含所述待测节点的图网络结构和所述待测节点的节点特征输入至已训练的图网络模型进行处理,得到所述待测节点的分类结果;
其中,所述已训练的图网络模型是基于图网络结构以及图网络结构中的所有节点的节点特征进行正向传播训练,并基于关联度损失和分类损失进行反向传播训练得到的。
所述终端设备80可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述终端设备可包括,但不仅限于,处理器803、存储器801。本领域技术人员可以理解,图7仅仅是终端设备80的示例,并不构成对终端设备80的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器803可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器801可以是所述终端设备80的内部存储单元,例如终端设备80的硬盘或内存。所述存储器801也可以是所述终端设备80的外部存储设备,例如所述终端设备80上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。在一个实施例中,所述存储器801还可以既包括所述终端设备80的内部存储单元也包括外部存储设备。所述存储器801用于存储所述计算机程序以及所述终端设备所需的其他程序和数据。所述存储器801还可以用于暂时地存储已经输出或者将要输出的数据。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

1.一种图网络模型的节点分类方法,其特征在于,包括:
获取包含待测节点的图网络结构和所述待测节点的节点特征;
将所述包含待测节点的图网络结构和所述待测节点的节点特征输入至已训练的图网络模型进行处理,得到所述待测节点的分类结果;
其中,所述已训练的图网络模型是基于图网络结构以及图网络结构中的所有节点的节点特征进行正向传播训练,并基于关联度损失和分类损失进行反向传播训练得到的。
2.如权利要求1所述的图网络模型的节点分类方法,其特征在于,所述图网络模型的训练步骤如下:
获取训练数据,所述训练数据包括样本图网络结构和所述样本图网络结构中所有样本节点的节点特征,所述样本节点包括已标记分类结果的第一样本节点和未标记分类结果的第二样本节点;
将所述训练数据输入初始图网络模型进行正向传播训练,得到所述第一样本节点的预测节点类别及所述第一样本节点与所有样本节点的关联度损失;
根据所述第一样本节点的真实节点类别与所述预测节点类别确定所述第一样本节点的分类损失;
根据所述第一样本节点的关联度损失和所述第一样本节点的分类损失进行反向传播训练,迭代更新所述初始图网络模型的模型参数;
若迭代更新过程中所述第一样本节点的关联度损失和所述第一样本节点的分类损失收敛,则结束训练所述初始图网络模型,并将所述初始图网络模型作为已训练的图网络模型;
若迭代更新过程中所述第一样本节点的关联度损失和所述第一样本节点的分类损失未收敛,则调整所述初始图网络模型的模型参数,并返回执行所述将所述训练数据输入初始图网络模型进行正向传播训练处理,得到所述第一样本节点的预测节点类别及所述第一样本节点与所有样本节点的关联度损失的步骤以及后续步骤。
3.如权利要求2所述的图网络模型的节点分类方法,其特征在于,所述将所述训练数据输入初始图网络模型进行正向传播训练处理,得到所述第一样本节点的预测节点类别及所述第一样本节点与所有样本节点的关联度损失,包括:
根据当前样本节点的节点特征和所有所述样本节点的节点特征,分别计算所述当前样本节点与所有所述样本节点之间的关联度;
根据预设关联度模板及所述当前样本节点与各个所述样本节点的关联距离,确定所述当前样本节点与各个所述样本节点的预设关联度;
根据所述当前样本节点与所有所述样本节点之间的关联度和预设关联度对所述初始图网络模型进行正向传播训练,得到所述当前样本节点与所有样本节点的关联度损失。
4.如权利要求3所述的图网络模型的节点分类方法,其特征在于,所述根据预设关联度模板及所述当前样本节点与各个所述样本节点的关联距离,确定所述当前样本节点与各个所述样本节点的预设关联度之后,包括:
分别获取所述当前样本节点与所有所述样本节点之间的关联距离;
将与所述当前样本节点的关联距离小于预设距离的样本节点确定为目标样本节点;
获取所述当前样本节点与所有所述目标样本节点的关联度,并对当前所有关联度进行归一化处理,得到归一化关联度;
根据所述当前样本节点与所有所述目标样本节点的归一化关联度更新所述当前样本节点的节点特征;
将更新后的当前样本节点的节点特征输入至所述初始图网络模型的全连接层进行处理,得到所述当前样本节点的预测节点类别。
5.如权利要求2所述的图网络模型的节点分类方法,其特征在于,所述将所述训练数据输入初始图网络模型进行正向传播训练处理,得到所述第一样本节点的预测节点类别及所述第一样本节点与所有样本节点的关联度损失,包括:
在所有所述样本节点中随机选择预设数量的所述样本节点;
根据当前样本节点的节点特征和所有预设数量的样本节点的节点特征,计算所述当前样本节点与所述预设数量的样本节点的关联度损失。
6.如权利要求2所述的图网络模型的节点分类方法,其特征在于,所述根据所述第一样本节点的关联度损失和所述第一样本节点的分类损失进行反向传播训练,迭代更新所述初始图网络模型的模型参数,包括:
根据当前样本节点的所述关联度损失与所述分类损失确定所述当前样本节点的目标损失;
根据所述当前样本节点的目标损失对所述初始图网络模型进行反向传播训练,更新所述初始图网络模型的模型参数。
7.如权利要求6所述的图网络模型的节点分类方法,其特征在于,所述根据当前样本节点的所述关联度损失与所述分类损失确定所述当前样本节点的目标损失之后,还包括;
判断迭代过程中所述目标损失在预设迭代步数下是否保持不变;
若迭代过程中所述目标损失在预设迭代步数下保持不变,则判定目标损失收敛,则结束训练所述初始图网络模型,并将所述初始图网络模型作为已训练的图网络模型。
8.一种图网络模型的节点分类装置,其特征在于,包括:
第一获取模块,用于获取包含待测节点的图网络结构和所述待测节点的节点特征;
分类模块,用于将包含所述待测节点的图网络结构和所述待测节点的节点特征输入至已训练的图网络模型进行处理,得到所述待测节点的分类结果;
其中,所述已训练的图网络模型是基于图网络结构以及图网络结构中的所有节点的节点特征进行正向传播训练,并基于关联度损失和分类损失进行反向传播训练得到的。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的方法。
CN201911075701.0A 2019-11-06 2019-11-06 图网络模型的节点分类方法、装置及终端设备 Active CN111026544B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201911075701.0A CN111026544B (zh) 2019-11-06 2019-11-06 图网络模型的节点分类方法、装置及终端设备
PCT/CN2020/127253 WO2021089012A1 (zh) 2019-11-06 2020-11-06 图网络模型的节点分类方法、装置及终端设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911075701.0A CN111026544B (zh) 2019-11-06 2019-11-06 图网络模型的节点分类方法、装置及终端设备

Publications (2)

Publication Number Publication Date
CN111026544A true CN111026544A (zh) 2020-04-17
CN111026544B CN111026544B (zh) 2023-04-28

Family

ID=70204945

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911075701.0A Active CN111026544B (zh) 2019-11-06 2019-11-06 图网络模型的节点分类方法、装置及终端设备

Country Status (2)

Country Link
CN (1) CN111026544B (zh)
WO (1) WO2021089012A1 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111814006A (zh) * 2020-07-27 2020-10-23 深圳壹账通智能科技有限公司 图网络结构的分析方法、装置和计算机设备
CN112084335A (zh) * 2020-09-09 2020-12-15 电子科技大学 一种基于信息融合的社交媒体用户账号分类方法
CN112200266A (zh) * 2020-10-28 2021-01-08 腾讯科技(深圳)有限公司 基于图结构数据的网络训练方法、装置以及节点分类方法
CN112231527A (zh) * 2020-12-17 2021-01-15 北京百度网讯科技有限公司 图节点标签信息的预测方法、装置及电子设备
WO2021089012A1 (zh) * 2019-11-06 2021-05-14 中国科学院深圳先进技术研究院 图网络模型的节点分类方法、装置及终端设备
CN112819152A (zh) * 2020-08-14 2021-05-18 腾讯科技(深圳)有限公司 一种神经网络训练方法及装置
WO2023174189A1 (zh) * 2022-03-15 2023-09-21 上海爱数信息技术股份有限公司 图网络模型节点分类方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106682734A (zh) * 2016-12-30 2017-05-17 中国科学院深圳先进技术研究院 一种提升卷积神经网络泛化能力的方法及装置
CN109934261A (zh) * 2019-01-31 2019-06-25 中山大学 一种知识驱动参数传播模型及其少样本学习方法
US20190251480A1 (en) * 2018-02-09 2019-08-15 NEC Laboratories Europe GmbH Method and system for learning of classifier-independent node representations which carry class label information
US20190311811A1 (en) * 2018-04-07 2019-10-10 Tata Consultancy Services Limited Graph convolution based gene prioritization on heterogeneous networks

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108345901A (zh) * 2018-01-17 2018-07-31 同济大学 一种基于自编码神经网络的符号图节点分类方法
CN108388923A (zh) * 2018-03-08 2018-08-10 深圳市唯特视科技有限公司 一种基于对象检测器和递归神经网络的统一图解析网络
US20210027862A1 (en) * 2018-03-30 2021-01-28 Board Of Trustees Of Michigan State University Systems and methods for drug design and discovery comprising applications of machine learning with differential geometric modeling
CN111026544B (zh) * 2019-11-06 2023-04-28 中国科学院深圳先进技术研究院 图网络模型的节点分类方法、装置及终端设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106682734A (zh) * 2016-12-30 2017-05-17 中国科学院深圳先进技术研究院 一种提升卷积神经网络泛化能力的方法及装置
US20190251480A1 (en) * 2018-02-09 2019-08-15 NEC Laboratories Europe GmbH Method and system for learning of classifier-independent node representations which carry class label information
US20190311811A1 (en) * 2018-04-07 2019-10-10 Tata Consultancy Services Limited Graph convolution based gene prioritization on heterogeneous networks
CN109934261A (zh) * 2019-01-31 2019-06-25 中山大学 一种知识驱动参数传播模型及其少样本学习方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
JINGJIA HUANG ET AL: "\"AttPool:Towards Hierarchical Feature Representation in Graph Convolutional Networks via Attention Mechanism\"" *
KIRAN K ET AL: ""Attention-based Graph Neural Network for Semi-supervised Learning"" *
吴烨: ""基于图的实体关系关联分析关键技术研究"" *
张潇鲲等: ""引入外部词向量的文本信息网络表示学习"" *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021089012A1 (zh) * 2019-11-06 2021-05-14 中国科学院深圳先进技术研究院 图网络模型的节点分类方法、装置及终端设备
CN111814006A (zh) * 2020-07-27 2020-10-23 深圳壹账通智能科技有限公司 图网络结构的分析方法、装置和计算机设备
CN112819152A (zh) * 2020-08-14 2021-05-18 腾讯科技(深圳)有限公司 一种神经网络训练方法及装置
CN112819152B (zh) * 2020-08-14 2024-03-01 腾讯科技(深圳)有限公司 一种神经网络训练方法及装置
CN112084335A (zh) * 2020-09-09 2020-12-15 电子科技大学 一种基于信息融合的社交媒体用户账号分类方法
CN112084335B (zh) * 2020-09-09 2022-04-12 电子科技大学 一种基于信息融合的社交媒体用户账号分类方法
CN112200266A (zh) * 2020-10-28 2021-01-08 腾讯科技(深圳)有限公司 基于图结构数据的网络训练方法、装置以及节点分类方法
CN112200266B (zh) * 2020-10-28 2024-04-02 腾讯科技(深圳)有限公司 基于图结构数据的网络训练方法、装置以及节点分类方法
CN112231527A (zh) * 2020-12-17 2021-01-15 北京百度网讯科技有限公司 图节点标签信息的预测方法、装置及电子设备
CN112231527B (zh) * 2020-12-17 2021-06-11 北京百度网讯科技有限公司 图节点标签信息的预测方法、装置及电子设备
WO2023174189A1 (zh) * 2022-03-15 2023-09-21 上海爱数信息技术股份有限公司 图网络模型节点分类方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN111026544B (zh) 2023-04-28
WO2021089012A1 (zh) 2021-05-14

Similar Documents

Publication Publication Date Title
CN111026544B (zh) 图网络模型的节点分类方法、装置及终端设备
CN108701250B (zh) 数据定点化方法和装置
US20200218982A1 (en) Dithered quantization of parameters during training with a machine learning tool
CN110532417B (zh) 基于深度哈希的图像检索方法、装置及终端设备
US11915128B2 (en) Neural network circuit device, neural network processing method, and neural network execution program
CN109766557B (zh) 一种情感分析方法、装置、存储介质及终端设备
CN111079780B (zh) 空间图卷积网络的训练方法、电子设备及存储介质
CN104951965A (zh) 广告投放方法及装置
CN111160000B (zh) 作文自动评分方法、装置终端设备及存储介质
US11681922B2 (en) Performing inference and training using sparse neural network
CN110781686B (zh) 一种语句相似度计算方法、装置及计算机设备
CN111223128A (zh) 目标跟踪方法、装置、设备及存储介质
CN114245910A (zh) 一种自动机器学习AutoML系统、方法及设备
CN114974421A (zh) 基于扩散-降噪的单细胞转录组测序数据补插方法及系统
CN112085175A (zh) 基于神经网络计算的数据处理方法和装置
US20200311511A1 (en) Accelerating neuron computations in artificial neural networks by skipping bits
WO2022127037A1 (zh) 一种数据分类方法、装置及相关设备
CN117057443B (zh) 视觉语言模型的提示学习方法及电子设备
CN113011532A (zh) 分类模型训练方法、装置、计算设备及存储介质
CN113239697A (zh) 实体识别模型训练方法、装置、计算机设备及存储介质
CN109886299B (zh) 一种用户画像方法、装置、可读存储介质及终端设备
CN116109907B (zh) 目标检测方法、装置、电子设备及存储介质
CN112364198A (zh) 一种跨模态哈希检索方法、终端设备及存储介质
CN114155388B (zh) 一种图像识别方法、装置、计算机设备和存储介质
CN115640517A (zh) 多方协同模型训练方法、装置、设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant