CN109460793A - 一种节点分类的方法、模型训练的方法及装置 - Google Patents

一种节点分类的方法、模型训练的方法及装置 Download PDF

Info

Publication number
CN109460793A
CN109460793A CN201811361409.0A CN201811361409A CN109460793A CN 109460793 A CN109460793 A CN 109460793A CN 201811361409 A CN201811361409 A CN 201811361409A CN 109460793 A CN109460793 A CN 109460793A
Authority
CN
China
Prior art keywords
node
subclass
model parameter
trained
neighbor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811361409.0A
Other languages
English (en)
Other versions
CN109460793B (zh
Inventor
黄文炳
荣钰
黄俊洲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201811361409.0A priority Critical patent/CN109460793B/zh
Publication of CN109460793A publication Critical patent/CN109460793A/zh
Priority to JP2021505770A priority patent/JP7183385B2/ja
Priority to PCT/CN2019/117173 priority patent/WO2020098606A1/zh
Priority to EP19883716.3A priority patent/EP3882820A4/en
Priority to US17/153,014 priority patent/US11853882B2/en
Application granted granted Critical
Publication of CN109460793B publication Critical patent/CN109460793B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2323Non-hierarchical techniques based on graph theory, e.g. minimum spanning trees [MST] or graph cuts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Abstract

本发明公开了一种模型训练方法,包括:从待训练节点集合中获取待训练节点子集合,待训练节点子集合中的节点个数小于待训练节点集合的节点个数;根据待训练节点子集合确定节点特性向量子集合;根据目标节点子集合以及节点特性向量子集合确定预测类别概率子集合,预测类别概率与目标节点具有对应关系;根据预测类别概率子集合以及第一模型参数确定第二模型参数;根据第二模型参数训练得到节点分类模型。本发明还公开了节点分类方法以及服务器。本发明对于大规模图谱而言,可以仅基于一部分节点进行训练,每一次迭代计算图谱中的部分节点,无需遍历图谱中的每个节点,大幅地降低了计算开销,且节省计算资源。

Description

一种节点分类的方法、模型训练的方法及装置
技术领域
本发明涉及互联网技术领域,尤其涉及一种节点分类的方法、模型训练的方法及装置。
背景技术
随着机器学习技术的发展,图片分类任务得到了瞩目的进展,相关技术已经应用到自动驾驶、安防以及游戏等诸多场景。与图片类似,图谱也是一种常见的数据,例如社交网络、知识图谱以及药物分子结构等。与图片不同的是,利用机器学习方法对图谱节点进行分类的研究还比较少。
目前,针对大规模图谱而言,对图谱节点信息整合需要设置专门的迭代计算。请参阅图1,图1为现有方案中面向图谱节点分类的图卷积神经网络(graph convolutionalnetworks,GCN)分类模型一个示意图,如图所示,v表示节点,a表示连接两个节点的边,对输入层的每个节点进行特征向量的计算,就可以更新整个图谱信息,得到第一层信息,采用softmax函数对第一层信息中的每个节点预测节点类别。
对于大规模图谱而言,往往含有千万级甚至亿级以上的节点数,以及含有数十亿级以上的连边。然而,为了更新每个节点的特征信息,GCN需要在一次特征信息计算中遍历每个节点的所有邻居节点,导致计算代价过高,计算资源消耗过大。
发明内容
本发明实施例提供了一种节点分类的方法、模型训练的方法及装置,对于大规模图谱而言,可以仅基于一部分节点进行训练,每一次迭代计算图谱中的部分节点,无需遍历图谱中的每个节点,大幅地降低了计算开销,且节省计算资源。
有鉴于此,本发明第一方面提供了一种节点分类的方法,包括:
获取待分类节点;
根据所述待分类节点获取邻居节点集合,其中,所述邻居节点集合包括至少一个邻居节点,所述邻居节点与所述待分类节点之间具有关联关系;
根据所述邻居节点集合确定所述待分类节点的目标特征信息;
通过所述节点分类模型确定所述目标特征信息的分类结果,其中,所述节点分类模型为根据至少一个待训练节点子集合训练得到的,每个待训练节点子集合的节点个数小于待训练节点集合的节点个数。
本发明第二方面提供了一种节点分类的方法,包括:
从待训练节点集合中获取待训练节点子集合,其中,所述待训练节点子集合中的节点个数小于所述待训练节点集合的节点个数,所述待训练节点子集合包括目标节点子集合以及邻居节点子集合,所述邻居节点子集合中的邻居节点与所述目标节点子集合中的目标节点具有关联关系;
根据所述待训练节点子集合确定节点特性向量子集合,其中,节点特性向量子集合包括至少一个节点特性向量,所述节点特性向量与所述目标节点具有对应关系;
根据所述目标节点子集合以及所述节点特性向量子集合确定预测类别概率子集合,其中,所述预测类别概率子集合包括至少一个预测类别概率,所述预测类别概率与所述目标节点具有对应关系;
根据所述预测类别概率子集合以及第一模型参数确定第二模型参数;
根据所述第二模型参数训练得到节点分类模型。
本发明第三方面提供了一种服务器,包括:
获取模块,用于获取待分类节点;
所述获取模块,还用于根据所述待分类节点获取邻居节点集合,其中,所述邻居节点集合包括至少一个邻居节点,所述邻居节点与所述待分类节点之间具有关联关系;
确定模块,用于根据所述获取模块获取的所述邻居节点集合确定所述待分类节点的目标特征信息;
所述确定模块,还用于通过所述节点分类模型确定所述待分类节点的分类结果,其中,所述节点分类模型为根据至少一个待训练节点子集合训练得到的,每个待训练节点子集合的节点个数小于待训练节点集合的节点个数。
本发明第四方面提供了一种服务器,包括:
获取模块,用于从待训练节点集合中获取待训练节点子集合,其中,所述待训练节点子集合中的节点个数小于所述待训练节点集合的节点个数,所述待训练节点子集合包括目标节点子集合以及邻居节点子集合,所述邻居节点子集合中的邻居节点与所述目标节点子集合中的目标节点具有关联关系;
确定模块,用于根据所述获取模块获取的所述待训练节点子集合确定节点特性向量子集合,其中,节点特性向量子集合包括至少一个节点特性向量,所述节点特性向量与所述目标节点具有对应关系;
所述确定模块,还用于根据所述目标节点子集合以及所述节点特性向量子集合确定预测类别概率子集合,其中,所述预测类别概率子集合包括至少一个预测类别概率,所述预测类别概率与所述目标节点具有对应关系;
所述确定模块,还用于根据所述预测类别概率子集合以及第一模型参数确定第二模型参数;
训练模块,用于根据所述确定模块确定的所述第二模型参数训练得到节点分类模型。
本发明第五方面提供了一种服务器,所述服务器包括:存储器、收发器、处理器以及总线系统;
其中,所述存储器用于存储程序;
所述处理器用于执行所述存储器中的程序,包括如下步骤:
获取待分类节点;
根据所述待分类节点获取邻居节点集合,其中,所述邻居节点集合包括至少一个邻居节点,所述邻居节点与所述待分类节点之间具有关联关系;
根据所述邻居节点集合确定所述待分类节点的目标特征信息;
通过所述节点分类模型确定所述待分类节点的分类结果,其中,所述节点分类模型为根据至少一个待训练节点子集合训练得到的,每个待训练节点子集合的节点个数小于待训练节点集合的节点个数;
所述总线系统用于连接所述存储器以及所述处理器,以使所述存储器以及所述处理器进行通信。
本发明第六方面提供了一种服务器,所述服务器包括:存储器、收发器、处理器以及总线系统;
其中,所述存储器用于存储程序;
所述处理器用于执行所述存储器中的程序,包括如下步骤:
从待训练节点集合中获取待训练节点子集合,其中,所述待训练节点子集合中的节点个数小于所述待训练节点集合的节点个数,所述待训练节点子集合包括目标节点子集合以及邻居节点子集合,所述邻居节点子集合中的邻居节点与所述目标节点子集合中的目标节点具有关联关系;
根据所述待训练节点子集合确定节点特性向量子集合,其中,节点特性向量子集合包括至少一个节点特性向量,所述节点特性向量与所述目标节点具有对应关系;
根据所述目标节点子集合以及所述节点特性向量子集合确定预测类别概率子集合,其中,所述预测类别概率子集合包括至少一个预测类别概率,所述预测类别概率与所述目标节点具有对应关系;
根据所述预测类别概率子集合以及第一模型参数确定第二模型参数;
根据所述第二模型参数训练得到节点分类模型;
所述总线系统用于连接所述存储器以及所述处理器,以使所述存储器以及所述处理器进行通信。
本发明的第七方面提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述各方面所述的方法。
从以上技术方案可以看出,本发明实施例具有以下优点:
本发明实施例中,提供了一种基于大规模图谱的模型训练方法,首先,服务器从待训练节点集合中获取待训练节点子集合,然后根据待训练节点子集合确定节点特性向量子集合,服务器再根据目标节点子集合以及节点特性向量子集合确定预测类别概率子集合,其中,预测类别概率子集合包括至少一个预测类别概率,预测类别概率与目标节点具有对应关系,最后根据预测类别概率子集合以及第一模型参数确定第二模型参数,并根据第二模型参数训练得到节点分类模型。通过上述方式,对于大规模图谱而言,可以仅基于一部分节点进行训练,每一次迭代计算图谱中的部分节点,无需遍历图谱中的每个节点,大幅地降低了计算开销,且节省计算资源。
附图说明
图1为现有方案中面向图谱节点分类的图卷积神经网络分类模型一个示意图;
图2为本发明实施例中大规模图谱的一个示意图;
图3为本发明实施例中节点分类系统的一个架构示意图;
图4为本发明实施例中节点分类的方法一个实施例示意图;
图5为本发明实施例中模型训练的方法一个实施例示意图;
图6为本发明实施例中对图谱的节点进行采样的一个实施例示意图;
图7为本发明实施例中对图谱节点进行模型训练的一个流程示意图;
图8为本发明实施例中服务器一个实施例示意图;
图9为本发明实施例中服务器另一个实施例示意图;
图10为本发明实施例中服务器一个结构示意图。
具体实施方式
本发明实施例提供了一种节点分类的方法、模型训练的方法及装置,对于大规模图谱而言,可以仅基于一部分节点进行训练,每一次迭代计算图谱中的部分节点,无需遍历图谱中的每个节点,大幅地降低了计算开销,且节省计算资源。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应理解,本发明实施例主要应用于大规模图谱,可以面向大规模图谱节点进行分类和学习。图谱是指由许多节点通过相互之间的连接而组成的一种数据结构,请参阅图2,图2为本发明实施例中大规模图谱的一个示意图,如图所示,每个节点代表一个成员,两个节点之间的连线称为边,边代表两个成员相互认识,其中,A1所指示的成员属于同一个分类,A2所指示的成员属于同一个分类,A3所指示的成员属于同一个分类,A4所指示的成员属于同一个分类。
节点通常是指人或组织,节点之间的连接(边)往往表示某种社会关系(如亲属关系或者交易行为等)。每个节点可以被赋予一个特征向量,如v节点的特征向量为h(v),用于刻画该节点的属性。每个边可以带有权重值a,用于刻画连接的紧密程度,权重值a越大,表示节点之间的关联越紧密。其中,每个边可以是带有方向的,用于表示连接的方向性。需要说明的是,本发明实施例中的图谱连边未限定方向性。
在实际应用中,为了实现用户推荐、好友分类以及网络安防系统监控等功能,还需要对图谱中的节点之间的分类。即根据节点的特征向量以及节点之间的连接关系,把相似的节点分到同一类别的任务称为图节点分类,即将节点v分到类别c(v)。例如,在社交类应用程序(一种大规模的图谱)中,可以根据用户画像以及用户的好友关系把用户划分为不同运动的爱好者,如篮球爱好者、足球爱好者或者排球爱好者等。
可以理解的是,本发明应用广泛,除了上述提及的几类场景以外,还可以应用于捕捉支付网络中黑产用户(如传销和赌博等),也可以应用于好友归类、关系挖掘以及商品推荐等场景,此处不做限定。
应理解,本发明实施例所介绍的节点分类系统如图3所示,图3为本发明实施例中节点分类系统的一个架构示意图,将节点分类的方法和模型训练的方法均部署于服务器中,而服务器接收大量终端设备发送的信息,假设一个终端设备对应于一个用户,那么每个用户即表示为一个节点,该用户的信息(如社交信息)表示为节点信息。服务器采集大量的节点所对应的节点信息,从而形成一个大规模图谱。可以理解的是,图3所示的服务器可以是一台服务器,也可以是集成了多台服务器的系统。而终端设备包含但不仅限于智能手机、平板电脑、个人电脑(personal computer,PC)、笔记本电脑以及掌上电脑,此处仅为一个示意,不应理解为对本发明的限定。
下面将对本发明中节点分类的方法方法进行介绍,请参阅图4,本发明实施例中节点分类的方法一个实施例包括:
101、获取待分类节点;
本实施例中,服务器首先需要获取待分类的节点,其中,一个节点对应图谱中的一个用户,因此,该待分类节点也可以认为是一个需要被划分类型的目标用户。
102、根据待分类节点获取邻居节点集合,其中,邻居节点集合包括至少一个邻居节点,邻居节点与待分类节点之间具有关联关系;
本实施例中,在服务器获取到待分类节点之后,即可根据该待分类节点获取与之关联的至少一个邻居节点,这些邻居节点组成一个邻居节点集合。以待分类节点为目标用户为例,与该目标用户相关的邻居节点通常可以是该目标用户的好友。
可以理解的是,邻居节点除了可以是与待分类节点具有直接联系(即待分类节点与邻居节点具有边)的节点以外,还可以是与待分类节点具有间接联系的节点,此处不做限定。
103、根据邻居节点集合确定待分类节点的目标特征信息;
本实施例中,服务器可以通过邻居节点集合来强化待分类节点的特征,从而得到该待分类节点所对应的目标特征信息。
具体地,可以采用如下公式得到待分类节点的目标特征信息:
其中,所述v1表示待分类节点,所述h'(v1)表示待分类节点的目标特征信息(即特征向量),所述d表示邻居节点集合中的节点个数,n表示从1至d的整数,所述un表示第n个邻居节点,h(un)表示第n个邻居节点的多维特征向量,所述表示待分类节和示第n个邻居节点的边的权重,W1表示节点分类模型的模型参数。
由此可见,为了更新待分类节点的目标特征信息,可以对该待分类节点所对应的邻居节点左乘一个模型参数,再求和得到目标特征信息,从而使得更新后的目标特征信息整合其所有邻居节点的特征,并且丰富信息量。
104、通过节点分类模型确定目标特征信息的分类结果,其中,节点分类模型为根据至少一个待训练节点子集合训练得到的,每个待训练节点子集合的节点个数小于待训练节点集合的节点个数。
本实施例中,服务器将计算得到的目标特征信息输入至节点分类模型,由节点分类模型输出该待分类节点所对应的分类结果,如,输出的分类结果为待分类节点属于异常节点,或,输出的分类结果为待分类节点属于篮球爱好者节点。
其中,节点分类模型为根据至少一个待训练节点子集合训练得到的,每个待训练节点子集合的节点个数小于待训练节点集合的节点个数,也就是说,节点分类模型基于一部分节点进行训练,且每一次迭代计算部分节点,直到迭代次数达到门限值。在机器学习中,分类模型是指对输入数据进行某种信息整合后输出相应类别。分类模型包含一组模型参数,这些模型参数可以通过训练进行优化调整。
本发明实施例中,提供了一种节点分类的方法,首先,服务器获取待分类节点,然后根据待分类节点获取邻居节点集合,其中,邻居节点集合包括至少一个邻居节点,邻居节点与待分类节点之间具有关联关系,再根据邻居节点集合确定待分类节点的目标特征信息,最后,服务器通过节点分类模型确定待分类节点的分类结果,其中,节点分类模型为根据至少一个待训练节点子集合训练得到的,每个待训练节点子集合的节点个数小于待训练节点集合的节点个数。通过上述方式,采用节点分类模型对节点进行分类,且该节点分类模型是仅基于一部分节点进行训练的,每一次迭代计算图谱中的部分节点,无需遍历图谱中的每个节点,大幅地降低了计算开销,且节省计算资源。
下面将对本发明中模型训练的方法方法进行介绍,请参阅图5,本发明实施例中模型训练的方法一个实施例包括:
201、从待训练节点集合中获取待训练节点子集合,其中,待训练节点子集合中的节点个数小于待训练节点集合的节点个数,待训练节点子集合包括目标节点子集合以及邻居节点子集合,邻居节点子集合中的邻居节点与目标节点子集合中的目标节点具有关联关系;
本实施例中,首先从大规模图谱所对应的待训练节点集合中获取待训练节点集合,然后每次只对部分的节点(即目标节点子集合)进行更新,同时根据这部分节点(目标节点子集合)采用出特定个数的共同关联节点(即邻居节点子集合)进行信息整合。
为了便于理解,请参阅图6,图6为本发明实施例中对图谱的节点进行采样的一个实施例示意图,如图所示,假设从待训练节点集合中获取包括10个节点的待训练节点子集合,其中,待训练节点子集合包括2个目标节点(即图中的节点M和节点N),并根据目标节点获取与之关联的8个邻居节点(即图中灰色节点),图6中的白色节点虽然属于待训练节点集合中的节点,但是并未选取作为本次训练的对象。
以目标节点为目标用户为例,与该目标用户相关的邻居节点通常可以是该目标用户的好友。可以理解的是,邻居节点除了可以是与目标节点具有直接联系(即目标节点与邻居节点具有边)的节点以外,还可以是与目标节点具有间接联系的节点,此处不做限定。
202、根据待训练节点子集合确定节点特性向量子集合,其中,节点特性向量子集合包括至少一个节点特性向量,节点特性向量与目标节点具有对应关系;
本实施例中,服务器根据待训练节点子集合所包括的目标节点子集合以及邻居节点子集合,可以利用邻居节点子集合来更新目标节点子集合中每个目标节点的特征,且每个目标节点对应于一个节点特性向量,那么各个目标节点的节点特性向量构成一个节点特性向量子集合。
203、根据目标节点子集合以及节点特性向量子集合确定预测类别概率子集合,其中,预测类别概率子集合包括至少一个预测类别概率,预测类别概率与目标节点具有对应关系;
本实施例中,在服务器获取到目标节点子集合以及节点特性向量子集合之后,即可根据各个目标节点及其对应的节点特征向量,计算得到每个目标节点的预测类别概率,各个目标节点的预测类别概率构成一个预测类别概率子集合。
其中,预测类别概率用于表示目标节点预测为某一个类别的概率,于是,在预测的时候,通常选择概率最大的类别作为该目标节点的类别。
204、根据预测类别概率子集合以及第一模型参数确定第二模型参数;
本实施例中,服务器根据预测类别概率子集合以及第一模型参数,计算得到第二模型参数。
其中,第一模型参数可以是一个初始化的模型参数,也就是预先定义的一个参数。第一模型参数也可以是对前一次采样的节点计算得到的模型参数。这里相当于利用各个目标节点的预测类别概率对第一模型参数进行优化,从而得到更趋近于实际模型所对应的第二模型参数。
205、根据第二模型参数训练得到节点分类模型。
本实施例中,最后,服务器利用本次训练得到的第二模型参数来训练得到节点分类模型。
需要说明的是,在实际应用中,机器学习方法往往需要通过多次迭代来训练模型参数,而每次迭代只需要用到采样出来的较小节点集合。尽管每次迭代只用到小部分数据,但是经过多次迭代后(每次迭代用到的数据不一样,即每次迭代训练用采样出的目标节点是不一样的,邻居节点也不完全一样),就能遍历图谱中所有的节点。
本发明实施例中,提供了一种基于大规模图谱的模型训练方法,首先,服务器从待训练节点集合中获取待训练节点子集合,然后根据待训练节点子集合确定节点特性向量子集合,服务器再根据目标节点子集合以及节点特性向量子集合确定预测类别概率子集合,其中,预测类别概率子集合包括至少一个预测类别概率,预测类别概率与目标节点具有对应关系,最后根据预测类别概率子集合以及第一模型参数确定第二模型参数,并根据第二模型参数训练得到节点分类模型。通过上述方式,对于大规模图谱而言,可以仅基于一部分节点进行训练,每一次迭代计算图谱中的部分节点,无需遍历图谱中的每个节点,大幅地降低了计算开销,且节省计算资源。
可选地,在上述图5对应的实施例的基础上,本发明实施例提供模型训练的方法第一个可选实施例中,从待训练节点集合中获取待训练节点子集合,可以包括:
从待训练节点集合中获取目标节点子集合;
根据目标节点子集合计算待训练节点集合中每个待选择邻居节点的概率;
根据每个待选择邻居节点的概率选择邻居节点子集合;
根据目标节点子集合以及邻居节点子集合生成待训练节点子集合。
本实施例中,介绍了一种从待训练节点集合中获取待训练节点子集合的方法。具体地,假设大规模图谱共有1000万个节点,且每个节点都具有边,若每次采集的待训练节点子集合需要包括100个待训练节点,其中,这100个待训练节点中有50个目标节点,然后按照概率分布随机采样出这些目标节点的50个共同邻居节点,由此得到待训练节点子集合。
在实际应用中,与目标节点关联的节点可能较多,这个时候,需要根据目标节点子集合计算待训练节点集合中每个待选择邻居节点的概率,然后选择概率较大的待选择邻居节点作为邻居节点子集合。
需要说明的是,每次训练的时候,所选的目标节点不重复,但选择的邻居节点可能会重复。在对目标节点进行采样的时候是随机选择的,在极端条件下可能会导致采样出来的目标节点的共有邻居很少,此时,可以将非共有邻居节点作为邻居节点。
其次,本发明实施例中,提供了一种获取待训练节点子集合的方法,即服务器先从待训练节点集合中获取目标节点子集合,然后根据目标节点子集合计算待训练节点集合中每个待选择邻居节点的概率,再根据每个待选择邻居节点的概率选择邻居节点子集合,最后服务器根据目标节点子集合以及邻居节点子集合生成待训练节点子集合。通过上述方式,对目标节点进行均匀采用,对目标节点的邻居节点进行随机采样,而两种节点也都是大规模图谱中的部分节点,无需遍历图谱中的每个节点,大幅地降低了计算开销,且节省计算资源。
可选地,在上述图5对应的第一个实施例的基础上,本发明实施例提供模型训练的方法第二个可选实施例中,根据目标节点子集合计算待训练节点集合中每个待选择邻居节点的概率,可以包括:
采用如下方式计算每个待选择邻居节点的概率:
其中,p(u)表示第u个待选择邻居节点的概率,vj表示待训练节点集合中第j个节点,w表示目标节点,b表示目标节点子集合的节点个数,N表示待训练节点集合的节点个数,i表示从1至b的整数,j表示从1至N的整数,表示连接第i个目标节点与第u个待选择邻居节点的边的权重,表示连接第i个目标节点与待训练节点集合中第j个节点的边的权重。
本实施例中,介绍了一种计算待选择邻居节点概率的方法。具体地,假设需要预测类别的目标节点为w1,w2,…wb,b表示目标节点子集合中目标节点的总个数,且这些目标节点的个数b远远小于整个图谱中待训练节点集合的节点总个数N。然后按照如下概率分布随机采样出这些目标节点的b个共同邻居节点u1,u2,…ub,需要说明的是,这里以邻居节点子集合中的节点总个数与目标节点子集合中的节点总个数均为b为例进行介绍,在实际应用中,邻居节点子集合中的节点总个数与目标节点子集合中的节点总个数也可以不一致,此处仅为一个示意,并不应理解为对本发明的限定。
再次,本发明实施例中,介绍了一种根据目标节点子集合,计算待训练节点集合中每个待选择邻居节点概率的方法。通过上述方式,为方案的实现提供了一种可行的方式,从而提升方案的实用性和可行性。
可选地,在上述图5对应的实施例的基础上,本发明实施例提供模型训练的方法第三个可选实施例中,根据待训练节点子集合确定节点特性向量子集合,可以包括:
获取第一模型参数,其中,第一模型参数为在第二模型参数之前得到的模型参数;
根据第一模型参数、目标节点子集合以及邻居节点子集合,计算得到节点特性向量子集合。
本实施例中,服务器在获取到待训练节点子集合中的目标节点子集合以及邻居节点子集合之后,可以获取第一模型参数,其中,第一模型参数为在第二模型参数之前得到的模型参数,可选地,第一模型参数可以是一个初始化的模型参数。服务器利用第一模型参数以及邻居节点子集合,可以计算得到目标节点子集合所对应的节点特性向量子集合。
其次,本发明实施例中,提供了一种获取待训练节点子集合的方法,服务器先获取第一模型参数,其中,第一模型参数为在第二模型参数之前得到的模型参数,再根据第一模型参数、目标节点子集合以及邻居节点子集合,计算得到节点特性向量子集合。通过上述方式,利用第一模型参数以及邻居节点子集合,可以更新目标节点所对应的节点特性向量,更新后的目标节点的特征向量实际是整合了其所有邻居节点的特征,从而使得信息量更丰富,进而提升了训练的可靠性。
可选地,在上述图5对应的第三个实施例的基础上,本发明实施例提供模型训练的方法第四个可选实施例中,根据第一模型参数、目标节点子集合以及邻居节点子集合,计算得到节点特性向量子集合,可以包括:
采用如下方式计算节点特性向量子集合:
其中,wi表示第i个目标节点,h'(wi)表示第i个目标节点的节点特性向量,b表示目标节点子集合的节点个数,i表示从1至b的整数,uj表示第j个邻居节点,h(uj)表示第j个邻居节点的特征向量,表示第i个目标节点和第j个邻居节点的边的权重,W'表示第一模型参数。
本实施例中,为了更新每个目标节点的特征向量,可以将目标节点的所有邻居节点的原特征向量先左乘一个模型参数,即第一模型参数W',然后求和得到节点特性向量。具体地,服务器可以采用如下方式计算节点特性向量子集合:
其中,wi表示第i个目标节点,h'(wi)表示第i个目标节点的节点特性向量,b表示目标节点子集合的节点个数,i表示从1至b的整数,uj表示第j个邻居节点,h(uj)表示第j个邻居节点的特征向量,表示第i个目标节点和第j个邻居节点的边的权重,W'表示第一模型参数。
再次,本发明实施例中,提供了一种计算节点特性向量子集合的方法,即利用第一模型参数、目标节点子集合以及邻居节点子集合,计算得到节点特性向量子集合。通过上述方式,为方案的实现提供了一种可行的方式,从而提升方案的实用性和可行性。
可选地,在上述图5以及图5对应的第一个至第五个实施例中任一项的基础上,本发明实施例提供模型训练的方法第六个可选实施例中,根据预测类别概率子集合以及第一模型参数确定第二模型参数,可以包括:
根据预测类别概率子集合以及真实类别信息子集合计算目标损失;
根据目标损失确定模型参数梯度;
根据模型参数梯度以及第一模型参数,计算第二模型参数,其中,第一模型参数为前一次得到的模型参数,第二模型参数为本次得到的模型参数。
本实施例中,服务器根据预测类别概率子集合以及第一模型参数确定第二模型参数的过程具体包括,首先服务器需要根据预测类别概率子集合以及真实类别信息子集合计算目标损失,其中,目标损失可以理解为损失函数,损失函数或代价函数都可以来度量预测错误程度。也就是说,评价一个算法是否是比较好的算法,需要提前定义一个损失函数,来判断这个算法是否是最优的,而后面不断的优化求梯度下降,使得损失函数最小。
然后服务器根据目标损失确定模型参数梯度,最后结合模型参数梯度以及第一模型参数,计算第二模型参数,其中,第一模型参数为前一次得到的模型参数,第二模型参数为本次得到的模型参数。
进一步地,本发明实施例中,提供了一种服务器确定第二模型参数的方法,即服务器根据预测类别概率子集合以及真实类别信息子集合计算目标损失,然后根据目标损失确定模型参数梯度,最后结合模型参数梯度以及第一模型参数,计算第二模型参数,其中,第一模型参数为前一次得到的模型参数,第二模型参数为本次得到的模型参数。通过上述方式,采用随机梯度下降通过每个样本来迭代更新一次参数,可未遍历整个样本就已经找到最优解,从而大幅提高了算法的收敛速度,此外,最小化每个样本的损失函数,虽然每次迭代结果不一定都是全局最优解,却总是沿着这个方向发展,故最终结果总是接近全局最优解。
可选地,在上述图5对应的第六个实施例的基础上,本发明实施例提供模型训练的方法第七个可选实施例中,根据预测类别概率子集合以及真实类别信息子集合计算目标损失,可以包括:
采用如下方式计算目标损失:
其中,L表示目标损失,b表示目标节点子集合的节点个数,i表示从1至b的整数,wi表示第i个目标节点,h1(wi)表示第i个目标节点的n维特征向量,表示第i个目标节点的第k维特征向量,exp( )表示指数函数,表示h1(wi)的第c(wi)个分量,c(wi)表示第i个目标节点的真实类别信息,pk(wi)表示第i个目标节点的第k个预测类别概率,表示第i个目标节点的第k个预测类别概率等于真实类别信息的概率。
本实施例中,将介绍一种如何利用预测类别概率子集合以及真实类别信息子集合计算目标损失的方法。
首先,对于每个目标节点而言,可以利用softmax函数预测每个目标节点的类别:
其中,pk(wi)表示第i个目标节点的第k个预测类别概率,于是在预测的时候,选择概率最大对应的类别作为该目标节点的类别,即:
其中,c'(wi)表示第i个目标节点的预测类别。
接下来,服务器可以通过最小化目标损失来提升模型对真是类别的预测概率。即采用如下方式计算目标损失:
其中,L表示目标损失,b表示目标节点子集合的节点个数,i表示从1至b的整数,wi表示第i个目标节点,h1(wi)表示第i个目标节点的n维特征向量,表示第i个目标节点的第k维特征向量,exp( )表示指数函数,表示h1(wi)的第c(wi)个分量,c(wi)表示第i个目标节点的真实类别信息,pk(wi)表示第i个目标节点的第k个预测类别概率,表示第i个目标节点的第k个预测类别概率等于真实类别信息的概率。
更进一步地,本发明实施例中,提供了一种计算目标损失的方法,即利用根据预测类别概率子集合以及真实类别信息子集合计算目标损失。通过上述方式,为方案的实现提供了一种可行的方式,从而提升方案的实用性和可行性。
可选地,在上述图5对应的第六个实施例的基础上,本发明实施例提供模型训练的方法第八个可选实施例中,根据目标损失确定模型参数梯度,可以包括:
采用如下方式计算模型参数梯度:
其中,表示模型参数梯度,L表示目标损失,Wk表示第二模型参数的第k列,表示第k维特征向量的梯度,k小于或等于n,n表示第i个目标节点特征向量的维数,b表示目标节点子集合的节点个数,i表示从1至b的整数,j表示从1至b的整数,表示第i个目标节点的第k维特征向量,c(wi)表示第i个目标节点真实类别信息,δ( )表示判断函数,uj表示第j个邻居节点,h(uj)表示第j个邻居节点的特征向量,exp( )表示指数函数。
本实施例中,将介绍一种如何利用目标损失确定模型参数梯度的方法。
假设Wk表示第二模型参数的第k列,根据如下方式推导模型参数梯度:
其中,表示模型参数梯度,L表示目标损失,Wk表示第二模型参数的第k列,表示第k维特征向量的梯度,k小于或等于n,n表示第i个目标节点特征向量的维数,b表示目标节点子集合的节点个数,i表示从1至b的整数,j表示从1至b的整数,表示第i个目标节点的第k维特征向量,c(wi)表示第i个目标节点真实类别信息,δ( )表示判断函数,uj表示第j个邻居节点,h(uj)表示第j个邻居节点的特征向量,exp( )表示指数函数。
更进一步地,本发明实施例中,提供了一种计算模型参数梯度的方法,即服务器根据目标损失确定模型参数梯度。通过上述方式,为方案的实现提供了一种可行的方式,从而提升方案的实用性和可行性。
可选地,在上述图5对应的第六个实施例的基础上,本发明实施例提供模型训练的方法第九个可选实施例中,根据模型参数梯度以及第一模型参数,计算第二模型参数,可以包括:
采用如下方式计算第二模型参数:
其中,W表示第二模型参数,W'表示第一模型参数,α表示学习率,表示模型参数梯度。
本实施例中,服务器还可以采用模型参数梯度以及第一模型参数,计算第二模型参数,即采用如下公式计算第二模型参数:
其中,W表示第二模型参数,W'表示第一模型参数,α表示学习率,表示模型参数梯度。
在模型训练过程中,通常可以根据训练轮数设置动态变化的学习率,比如一开始进行模型训练时,学习率控制在0.01至0.001,迭代一定轮数时候学习率逐渐减缓,在训练接近结束的时候,学习速率的衰减通常在100倍以上。
学习率主要用于控制模型的学习进度,可以根据数据集的大小来选择合适的学习率,当使用平方误差和作为成本函数时,随着数据量的增多,学习率应该被设置为相应更小的值。
在不同的迭代中选择不同的学习率,在最初的迭代中,学习率可以大一些,快接近时,学习率小一些。在每次迭代后,使用估计的模型参数来查看误差函数的值,如果相对于上一次迭代,错误率减少了,就可以增大学习率如果相对于上一次迭代,错误率增大了,那么应该重新设置上一轮迭代的值,并且减少学习率到之前的50%。因此,这是一种学习率自适应调节的方法。
需要说明的是,本实施例中的学习率α可以设置为0.01,在实际应用中,学习率α还可以设置为0.00001、0.0001、0.001、0.003、0.03、0.1,0.3、1、3或者10等,此处不做限定。
更进一步地,本发明实施例中,提供了一种计算第二模型参数的方法,即服务器根据模型参数梯度以及第一模型参数,计算第二模型参数。通过上述方式,为方案的实现提供了一种可行的方式,从而提升方案的实用性和可行性。
为了便于介绍,请参阅图7,图7为本发明实施例中对图谱节点进行模型训练的一个流程示意图,如图所示,具体地:
步骤S1中,进入模型训练的流程。
步骤S2中,令迭代计数器t=1,设定取样的节点数量b=128,迭代计数器是记录了程序执行了多少次迭代,当t=1时,程序开始执行第1次迭代,即从步骤S2到步骤S10,然后迭代数加1,并判断迭代计数器所记录的迭代数是否够106,如果不够再进行第2次迭代。
步骤S3中,判断迭代计数器所记录的迭代数是否大于106,若迭代数大于106,则跳转至步骤S12,反之,如果迭代数小于或怎样106,则进入步骤S4,即开始一轮迭代计算。
步骤S4中,从待训练节点集合中采用出128个目标节点,即w1,w2,…,wb
步骤S5中,利用如下公式采集出128个邻居节点u1,u2,…,ub
其中,p(u)表示第u个待选择邻居节点的概率。
步骤S6中,利用如下公式采集出128个目标节点的特征向量h1(w1),…,h1(wb):
其中,h'(wi)表示第i个目标节点的节点特性向量。
步骤S7中,利用如下公式得到目标节点的预测类别为
其中,pk(wi)表示第i个目标节点的第k个预测类别概率,于是在预测的时候,选择概率最大对应的类别作为该目标节点的类别,即:
步骤S8中,根据交叉熵对比预测类别和真实类别的损失值:
其中,L表示预测类别和真实类别的损失值,
步骤S9中,利用如下公式计算模型参数的梯度:
其中,如果k=c(wi),则δ(k=c(wi))为1,否则,δ(k=c(wi))为0。
步骤S10中,利用如下公式更新模型参数:
其中,W表示更新后的模型参数,W'表示更新前的模型参数,α表示学习率,如0.01。
步骤S11中,迭代计数器加1,即t=t+1。
步骤S12中,在满足t大于106时,即可输出模型参数。
步骤S13中,结束模型训练的流程。
基于本发明所提供的模型训练方法,已针对真实社交网络进行试验,其中,该网络共有31965个节点以及11606919条边,每个节点的特征维数是602,该网络共有类别种类个数为41。如果两个节点之间具有连边,则权重设置为1,反之,如果两个节点之间无连边,则权重设置为0。为了实现模型训练,构建了节点个数为152410的训练集,训练集中的节点类别已知。
此外,还构造了一个节点个数为55334的测试集,用来测试分类模型的预测精度。目前,采用预测精度来评价分类模型的预测能力:
其中,corrects表示在测试集中类别预测正确的节点个数,acc表示预测能力,acc越大,则预测能力越强。此外,还可以通过比较模型的每一次训练时间来评价运行速度。
接下来,将对本发明实施例所采用的方法与现有方案中采用的GCN进行对比,请参阅表1,在同样的实验条件下两者之间的比对示意如下:
表1
采用的方法 预测精度 运行时间(秒)
GCN 0.9568 100
本发明 0.9501 2
可以看出,本发明实施例所采用的方法所对应的预测精度与GCN非常接近,但是运行时间大幅降低。因此,基于采样的假设算法,使得每一次节点特征更新只需要在一个较小的节点子集上进行,大幅提高了实际运行速度,也降低了内存。在真实的社交网络数据上,得到的预测精度与GCN接近,但是速度提高了大约50倍。
下面对本发明中的服务器进行详细描述,请参阅图8,图8为本发明实施例中服务器一个实施例示意图,服务器30包括:
获取模块301,用于获取待分类节点;
所述获取模块301,还用于根据所述待分类节点获取邻居节点集合,其中,所述邻居节点集合包括至少一个邻居节点,所述邻居节点与所述待分类节点之间具有关联关系;
确定模块302,用于根据所述获取模块301获取的所述邻居节点集合确定所述待分类节点的目标特征信息;
所述确定模块302,还用于通过所述节点分类模型确定所述待分类节点的分类结果,其中,所述节点分类模型为根据至少一个待训练节点子集合训练得到的,每个待训练节点子集合的节点个数小于待训练节点集合的节点个数。
本实施例中,获取模块301获取待分类节点,所述获取模块301根据所述待分类节点获取邻居节点集合,其中,所述邻居节点集合包括至少一个邻居节点,所述邻居节点与所述待分类节点之间具有关联关系,确定模块302根据所述获取模块301获取的所述邻居节点集合确定所述待分类节点的目标特征信息,所述确定模块302通过所述节点分类模型确定所述待分类节点的分类结果,其中,所述节点分类模型为根据至少一个待训练节点子集合训练得到的,每个待训练节点子集合的节点个数小于待训练节点集合的节点个数。
本发明实施例中,提供了一种用于节点分类的服务器,首先,服务器获取待分类节点,然后根据待分类节点获取邻居节点集合,其中,邻居节点集合包括至少一个邻居节点,邻居节点与待分类节点之间具有关联关系,再根据邻居节点集合确定待分类节点的目标特征信息,最后,服务器通过节点分类模型确定待分类节点的分类结果,其中,节点分类模型为根据至少一个待训练节点子集合训练得到的,每个待训练节点子集合的节点个数小于待训练节点集合的节点个数。通过上述方式,采用节点分类模型对节点进行分类,且该节点分类模型是仅基于一部分节点进行训练的,每一次迭代计算图谱中的部分节点,无需遍历图谱中的每个节点,大幅地降低了计算开销,且节省计算资源。
下面对本发明中的服务器进行详细描述,请参阅图9,图9为本发明实施例中服务器一个实施例示意图,服务器40包括:
获取模块401,用于从待训练节点集合中获取待训练节点子集合,其中,所述待训练节点子集合中的节点个数小于所述待训练节点集合的节点个数,所述待训练节点子集合包括目标节点子集合以及邻居节点子集合,所述邻居节点子集合中的邻居节点与所述目标节点子集合中的目标节点具有关联关系;
确定模块402,用于根据所述获取模块401获取的所述待训练节点子集合确定节点特性向量子集合,其中,节点特性向量子集合包括至少一个节点特性向量,所述节点特性向量与所述目标节点具有对应关系;
所述确定模块402,还用于根据所述目标节点子集合以及所述节点特性向量子集合确定预测类别概率子集合,其中,所述预测类别概率子集合包括至少一个预测类别概率,所述预测类别概率与所述目标节点具有对应关系;
所述确定模块402,还用于根据所述预测类别概率子集合以及第一模型参数确定第二模型参数;
训练模块403,用于根据所述确定模块402确定的所述第二模型参数训练得到节点分类模型。
本发明实施例中,获取模块401从待训练节点集合中获取待训练节点子集合,其中,所述待训练节点子集合中的节点个数小于所述待训练节点集合的节点个数,所述待训练节点子集合包括目标节点子集合以及邻居节点子集合,所述邻居节点子集合中的邻居节点与所述目标节点子集合中的目标节点具有关联关系,确定模块402根据所述获取模块401获取的所述待训练节点子集合确定节点特性向量子集合,其中,节点特性向量子集合包括至少一个节点特性向量,所述节点特性向量与所述目标节点具有对应关系,所述确定模块402根据所述目标节点子集合以及所述节点特性向量子集合确定预测类别概率子集合,其中,所述预测类别概率子集合包括至少一个预测类别概率,所述预测类别概率与所述目标节点具有对应关系,所述确定模块402,还用于根据所述预测类别概率子集合以及第一模型参数确定第二模型参数,训练模块403根据所述确定模块402确定的所述第二模型参数训练得到节点分类模型。
本发明实施例中,提供了一种基于大规模图谱进行模型训练的服务器,首先,服务器从待训练节点集合中获取待训练节点子集合,然后根据待训练节点子集合确定节点特性向量子集合,服务器再根据目标节点子集合以及节点特性向量子集合确定预测类别概率子集合,其中,预测类别概率子集合包括至少一个预测类别概率,预测类别概率与目标节点具有对应关系,最后根据预测类别概率子集合以及第一模型参数确定第二模型参数,并根据第二模型参数训练得到节点分类模型。通过上述方式,对于大规模图谱而言,可以仅基于一部分节点进行训练,每一次迭代计算图谱中的部分节点,无需遍历图谱中的每个节点,大幅地降低了计算开销,且节省计算资源。
可选地,在上述图9所对应的实施例的基础上,本发明实施例提供的服务器40的另一实施例中,
所述获取模块401,具体用于从所述待训练节点集合中获取所述目标节点子集合;
根据所述目标节点子集合计算所述待训练节点集合中每个待选择邻居节点的概率;
根据所述每个待选择邻居节点的概率选择所述邻居节点子集合;
根据所述目标节点子集合以及所述邻居节点子集合生成所述待训练节点子集合。
其次,本发明实施例中,提供了一种用于获取待训练节点子集合的服务器,即服务器先从待训练节点集合中获取目标节点子集合,然后根据目标节点子集合计算待训练节点集合中每个待选择邻居节点的概率,再根据每个待选择邻居节点的概率选择邻居节点子集合,最后服务器根据目标节点子集合以及邻居节点子集合生成待训练节点子集合。通过上述方式,对目标节点进行均匀采用,对目标节点的邻居节点进行随机采样,而两种节点也都是大规模图谱中的部分节点,无需遍历图谱中的每个节点,大幅地降低了计算开销,且节省计算资源。
可选地,在上述图9所对应的实施例的基础上,本发明实施例提供的服务器40的另一实施例中,
所述获取模块401,具体用于采用如下方式计算所述每个待选择邻居节点的概率:
其中,所述p(u)表示第u个待选择邻居节点的概率,所述vj表示所述待训练节点集合中第j个节点,所述w表示所述目标节点,所述b表示所述目标节点子集合的节点个数,所述N表示所述待训练节点集合的节点个数,所述i表示从1至所述b的整数,所述j表示从1至所述N的整数,所述表示连接第i个所述目标节点与所述第u个待选择邻居节点的边的权重,所述表示连接所述第i个所述目标节点与所述待训练节点集合中第j个节点的边的权重。
再次,本发明实施例中,介绍了一种根据目标节点子集合,计算待训练节点集合中每个待选择邻居节点概率的方法。通过上述方式,为方案的实现提供了一种可行的方式,从而提升方案的实用性和可行性。
可选地,在上述图9所对应的实施例的基础上,本发明实施例提供的服务器40的另一实施例中,
所述确定模块402,具体用于获取所述第一模型参数,其中,所述第一模型参数为在所述第二模型参数之前得到的模型参数;
根据所述第一模型参数、所述目标节点子集合以及所述邻居节点子集合,计算得到所述节点特性向量子集合。
其次,本发明实施例中,提供了一种用于获取待训练节点子集合的服务器,服务器先获取第一模型参数,其中,第一模型参数为在第二模型参数之前得到的模型参数,再根据第一模型参数、目标节点子集合以及邻居节点子集合,计算得到节点特性向量子集合。通过上述方式,利用第一模型参数以及邻居节点子集合,可以更新目标节点所对应的节点特性向量,更新后的目标节点的特征向量实际是整合了其所有邻居节点的特征,从而使得信息量更丰富,进而提升了训练的可靠性。
可选地,在上述图9所对应的实施例的基础上,本发明实施例提供的服务器40的另一实施例中,
所述确定模块402,具体用于采用如下方式计算所述节点特性向量子集合:
其中,所述wi表示第i个目标节点,所述h'(wi)表示所述第i个目标节点的节点特性向量,所述b表示所述目标节点子集合的节点个数,所述i表示从1至所述b的整数,所述uj表示第j个邻居节点,所述h(uj)表示所述第j个邻居节点的特征向量,所述表示所述第i个目标节点和所述第j个邻居节点的边的权重,所述W'表示所述第一模型参数。
再次,本发明实施例中,提供了一种计算节点特性向量子集合的方法,即利用第一模型参数、目标节点子集合以及邻居节点子集合,计算得到节点特性向量子集合。通过上述方式,为方案的实现提供了一种可行的方式,从而提升方案的实用性和可行性。
可选地,在上述图9所对应的实施例的基础上,本发明实施例提供的服务器40的另一实施例中,
所述确定模块402,具体用于根据所述预测类别概率子集合以及真实类别信息子集合计算目标损失;
根据所述目标损失确定所述模型参数梯度;
根据所述模型参数梯度以及所述第一模型参数,计算所述第二模型参数,其中,所述第一模型参数为前一次得到的模型参数,所述第二模型参数为本次得到的模型参数。
进一步地,本发明实施例中,提供了一种用于确定第二模型参数的服务器,即服务器根据预测类别概率子集合以及真实类别信息子集合计算目标损失,然后根据目标损失确定模型参数梯度,最后结合模型参数梯度以及第一模型参数,计算第二模型参数,其中,第一模型参数为前一次得到的模型参数,第二模型参数为本次得到的模型参数。通过上述方式,采用随机梯度下降通过每个样本来迭代更新一次参数,可未遍历整个样本就已经找到最优解,从而大幅提高了算法的收敛速度,此外,最小化每个样本的损失函数,虽然每次迭代结果不一定都是全局最优解,却总是沿着这个方向发展,故最终结果总是接近全局最优解。
可选地,在上述图9所对应的实施例的基础上,本发明实施例提供的服务器40的另一实施例中,
所述确定模块402,具体用于采用如下方式计算所述目标损失:
其中,所述L表示所述目标损失,所述b表示所述目标节点子集合的节点个数,所述i表示从1至所述b的整数,所述wi表示第i个目标节点,所述h1(wi)表示所述第i个目标节点的n维特征向量,所述表示所述第i个目标节点的第k维特征向量,所述exp( )表示指数函数,所述表示所述h1(wi)的第c(wi)个分量,所述c(wi)表示所述第i个目标节点的真实类别信息,所述pk(wi)表示所述第i个目标节点的第k个预测类别概率,所述表示所述第i个目标节点的所述第k个预测类别概率等于真实类别信息的概率。
更进一步地,本发明实施例中,提供了一种计算目标损失的方法,即利用根据预测类别概率子集合以及真实类别信息子集合计算目标损失。通过上述方式,为方案的实现提供了一种可行的方式,从而提升方案的实用性和可行性。
可选地,在上述图9所对应的实施例的基础上,本发明实施例提供的服务器40的另一实施例中,
所述确定模块402,具体用于采用如下方式计算模型参数梯度:
其中,所述表示所述模型参数梯度,所述L表示所述目标损失,所述Wk表示所述第二模型参数的第k列,所述表示第k维特征向量的梯度,所述k小于或等于n,所述n表示所述第i个目标节点特征向量的维数,所述b表示所述目标节点子集合的节点个数,所述i表示从1至所述b的整数,所述j表示从1至所述b的整数,所述表示所述第i个目标节点的第k维特征向量,所述c(wi)表示所述第i个目标节点真实类别信息,所述δ( )表示判断函数,所述uj表示第j个邻居节点,所述h(uj)表示所述第j个邻居节点的特征向量,所述exp( )表示指数函数。
更进一步地,本发明实施例中,提供了一种计算模型参数梯度的方法,即服务器根据目标损失确定模型参数梯度。通过上述方式,为方案的实现提供了一种可行的方式,从而提升方案的实用性和可行性。
可选地,在上述图9所对应的实施例的基础上,本发明实施例提供的服务器40的另一实施例中,
所述确定模块402,具体用于采用如下方式计算所述第二模型参数:
其中,所述W表示所述第二模型参数,所述W'表示所述第一模型参数,所述α表示学习率,所述表示所述模型参数梯度。
更进一步地,本发明实施例中,提供了一种计算第二模型参数的方法,即服务器根据模型参数梯度以及第一模型参数,计算第二模型参数。通过上述方式,为方案的实现提供了一种可行的方式,从而提升方案的实用性和可行性。
图10是本发明实施例提供的一种服务器结构示意图,该服务器500可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(central processingunits,CPU)522(例如,一个或一个以上处理器)和存储器532,一个或一个以上存储应用程序542或数据544的存储介质530(例如一个或一个以上海量存储设备)。其中,存储器532和存储介质530可以是短暂存储或持久存储。存储在存储介质530的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器522可以设置为与存储介质530通信,在服务器500上执行存储介质530中的一系列指令操作。
服务器500还可以包括一个或一个以上电源526,一个或一个以上有线或无线网络接口550,一个或一个以上输入输出接口558,和/或,一个或一个以上操作系统541,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
上述实施例中由服务器所执行的步骤可以基于该图10所示的服务器结构。
本发明实施例中,CPU 522用于执行如下步骤:
获取待分类节点;
根据所述待分类节点获取邻居节点集合,其中,所述邻居节点集合包括至少一个邻居节点,所述邻居节点与所述待分类节点之间具有关联关系;
根据所述邻居节点集合确定所述待分类节点的目标特征信息;
通过所述节点分类模型确定所述目标特征信息的分类结果,其中,所述节点分类模型为根据至少一个待训练节点子集合训练得到的,每个待训练节点子集合的节点个数小于待训练节点集合的节点个数。
本发明实施例中,CPU 522用于执行如下步骤:
从待训练节点集合中获取待训练节点子集合,其中,所述待训练节点子集合中的节点个数小于所述待训练节点集合的节点个数,所述待训练节点子集合包括目标节点子集合以及邻居节点子集合,所述邻居节点子集合中的邻居节点与所述目标节点子集合中的目标节点具有关联关系;
根据所述待训练节点子集合确定节点特性向量子集合,其中,节点特性向量子集合包括至少一个节点特性向量,所述节点特性向量与所述目标节点具有对应关系;
根据所述目标节点子集合以及所述节点特性向量子集合确定预测类别概率子集合,其中,所述预测类别概率子集合包括至少一个预测类别概率,所述预测类别概率与所述目标节点具有对应关系;
根据所述预测类别概率子集合以及第一模型参数确定第二模型参数;
根据所述第二模型参数训练得到节点分类模型。
可选地,CPU 522具体用于执行如下步骤:
从所述待训练节点集合中获取所述目标节点子集合;
根据所述目标节点子集合计算所述待训练节点集合中每个待选择邻居节点的概率;
根据所述每个待选择邻居节点的概率选择所述邻居节点子集合;
根据所述目标节点子集合以及所述邻居节点子集合生成所述待训练节点子集合。
可选地,CPU 522具体用于执行如下步骤:
采用如下方式计算所述每个待选择邻居节点的概率:
其中,所述p(u)表示第u个待选择邻居节点的概率,所述vj表示所述待训练节点集合中第j个节点,所述w表示所述目标节点,所述b表示所述目标节点子集合的节点个数,所述N表示所述待训练节点集合的节点个数,所述i表示从1至所述b的整数,所述j表示从1至所述N的整数,所述表示连接第i个所述目标节点与所述第u个待选择邻居节点的边的权重,所述表示连接所述第i个所述目标节点与所述待训练节点集合中第j个节点的边的权重。
可选地,CPU 522具体用于执行如下步骤:
获取所述第一模型参数,其中,所述第一模型参数为在所述第二模型参数之前得到的模型参数;
根据所述第一模型参数、所述目标节点子集合以及所述邻居节点子集合,计算得到所述节点特性向量子集合。
可选地,CPU 522具体用于执行如下步骤:
采用如下方式计算所述节点特性向量子集合:
其中,所述wi表示第i个目标节点,所述h'(wi)表示所述第i个目标节点的节点特性向量,所述b表示所述目标节点子集合的节点个数,所述i表示从1至所述b的整数,所述uj表示第j个邻居节点,所述h(uj)表示所述第j个邻居节点的特征向量,所述表示所述第i个目标节点和所述第j个邻居节点的边的权重,所述W'表示所述第一模型参数。
可选地,CPU 522具体用于执行如下步骤:
根据所述预测类别概率子集合以及真实类别信息子集合计算目标损失;
根据所述目标损失确定所述模型参数梯度;
根据所述模型参数梯度以及所述第一模型参数,计算所述第二模型参数,其中,所述第一模型参数为前一次得到的模型参数,所述第二模型参数为本次得到的模型参数。
可选地,CPU 522具体用于执行如下步骤:
采用如下方式计算所述目标损失:
其中,所述L表示所述目标损失,所述b表示所述目标节点子集合的节点个数,所述i表示从1至所述b的整数,所述wi表示第i个目标节点,所述h1(wi)表示所述第i个目标节点的n维特征向量,所述表示所述第i个目标节点的第k维特征向量,所述exp( )表示指数函数,所述表示所述h1(wi)的第c(wi)个分量,所述c(wi)表示所述第i个目标节点的真实类别信息,所述pk(wi)表示所述第i个目标节点的第k个预测类别概率,所述表示所述第i个目标节点的所述第k个预测类别概率等于真实类别信息的概率。
可选地,CPU 522具体用于执行如下步骤:
采用如下方式计算所述模型参数梯度:
其中,所述表示所述模型参数梯度,所述L表示所述目标损失,所述Wk表示所述第二模型参数的第k列,所述表示第k维特征向量的梯度,所述k小于或等于n,所述n表示所述第i个目标节点特征向量的维数,所述b表示所述目标节点子集合的节点个数,所述i表示从1至所述b的整数,所述j表示从1至所述b的整数,所述表示所述第i个目标节点的第k维特征向量,所述c(wi)表示所述第i个目标节点真实类别信息,所述δ( )表示判断函数,所述uj表示第j个邻居节点,所述h(uj)表示所述第j个邻居节点的特征向量,所述exp( )表示指数函数。
可选地,CPU 522具体用于执行如下步骤:
采用如下方式计算所述第二模型参数:
其中,所述W表示所述第二模型参数,所述W'表示所述第一模型参数,所述α表示学习率,所述表示所述模型参数梯度。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (15)

1.一种节点分类的方法,其特征在于,包括:
获取待分类节点;
根据所述待分类节点获取邻居节点集合,其中,所述邻居节点集合包括至少一个邻居节点,所述邻居节点与所述待分类节点之间具有关联关系;
根据所述邻居节点集合确定所述待分类节点的目标特征信息;
通过所述节点分类模型确定所述目标特征信息的分类结果,其中,所述节点分类模型为根据至少一个待训练节点子集合训练得到的,每个待训练节点子集合的节点个数小于待训练节点集合的节点个数。
2.一种模型训练的方法,其特征在于,包括:
从待训练节点集合中获取待训练节点子集合,其中,所述待训练节点子集合中的节点个数小于所述待训练节点集合的节点个数,所述待训练节点子集合包括目标节点子集合以及邻居节点子集合,所述邻居节点子集合中的邻居节点与所述目标节点子集合中的目标节点具有关联关系;
根据所述待训练节点子集合确定节点特性向量子集合,其中,节点特性向量子集合包括至少一个节点特性向量,所述节点特性向量与所述目标节点具有对应关系;
根据所述目标节点子集合以及所述节点特性向量子集合确定预测类别概率子集合,其中,所述预测类别概率子集合包括至少一个预测类别概率,所述预测类别概率与所述目标节点具有对应关系;
根据所述预测类别概率子集合以及第一模型参数确定第二模型参数;
根据所述第二模型参数训练得到节点分类模型。
3.根据权利要求2所述的方法,其特征在于,所述从待训练节点集合中获取待训练节点子集合,包括:
从所述待训练节点集合中获取所述目标节点子集合;
根据所述目标节点子集合计算所述待训练节点集合中每个待选择邻居节点的概率;
根据所述每个待选择邻居节点的概率选择所述邻居节点子集合;
根据所述目标节点子集合以及所述邻居节点子集合生成所述待训练节点子集合。
4.根据权利要求3所述的方法,其特征在于,所述根据所述目标节点子集合计算所述待训练节点集合中每个待选择邻居节点的概率,包括:
采用如下方式计算所述每个待选择邻居节点的概率:
其中,所述p(u)表示第u个待选择邻居节点的概率,所述vj表示所述待训练节点集合中第j个节点,所述w表示所述目标节点,所述b表示所述目标节点子集合的节点个数,所述N表示所述待训练节点集合的节点个数,所述i表示从1至所述b的整数,所述j表示从1至所述N的整数,所述表示连接第i个所述目标节点与所述第u个待选择邻居节点的边的权重,所述表示连接所述第i个所述目标节点与所述待训练节点集合中第j个节点的边的权重。
5.根据权利要求2所述的方法,其特征在于,所述根据待训练节点子集合确定节点特性向量子集合,包括:
获取所述第一模型参数,其中,所述第一模型参数为在所述第二模型参数之前得到的模型参数;
根据所述第一模型参数、所述目标节点子集合以及所述邻居节点子集合,计算得到所述节点特性向量子集合。
6.根据权利要求5所述的方法,其特征在于,所述根据所述第一模型参数、所述目标节点子集合以及所述邻居节点子集合,计算得到所述节点特性向量子集合,包括:
采用如下方式计算所述节点特性向量子集合:
其中,所述wi表示第i个目标节点,所述h'(wi)表示所述第i个目标节点的节点特性向量,所述b表示所述目标节点子集合的节点个数,所述i表示从1至所述b的整数,所述uj表示第j个邻居节点,所述h(uj)表示所述第j个邻居节点的特征向量,所述表示所述第i个目标节点和所述第j个邻居节点的边的权重,所述W'表示所述第一模型参数。
7.根据权利要求2至6中任一项所述的方法,其特征在于,所述根据所述预测类别概率子集合以及第一模型参数确定第二模型参数,包括:
根据所述预测类别概率子集合以及真实类别信息子集合计算目标损失;
根据所述目标损失确定所述模型参数梯度;
根据所述模型参数梯度以及所述第一模型参数,计算所述第二模型参数,其中,所述第一模型参数为前一次得到的模型参数,所述第二模型参数为本次得到的模型参数。
8.根据权利要求7所述的方法,其特征在于,所述根据所述预测类别概率子集合以及真实类别信息子集合计算目标损失,包括:
采用如下方式计算所述目标损失:
其中,所述L表示所述目标损失,所述b表示所述目标节点子集合的节点个数,所述i表示从1至所述b的整数,所述wi表示第i个目标节点,所述h1(wi)表示所述第i个目标节点的n维特征向量,所述表示所述第i个目标节点的第k维特征向量,所述exp()表示指数函数,所述表示所述h1(wi)的第c(wi)个分量,所述c(wi)表示所述第i个目标节点的真实类别信息,所述pk(wi)表示所述第i个目标节点的第k个预测类别概率,所述表示所述第i个目标节点的所述第k个预测类别概率等于真实类别信息的概率。
9.根据权利要求7所述的方法,其特征在于,所述根据所述目标损失确定所述模型参数梯度,包括:
采用如下方式计算所述模型参数梯度:
▽W=[▽W1,▽W2,...,▽Wn];
其中,所述▽W表示所述模型参数梯度,所述L表示所述目标损失,所述Wk表示所述第二模型参数的第k列,所述▽Wk表示第k维特征向量的梯度,所述k小于或等于n,所述n表示所述第i个目标节点特征向量的维数,所述b表示所述目标节点子集合的节点个数,所述i表示从1至所述b的整数,所述j表示从1至所述b的整数,所述表示所述第i个目标节点的第k维特征向量,所述c(wi)表示所述第i个目标节点真实类别信息,所述δ()表示判断函数,所述uj表示第j个邻居节点,所述h(uj)表示所述第j个邻居节点的特征向量,所述exp()表示指数函数。
10.根据权利要求7所述的方法,其特征在于,所述根据所述模型参数梯度以及第一模型参数,计算所述第二模型参数,包括:
采用如下方式计算所述第二模型参数:
W=W'-α▽W;
其中,所述W表示所述第二模型参数,所述W'表示所述第一模型参数,所述α表示学习率,所述▽W表示所述模型参数梯度。
11.一种服务器,其特征在于,包括:
获取模块,用于获取待分类节点;
所述获取模块,还用于根据所述待分类节点获取邻居节点集合,其中,所述邻居节点集合包括至少一个邻居节点,所述邻居节点与所述待分类节点之间具有关联关系;
确定模块,用于根据所述获取模块获取的所述邻居节点集合确定所述待分类节点的目标特征信息;
所述确定模块,还用于通过所述节点分类模型确定所述待分类节点的分类结果,其中,所述节点分类模型为根据至少一个待训练节点子集合训练得到的,每个待训练节点子集合的节点个数小于待训练节点集合的节点个数。
12.一种服务器,其特征在于,包括:
获取模块,用于从待训练节点集合中获取待训练节点子集合,其中,所述待训练节点子集合中的节点个数小于所述待训练节点集合的节点个数,所述待训练节点子集合包括目标节点子集合以及邻居节点子集合,所述邻居节点子集合中的邻居节点与所述目标节点子集合中的目标节点具有关联关系;
确定模块,用于根据所述获取模块获取的所述待训练节点子集合确定节点特性向量子集合,其中,节点特性向量子集合包括至少一个节点特性向量,所述节点特性向量与所述目标节点具有对应关系;
所述确定模块,还用于根据所述目标节点子集合以及所述节点特性向量子集合确定预测类别概率子集合,其中,所述预测类别概率子集合包括至少一个预测类别概率,所述预测类别概率与所述目标节点具有对应关系;
所述确定模块,还用于根据所述预测类别概率子集合以及第一模型参数确定第二模型参数;
训练模块,用于根据所述确定模块确定的所述第二模型参数训练得到节点分类模型。
13.一种服务器,其特征在于,所述服务器包括:存储器、收发器、处理器以及总线系统;
其中,所述存储器用于存储程序;
所述处理器用于执行所述存储器中的程序,包括如下步骤:
获取待分类节点;
根据所述待分类节点获取邻居节点集合,其中,所述邻居节点集合包括至少一个邻居节点,所述邻居节点与所述待分类节点之间具有关联关系;
根据所述邻居节点集合确定所述待分类节点的目标特征信息;
通过所述节点分类模型确定所述待分类节点的分类结果,其中,所述节点分类模型为根据至少一个待训练节点子集合训练得到的,每个待训练节点子集合的节点个数小于待训练节点集合的节点个数;
所述总线系统用于连接所述存储器以及所述处理器,以使所述存储器以及所述处理器进行通信。
14.一种服务器,其特征在于,所述服务器包括:存储器、收发器、处理器以及总线系统;
其中,所述存储器用于存储程序;
所述处理器用于执行所述存储器中的程序,包括如下步骤:
从待训练节点集合中获取待训练节点子集合,其中,所述待训练节点子集合中的节点个数小于所述待训练节点集合的节点个数,所述待训练节点子集合包括目标节点子集合以及邻居节点子集合,所述邻居节点子集合中的邻居节点与所述目标节点子集合中的目标节点具有关联关系;
根据所述待训练节点子集合确定节点特性向量子集合,其中,节点特性向量子集合包括至少一个节点特性向量,所述节点特性向量与所述目标节点具有对应关系;
根据所述目标节点子集合以及所述节点特性向量子集合确定预测类别概率子集合,其中,所述预测类别概率子集合包括至少一个预测类别概率,所述预测类别概率与所述目标节点具有对应关系;
根据所述预测类别概率子集合以及第一模型参数确定第二模型参数;
根据所述第二模型参数训练得到节点分类模型;
所述总线系统用于连接所述存储器以及所述处理器,以使所述存储器以及所述处理器进行通信。
15.一种计算机可读存储介质,包括指令,当其在计算机上运行时,使得计算机执行如权利要求1所述的方法,或者执行如权利要求2至10中任一项所述的方法。
CN201811361409.0A 2018-11-15 2018-11-15 一种节点分类的方法、模型训练的方法及装置 Active CN109460793B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201811361409.0A CN109460793B (zh) 2018-11-15 2018-11-15 一种节点分类的方法、模型训练的方法及装置
JP2021505770A JP7183385B2 (ja) 2018-11-15 2019-11-11 ノード分類方法、モデル訓練方法並びに、その装置、機器及びコンピュータプログラム
PCT/CN2019/117173 WO2020098606A1 (zh) 2018-11-15 2019-11-11 节点分类方法、模型训练方法、装置、设备及存储介质
EP19883716.3A EP3882820A4 (en) 2018-11-15 2019-11-11 NODE CLASSIFICATION METHOD, MODEL TRAINING METHOD, DEVICE, DEVICE AND STORAGE MEDIUM
US17/153,014 US11853882B2 (en) 2018-11-15 2021-01-20 Methods, apparatus, and storage medium for classifying graph nodes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811361409.0A CN109460793B (zh) 2018-11-15 2018-11-15 一种节点分类的方法、模型训练的方法及装置

Publications (2)

Publication Number Publication Date
CN109460793A true CN109460793A (zh) 2019-03-12
CN109460793B CN109460793B (zh) 2023-07-18

Family

ID=65610518

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811361409.0A Active CN109460793B (zh) 2018-11-15 2018-11-15 一种节点分类的方法、模型训练的方法及装置

Country Status (5)

Country Link
US (1) US11853882B2 (zh)
EP (1) EP3882820A4 (zh)
JP (1) JP7183385B2 (zh)
CN (1) CN109460793B (zh)
WO (1) WO2020098606A1 (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110188422A (zh) * 2019-05-16 2019-08-30 深圳前海微众银行股份有限公司 一种基于网络数据提取节点的特征向量的方法及装置
CN110659723A (zh) * 2019-09-03 2020-01-07 腾讯科技(深圳)有限公司 基于人工智能的数据处理方法、装置、介质及电子设备
CN110705629A (zh) * 2019-09-27 2020-01-17 北京市商汤科技开发有限公司 数据处理方法及相关装置
CN110956643A (zh) * 2019-12-04 2020-04-03 齐鲁工业大学 一种基于MDNet的改进车辆跟踪方法及系统
WO2020098606A1 (zh) * 2018-11-15 2020-05-22 腾讯科技(深圳)有限公司 节点分类方法、模型训练方法、装置、设备及存储介质
CN111881936A (zh) * 2020-06-19 2020-11-03 北京三快在线科技有限公司 训练样本筛选方法、装置、电子设备及存储介质
CN112860806A (zh) * 2021-04-06 2021-05-28 中国科学技术大学 数据分类方法及装置、存储介质及电子设备
CN113743425A (zh) * 2020-05-27 2021-12-03 北京沃东天骏信息技术有限公司 一种生成分类模型的方法和装置
CN114358291A (zh) * 2020-09-30 2022-04-15 合肥本源量子计算科技有限责任公司 量子连通图的交叉连线处理方法、装置、终端及存储介质

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7114528B2 (ja) * 2019-07-08 2022-08-08 株式会社東芝 推論装置、学習装置、推論方法及び学習方法
CN112183627A (zh) * 2020-09-28 2021-01-05 中星技术股份有限公司 生成预测密度图网络的方法和车辆年检标数量检测方法
US20230196081A1 (en) * 2021-12-21 2023-06-22 International Business Machines Corporation Federated learning for training machine learning models
CN114662706A (zh) * 2022-03-24 2022-06-24 支付宝(杭州)信息技术有限公司 一种模型训练方法、装置及设备
CN115146725B (zh) * 2022-06-30 2023-05-30 北京百度网讯科技有限公司 对象分类模式的确定方法、对象分类方法、装置和设备
CN115081024B (zh) * 2022-08-16 2023-01-24 杭州金智塔科技有限公司 基于隐私保护的去中心化业务模型训练方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130325862A1 (en) * 2012-06-04 2013-12-05 Michael D. Black Pipelined incremental clustering algorithm
US20160210348A1 (en) * 2015-01-20 2016-07-21 Telefonaktiebolaget L M Ericsson (Publ) Systems and methods for multi-variate attribute correlation
CN106503319A (zh) * 2016-10-13 2017-03-15 中国人民解放军国防科学技术大学 一种适用于网络节点分类方法评估的仿真网络生成方法
CN106997474A (zh) * 2016-12-29 2017-08-01 南京邮电大学 一种基于深度学习的图节点多标签分类方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106776729B (zh) 2016-11-18 2020-08-14 同济大学 一种大规模知识图谱路径查询预测器构造方法
US10573003B2 (en) * 2017-02-13 2020-02-25 Amit Sethi Systems and methods for computational pathology using points-of-interest
CN108520275A (zh) * 2017-06-28 2018-09-11 浙江大学 一种基于邻接矩阵的连接信息规整系统、图特征提取系统、图分类系统和方法
CN108319953B (zh) * 2017-07-27 2019-07-16 腾讯科技(深圳)有限公司 目标对象的遮挡检测方法及装置、电子设备及存储介质
US11797838B2 (en) * 2018-03-13 2023-10-24 Pinterest, Inc. Efficient convolutional network for recommender systems
CN109460793B (zh) * 2018-11-15 2023-07-18 腾讯科技(深圳)有限公司 一种节点分类的方法、模型训练的方法及装置
US11620487B2 (en) * 2019-12-31 2023-04-04 X Development Llc Neural architecture search based on synaptic connectivity graphs
US11625611B2 (en) * 2019-12-31 2023-04-11 X Development Llc Training artificial neural networks based on synaptic connectivity graphs

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130325862A1 (en) * 2012-06-04 2013-12-05 Michael D. Black Pipelined incremental clustering algorithm
US20160210348A1 (en) * 2015-01-20 2016-07-21 Telefonaktiebolaget L M Ericsson (Publ) Systems and methods for multi-variate attribute correlation
CN106503319A (zh) * 2016-10-13 2017-03-15 中国人民解放军国防科学技术大学 一种适用于网络节点分类方法评估的仿真网络生成方法
CN106997474A (zh) * 2016-12-29 2017-08-01 南京邮电大学 一种基于深度学习的图节点多标签分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FRANCO SCARSELLI等: "The Graph Neural Network Model", 《IEEE TRANSACTIONS ON NEURAL NETWORKS》 *
JOHN BOAZ LEE等: "Higher-order Graph Convolutional Networks", 《HTTP://ARXIV.ORG/ABS/1809.07697》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11853882B2 (en) 2018-11-15 2023-12-26 Tencent Technology (Shenzhen) Company Limited Methods, apparatus, and storage medium for classifying graph nodes
WO2020098606A1 (zh) * 2018-11-15 2020-05-22 腾讯科技(深圳)有限公司 节点分类方法、模型训练方法、装置、设备及存储介质
CN110188422A (zh) * 2019-05-16 2019-08-30 深圳前海微众银行股份有限公司 一种基于网络数据提取节点的特征向量的方法及装置
CN110188422B (zh) * 2019-05-16 2022-12-20 深圳前海微众银行股份有限公司 一种基于网络数据提取节点的特征向量的方法及装置
CN110659723A (zh) * 2019-09-03 2020-01-07 腾讯科技(深圳)有限公司 基于人工智能的数据处理方法、装置、介质及电子设备
CN110659723B (zh) * 2019-09-03 2023-09-19 腾讯科技(深圳)有限公司 基于人工智能的数据处理方法、装置、介质及电子设备
CN110705629A (zh) * 2019-09-27 2020-01-17 北京市商汤科技开发有限公司 数据处理方法及相关装置
CN110956643A (zh) * 2019-12-04 2020-04-03 齐鲁工业大学 一种基于MDNet的改进车辆跟踪方法及系统
CN113743425A (zh) * 2020-05-27 2021-12-03 北京沃东天骏信息技术有限公司 一种生成分类模型的方法和装置
CN111881936A (zh) * 2020-06-19 2020-11-03 北京三快在线科技有限公司 训练样本筛选方法、装置、电子设备及存储介质
CN114358291A (zh) * 2020-09-30 2022-04-15 合肥本源量子计算科技有限责任公司 量子连通图的交叉连线处理方法、装置、终端及存储介质
CN114358291B (zh) * 2020-09-30 2024-04-09 本源量子计算科技(合肥)股份有限公司 量子连通图的交叉连线处理方法、装置、终端及存储介质
CN112860806A (zh) * 2021-04-06 2021-05-28 中国科学技术大学 数据分类方法及装置、存储介质及电子设备
CN112860806B (zh) * 2021-04-06 2022-09-02 中国科学技术大学 数据分类方法及装置、存储介质及电子设备

Also Published As

Publication number Publication date
EP3882820A1 (en) 2021-09-22
US11853882B2 (en) 2023-12-26
CN109460793B (zh) 2023-07-18
JP7183385B2 (ja) 2022-12-05
WO2020098606A1 (zh) 2020-05-22
US20210142108A1 (en) 2021-05-13
EP3882820A4 (en) 2022-01-05
JP2021533474A (ja) 2021-12-02

Similar Documents

Publication Publication Date Title
CN109460793A (zh) 一种节点分类的方法、模型训练的方法及装置
CN110675623B (zh) 基于混合深度学习的短时交通流量预测方法、系统、装置
CN111882040B (zh) 基于通道数量搜索的卷积神经网络压缩方法
CN110609524B (zh) 一种工业设备剩余寿命预测模型及其构建方法和应用
CN109740734B (zh) 一种利用优化神经元空间排布的卷积神经网络的图像分类方法
CN110716792B (zh) 一种目标检测器及其构建方法和应用
CN109034175B (zh) 图像处理方法、装置及设备
CN114580308B (zh) 一种人员疏散时间预测方法、装置、存储介质及终端设备
CN111079780A (zh) 空间图卷积网络的训练方法、电子设备及存储介质
CN111723910A (zh) 构建多任务学习模型的方法、装置、电子设备及存储介质
CN110082738B (zh) 基于高斯混合和张量循环神经网络的雷达目标识别方法
CN108304853A (zh) 游戏相关度的获取方法、装置、存储介质和电子装置
CN108229536A (zh) 分类预测模型的优化方法、装置及终端设备
CN112381227B (zh) 神经网络生成方法、装置、电子设备及存储介质
CN109214444B (zh) 基于孪生神经网络和gmm的游戏防沉迷判定系统及方法
CN109472030A (zh) 一种系统回复质量的评价方法及装置
CN113139651A (zh) 基于自监督学习的标签比例学习模型的训练方法和设备
CN110738362A (zh) 一种基于改进的多元宇宙算法构建预测模型的方法
CN111310918B (zh) 一种数据处理方法、装置、计算机设备及存储介质
CN116151319A (zh) 搜索神经网络集成模型的方法、装置和电子设备
CN116596095B (zh) 基于机器学习的碳排放量预测模型的训练方法及装置
CN111565065B (zh) 一种无人机基站部署方法、装置及电子设备
CN102521202B (zh) 面向复杂系统中的maxq任务图结构的自动发现方法
CN113610350B (zh) 复杂工况故障诊断方法、设备、存储介质及装置
CN114997378A (zh) 归纳式图神经网络剪枝方法、系统、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant