CN113822412A - 一种图节点标注方法、装置、设备及存储介质 - Google Patents

一种图节点标注方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN113822412A
CN113822412A CN202110651232.3A CN202110651232A CN113822412A CN 113822412 A CN113822412 A CN 113822412A CN 202110651232 A CN202110651232 A CN 202110651232A CN 113822412 A CN113822412 A CN 113822412A
Authority
CN
China
Prior art keywords
node
target
index
unmarked
nodes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110651232.3A
Other languages
English (en)
Inventor
张文涛
蒋杰
沈彧
李晓森
欧阳文
陶阳宇
杨智
崔斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University
Shenzhen Tencent Computer Systems Co Ltd
Original Assignee
Peking University
Shenzhen Tencent Computer Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University, Shenzhen Tencent Computer Systems Co Ltd filed Critical Peking University
Priority to CN202110651232.3A priority Critical patent/CN113822412A/zh
Publication of CN113822412A publication Critical patent/CN113822412A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Abstract

本申请公开了一种图节点标注方法、装置、计算机设备及存储介质,应用于图像处理领域,包括:在图样本数据包括的无标注节点中确定候选节点。根据候选节点和已标注节点在图样本数据中的位置,确定候选节点对应的预设区域内的目标无标注节点,目标无标注节点包括候选节点。确定目标无标注节点对应的第一指数以及确定目标无标注节点对应的第二指数,其中,第一指数用于评价目标无标注节点针对于图样本数据的代表性,第二指数用于评价目标无标注节点针对于图样本数据的信息量。根据目标无标注节点对应的第一指数和第二指数,确定目标无标注节点对应的评价分值。根据目标无标注节点对应的评价分值,对候选节点进行标注,得到标注节点。

Description

一种图节点标注方法、装置、设备及存储介质
技术领域
本申请涉及图像处理领域,尤其涉及一种图节点标注方法、装置、设备及存储介质。
背景技术
图神经网络作为一种能同时学习图结构及节点属性关系的神经网络,在近些年来越来越受到关注。其在文本分类(text classification),序列标注(sequence labeling),关系抽取(relation extraction),图像分类(image classification)等等领域都有了不小的贡献。其中,图神经网络是由图样本数据训练得到的。
图样本数据包括大量的标注节点和无标注节点,图神经网络的训练过程就是将图样本数据输入至具体任务的图神经网络中,通过图神经网络得到标注节点针对于该具体任务的输出结果,然后获取该输出结果与标注节点的标注信息之间的损失值,再将损失值反向传递更新迭代图神经网络的各层参数,以完成图神经网络的训练。
由上述过程可以看出,标注节点的选取对图神经网络的训练至关重要,要通过模型训练来更高效精准的图神经网络,就需要选择更具有代表性、信息量更全面的节点来进行标注。而标注节点的选取普遍存在选点不准,选点效率低等问题,因此如何高效精准的选择图样本数据中的图节点来进行标注,成为亟需解决的问题。
发明内容
本申请实施例提供了一种图节点标注方法、装置、设备及存储介质,可以对图样本数据中的每个图节点的代表性和信息量进行评价,然后根据评价结果来确定代表性更强、信息量更全面的图节点来进行标注,这样,可以提高标注节点的选点准确度,提高图节点标注效率,从而提高图神经网络的训练效率。
本申请一方面提供了一种图节点标注方法,包括:
在图样本数据包括的无标注节点中确定候选节点,其中,图样本数据包括至少一个已标注节点和至少一个无标注节点。
根据候选节点和已标注节点在图样本数据中的位置,确定候选节点对应的预设区域内的目标无标注节点,目标无标注节点包括候选节点。
确定目标无标注节点对应的第一指数以及确定目标无标注节点对应的第二指数,其中,第一指数用于评价目标无标注节点针对于图样本数据的代表性,第二指数用于评价目标无标注节点针对于图样本数据的信息量。
根据目标无标注节点对应的第一指数和第二指数,确定目标无标注节点对应的评价分值。
根据目标无标注节点对应的评价分值,对候选节点进行标注,得到标注节点。
本申请另一方面提供了一种图节点标注装置,包括:
确定单元,用于在图样本数据包括的无标注节点中确定候选节点,其中,图样本数据包括至少一个已标注节点和至少一个无标注节点。
确定单元,还用于根据候选节点和已标注节点在图样本数据中的位置,确定候选节点对应的预设区域内的目标无标注节点,目标无标注节点包括候选节点。
运算单元,用于确定目标无标注节点对应的第一指数以及确定目标无标注节点对应的第二指数,其中,第一指数用于评价目标无标注节点针对于图样本数据的代表性,第二指数用于评价目标无标注节点针对于图样本数据的信息量。
运算单元,还用于根据目标无标注节点对应的第一指数和第二指数,确定目标无标注节点对应的评价分值。
处理单元,用于根据目标无标注节点对应的评价分值,对候选节点进行标注,得到标注节点。
在一种可能的设计中,运算单元,具体用于在图样本数据中确定目标无标注节点对应的聚类中心,对目标无标注节点和聚类中心进行特征聚合,分别得到目标无标注节点对应的聚合特征和聚类中心对应的聚合特征。根据目标无标注节点对应的聚合特征和聚类中心对应的聚合特征,确定目标无标注节点到聚类中心的距离值,将目标无标注节点到聚类中心的距离值确定为目标无标注节点对应的第一指数。
在一种可能的设计中,确定单元,还用于确定图神经网络对应的第一图神经网络和第二图神经网络,其中,第一图神经网络和第二图神经网络的网络参数不同,第二图神经网络是由第一图神经网络进行参数更新操作后获得的。
运算单元,具体用于将目标无标注节点对应的特征值输入至第一图神经网络中,得到第一输出结果,将目标无标注节点对应的特征值输入至第二图神经网络中,得到第二输出结果。根据第一输出结果和第二输出结果,确定第一输出结果和第二输出结果之间的损失值,根据第一输出结果和第二输出结果之间的损失值,确定目标无标注节点对应的第二指数。
在一种可能的设计中,运算单元,具体用于获取第一图神经网络的第一权重值和第二图神经网络的第二权重值,根据第一图神经网络的第一权重值和第二图神经网络的第二权重值,对第一输出结果和第二输出结果之间的损失值进行计算,根据计算结果确定目标无标注节点对应的信息量指数,其中,第一权重值小于第二权重值。
在一种可能的设计中,运算单元,还用于调整当前时刻中第一指数对应的第三权重值和第二指数对应的第四权重值,其中当前时刻与第二图神经网络对应。根据调整后的第三权重值和第四权重值,对目标无标注节点对应的第一指数和第二指数进行加权平均运算,根据加权平均运算结果确定目标无标注节点对应的评价分值。
在一种可能的设计中,当前时刻中第一指数对应的第三权重值小于历史时刻中第一指数对应的第三权重值,当前时刻中第二指数对应的第四权重值大于历史时刻中第二指数对应的第四权重值,历史时刻与第一图神经网络对应。
在一种可能的设计中,处理单元,具体用于根据目标无标注节点对应的评价分值和目标无标注节点对应的个数,确定候选节点对应的总评价分值,若候选节点对应的总评价分值大于预设阈值时,对候选节点进行标注,得到标注节点。
本申请的另一方面提供了一种计算机可读存储介质,计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述各方面的方法。
从以上技术方案可以看出,本申请实施例具有以下优点:
本申请实施例中,提供了一种图节点标注方法,首先需要分别计算图样本数据中所有无标注节点对应的第一指数和第二指数,然后根据候选节点对应的预设范围内的所有目标无标注节点的第一指数和第二指数,来确定该候选节点的评价分值,然后根据该评价分值来决定是否对该候选节点进行标注。这样,就可以对候选节点针对于图样本数据的代表性和信息量进行评价,同时还可以结合该候选节点的邻居节点来对该候选节点再一次进行评价,来确定该候选节点是否为图样本数据中的关键节点,然后基于评价结果来对候选节点进行标注,这样,就可以更有针对性的在候选节点中选择标注节点,提高标注节点的选点准确性,提高图样本数据的标注效率,从而提高后续图神经网络的训练效率。
附图说明
图1为本申请实施例提供的一种图数据的结构示意图;
图2为本申请实施例提供的一种图神经网络的训练方法的流程示意图;
图3为本申请实施例提供的一种图节点标注方法的流程示意图;
图4为本申请实施例提供的一个图样本数据的结构示意图;
图5为本申请实施例提供的基于最大化有效感受域的主动学习方法的执行流程图;
图6为本申请实施例提供一种图节点标注装置的结构示意图;
图7为本申请实施例提供一种计算机设备的结构示意图。
具体实施方式
本申请实施例提供了一种图节点标注方法、装置、设备及存储介质,可以对图样本数据中的每个图节点的代表性和信息量进行评价,然后根据评价结果来确定代表性更强、信息量更全面的图节点来进行标注,这样,可以提高标注节点的选点准确度,提高图节点标注效率,从而提高图神经网络的训练效率。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“对应于”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
随着海量数据的涌现,可以表示对象之间复杂关系的图结构数据越来越收到重视并给已有的算法带来新的挑战。用于对图结构数据进行运算处理的图神经网络作为可以揭示深层拓扑信息的模型,已开始广泛应用于诸多领域,如通信、生命科学、经济金融等。图神经网络可以直接在图上进行计算,沿着图的结构进行整个计算过程,充分保留图的结构信息,且能够对结构信息进行学习,具有极其强大的运算能力。
由于图神经网络是基于计算机视觉技术(computer vision,CV)产生的,在介绍图神经网络之前,先对人工智能领域中的计算机视觉技术进行简单介绍。
人工智能(artificial intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
其中,计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
要了解图神经网络,就先要了解图。图是由节点和边组成的结构,一般的,图中的节点表示实体对象,边则表示事件或者实体之间的特殊关系。进一步的,如果图中的节点和边都带有属性(信息),则图可以被成为属性图。可以理解的,现实生活中大量的业务数据都可以用图来表示,万事万物皆有联系,节点加关系这样一种表示足以包括万象。
图1为本申请实施例提供的一种图数据的结构示意图,如图1所示,其表示的为用户A的社交网络,其中,多个个体为该图数据的节点,用户与用户之间的关系可以作为边,同时节点还携带有各用户对应的属性信息。例如,用户A对应的属性信息包括用户A的年龄、性别、网龄、职业等。且用户B与用户A的关系为亲属,用户C与用户A的关系为同事,这样,就可以根据该图数据来对用户A的社交圈进行表示。其中,用户B和用户C对应的节点为用户A对应节点的邻居节点,其对应的属性信息也反映了用户A的相关特征。
而图神经网络则是基于图数据这样的表示方法来建立起来的计算模型,其可以用于执行具体的任务,包括图像识别、视觉识别、动作推理等。一般的,图神经网络可以包括图嵌入层和任务层,图嵌入层用于对图数据中的各个节点进行节点向量表示,而任务层则结合具体任务执行相关算法,对向量进行运算,输出针对于任务的结果,在图神经网络各层的网络结构确定后,先要对其进行训练,然后根据训练后的图神经网络执行相关任务。
图2为本申请实施例提供的一种图神经网络的训练方法的流程示意图,如图2所示,神经网络训练过程可以分为四个部分,包括:获取图样本数据、生成输出结果、训练图神经网络以及生成图网络模型。下面将针对各个部分的功能和流程进行介绍,具体地:
S1、获取图样本数据。
具体的,可以针对待训练的图神经网络对应的任务来进行采样,获得多个图样本数据。例如,图神经网络的任务为目标对象(比如猫)的识别,那么就可以采集多张关于猫的图片作为图样本数据,图样本数据可以包括关于猫的姿势、颜色、品种、大小等不相同的图片,以便后续图神经网络学习到更多的特征。
可以理解的,图样本数据包括特征,以及标注信息。其中,标注信息为图样本数据关于具体任务的真实分类或真实结果,用于评价图神经网络的输出结果。图样本数据的标注是深度学习的基础,直接决定了关于图神经网络的评价机制,影响图神经网络输出结果的准确性。所以,图神经网络训练过程的前提,就是需要先对图样本数据进行标注,使得图样本数据携带关于任务的正确标签。
S2、将步骤S1所获取的图样本数据作为待训练图神经网络的输入,待训练图神经网络输出输出结果,该输出结果与具体任务相关。
在上述例子中,若图神经网络的具体任务是目标对象的识别,那么图神经网络的输出结果可以为“是目标对象”和“不是目标对象”。示例性的,图神经网络可以分为图嵌入层和任务层,图嵌入层用来识别图样本数据中的特征,对特征进行向量表示,任务层可以为分类器,通过对向量进行运算,得到最后的识别分类结果。在对图神经网络进行训练时,就需要将图样本数据输入至图神经网络中,图神经网络从图样本数据中学习相关知识,得到图样本数据的输出结果。
S3、通过待训练图神经网络对应的损失函数获取损失值,并根据损失值更新图神经网络参数。
当获取到图样本数据的输出结果后,就需要将输出结果与图样本数据携带的标签进行对比,通过损失函数得到损失值,并将该损失值反向传递,更新图神经网络的参数。这样,经过多次参数迭代后,使得图样本数据对应的输出结果越来越接近其携带的标签,即输出结果不断靠近图样本数据对应的真实结果,提高图神经网络的输出准确性。
S4、训练结束后,生成图网络模型。
图神经网络的训练过程即为反复迭代的过程,当达到训练条件后,训练结束,确定最终更新的模型参数,生成图网络模型。示例性的,训练条件可以是,训练次数达到预设次数,或者损失值低于预设阈值等,待训练条件满足后,就可以结束训练过程,得到图网络模型应用到具体任务中。
生成的图网络模型为了防止被篡改,可以使用区块链技术对其进行存储,下面对区块链技术进行简单介绍。区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层。
区块链底层平台可以包括用户管理、基础服务、智能合约以及运营监控等处理模块。其中,用户管理模块负责所有区块链参与者的身份信息管理,包括维护公私钥生成(账户管理)、密钥管理以及用户真实身份和区块链地址对应关系维护(权限管理)等,并且在授权的情况下,监管和审计某些真实身份的交易情况,提供风险控制的规则配置(风控审计);基础服务模块部署在所有区块链节点设备上,用来验证业务请求的有效性,并对有效请求完成共识后记录到存储上,对于一个新的业务请求,基础服务先对接口适配解析和鉴权处理(接口适配),然后通过共识算法将业务信息加密(共识管理),在加密之后完整一致的传输至共享账本上(网络通信),并进行记录存储;智能合约模块负责合约的注册发行以及合约触发和合约执行,开发人员可以通过某种编程语言定义合约逻辑,发布到区块链上(合约注册),根据合约条款的逻辑,调用密钥或者其它的事件触发执行,完成合约逻辑,同时还提供对合约升级注销的功能;运营监控模块主要负责产品发布过程中的部署、配置的修改、合约设置、云适配以及产品运行中的实时状态的可视化输出,例如:告警、监控网络情况、监控节点设备健康状态等。
平台产品服务层提供典型应用的基本能力和实现框架,开发人员可以基于这些基本能力,叠加业务的特性,完成业务逻辑的区块链实现。应用服务层提供基于区块链方案的应用服务给业务参与方进行使用。
结合上述描述可以看出,图样本数据的标注是图神经网络训练的基础,选择图样本数据的关键节点进行标注,能够提高图神经网络的训练效率。由于对图样本数据进行标注的过程是需要耗费大量成本和精力的,为了提高标注效率,应该选择更具有代表性,且信息更多的节点来作为标注节点进行标注,即选择对图神经网络性能提升更有价值的节点来进行标注,这样,就可以在提高图神经网络训练效率的基础上降低图样本数据的标注成本。
其中,代表性衡量的是选定的节点可以代表整个图样本数据的能力,代表性越高说明该节点对应的特征针对于整个图样本数据更关键,常见的衡量节点代表性的方法是该节点的密度和中心性。而信息量则用户衡量节点拥有的未被当前图网络模型所捕获的信息,一个节点的信息量越高,则该节点所包括的特征更丰富,常见的衡量信息量的方法为神经网络预测结果的不确定性。
现有技术通常是基于图结构的性质计算出每个待选节点在图中的中心性,然后在图神经网络的训练过程中,将图输入至当前的图神经网络,根据图神经网络产生的中间结果来确定每个待选节点对应的代表性和不确定性,然后随时间变化来融合这三个指标,最终对待选节点进行评价,筛选合适的节点来进行标注。
在上述的选点过程中,由于代表性和不确定性都是基于图神经网络的中间结果的评价指标,因此,在模型训练初期,图神经网络的误差还很大,这样将导致图神经网络的中间结果以及输出结果都不可靠,因此得到的代表性指标和不确定性指标也将不准确,基于代表性指标和不确定性指标选择出来的候选节点也不够有价值。同时,上述方法需要在每次选点标注之后重新训练图神经网络模型,由于图神经网络的训练过程往往需要耗费漫长的时间,因此这样会导致选点效率极其低。同时,上述方法还忽略来图神经网络模型的半监督学习性质,未利用已标注节点的感受域来选择待标注节点。基于上述描述,如果更高效、精准的选择图数据中的节点来进行标注。成为亟需解决的问题。
结合上述描述,图3为本申请提供的一种图节点标注方法的流程示意图,如图3所示,包括:
301、确定图样本数据包括的无标注节点中的候选节点。
在利用图样本数据对图神经网络进行训练时,首选需要选择关键节点来进行标注。具体的,图样本数据中包括有已标注节点和大量的无标注节点。标注工作则是标注人员对筛选后的无标注节点进行标注。因此,首先要确定无标注节点中的候选节点,通过后续步骤对该候选节点进行评价,来确定该候选节点对应的标注价值,再根据获得的标注价值来确定是否对该候选节点进行标注。若该候选节点达到标注要求时,则对该候选节点进行标注,使其成为新的标注节点,供后续图神经网络训练进行使用。
302、根据候选节点和已标注节点在图样本数据中的位置,确定候选节点对应的预设区域内的目标无标注节点。
可以理解的,若图样本数据中已经包含有携带标签信息的已标注节点时,已标注节点的位置也将影响候选节点的标注价值。例如,候选节点与已标注节点的距离很近时,可能导致候选节点与已标注节点类似,在已标注节点存在的前提下,候选节点的标注意义不大。同时,在图样本数据中,邻居节点的性质也将影响候选节点,例如,候选节点对应的邻居节点所携带的特征信息量也将影响该候选节点对应的信息量,因此需要根据候选节点和已标注节点在图样本数据中的位置,确定候选节点对应的预设区域内的目标无标注节点,该目标无标注节点也包括候选节点在内,通过对预设区域范围内每个节点的情况进行考量,得到候选节点最终的标注价值,这样将更全面的对候选节点进行评价,从而得到更有价值的无标注节点来进行标注,提高标注效率。
基于上述描述,本申请实施例提出有效感受域的概念,感受域,指的是图神经网络对某个节点进行分析运算时,能够影响该运算结果的其他节点的节点集合。通常,为该节点在图数据中的邻居节点。可以理解的,要对图样本数据中某个节点进行标注评价时,仅仅针对该节点对应的信息进行评价是不够全面的,需要结合该节点对应的感受域中的所有节点的情况来对该节点进行评价。图4为本申请实施例提供的一个图样本数据的结构示意图,如图4所示,节点A为已标注节点,若该图样本数据针对的图神经网络为二层神经网络,那么节点A对应的感受域为其二阶以内的邻居节点。由于超过二阶的邻居节点对训练二层图神经网络没有任何帮助,因此感受域之外的节点将不再收已标注节点的影响。而有效感受域,则是指感受域内所有节点的有效性之和。
因此,在选择候选节点时,可以优先选择已标注节点的感受域之外的节点作为候选节点,然后再确定候选节点对应的感受域,然后结合感受域中每个节点的有效性对候选节点进行评价。具体的,可以在每个主动学习流程选择一批无标签的节点,并且要求这批无标签节点拥有最大的有效感受域。可以基于贪心搜索的方法,维护一个已选的无标签节点集合,每次选择一个节点,使得其如果加入无标签节点集合后有效感受域最大,当无标签节点集合中的节点个数满足要求,则返回当前的集合。如图4所示,若候选节点为B,则候选节点B对应的感受域(预设区域)则为图中候选节点B对应的二阶邻居,然后分别对候选节点B对应的感受域内的所有节点都进行分析,根据分析结果得到候选节点B最终的评价分值。
303、确定目标无标注节点对应的第一指数。
其中,第一指数用来评价各个节点针对于图样本数据的代表性,根据第一指数可以衡量图样本数据中的节点分布。示例性的,可以根据节点到聚类节点之间的负欧几里得距来得到各个节点的第一指数,其中,节点到聚类中心越近,则代表性越强,第一指数越大。
304、确定目标无标注节点对应的第二指数。
第二指数用来评价目标无标注节点针对于图样本数据的信息量,节点的信息量越高说明节点包含的信息中,未被图神经网络所捕捉的信息越丰富。示例性的,可以将图样本数据输入至图神经网络中,根据节点对应的输出结果来确定该节点对应的第二指数。
305、根据目标无标注节点对应的第一指数和第二指数,确定目标无标注节点对应的评价分值。
对于感受域中的一个节点(目标无标注节点)而言,在得到该节点对应的第一指数和第二指数后,就可以根据该第一指数和第二指数确定该节点的评价分值。这样,依次确定完每个节点对应的评价分值之后,再结合感受域中所有节点的评价值来确定是否对候选节点进行标注。
306、根据目标无标注节点对应的评价分值,对候选节点进行标注,得到标注节点。
示例性的,可以结合感受域中包括的目标无标注节点对应的评价分值和目标无标注节点对应的个数,来确定候选节点对应的总评价分值。若总评价分值大于预设阈值时,就对该候选节点进行标注,得到所述标注节点。
可以理解的,候选节点对应感受域中的节点越多,且所有目标无标注节点对应的评价分值越高时,候选节点针对于图样本数据就更具有代表性,且包含的信息量更高,对图神经网络的训练更有价值,这样的候选节点的标注价值就越高,若对其进行标注,就可以获得更有效的标注节点,提高标注效率。
在本申请实施例提供的图节点标注方法中,首先需要分别计算图样本数据中所有无标注节点对应的第一指数和第二指数,然后根据候选节点对应的预设范围内的所有目标无标注节点的第一指数和第二指数,来确定该候选节点的评价分值,然后根据该评价分值来决定是否对该候选节点进行标注。这样,就可以对候选节点针对于图样本数据的代表性和信息量进行评价,同时还可以结合该候选节点的邻居节点来对该候选节点再一次进行评价,来确定该候选节点是否为图样本数据中的关键节点,然后基于评价结果来对候选节点进行标注,这样,就可以更有针对性的在候选节点中选择标注节点,提高标注节点的选点准确性,提高图样本数据的标注效率,从而提高后续图神经网络的训练效率。
下面针对图4所示的候选节点B,对其标注过程进行具体的介绍。
首先,可以根据已标注节点A的感受域和候选节点B的位置,确定候选节点B的感受域,由于图样本数据中,有效感受域为并集形式,因此候选节点B对应的预设区域中包括节点1、节点2、节点3、节点4和节点5。要对候选节点B进行全面评价,那么就需要分别计算节点1、节点2、节点3、节点4、节点5和候选节点B六个节点的评价分值。
下面以候选节点B为例,具体介绍获取候选节点B的评价分值的过程,可以理解的,节点1、节点2、节点3、节点4和节点5对应的评价分值的获取过程与候选节点B类似,在此不做赘述。
(一)首先需要先计算候选节点B对应的第一指数,该第一指数用来评价该候选节点B的代表性,是与图神经网络无关的指数。
首先需要对图样本数据中的候选节点B进行特征聚合,使得候选节点B拥有邻居节点的信息。然后可以利用确定图样本数据中的多个聚类中心,示例性的,可以使用半监督K-means算法。在确定与候选节点B距离最近的目标聚类中心,再计算该节点到目标聚类中心的负欧几里得距,计算公式如下:
Rep(vi)=-||H(vi)-H(ci)||2
其中,Rep(vi)表示节点vi对应的第一指数,H(vi)表示节点vi聚合后的特征,在上述例子中,节点vi则为候选节点B。ci表示离节点vi最近的聚类中心,即目标聚类中心。节点与目标聚类中心对应的特征差距越小,其在对应的聚类中的代表性越大。由上述公式可以看出,该此计算过程不需要经过模型训练,仅需要计算一次,大大降低运算量,提高了运算效率。
在计算完候选节点对应的第一指数后,就需要结合图神经网络的训练过程,来确定候选节点对应的第二指数。
(二)第二指数是对图神经网络未捕获的信息的信息量的评价,因此需要结合图神经网络的训练过程来获得。
首选,需要获取训练过程中的第一图神经网络和第二图神经网络,可以理解的,图神经网络的训练过程就是不断调整各层网络参数的过程,因此,第一图神经网络和第二图神经网络只是训练不同阶段的中间模型产物,其对应的神经网络结构完全相同,而参数不同,在此,第二图神经网络是第一图神经网络经过训练后得到的。
然后,可以将图样本数据分别输入至第一图神经网络和第二图神经网络,使得第一图神经网络和第二图神经网络针对候选节点B的特征值进行运算,最后得到关于候选节点B的第一输出结果和第二输出结果,然后确定第一输出结果和第二输出结果的损失值,并根据该损失值来确定候选节点B对应的第二指数。
在上述描述中,由于第二图神经网络是第一图神经网络经过参数更新得到的,如果候选节点B所包含的特征都已经被图神经网络所学习,那么第一图神经网络和第二图神经网络针对候选节点B的输出结果就无太大差异,即第一输出结果和第二输出结果的损失值会变小,可以得出候选节点B的信息量小,其对应的第二指数也小。如果候选节点B包含有大量未被图神经网络学习到的信息,那么其对应的特征将导致第二图神经网络对应的第二输出结果发生大变动,第一输出结果和第二输出结果的差异将变得很大,此时,就可以说明候选节点B的信息量大,其对应的第二指数也相应变大。
因此,本方法使用多层感知器对候选节点B的节点特征进行特征更新,并基于QBC方法,通过注意力机制对节点的预测结果来评价其信息量,方法如下:
Figure BDA0003111256340000091
其中n为本申请实施例使用的模型数量,在上述例子中,使用了第一图神经网络和第二图神经网络,则n等于2,示例性的,还可以取训练过程中的多个中间模型,来获取第二指数。fj(vi)表示模型j对节点vi的预测结果(输出结果),fk(vi)表示模型k对节点vi的预测结果(输出结果),同样的,在上述例子中,节点vi为候选节点B。其中,
Figure BDA0003111256340000092
Figure BDA0003111256340000093
为fj(vi)和fk(vi)对应的权重值。
其中,第一图神经网络对应的权重值为第一权重值,第二图神经网络对应权重值为的第二权重值;在计算第二指数时,还需要根据第一权重值和第二权重值来对第一输出结果和第二输出结果之间的损失值进行计算,可以理解的,第一图神经网络为第二图神经网络之前的图神经网络,因此,第二图神经网络对应的第二权重值需要大于第一图神经网络对应的第一权重值。
在上述描述中,利用训练过程中不同阶段的图神经网络对节点的信息量进行评价,首先将会降低网络网络的参数量和计算代价,其次,在获得新的标注数据后,相较传统方法中所有模型重新训练,本方法继承了之前的模型参数,然后在以前模型参数的基础上继续训练,减少了重新训练带来的额外开销。
在确定好候选节点B对应的第一指数和第二指数后,需要结合第一指数和第二指数获得候选节点B对应的评价分值。由于第二指数是基于图神经网络的训练过程进行计算的,随着时间的推移,图神经网络的精度逐渐提高,这将导致利用图神经网络获得的第二指数精度越来越高,对候选节点的选取影响也越来越大。因此,在结合第一指数和第二指数获取候选节点对应评价分值时,也应该动态调整策略。示例性的,可以基于时间的动态有效性质来调整策略,具体的公式如下:
Figure BDA0003111256340000101
Figure BDA0003111256340000102
其中,ei代表评价分值,Rep(vi)为节点对应的第一指数,Inf(vi)为节点对应的第二指数,其中
Figure BDA0003111256340000103
是一个时间敏感的参数,用于动态调整节点代表性和信息量。
可以看出,
Figure BDA0003111256340000104
随着时间的变化在逐渐减小,因此,将随着时间的变化在逐渐增大,即在标注工作的最初阶段,由于图神经网络的训练过程还处于初级阶段,其对应的标注节点较少,且迭代更新参数次数也较少,因此图神经网络的精度较低,由其获得的第二指数可靠性也很小,此时,评价候选节点的关键因素在于代表性,代表性越高的候选节点越具有标注价值。而随着时间的推移,图神经网络的训练过程进入后期,图神经网络的精度也越来越高,此时,影响候选节点是否被标注的因素变为信息量的评价。含有未被图神经网络捕捉的信息的信息量越高,越有标注价值,更有利于图神经网络的收敛,加快图神经网络的训练过程。
依照上述方法再依次获得节点1、节点2、节点3、节点4和节点5对应的评价分值。然后结合候选节点B对应的评价分值。获得总评价分值,示例性的,总评价分值为上述六个节点评价分值的累加。若总评价分值达到预设阈值时,那么说明候选节点B有标注价值,需要对其进行标注,使其成为标注节点。
示例性的,若候选节点有多个,在获得每个候选节点对应的总评价分值后,可以结合候选节点感受域中包含的邻居节点的个数来对多个候选节点进行筛选。以感受域中包含的邻居节点数量多、以及感受域中所有节点的总评价分值高为原则,进行候选节点的筛选,筛选出最有标注价值的节点来进行标注,保证标注工作的有效性,节约标注成本。
图5为本申请实施例提供的一种基于最大化有效感受域的主动学习方法的执行流程,其主要步骤如下:
首先,图样本数据中包括无标注节点和标注节点,然后结合图样本数据和图神经网络分别计算每一个无标注节点对应的第一指数(代表性)和第二指数(信息量),然后结合标注节点的感受域来确定无标注节点的预设区域,并且结合预设区域中每个节点对应的第一指数和第二指数来确定该无标注节点对应的总评价分值,结合该总评价分值来挑选无标注节点中的部分节点进行标注,标注之后重新更新图样本数据中的无标注节点和标注节点,然后重新进入下一轮的标注节点选择过程。
可以理解的,本实施可以具体应用于云计算领域,利用上述标注方法来获取对应的网络模型,并利用网络模型处理云端相关任务数据,示例性的,利用模型识别用户的社交关系、对海量云端数据进行查询分类等。下面对云计算技术进行简单介绍:
云计算(cloud computing)是一种计算模式,它将计算任务分布在大量计算机构成的资源池上,使各种应用系统能够根据需要获取计算力、存储空间和信息服务。提供资源的网络被称为“云”。“云”中的资源在使用者看来是可以无限扩展的,并且可以随时获取,按需使用,随时扩展,按使用付费。
作为云计算的基础能力提供商,会建立云计算资源池(简称云平台,一般称为IaaS(Infrastructure as a Service,基础设施即服务)平台,在资源池中部署多种类型的虚拟资源,供外部客户选择使用。云计算资源池中主要包括:计算设备(为虚拟化机器,包含操作系统)、存储设备、网络设备。
按照逻辑功能划分,在IaaS(Infrastructure as a Service,基础设施即服务)层上可以部署PaaS(Platform as a Service,平台即服务)层,PaaS层之上再部署SaaS(Software as a Service,软件即服务)层,也可以直接将SaaS部署在IaaS上。PaaS为软件运行的平台,如数据库、web容器等。SaaS为各式各样的业务软件,如web门户网站、短信群发器等。一般来说,SaaS和PaaS相对于IaaS是上层。
图6为本申请实施例提供一种图节点标注装置的结构示意图,包括:
确定单元601,用于在图样本数据包括的无标注节点中确定候选节点,其中,图样本数据包括至少一个已标注节点和至少一个无标注节点。
确定单元601,还用于根据候选节点和已标注节点在图样本数据中的位置,确定候选节点对应的预设区域内的目标无标注节点,目标无标注节点包括候选节点。
运算单元602,用于确定目标无标注节点对应的第一指数以及确定目标无标注节点对应的第二指数,其中,第一指数用于评价目标无标注节点针对于图样本数据的代表性,第二指数用于评价目标无标注节点针对于图样本数据的信息量。
运算单元602,还用于根据目标无标注节点对应的第一指数和第二指数,确定目标无标注节点对应的评价分值。
处理单元603,用于根据目标无标注节点对应的评价分值,对候选节点进行标注,得到标注节点。
在一种可能的设计中,运算单元602,具体用于在图样本数据中确定目标无标注节点对应的聚类中心,对目标无标注节点和聚类中心进行特征聚合,分别得到目标无标注节点对应的聚合特征和聚类中心对应的聚合特征。根据目标无标注节点对应的聚合特征和聚类中心对应的聚合特征,确定目标无标注节点到聚类中心的距离值,将目标无标注节点到聚类中心的距离值确定为目标无标注节点对应的第一指数。
在一种可能的设计中,确定单元601,还用于确定图神经网络对应的第一图神经网络和第二图神经网络,其中,第一图神经网络和第二图神经网络的网络参数不同,第二图神经网络是由第一图神经网络进行参数更新操作后获得的。
运算单元602,具体用于将目标无标注节点对应的特征值输入至第一图神经网络中,得到第一输出结果,将目标无标注节点对应的特征值输入至第二图神经网络中,得到第二输出结果。根据第一输出结果和第二输出结果,确定第一输出结果和第二输出结果之间的损失值,根据第一输出结果和第二输出结果之间的损失值,确定目标无标注节点对应的第二指数。
在一种可能的设计中,运算单元602,具体用于获取第一图神经网络的第一权重值和第二图神经网络的第二权重值,根据第一图神经网络的第一权重值和第二图神经网络的第二权重值,对第一输出结果和第二输出结果之间的损失值进行计算,根据计算结果确定目标无标注节点对应的信息量指数,其中,第一权重值小于第二权重值。
在一种可能的设计中,运算单元602,还用于调整当前时刻中第一指数对应的第三权重值和第二指数对应的第四权重值,其中当前时刻与第二图神经网络对应。根据调整后的第三权重值和第四权重值,对目标无标注节点对应的第一指数和第二指数进行加权平均运算,根据加权平均运算结果确定目标无标注节点对应的评价分值。
在一种可能的设计中,当前时刻中第一指数对应的第三权重值小于历史时刻中第一指数对应的第三权重值,当前时刻中第二指数对应的第四权重值大于历史时刻中第二指数对应的第四权重值,历史时刻与第一图神经网络对应。
在一种可能的设计中,处理单元603,具体用于根据目标无标注节点对应的评价分值和目标无标注节点对应的个数,确定候选节点对应的总评价分值,若候选节点对应的总评价分值大于预设阈值时,对候选节点进行标注,得到标注节点。
本申请实施例还提供了另一种计算机设备,该计算机设备可以部署于服务器,请参阅图7,图7为本申请实施例中计算机设备的一个实施例示意图,如图7所示,该计算机设备700可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(central processing units,CPU)722(例如,一个或一个以上处理器)和存储器732,一个或一个以上存储应用程序742或数据744的存储介质730(例如一个或一个以上海量存储设备)。其中,存储器732和存储介质730可以是短暂存储或持久存储。存储在存储介质730的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器722可以设置为与存储介质730通信,在计算机设备700上执行存储介质730中的一系列指令操作。
计算机设备700还可以包括一个或一个以上电源,一个或一个以上有线或无线网络接口750,一个或一个以上输入输出接口758,和/或,一个或一个以上操作系统741,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
上述实施例中由计算机设备所执行的步骤可以基于该图7所示的计算机设备结构。
在本申请实施例中,该计算机设备所包括的CPU 722用于执行图3所示实施例中计算机设备执行的步骤。
本申请实施例中还提供一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,当其在计算机上运行时,使得计算机执行如前述图所示实施例描述的方法中计算机设备所执行下列步骤:
在图样本数据包括的无标注节点中确定候选节点,其中,图样本数据包括至少一个已标注节点和至少一个无标注节点。
根据候选节点和已标注节点在图样本数据中的位置,确定候选节点对应的预设区域内的目标无标注节点,目标无标注节点包括候选节点。
确定目标无标注节点对应的第一指数以及确定目标无标注节点对应的第二指数,其中,第一指数用于评价目标无标注节点针对于图样本数据的代表性,第二指数用于评价目标无标注节点针对于图样本数据的信息量。
根据目标无标注节点对应的第一指数和第二指数,确定目标无标注节点对应的评价分值。
根据目标无标注节点对应的评价分值,对候选节点进行标注,得到标注节点。
本申请实施例中还提供一种包括程序的计算机程序产品,当其在计算机上运行时,使得计算机执行如前述图3所示实施例描述的方法中计算机设备所执行的步骤。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (10)

1.一种图节点标注方法,其特征在于,所述方法包括:
在图样本数据包括的无标注节点中确定候选节点;其中,所述图样本数据包括至少一个已标注节点和至少一个无标注节点;
根据所述候选节点和所述已标注节点在所述图样本数据中的位置,确定所述候选节点对应的预设区域内的目标无标注节点,所述目标无标注节点包括所述候选节点;
确定所述目标无标注节点对应的第一指数以及确定所述目标无标注节点对应的第二指数;所述第一指数用于评价所述目标无标注节点针对于所述图样本数据的代表性,所述第二指数用于评价所述目标无标注节点针对于所述图样本数据的信息量;
根据所述目标无标注节点对应的第一指数和所述第二指数,确定所述目标无标注节点对应的评价分值;
根据所述目标无标注节点对应的评价分值,对所述候选节点进行标注,得到标注节点。
2.根据权利要求1所述的方法,其特征在于,所述确定所述目标无标注节点对应的第一指数,包括:
在所述图样本数据中确定所述目标无标注节点对应的聚类中心;
对所述目标无标注节点和所述聚类中心进行特征聚合,分别得到所述目标无标注节点对应的聚合特征和所述聚类中心对应的聚合特征;
根据所述目标无标注节点对应的聚合特征和所述聚类中心对应的聚合特征,确定所述目标无标注节点到所述聚类中心的距离值;
将所述目标无标注节点到所述聚类中心的距离值确定为所述目标无标注节点对应的第一指数。
3.根据权利要求1所述的方法,其特征在于,所述确定所述目标无标注节点对应的第二指数,包括:
确定所述图神经网络对应的第一图神经网络和第二图神经网络;其中,所述第一图神经网络和所述第二图神经网络的网络参数不同,所述第二图神经网络是由所述第一图神经网络进行参数更新操作后获得的;
将所述目标无标注节点对应的特征值输入至所述第一图神经网络中,得到第一输出结果;
将所述目标无标注节点对应的特征值输入至所述第二图神经网络中,得到第二输出结果;
根据所述第一输出结果和所述第二输出结果,确定所述第一输出结果和所述第二输出结果之间的损失值;
根据所述第一输出结果和所述第二输出结果之间的损失值,确定所述目标无标注节点对应的第二指数。
4.根据权利要求3所述的方法,其特征在于,所述根据所述第一输出结果和所述第二输出结果之间的损失值,确定所述目标无标注节点对应的第二指数,包括:
获取所述第一图神经网络的第一权重值和所述第二图神经网络的第二权重值;
根据所述第一图神经网络的第一权重值和所述第二图神经网络的第二权重值,对所述第一输出结果和所述第二输出结果之间的损失值进行计算;
根据计算结果确定所述目标无标注节点对应的信息量指数;其中,所述第一权重值小于所述第二权重值。
5.根据权利要求4所述的方法,其特征在于,所述根据所述目标无标注节点对应的第一指数和第二指数,确定所述目标无标注节点对应的评价分值,包括:
调整当前时刻中所述第一指数对应的第三权重值和所述第二指数对应的第四权重值;所述当前时刻与所述第二图神经网络对应;
根据调整后的所述第三权重值和所述第四权重值,对所述目标无标注节点对应的第一指数和第二指数进行加权平均运算;
根据加权平均运算结果确定所述目标无标注节点对应的评价分值。
6.根据权利要求5所述的方法,其特征在于,所述当前时刻中所述第一指数对应的第三权重值小于历史时刻中所述第一指数对应的第三权重值,所述当前时刻中所述第二指数对应的第四权重值大于所述历史时刻中所述第二指数对应的第四权重值;
所述历史时刻与所述第一图神经网络对应。
7.根据权利要求1至6任一项所述的方法,其特征在于,所述根据所述目标无标注节点对应的评价分值,对所述候选节点进行标注,得到标注节点,包括:
根据所述目标无标注节点对应的评价分值和所述目标无标注节点对应的个数,确定所述候选节点对应的总评价分值;
若所述候选节点对应的总评价分值大于预设阈值时,对所述候选节点进行标注,得到所述标注节点。
8.一种图节点标注装置,其特征在于,所述装置包括:
确定单元,用于在图样本数据包括的无标注节点中确定候选节点;其中,所述图样本数据包括至少一个已标注节点和至少一个无标注节点;
所述确定单元,还用于根据所述候选节点和所述已标注节点在所述图样本数据中的位置,确定所述候选节点对应的预设区域内的目标无标注节点,所述目标无标注节点包括所述候选节点;
运算单元,用于确定所述目标无标注节点对应的第一指数以及确定所述目标无标注节点对应的第二指数;所述第一指数用于评价所述目标无标注节点针对于所述图样本数据的代表性,所述第二指数用于评价所述目标无标注节点针对于所述图样本数据的信息量;
所述运算单元,还用于根据所述目标无标注节点对应的第一指数和第二指数,确定所述目标无标注节点对应的评价分值;
处理单元,用于根据所述目标无标注节点对应的评价分值,对所述候选节点进行标注,得到标注节点。
9.一种计算机设备,其特征在于,包括:存储器、收发器、处理器以及总线系统;
其中,所述存储器用于存储程序;
所述处理器用于执行所述存储器中的程序,以实现权利要求1至7任一项所述的方法;
所述总线系统用于连接所述存储器以及所述处理器,以使所述存储器以及所述处理器进行通信。
10.一种计算机可读存储介质,包括指令,当其在计算机上运行时,使得计算机执行如权利要求1至7中任一项所述的方法。
CN202110651232.3A 2021-06-10 2021-06-10 一种图节点标注方法、装置、设备及存储介质 Pending CN113822412A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110651232.3A CN113822412A (zh) 2021-06-10 2021-06-10 一种图节点标注方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110651232.3A CN113822412A (zh) 2021-06-10 2021-06-10 一种图节点标注方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN113822412A true CN113822412A (zh) 2021-12-21

Family

ID=78912523

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110651232.3A Pending CN113822412A (zh) 2021-06-10 2021-06-10 一种图节点标注方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN113822412A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230153223A1 (en) * 2021-11-17 2023-05-18 Oracle International Corporation Dynamic cloud based alert and threshold generation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230153223A1 (en) * 2021-11-17 2023-05-18 Oracle International Corporation Dynamic cloud based alert and threshold generation

Similar Documents

Publication Publication Date Title
Yu et al. Diverse few-shot text classification with multiple metrics
Das et al. Opportunities and challenges in explainable artificial intelligence (xai): A survey
CN104951425B (zh) 一种基于深度学习的云服务性能自适应动作类型选择方法
JP2022529863A (ja) アイデンティティ検証方法、アイデンティティ検証装置、コンピュータ機器、及びコンピュータプログラム
Li et al. Dynamic structure embedded online multiple-output regression for streaming data
CN114332984B (zh) 训练数据处理方法、装置和存储介质
CN113761261A (zh) 图像检索方法、装置、计算机可读介质及电子设备
CN113255895B (zh) 基于图神经网络表示学习的结构图对齐方法和多图联合数据挖掘方法
CN110163252B (zh) 数据分类方法及装置、电子设备、存储介质
CN111368926A (zh) 图像筛选方法、装置和计算机可读存储介质
Biswas et al. Hybrid expert system using case based reasoning and neural network for classification
CN113822315A (zh) 属性图的处理方法、装置、电子设备及可读存储介质
CN113011387A (zh) 网络训练及人脸活体检测方法、装置、设备及存储介质
CN113052150A (zh) 活体检测方法、装置、电子设备和计算机可读存储介质
Nguyen et al. CLARA: confidence of labels and raters
CN115718826A (zh) 图结构数据中的目标节点分类方法、系统、设备及介质
Wang et al. A novel multiface recognition method with short training time and lightweight based on ABASNet and H-softmax
CN116861924A (zh) 基于人工智能的项目风险预警方法及系统
CN113822412A (zh) 一种图节点标注方法、装置、设备及存储介质
Taherinavid et al. Automatic Transportation Mode Classification Using a Deep Reinforcement Learning Approach With Smartphone Sensors
CN111260074B (zh) 一种超参数确定的方法、相关装置、设备及存储介质
Li et al. A trustworthy view on explainable artificial intelligence method evaluation
Bi et al. Critical direction projection networks for few-shot learning
CN115439919B (zh) 模型更新方法、装置、设备、存储介质及程序产品
CN114386436B (zh) 文本数据的分析方法、模型训练方法、装置及计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination