CN112989134A - 节点关系图的处理方法、装置、设备及存储介质 - Google Patents

节点关系图的处理方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN112989134A
CN112989134A CN202110335473.7A CN202110335473A CN112989134A CN 112989134 A CN112989134 A CN 112989134A CN 202110335473 A CN202110335473 A CN 202110335473A CN 112989134 A CN112989134 A CN 112989134A
Authority
CN
China
Prior art keywords
node
information
relationship
graph
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110335473.7A
Other languages
English (en)
Other versions
CN112989134B (zh
Inventor
荣钰
江雨俪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202110335473.7A priority Critical patent/CN112989134B/zh
Publication of CN112989134A publication Critical patent/CN112989134A/zh
Application granted granted Critical
Publication of CN112989134B publication Critical patent/CN112989134B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • G06F16/9024Graphs; Linked lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/906Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2134Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请公开了一种节点关系图的处理方法、装置、设备及存储介质,属于人工智能技术领域。方法包括:获取目标节点关系图对应的节点邻接关系信息和节点基本属性信息;基于节点邻接关系信息,对第一待更新信息进行更新处理,得到第一处理结果;基于节点基本属性信息,获取节点属性关系信息;基于节点属性关系信息,对第二待更新信息进行更新处理,得到第二处理结果;基于第一处理结果和第二处理结果,获取目标处理结果。基于此,在获取目标处理结果的过程中,关注的节点关系方面的信息不仅包括节点之间的邻接关系,还包括节点的基本属性之间的关系,关注的节点关系方面的信息较丰富,有利于提高目标处理结果的准确性。

Description

节点关系图的处理方法、装置、设备及存储介质
技术领域
本申请实施例涉及人工智能技术领域,特别涉及一种节点关系图的处理方法、装置、设备及存储介质。
背景技术
节点关系图由节点和能够指示出节点之间的邻接关系的边构成,通过对节点关系图进行处理,能够对节点关系图进行更深入地了解,以便于实现与节点关系图相关的任务,例如,对节点关系图进行图分类、对节点关系图进行节点分类、补充节点关系图中缺失的边等。
相关技术在对节点关系图进行处理的过程中,直接基于节点关系图对应的节点邻接关系信息,对待更新信息进行更新处理,得到节点关系图对应的最终的处理结果。其中,待更新信息基于节点关系图对应的节点基本属性信息确定。
节点关系图对应的节点邻接关系信息用于指示节点之间的邻接关系,在上述获取最终的处理结果的过程中,关注的节点关系方面的信息仅为节点之间的邻接关系,关注的节点关系方面的信息较局限,容易导致最终的处理结果准确性较差。
发明内容
本申请实施例提供了一种节点关系图的处理方法、装置、设备及存储介质,可用于提高最终的处理结果的准确性。所述技术方案如下:
一方面,本申请实施例提供了一种节点关系图的处理方法,所述方法包括:
获取目标节点关系图对应的节点邻接关系信息和节点基本属性信息,所述节点邻接关系信息用于指示所述目标节点关系图中的各个节点之间的邻接关系;
基于所述节点邻接关系信息,对第一待更新信息进行更新处理,得到所述目标节点关系图对应的第一处理结果,所述第一待更新信息基于所述节点基本属性信息确定;
基于所述节点基本属性信息,获取节点属性关系信息,所述节点属性关系信息用于指示所述目标节点关系图中的各个节点的基本属性之间的关系;
基于所述节点属性关系信息,对第二待更新信息进行更新处理,得到所述目标节点关系图对应的第二处理结果,所述第二待更新信息基于所述节点邻接关系信息确定;
基于所述第一处理结果和所述第二处理结果,获取所述目标节点关系图对应的目标处理结果。
另一方面,提供了一种节点关系图的处理装置,所述装置包括:
第一获取单元,用于获取目标节点关系图对应的节点邻接关系信息和节点基本属性信息,所述节点邻接关系信息用于指示所述目标节点关系图中的各个节点之间的邻接关系;
第一处理单元,用于基于所述节点邻接关系信息,对第一待更新信息进行更新处理,得到所述目标节点关系图对应的第一处理结果,所述第一待更新信息基于所述节点基本属性信息确定;
第二获取单元,用于基于所述节点基本属性信息,获取节点属性关系信息,所述节点属性关系信息用于指示所述目标节点关系图中的各个节点的基本属性之间的关系;
第二处理单元,用于基于所述节点属性关系信息,对第二待更新信息进行更新处理,得到所述目标节点关系图对应的第二处理结果,所述第二待更新信息基于所述节点邻接关系信息确定;
第三获取单元,用于基于所述第一处理结果和所述第二处理结果,获取所述目标节点关系图对应的目标处理结果。
在一种可能实现方式中,所述节点基本属性信息为节点基本属性矩阵,所述节点属性关系信息为节点属性关系矩阵,所述第二获取单元,用于计算所述节点基本属性矩阵和所述节点基本属性矩阵的转置矩阵之间的乘积,将所述乘积作为第一属性关系矩阵;基于所述第一属性关系矩阵,确定所述节点属性关系矩阵。
在一种可能实现方式中,所述第二获取单元,还用于对所述第一属性关系矩阵进行检验;响应于检验的结果指示所述第一属性关系矩阵满足稠密条件,对所述第一属性关系矩阵进行稀疏化处理,将稀疏化处理后得到的矩阵作为所述节点属性关系矩阵;响应于检验的结果指示所述第一属性关系矩阵不满足稠密条件,将所述第一属性关系矩阵作为所述节点属性关系矩阵。
在一种可能实现方式中,所述节点邻接关系信息为节点邻接关系矩阵,所述第二待更新信息为第二待更新矩阵,所述装置还包括:
确定单元,用于对所述节点邻接关系矩阵进行降维处理,得到降维邻接关系矩阵;对所述降维邻接关系矩阵进行归一化处理,得到所述第二待更新矩阵。
在一种可能实现方式中,所述第一处理单元,用于调用第一目标图神经网络模型,基于所述节点邻接关系信息,对第一待更新信息进行更新处理,得到所述目标节点关系图对应的第一处理结果;
所述第二处理单元,用于调用第二目标图神经网络模型,基于所述节点属性关系信息,对第二待更新信息进行更新处理,得到所述目标节点关系图对应的第二处理结果。
在一种可能实现方式中,所述第一获取单元,还用于获取样本节点关系图对应的节点邻接关系样本信息、节点基本属性样本信息以及标签信息;
所述第一处理单元,还用于调用第一初始图神经网络模型,基于所述节点邻接关系样本信息,对第一待更新样本信息进行更新处理,得到所述样本节点关系图对应的第一样本处理结果,所述第一待更新样本信息基于所述节点基本属性样本信息确定;
所述第二获取单元,还用于基于所述节点基本属性样本信息,获取节点属性关系样本信息;
所述第二处理单元,还用于调用第二初始图神经网络模型,基于所述节点属性关系样本信息,对第二待更新样本信息进行更新处理,得到所述样本节点关系图对应的第二样本处理结果,所述第二待更新样本信息基于所述节点邻接关系样本信息确定;
所述装置还包括:
第四获取单元,用于基于所述第一样本处理结果、所述第二样本处理结果和所述标签信息,获取目标损失函数;
训练单元,用于利用所述目标损失函数对所述第一初始图神经网络模型和第二初始图神经网络模型进行训练,得到所述第一目标图神经网络模型和所述第二目标图神经网络模型。
在一种可能实现方式中,所述第四获取单元,用于基于所述第一样本处理结果和所述标签信息之间的差异,获取第一损失函数;基于所述第二样本处理结果和所述标签信息之间的差异,获取第二损失函数;基于所述第一样本处理结果和所述第二样本处理结果之间的差异,获取第三损失函数;基于所述第一损失函数、所述第二损失函数和所述第三损失函数,获取所述目标损失函数。
另一方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条计算机程序,所述至少一条计算机程序由所述处理器加载并执行,以使所述计算机设备实现上述任一所述的节点关系图的处理方法。
另一方面,还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条计算机程序,所述至少一条计算机程序由处理器加载并执行,以使计算机实现上述任一所述的节点关系图的处理方法。
另一方面,还提供了一种计算机程序产品或计算机程序,所述计算机程序产品或计算机程序包括计算机指令,所述计算机指令存储在计算机可读存储介质中。计算机设备的处理器从所述计算机可读存储介质读取所述计算机指令,处理器执行所述计算机指令,使得所述计算机设备执行上述任一所述的节点关系图的处理方法。
本申请实施例提供的技术方案至少带来如下有益效果:
在本申请实施例中,目标节点关系图对应的目标处理结果是根据第一处理结果和第二处理结果获取的,其中,第一处理结果是基于节点邻接关系信息得到的,第二处理结果是基于节点属性关系信息得到的。也就是说,在获取最终的目标处理结果的过程中,关注的节点关系方面的信息不仅包括节点之间的邻接关系,还包括节点的基本属性之间的关系,关注的节点关系方面的信息较丰富,有利于提高最终得到的目标处理结果的准确性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种节点关系图的处理方法的实施环境的示意图;
图2是本申请实施例提供的一种节点关系图的处理方法的流程图;
图3是本申请实施例提供的一种在相关技术的处理方式下,对节点关系图数据集中的不同度的节点进行分类的准确率的示意图;
图4是本申请实施例提供的一种不同度的节点在各个节点关系图数据集中的分布情况的示意图;
图5是本申请实施例提供的一种训练得到第一目标图神经网络模型和第二目标图神经网络模型的过程的流程图;
图6是本申请实施例提供的一种训练得到第一目标图神经网络模型和第二目标图神经网络模型的过程的示意图;
图7是本申请实施例提供的一种对节点关系图数据集中的不同度的节点进行分类的准确率的比对结果的示意图;
图8是本申请实施例提供的一种节点关系图的处理装置示意图;
图9是本申请实施例提供的一种节点关系图的处理装置示意图;
图10是本申请实施例提供的一种终端的结构示意图;
图11是本申请实施例提供的一种服务器的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
在示例性实施例中,本申请实施例提供的节点关系图的处理方法能够应用于人工智能技术领域。接下来对人工智能技术进行介绍。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
其中,自然语言处理(Nature Language Processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、节点关系图(如,知识图谱)等技术。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、示教学习等技术。
随着人工智能技术研究和进步,人工智能技术在多个领域展开研究和应用,例如,常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、机器人、智能医疗、智能客服等,相信随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。
在示例性实施例中,本申请实施例中提供的节点关系图的处理方法在区块链系统中实现,本申请实施例提供的节点关系图的处理方法中涉及的节点关系图以及节点关系图对应的相关信息(如,节点邻接关系信息、节点基本属性信息、节点属性关系信息、处理结果等)均保存在区块链系统中的区块链上,节点关系图以及节点关系图对应的相关信息的安全性和可靠性较高。
图1示出了本申请实施例提供的节点关系图的处理方法的实施环境的示意图。该实施环境可以包括:终端11和服务器12。
本申请实施例提供的节点关系图的处理方法可以由终端11执行,也可以由服务器12执行,还可以由终端11和服务器12共同执行,本申请实施例对此不加以限定。对于本申请实施例提供的节点关系图的处理方法由终端11和服务器12共同执行的情况,服务器12承担主要计算工作,终端11承担次要计算工作;或者,服务器12承担次要计算工作,终端11承担主要计算工作;或者,服务器12和终端11二者之间采用分布式计算架构进行协同计算。
在一种可能实现方式中,终端11可以是任何一种可与用户通过键盘、触摸板、触摸屏、遥控器、语音交互或手写设备等一种或多种方式进行人机交互的电子产品,例如PC(Personal Computer,个人计算机)、手机、智能手机、PDA(Personal Digital Assistant,个人数字助手)、可穿戴设备、PPC(Pocket PC,掌上电脑)、平板电脑、智能车机、智能电视、智能音箱等。服务器12可以是一台服务器,也可以是由多台服务器组成的服务器集群,或者是一个云计算服务中心。终端11与服务器12通过有线或无线网络建立通信连接。
本领域技术人员应能理解上述终端11和服务器12仅为举例,其他现有的或今后可能出现的终端或服务器如可适用于本申请,也应包含在本申请保护范围以内,并在此以引用方式包含于此。
基于上述图1所示的实施环境,本申请实施例提供一种节点关系图的处理方法,以该方法应用于计算机设备为例,该计算机设备可以是指终端,也可以是指服务器。如图2所示,本申请实施例提供的节点关系图的处理方法包括如下步骤201至步骤205:
在步骤201中,获取目标节点关系图对应的节点邻接关系信息和节点基本属性信息,节点邻接关系信息用于指示目标节点关系图中的各个节点之间的邻接关系。
目标节点关系图是指需要进行处理的任一节点关系图。节点关系图由节点和用于指示节点之间的邻接关系的边构成,能够表示为G=(V,E),其中,G表示节点关系图,V表示节点关系图中的节点的集合,E表示节点关系图中的边的集合。随着计算机技术的发展,节点关系图的来源越来越多,例如,根据社交网络中人与人之间的联系构建的节点关系图、根据生物中的蛋白质相互作用构建的节点关系图、根据实体之间的关系构建的节点关系图(也称为知识图谱)以及根据通信网络中的IP(Internet Protocol,网际互连协议)地址之间的通信情况构建的节点关系图等。
在示例性实施例中,不同来源的节点关系图中的节点表示的含义以及节点之间的边的构建规则有所不同。示例性地,根据社交网络中人与人之间的联系构建的节点关系图中,每个节点表示一个人,表示人A的节点A和表示人B的节点B之间的边的构建规则为:若人A和人B之间具有联系,则在节点A和节点B之间连接一条边;若人A和人B之间不具有联系,则不在节点A和节点B之间连接边。示例性地,根据生物中的蛋白质相互作用构建的节点关系图中,每个节点表示一个蛋白质,表示蛋白质a的节点a和表示蛋白质b的节点b之间的边的构建规则为:若蛋白质a和蛋白质b之间存在相互作用,则在节点a和节点b之间连接一条边;若蛋白质a和蛋白质b之间不存在相互作用,则不在节点a和节点b之间连接边。
在示例性实施例中,根据节点关系图中的边是否有方向,能够将节点关系图分为有向节点关系图和无向节点关系图两大类。在示例性实施例中,根据节点关系图中的边是否具有权值,能够将节点关系图分为有权节点关系图和无权节点关系图两大类。本申请实施例对目标节点关系图的来源以及目标节点关系图的类型均不加以限定。
目标节点关系图对应的节点邻接关系信息用于指示目标节点关系图中的各个节点之间的邻接关系。目标节点关系图对应的节点邻接关系信息通过对目标节点关系图中的节点之间的边的存在情况进行分析获取得到。节点邻接关系信息中包括目标节点关系图中的各个节点分别对应的邻接关系子信息。任一节点对应的邻接关系子信息用于表示该任一节点与其他节点之间的邻接情况。
在示例性实施例中,节点邻接关系信息的形式为矩阵,也即,节点邻接关系信息为节点邻接关系矩阵。在此种情况下,节点对应的邻接关系子信息为邻接关系子矩阵。示例性地,节点邻接关系矩阵中的每一行矩阵表示一个节点对应的邻接关系子矩阵;或者,节点邻接关系矩阵中的每一列矩阵表示一个节点对应的邻接关系子矩阵,本申请实施例对此不加以限定。示例性地,任一节点对应的邻接关系子矩阵中包括用于指示该任一节点与该任一节点之间的邻接情况的元素以及用于指示该任一节点与除该任一节点外的各其他节点之间的邻接情况的元素。
在示例性实施例中,邻接情况分为存在边以及不存在边两种情况,对于节点对应的邻接关系子信息为邻接关系子矩阵的情况,节点i对应的邻接关系子矩阵的获取方式为:若存在从节点i到节点j的边,则将第一数值作为用于指示节点i与节点j之间的邻接情况的元素;若不存在从节点i到节点j的边,则将第二数值作为用于指示节点i与节点j之间的邻接情况的元素。第一数值和第二数值根据经验设置,或者根据目标节点关系图的类型灵活调整,本申请实施例对此不加以限定。例如,无论目标节点关系图是否为无权节点关系图,均将第一数值设置为1,将第二数值设置为0;或者,若目标节点关系图为无权节点关系图,将第一数值设置为1,将第二数值设置为0,若目标节点关系图为有权节点关系图,将第一数值设置为边具有的权值,将第二数值设置为0。
当然,在示例性实施例中,节点邻接关系信息的形式还可以为向量集合,也即,节点邻接关系信息为节点邻接关系向量集合。此种情况下,节点对应的邻接关系子信息为邻接关系向量,节点邻接关系向量集合中的每个向量表示一个节点对应的邻接关系向量。
目标节点关系图对应的节点基本属性信息用于指示目标节点关系图中的各个节点分别具有的基本属性。节点基本属性信息中包括目标节点关系图中的各个节点分别对应的基本属性子信息。任一节点对应的基本属性子信息用于表示该任一节点具有的基本属性,任一节点具有的基本属性用于对该任一节点进行初步表征。获取目标节点关系图对应的节点基本属性信息的过程即为获取目标节点关系图中的各个节点分别对应的基本属性子信息的过程。
在示例性实施例中,节点基本属性信息的形式为矩阵,也即,节点基本属性信息为节点基本属性矩阵。在此种情况下,节点对应的基本属性子信息为基本属性子矩阵。示例性地,节点基本属性矩阵中的每一行矩阵表示一个节点对应的基本属性子矩阵;或者,节点基本属性矩阵中的每一列矩阵表示一个节点对应的基本属性子矩阵,本申请实施例对此不加以限定。
在示例性实施例中,任一节点对应的基本属性子信息通过对该任一节点的相关信息进行分析得到。任一节点的相关信息的类型与目标节点关系图的来源有关,示例性地,假设目标节点关系图是根据社交网络中人与人之间的联系构建的,则目标节点关系图中的任一节点表示一个人,任一节点的相关信息包括但不限于该任一节点表示的人的用户画像、购物信息、出行信息等。假设目标节点关系图是根据生物中的蛋白质相互作用构建的,则目标节点关系图中的任一节点表示一个蛋白质,任一节点的相关信息包括但不限于该任一节点表示的蛋白质的种类、结构等。对任一节点的相关信息进行分析,得到任一节点对应的基本属性子信息的方式根据实际情况确定,本申请实施例对此不加以限定,只要能够得到用于对任一节点进行初步表征的基本属性子信息即可。
示例性地,对任一节点信息的相关信息进行分析,得到任一节点对应的基本属性子信息的方式为:将任一节点信息的相关信息输入特征提取模型进行特征提取,将特征提取模型输出的特征作为该任一节点的基本属性子信息。
目标节点关系图对应的节点邻接关系信息和节点基本属性信息为获取目标节点关系图对应的目标处理结果的过程提供数据支持,在获取目标节点关系图对应的节点邻接关系信息和节点基本属性信息后,计算机设备在目标节点关系图对应的节点邻接关系信息和节点基本属性信息的基础上,执行后续的步骤202至步骤205,以得到目标节点关系图对应的目标处理结果。
本申请实施例对目标节点关系图对应的目标处理结果的形式不加以限定,这与需要根据目标节点关系图执行的目标处理任务有关。示例性地,对于目标处理任务为对目标节点关系图进行图分类的情况,目标节点关系图对应的目标处理结果包括各个候选图类别分别对应的概率值。候选图类别根据经验设置,或者根据应用场景灵活调整,本申请实施例对此不加以限定。
示例性地,对于目标处理任务为对目标节点关系图进行节点分类的情况,目标节点关系图对应的目标处理结果包括目标节点关系图中的各个节点分别对应的目标处理子结果,任一节点对应的目标处理子结果包括各个候选节点类别分别对应的概率值。候选节点类别根据经验设置,或者根据应用场景灵活调整,本申请实施例对此不加以限定。
示例性地,对于目标处理任务为获取目标节点关系图中的各个节点分别对应的综合特征,进而根据综合特征实现推荐业务的情况,目标节点关系图对应的目标处理结果包括目标节点关系图中的各个节点分别对应的综合特征。
在本申请实施例中,目标节点关系图对应的目标处理结果是基于目标节点关系图对应的第一处理结果和目标节点关系图对应的第二处理结果获取的,目标节点关系图对应的第一处理结果和目标节点关系图对应的第二处理结果通过不同的处理分支进行处理,不同的处理分支中关注的节点关系方面的信息不同。获取目标节点关系图对应的第一处理结果的过程将在步骤202中进行介绍,获取目标节点关系图对应的第二处理结果的过程将在步骤203和步骤204中进行介绍。需要说明的是,由于目标处理结果是基于第一处理结果和第二处理结果获取的,所以第一处理结果和第二处理结果均与目标处理结果的形式相同。
在步骤202中,基于节点邻接关系信息,对第一待更新信息进行更新处理,得到目标节点关系图对应的第一处理结果,第一待更新信息基于节点基本属性信息确定。
目标节点关系图对应的第一处理结果是基于节点邻接关系信息得到的,节点邻接关系信息用于指示目标节点关系图中的各个节点之间的邻接关系,因此,获取目标节点关系图对应的第一处理结果的过程中关注的节点关系方面的信息为节点之间的邻接关系。目标节点关系图对应的第一处理结果通过基于节点邻接关系信息,对第一待更新信息进行更新处理得到。其中,第一待更新信息基于节点基本属性信息确定。
在一种可能实现方式中,在实现步骤202之前,需要先基于节点基本属性信息确定第一待更新信息。在示例性实施例中,基于节点基本属性信息确定第一待更新信息的方式为:对节点基本属性信息进行归一化处理,得到第一待更新信息。对节点基本属性信息进行归一化处理能够使得各个节点在相同维度的属性具有可比性。示例性地,以节点基本属性信息为节点基本属性矩阵、节点基本属性矩阵中的每一行矩阵表示一个节点对应的基本属性子矩阵为例进行说明,在此种情况下,对节点基本属性信息进行归一化处理的过程为:对节点基本属性矩阵中的每列矩阵中的元素分别进行归一化处理。假设节点基本属性表示为X,则对节点基本属性信息进行归一化处理后得到的第一待更新信息可以表示为
Figure BDA0002997366940000111
当然,在示例性实施例中,基于节点基本属性信息确定第一待更新信息的方式为:将节点基本属性信息直接作为第一待更新信息。
在一种可能实现方式中,基于节点邻接关系信息,对第一待更新信息进行更新处理的实现方式为:对节点邻接关系信息进行正则化处理,得到正则化邻接关系信息;基于正则化邻接关系信息,对第一待更新信息进行更新处理。正则化邻接关系信息比节点邻接关系信息具有更好的规范性,有利于提高对第一待更新信息进行更新处理的处理效果。对节点邻接关系信息进行正则化处理的方式根据经验设置,或者根据实际处理任务灵活调整,本申请实施例对此不加以限定。
示例性地,节点邻接关系信息为节点邻接关系矩阵,正则化邻接关系信息为正则化邻接关系矩阵,假设目标节点关系图为无向节点关系图且为无权节点关系图,则对节点邻接关系信息进行正则化处理,得到正则化邻接关系信息的过程为:获取目标节点关系图对应的度矩阵;基于度矩阵对节点邻接关系矩阵进行正则化处理,得到正则化邻接关系矩阵。
目标节点关系图对应的度矩阵是对角矩阵,度矩阵对角上的元素为目标节点关系图中的各个节点的度。任一节点的度表示与该任一节点相关联的边的数量,也即表示与该任一节点邻接的节点的数量。通过对目标节点关系图中的各个节点之间的邻接关系进行分析,即能得到目标节点关系图对应的度矩阵。在获取目标节点关系图对应的度矩阵后,基于度矩阵对节点邻接关系矩阵进行正则化处理,得到第一待更新信息。在一种可能实现方式中,基于度矩阵对节点邻接关系矩阵进行正则化处理,得到正则化邻接关系矩阵的过程基于公式1实现:
Figure BDA0002997366940000121
其中,
Figure BDA0002997366940000122
表示正则化邻接关系矩阵;D表示度矩阵;A表示节点邻接关系矩阵;In表示与A具有相同维数的单位矩阵。
在一种可能实现方式中,基于正则化邻接关系信息,对第一待更新信息进行更新处理的过程为:基于正则化邻接关系信息,对第一待更新信息更新一次或者对第一待更新信息连续更新至少两次。在对第一待更新信息进行更新处理后,得到目标节点关系图对应的第一处理结果。也就是说,目标节点关系图对应的第一处理结果是基于正则化邻接关系信息,对第一待更新信息更新一次,或者连续更新至少两次后得到的结果。对第一待更新信息的更新次数根据经验设置,或者根据实际处理场景灵活调整,本申请实施例对此不加以限定。
需要说明的是,对于基于正则化邻接关系信息,对第一待更新信息连续更新至少两次的情况,在不同次的更新过程中,直接依据的可能都是正则化邻接关系信息,也可能都是对正则化邻接关系进行变形之后得到的变形邻接关系信息,还可能部分更新过程直接依据的是正则化邻接关系信息,另外部分更新过程直接依据的是变形邻接关系信息,本申请实施例对此不加以限定。
当然,在示例性实施例中,基于节点邻接关系信息,对第一待更新信息进行更新处理的实现方式还可以为:直接基于节点邻接关系信息,对第一待更新信息进行更新处理。直接基于节点邻接关系信息,对第一待更新信息进行更新处理的实现过程参见上述基于正则化邻接关系信息,对第一待更新信息进行更新处理的实现过程,此处不再赘述。
在示例性实施例中,基于节点邻接关系信息,对第一待更新信息进行更新处理的过程通过调用第一目标图神经网络模型实现。上述介绍的基于节点邻接关系信息,对第一待更新信息进行更新处理的过程即为第一目标图神经网络模型的内部处理过程。也就是说,调用第一目标图神经网络模型,基于节点邻接关系信息,对第一待更新信息进行更新处理,得到目标节点关系图对应的第一处理结果。第一目标图神经网络模型的模型结构与需要根据目标节点关系图实现的目标处理任务有关,目标处理任务不同,第一目标图神经网络模型的模型结构可能不同,本申请实施例对此不加以限定。
示例性地,第一目标图神经网络模型是一种GCN(Graph Convolutional Network,图卷积网络)类型的模型,用于对节点关系图进行卷积处理。本申请实施例对GCN类型的模型不加以限定,示例性地,GCN类型的模型包括但不限于:GCN模型、GAT(Graph AttentionNetwork,图注意力网络)模型、JK-Net(Jumping Knowledge Network,跳跃知识网络)模型等。
示例性地,第一目标图神经网络模型包括至少一个网络层,对第一待更新信息连续更新的次数与第一目标图神经网络模型中的网络层的数量相同。第一目标图神经网络模型中的第一个网络层用于对第一待更新信息更新一次,得到第一个网络层的输出信息;从第二个网络层开始,后一个网络层用于对前一个网络层的输出信息更新一次,得到后一个网络层的输出信息,以此类推,直至得到最后一个网络层的输出信息,将最后一个网络层的输出信息作为目标节点关系图对应的第一处理结果。需要说明的是,第一目标图神经网络模型中的不同网络层在对信息进行更新的过程中直接依据的邻接关系信息可以相同,也可以不同,本申请实施例对此不加以限定。对于第一目标图神经网络模型中包括多个网络层的情况,第一目标图神经网络模型为一种深层图神经网络模型。
在示例性实施例中,以第一目标图神经网络模型为GCN模型、第一目标图神经网络模型的不同网络层均直接基于正则化邻接关系信息对信息进行更新为例,第一目标图神经网络模型中的任一网络层的处理过程基于公式2实现:
Figure BDA0002997366940000131
其中,H(l+1)表示第一目标图神经网络模型中的第l(l为不小于0的整数)个网络层的输出信息;
Figure BDA0002997366940000141
表示正则化邻接关系信息;W(l)表示第一目标图神经网络模型中的第l个网络层的参数;H(l)表示需要利用第一目标图神经网络模型中的第l个网络层进行更新的信息,当l=0时,H(0)是指基于节点基本属性信息确定的第一待更新信息,例如,
Figure BDA0002997366940000142
是指对节点基本属性信息进行归一化处理后得到的第一待更新信息;当l>0时,H(l)是指第一目标图神经网络模型中的第(l-1)个网络层的输出信息。
σ表示激活函数,激活函数的类型根据经验设置,或者根据实际处理任务灵活调整,本申请实施例对此不加以限定。示例性地,激活函数的类型为ReLU(Rectified LinearUnit,线性整流单元)函数,在采用ReLU函数时,遵循的规则为ReLU(x)=max(0,x)。其中,x表示矩阵中的任一元素。上述公式2可视为第一目标图神经网络模型的层间传播公式。
在基于节点邻接关系信息,对第一待更新信息进行更新处理之后,得到目标节点关系图对应的第一处理结果,该目标节点关系图对应的第一处理结果的获取过程中关注的节点关系方面的信息为节点邻接关系信息,也即节点之间的邻接关系。
相关技术中,直接将根据该步骤202中所述的方式得到的第一处理结果作为对目标节点关系图进行处理后最终得到的目标处理结果。以节点分类任务为例,测试了在相关技术的处理方式下,对节点关系图数据集中的不同度的节点进行分类的准确率,节点关系图数据集包括Cora(一种由机器学习论文组成的节点关系图数据集)数据集、Citeseer(一种描述世界顶级会议论文之间的引用的节点关系图数据集)数据集和Pubmed(一种由基于糖尿病的科学出版物得到的节点关系图数据集)数据集。Cora数据集、Citeseer数据集和Pubmed数据集的详细参数如表1所示。
表1
Figure BDA0002997366940000143
在相关技术的处理方式下,对节点关系图数据集中的不同度的节点进行分类的准确率的测试结果如图3所示,图3中的(1)所示的是在相关技术的处理方式下,调用GCN模型对节点关系图数据集中的不同度的节点进行分类的准确率;图3中的(2)所示的是在相关技术的处理方式下,调用GAT模型对节点关系图数据集中的不同度的节点进行分类的准确率;图3中的(3)所示的是在相关技术的处理方式下,调用JK-Net模型对节点关系图数据集中的不同度的节点进行分类的准确率。在图3中,横坐标表示节点的度,纵坐标表示准确率;图3中的实线表示实际的测试结果,虚线表示在一个节点关系图数据集上,对所有节点进行分类的平均准确率。
根据图3所示的测试结果可知,在所有模型和所有节点关系图数据集上,在相关技术的处理方式下对度为1的节点进行分类的准确率都低于平均值,在相关技术的处理方式下对度为2的节点进行分类的准确率在Cora数据集和Pubmed数据集上也都很低。通过对图3所示的测试结果可以看出,在相关技术的处理方式下,图神经网络模型在低度节点(即具有的度不大于2的节点)上的表现是很差的,当节点具有的度大于等于5时,分类准确率都高于平均值。
进一步统计了不同度的节点在各个节点关系图数据集中的分布情况,统计结果如图4所示。图4中的(1)所示的是不同度的节点在Cora数据集中的分布情况;图4中的(2)所示的是不同度的节点在Citeseer数据集中的分布情况;图4中的(3)所示的是不同度的节点在Pubmed数据集中的分布情况。图4中的小数表示不同度的节点在节点关系图数据集中的全部节点中的占比,例如,根据图4中的(1)可知,度为4的节点在Cora数据集中的全部节点中的占比为0.152。根据图4可以看到,低度节点(即具有的度不大于2的节点)在各个节点关系图数据集中的占比均非常大,尤其在Citeseer数据集和Pubmed数据集中,低度节点的占比超过了60%。
根据图4可知,低度节点在节点关系图数据集中的占比较大;根据图3可知,在相关技术的处理方式下,调用图神经网络模型对低度节点进行分类的准确率较低,因此,能够推测出在相关技术的处理方式下,由于关注的节点关系方面的信息仅为节点邻接关系信息,低度节点的邻接关系较少,在仅关注节点邻接关系信息的情况下,导致对低度节点进行处理的处理质量较差,此外,由于低度节点在节点关系图数据集中的占比较大,所以在相关技术的处理方式下,调用图神经网络模型对节点关系图进行处理的处理结果的整体准确性较差。
基于上述对相关技术的分析,本申请实施例从解决低度节点在相关技术的处理方式下的局限性以提高处理结果的整体准确性的角度出发,除了基于步骤202的方式获取目标节点关系图对应的第一处理结果外,还基于步骤203和步骤204的实现方式,从关注节点属性关系信息的角度,获取了目标节点关系图对应的第二处理结果。节点属性关系信息能够表示节点的基本属性之间的关系,节点的基本属性之间的关系是与节点的度没有关系的,通过关注节点属性关系信息能够增强低度节点在节点关系方面具有的信息。
在步骤203中,基于节点基本属性信息,获取节点属性关系信息,节点属性关系信息用于指示目标节点关系图中的各个节点的基本属性之间的关系。
在获取节点基本属性信息后,基于节点基本属性信息,获取用于指示目标节点关系图中的各个节点的基本属性之间的关系的节点属性关系信息。目标节点关系图中的各个节点的基本属性之间的关系无需依赖节点具有的度,节点属性关系信息对低度节点和高度节点给与同等程度的关注。示例性地,低度节点是指具有的度不大于指定数值的节点,高度节点是指具有的度大于指定数值的节点,指定数值根据经验设置,或者根据应用场景灵活调整,本申请实施例对此不加以限定,示例性地,指定数值为2。
在一种可能实现方式中,节点基本属性信息为节点基本属性矩阵,节点属性关系信息为节点属性关系矩阵,基于节点基本属性信息,获取节点属性关系信息的过程为:计算节点基本属性矩阵和节点基本属性矩阵的转置矩阵之间的乘积,将乘积作为第一属性关系矩阵;基于第一属性关系矩阵,确定节点属性关系矩阵。假设节点基本属性矩阵为X,则第一属性关系矩阵基于公式3计算得到:
As=XXT (公式3)
其中,As表示第一属性关系矩阵;XT表示节点基本属性矩阵的转置矩阵。
在一种可能实现方式中,基于第一属性关系矩阵,确定节点属性关系矩阵的过程为:对第一属性关系矩阵进行检验;响应于检验的结果指示第一属性关系矩阵满足稠密条件,对第一属性关系矩阵进行稀疏化处理,将稀疏化处理后得到的矩阵作为节点属性关系矩阵;响应于检验的结果指示第一属性关系矩阵不满足稠密条件,将第一属性关系矩阵作为节点属性关系矩阵。
对第一属性关系矩阵进行检验的过程是判断第一属性关系矩阵是否满足稠密条件的过程,稠密条件用于衡量第一属性关系矩阵是否过于稠密,若第一属性关系矩阵过于稠密,可能会降低对目标节点关系图的处理效率,因此,对过于稠密的矩阵进行稀疏化处理,有利于提高对目标节点关系图的处理效率。
满足稠密条件根据经验设置,或者根据应用场景灵活调整。示例性地,假设第一属性关系矩阵中的元素分为非零元素和零元素两类,满足稠密条件是指第一属性关系矩阵中的非零元素在全部元素中的占比超过参考阈值。参考阈值根据经验设置,或者根据应用场景灵活调整,示例性地,参考阈值为70%。
通过对第一属性关系矩阵进行检验,即能统计出第一属性关系矩阵中的非零元素在全部元素中的占比,进而根据占比与参考阈值的大小关系得到检验的结果。检验的结果分为两种:检验的结果指示第一属性关系矩阵满足稠密条件;检验的结果指示第一属性关系矩阵不满足稠密条件。
当检验的结果指示第一属性关系矩阵满足稠密条件时,说明第一属性关系矩阵过于稠密,此种情况下,对第一属性关系矩阵进行稀疏化处理,然后将稀疏化处理后得到的矩阵作为节点属性关系矩阵。在一种可能实现方式中,第一属性关系矩阵中包括第一目标节点关系图中的各个节点分别对应的属性关系子矩阵,对第一属性关系矩阵进行稀疏化处理的过程为:对于第一属性关系矩阵中包括的任一节点对应的属性关系子矩阵,将该任一节点对应的属性关系子矩阵中的前K(K为不小于1的整数)大的元素保持不变,将该任一节点对应的属性关系子矩阵中的其他元素置为零。K的取值根据经验设置,或者根据任一节点对应的属性关系子矩阵中的元素的总数量设置,本申请实施例对此不加以限定。
当检验的结果指示第一属性关系矩阵满足稠密条件时,说明第一属性关系矩阵较稀疏,此种情况下,无需对第一属性关系矩阵进行稀疏化处理,直接将第一属性关系矩阵作为节点属性关系矩阵。
在示例性实施例中,还可以不对第一属性关系矩阵进行检验,无论第一属性关系矩阵是否满足稠密条件,均直接将第一属性关系矩阵作为节点属性关系矩阵,此种方式下,确定节点属性关系矩阵的效率较高。
节点属性关系信息能够将节点的基本属性信息变换为结构信息,即节点关系方面的信息,使得低度节点由于基本属性的引入结构增强,从而有利于提高最终得到的目标处理结果的准确性。
在步骤204中,基于节点属性关系信息,对第二待更新信息进行更新处理,得到目标节点关系图对应的第二处理结果,第二待更新信息基于节点邻接关系信息确定。
在确定节点属性关系信息后,基于节点属性关系信息,对第二待更新信息进行更新处理,得到目标节点关系图对应的第二处理结果。其中,第二待更新信息基于节点邻接关系信息确定。目标节点关系图对应的第二处理结果是基于节点属性关系信息得到的,节点属性关系信息用于指示目标节点关系图中的各个节点的基本属性之间的关系,因此,获取目标节点关系图对应的第二处理结果的过程中关注的节点关系方面的信息为节点的基本属性之间的关系。
在一种可能实现方式中,在实现步骤204之前,需要先基于节点邻接关系信息确定第二待更新信息。在示例性实施例中,节点邻接关系信息为节点邻接关系矩阵,第二待更新信息为第二待更新矩阵,基于节点邻接关系信息确定第二待更新信息的方式为:对节点邻接关系矩阵进行降维处理,得到降维邻接关系矩阵;对降维邻接关系矩阵进行归一化处理,得到第二待更新矩阵。对节点邻接关系矩阵进行降维处理有利于简化处理过程中的运算,缩短处理时间。对节点邻接关系矩阵进行降维处理的方式根据经验设置,或者根据实际运算环境进行灵活调整,本申请实施例对此不加以限定。示例性地,对节点邻接关系矩阵进行降维处理的方式为PCA(Principal Component Analysis,主成分分析)或ICA(IndependentComponent Analysis,独立成分分析)等。
降维邻接关系矩阵中包括目标节点关系图中的各个节点分别对应的降维邻接关系子矩阵,示例性地,降维邻接关系矩阵中的每一行矩阵表示一个节点对应的降维邻接关系子矩阵,或者,降维邻接关系矩阵中的每一列矩阵表示一个节点对应的降维邻接关系子矩阵。以降维邻接关系矩阵中的每一行矩阵表示一个节点对应的降维邻接关系子矩阵为例进行说明,在此种情况下,对降维邻接关系矩阵进行归一化处理的过程为:对降维邻接关系矩阵中的每列矩阵中的元素分别进行归一化处理。
在一种可能实现方式中,对节点邻接关系矩阵进行降维处理的处理过程发生在节点邻接关系矩阵满足降维条件的情况下,也就是说,响应于节点邻接关系矩阵满足降维条件,对节点邻接关系矩阵进行降维处理,得到降维邻接关系矩阵,进而通过对降维邻接关系矩阵进行归一化处理,得到第二待更新矩阵。
在示例性实施例中,节点邻接关系矩阵还可能不满足降维条件,此种情况下,响应于节点邻接关系矩阵不满降维条件,对节点邻接关系矩阵进行归一化处理,得到第二待更新矩阵。
在一种可能实现方式中,节点邻接关系信息包括目标节点关系图中的各个节点分别对应的邻接关系子信息,任一节点对应的邻接关系子信息为邻接关系子矩阵,不同节点对应的邻接关系子矩阵中的元素的数量均相同,任一节点对应的邻接关系子矩阵中的元素的数量用于指示该任一节点对应的邻接关系子矩阵的维度。此种情况下,满足降维条件是任一节点对应的邻接关系子矩阵中的元素的数量不大于目标阈值。目标阈值根据经验设置,或者根据应用场景灵活调整,本申请实施例对此不加以限定。
在一种可能实现方式中,无论节点邻接关系矩阵是否满足降维条件,均通过直接对节点邻接关系矩阵进行归一化处理,得到第二待更新矩阵。此种方式得到的第二待更新矩阵更加全面。假设节点邻接关系矩阵表示为A,则对节点邻接关系矩阵进行归一化处理后得到的第二待更新矩阵可以表示为
Figure BDA0002997366940000191
当然,在示例性实施例中,基于节点邻接关系信息确定第二待更新信息的方式为:将节点邻接关系信息直接作为第二待更新信息。
在一种可能实现方式中,基于节点属性关系信息,对第二待更新信息进行更新处理的实现方式为:对节点属性关系信息进行正则化处理,得到正则化属性关系信息;基于正则化属性关系信息,对第二待更新信息进行更新处理。正则化属性关系信息比节点属性关系信息具有更好的规范性,有利于提高对第二待更新信息进行更新处理的处理效果。对节点属性关系信息进行正则化处理的方式根据经验设置,或者根据实际处理任务灵活调整,本申请实施例对此不加以限定。
示例性地,节点属性关系信息为节点属性关系矩阵,正则化属性关系信息为正则化属性关系矩阵,假设目标节点关系图为无向节点关系图且为无权节点关系图,则对节点属性关系信息进行正则化处理,得到的正则化属性关系信息的过程为:获取目标节点关系图对应的度矩阵;基于度矩阵对节点属性关系矩阵进行正则化处理,得到正则化属性关系矩阵。
在一种可能实现方式中,基于正则化属性关系信息,对第二待更新信息进行更新处理的过程为:基于正则化属性关系信息,对第二待更新信息更新一次或者对第二待更新信息连续更新至少两次。在对第二待更新信息进行更新处理后,得到目标节点关系图对应的第二处理结果。也就是说,目标节点关系图对应的第二处理结果是基于正则化属性关系信息,对第二待更新信息更新一次,或者连续更新至少两次后得到的结果。对第二待更新信息的更新次数根据经验设置,或者根据实际处理场景灵活调整,本申请实施例对此不加以限定。在示例性实施例中,对第二待更新信息的更新次数与对第一待更新信息的更新次数可以相同,也可以不同,本申请实施例对此不加以限定,只要得到的第二处理结果与第一处理结果的形式相同即可。
需要说明的是,对于基于正则化属性关系信息,对第二待更新信息连续更新至少两次的情况,在不同次的更新过程中,直接依据的可能都是正则化属性关系信息,也可能都是对正则化属性关系信息进行变形之后得到的变形属性关系信息,还可能部分更新过程直接依据的是正则化属性关系信息,另外部分更新过程直接依据的是变形属性关系信息,本申请实施例对此不加以限定。
当然,在示例性实施例中,基于节点属性关系信息,对第二待更新信息进行更新处理的实现方式还可以为:直接基于节点属性关系信息,对第二待更新信息进行更新处理。直接基于节点属性关系信息,对第二待更新信息进行更新处理的实现过程参见上述基于正则化属性关系信息,对第二待更新信息进行更新处理的实现过程,此处不再赘述。
在示例性实施例中,基于节点属性关系信息,对第二待更新信息进行更新处理的过程通过调用第二目标图神经网络模型实现。上述介绍的基于节点属性关系信息,对第二待更新信息进行更新处理的过程即为第二目标图神经网络模型的内部处理过程。也就是说,调用第二目标图神经网络模型,基于节点属性关系信息,对第二待更新信息进行更新处理,得到目标节点关系图对应的第二处理结果。
第二目标图神经网络模型的模型结构可以与第一目标图神经网络模型的模型结构相同,也可以与第一目标图神经网络模型的模型结构不同,本申请实施例对此不加以限定。示例性地,在第二目标图神经网络模型的模型结构与第一目标图神经网络模型的模型结构相同的情况下,第二目标图神经网络模型的内部处理逻辑与第一目标图神经网络模型的内部处逻辑不同。
示例性地,第二目标图神经网络模型包括至少一个网络层,对第二待更新信息连续更新的次数与第二目标图神经网络模型中的网络层的数量相同。第二目标图神经网络模型中的第一个网络层用于对第二待更新信息更新一次,得到第一个网络层的输出信息;从第二个网络层开始,后一个网络层用于对前一个网络层的输出信息更新一次,得到后一个网络层的输出信息,以此类推,直至得到最后一个网络层的输出信息,将最后一个网络层的输出信息作为目标节点关系图对应的第二处理结果。需要说明的是,第二目标图神经网络模型中的不同网络层在对信息进行更新的过程中直接依据的属性关系信息可以相同,也可以不同,本申请实施例对此不加以限定。
在示例性实施例中,以第二目标图神经网络模型为GCN模型、第二目标图神经网络模型的不同网络层均直接基于正则化属性关系信息对信息进行更新为例,第二目标图神经网络模型中的任一网络层的处理过程基于公式4实现:
Figure BDA0002997366940000211
其中,
Figure BDA0002997366940000212
表示第二目标图神经网络模型中的第l(l为不小于0的整数)个网络层的输出信息;
Figure BDA0002997366940000213
表示正则化属性关系信息;
Figure BDA0002997366940000214
表示第二目标图神经网络模型中的第l个网络层的参数;
Figure BDA0002997366940000215
表示需要利用第二目标图神经网络模型中的第l个网络层进行更新的信息,当l=0时,
Figure BDA0002997366940000216
是指基于节点邻接关系信息确定的第二待更新信息,例如,
Figure BDA0002997366940000217
是指对节点邻接关系信息进行归一化处理后得到的第二待更新信息;当l>0时,
Figure BDA0002997366940000218
是指第二目标图神经网络模型中的第(l-1)个网络层的输出信息;σ表示激活函数。上述公式4可视为第二目标图神经网络模型的层间传播公式。
在基于节点属性关系信息,对第二待更新信息进行更新处理之后,得到目标节点关系图对应的第二处理结果,该目标节点关系图对应的第二处理结果的获取过程中关注的节点关系方面的信息为节点属性关系信息,也即节点的基本属性之间的关系。
对于步骤202通过调用第一目标图神经网络模型实现,步骤204通过调用第二目标图神经网络模型实现的情况,在执行步骤202之前以及执行步骤204之前,需要先训练得到第一目标图神经网络模型和第二目标图神经网络模型。参见图5,训练得到第一目标图神经网络模型和第二目标图神经网络模型的过程包括以下步骤501至步骤506:
步骤501:获取样本节点关系图对应的节点邻接关系样本信息、节点基本属性样本信息以及标签信息。
样本节点关系图是具有标签信息的用于对第一初始图神经网络模型和第二初始图神经网络模型进行训练的节点关系图,本申请实施例对样本节点关系图的来源不加以限定,示例性地,样本节点关系图来源于Cora数据集、Citeseer数据集或Pubmed数据集指示的节点关系图。示例性地,样本节点关系图可以是指某节点关系图数据集指示的整个节点关系图,也可以是指某节点关系图数据集指示的部分节点关系图,本申请实施例对此不加以限定。
获取样本节点关系图对应的邻接关系样本信息、节点基本属性样本信息的过程参见上述步骤201,此处不再赘述。标签信息用于对图神经网络模型的训练过程进行监督。样本节点关系图对应的标签信息的类型与需要执行的目标处理任务有关,例如,若目标处理任务为节点分类任务,则样本节点关系图对应的标签信息为节点类别标签;若目标处理任务为图分类任务,则样本节点关系图对应的标签信息为图类别标签。需要说明的是,训练过程需要的标签信息可以是指样本节点关系图对应的全部标签信息,也可以是指样本节点关系图对应的部分标签信息,本申请实施例对此不加以限定。对于训练过程需要的标签信息是样本节点关系图对应的部分标签信息的情况,训练过程可视为半监督训练过程。
步骤502:调用第一初始图神经网络模型,基于节点邻接关系样本信息,对第一待更新样本信息进行更新处理,得到样本节点关系图对应的第一样本处理结果,第一待更新样本信息基于节点基本属性样本信息确定。
第一初始图神经网络模型与第一目标图神经网络模型具有相同的模型结构,第一目标图神经网络模型的模型参数通过对第一初始图神经网络模型的模型参数进行更新得到。该步骤502的实现过程参见步骤202中调用第一目标图神经网络模型,基于节点邻接关系信息,对第一待更新信息进行更新处理,得到目标节点关系图对应的第一处理结果的实现过程,此处不再赘述。
步骤503:基于节点基本属性样本信息,获取节点属性关系样本信息。
该步骤503的实现过程参见步骤203,此处不再赘述。
步骤504:调用第二初始图神经网络模型,基于节点属性关系样本信息,对第二待更新样本信息进行更新处理,得到样本节点关系图对应的第二样本处理结果,第二待更新样本信息基于节点邻接关系样本信息确定。
第二初始图神经网络模型与第二目标图神经网络模型具有相同的模型结构,第二目标图神经网络模型的模型参数通过对第二初始图神经网络模型的模型参数进行更新得到。该步骤504的实现过程参见步骤204中调用第二目标图神经网络模型,基于节点属性关系信息,对第二待更新信息进行更新处理,得到目标节点关系图对应的第二处理结果的实现过程,此处不再赘述。
步骤505:基于第一样本处理结果、第二样本处理结果和标签信息,获取目标损失函数。
标签信息用于为第一样本处理结果和第二样本处理结果提供监督信息,在获取第一样本处理结果和第二样本处理结果后,基于第一样本处理结果、第二样本处理结果和标签信息,获取目标损失函数。目标损失函数是用于对第一初始图神经网络模型和第二初始图神经网络模型进行训练所需的损失函数。
在一种可能实现方式中,基于第一样本处理结果、第二样本处理结果和标签信息,获取目标损失函数的过程为:基于第一样本处理结果和标签信息之间的差异,获取第一损失函数;基于第二样本处理结果和标签信息之间的差异,获取第二损失函数;基于第一样本处理结果和第二样本处理结果之间的差异,获取第三损失函数;基于第一损失函数、第二损失函数和第三损失函数,获取目标损失函数。
目标损失函数基于第一损失函数、第二损失函数和第三损失函数获取得到。第一损失函数能够体现第一样本处理结果和标签信息之间的差异;第二损失函数能够体现第二样本处理结果和标签信息之间的差异;第三损失函数能够体现第一处理结果和第二处理结果之间的差异,通过考虑第三损失函数,能够将第一样本处理结果和第二样本处理结果统一。
本申请实施例对第一损失函数、第二损失函数和第三损失函数的类型不加以限定,可以根据经验或者需求设置。示例性地,第一损失函数和第二损失函数的类型为CE(Cross Entropy,交叉熵)损失函数,第三损失函数的类型为MSE(Mean-Square Error,均方误差)损失函数。CE损失函数用于使模型预测的处理结果向标签信息靠拢,MSE损失函数用于拉近第一样本处理结果和第二样本处理结果。
本申请实施例对基于第一损失函数、第二损失函数和第三损失函数,获取目标损失函数的方式不加以限定。示例性地,基于第一损失函数、第二损失函数和第三损失函数,获取目标损失函数的方式为:将第一损失函数、第二损失函数和第三损失函数的加权和作为目标损失函数。在计算第一损失函数、第二损失函数和第三损失函数的加权和的过程中,第一损失函数的权值、第二损失函数的权值以及第三损失函数的权值均根据经验设置,或者根据应用场景灵活调整,本申请实施例对此不加以限定。
示例性地,基于第一损失函数、第二损失函数和第三损失函数,获取目标损失函数的过程基于公式5实现:
Figure BDA0002997366940000241
其中,L表示目标损失函数;H(k)表示第一样本处理结果;Y表示标签信息;
Figure BDA0002997366940000242
表示第二样本处理结果;CE(H(k),Y)表示第一损失函数;
Figure BDA0002997366940000243
表示第二损失函数;
Figure BDA0002997366940000244
表示第三损失函数;λ表示第三损失函数的权值,示例性地,λ的取值范围为[0,1]。需要说明的是,目标损失函数针对训练过程进行计算。
步骤506:利用目标损失函数对第一初始图神经网络模型和第二初始图神经网络模型进行训练,得到第一目标图神经网络模型和第二目标图神经网络模型。
在获取目标损失函数后,利用目标损失函数对第一初始图神经网络模型和第二初始图神经网络模型进行训练,得到第一目标图神经网络模型和第二目标图神经网络模型。在示例性实施例中,利用目标损失函数对第一初始图神经网络模型和第二初始图神经网络模型进行训练的方式为:利用目标损失函反向更新第一初始图神经网络模型和第二初始图神经网络模型的参数。
利用目标损失函数对第一初始图神经网络模型和第二初始图神经网络模型进行训练的过程为迭代训练过程,每得到一次目标损失函数,对第一初始图神经网络模型和第二初始图神经网络模型的参数更新一次,直至满足训练终止条件,将满足训练终止条件时得到的第一初始图神经网络模型作为第一目标图神经网络模型,将满足训练终止条件时得到的第二初始图神经网络模型作为第二目标图神经网络模型。
满足训练终止条件根据经验设置,或者根据实际情况灵活调整,本申请实施例对此不加以限定,示例性地,满足训练终止条件包括但不限于以下任一种情况:对第一初始图神经网络模型和第二初始图神经网络模型的参数更新的次数达到次数阈值;目标损失函数小于损失函数阈值;目标损失函数收敛。
需要说明的是,获取目标节点关系图对应的第一处理结果的过程和获取目标节点关系图对应的第二处理结果的过程互不干扰,本申请实施例对获取目标节点关系图对应的第一处理结果的过程(即步骤202)以及获取目标节点关系图对应的第二处理结果的过程(即步骤203和步骤204)的执行先后顺序不加以限定。在示例性实施例中,先执行获取目标节点关系图对应的第一处理结果的过程,然后再执行获取目标节点关系图对应的第二处理结果的过程;或者,先执行获取目标节点关系图对应的第二处理结果的过程,然后再执行获取目标节点关系图对应的第一处理结果的过程;再或者,同时执行获取目标节点关系图对应的第一处理结果的过程和获取目标节点关系图对应的第二处理结果的过程。
在步骤205中,基于第一处理结果和第二处理结果,获取目标节点关系图对应的目标处理结果。
在获取目标节点关系图对应的第一处理结果和目标节点关系图对应的第二处理结果后,基于第一处理结果和第二处理结果,获取目标节点关系图对应的目标处理结果。由于获取第一处理结果的过程中关注的节点关系方面的信息为节点之间的邻接关系,获取第二处理结果的过程中关注的节点关系方面的信息为节点的基本属性之间的关系,所以,目标节点关系图对应的目标处理结果的获取过程中关注的节点关系方面的信息不仅包括节点之间的邻接关系,还包括节点的基本属性之间的关系,关注的节点关系方面的信息较全面,有利于提高目标处理结果的准确性。
基于第一处理结果和第二处理结果,获取目标节点关系图对应的目标处理结果的具体实现方式与实际的目标处理任务有关,本申请实施例对此不加以限定。示例性地,对于目标处理任务为节点分类任务或者图分类任务的情况,基于第一处理结果和第二处理结果,获取目标节点关系图对应的目标处理结果的方式可以为:对第一处理结果和第二处理结果进行加和,得到目标节点关系图对应的目标处理结果;或者,对第一处理结果和第二处理结果进行加权平均,得到目标节点关系图对应的目标处理结果。
示例性地,本申请实施例提出的处理方式依据第一目标图神经网络模型和第二目标图神经网络模型这两个图神经网络模型实现,将本申请实施例的处理方式依据的模型框架称为Twin-GCN(双GCN)模型框架,在Twin-GCN模型框架中,调用第一目标图神经网络模型实现的过程称为显式视图分支的处理过程,调用第二目标图神经网络模型实现的过程称为隐式视图分支的处理过程。显示视图分支的处理过程即为相关技术的处理过程,隐式视图分支的处理过程中利用节点的基本属性构造节点属性关系信息,以增强节点关系方面的信息。
示例性地,训练得到第一目标图神经网络模型和第二目标图神经网络模型的过程如图6所示,在显式视图分支,调用包括两个网络层(分别为记为GCN1和GCN2)的第一初始图神经网络模型,基于节点邻接关系样本信息,对第一待更新样本信息进行更新处理,得到第一样本处理结果;调用包括两个网络层(分别为记为GCN1’和GCN2’)的第二初始图神经网络模型,基于节点属性关系样本信息,对第二待更新样本信息进行更新处理,得到第二样本处理结果。
第一样本处理结果和第二样本处理结果均为模型预测结果。基于模型预测结果和标签信息,获取CE损失函数,该CE损失函数包括第一损失函数和第二损失函数;获取第一样本处理结果和第二样本处理结果之间的MSE损失函数,即第三损失函数。通过将基于CE损失函数和MSE损失函数获取的目标损失函数进行反向传播的方式,利用目标损失函数对第一初始图神经网络模型和第二图神经网络模型的模型参数进行更新,直至满足训练终止条件,得到第一目标图神经网络模型和第二目标图神经网络模型。
示例性地,测试了在三种节点关系图数据集(Cora数据集、Citeseer数据集和Pubmed数据集)上,单独利用显式视图分支进行节点分类的准确率、单独利用隐式视图分支进行节点分类的准确率以及综合利用显式视图分支和隐式视图分支进行节点分类的准确率,测试结果如表2所示。需要说明的是,在测试综合利用显式视图分支和隐式视图分支进行节点分类的准确率的过程中,显式视图分支调用的第一目标图神经网络模型和隐式视图分支调用的第二目标图神经网络模型套用相同的图神经网络模型。
表2
Figure BDA0002997366940000261
根据上述表2所示的测试结果可知,本申请实施例提供的综合考虑显式视图分支和隐式视图分支的处理方式能够增强所有模型(GCN模型、ResNet(Residual NeuralNetwork,残差神经网络)模型、JK-Net模型、GAT模型、SGC模型(Simplifying GraphConvolutional Networks,简化的图卷积网络)和APPNP(Approximate PersonalizedPropagation of Neural Predictions,近似的神经预测的个性化传播)模型)的效果。值得注意的是,隐式视图分支本身并不会直接提升节点分类效果,但是在所提出的Twin-GCN模型框架下,通过两种视图的合作,模型的节点分类效果有所提升。
类似图3,测试了在本申请实施例的处理方式下,对节点关系图数据集中的不同度的节点进行分类的准确率。在本申请实施例的处理方式下,对节点关系图数据集中的不同度的节点进行分类的准确率与在相关技术的处理方式下,对节点关系图数据集中的不同度的节点进行分类的准确率的比对结果如图7所示。节点关系图数据集包括Cora数据集、Citeseer数据集和Pubmed数据集。
图7中的(1)表示在本申请实施例的处理方式下,显式视图分支和隐式视图分支均调用GCN模型对节点关系图数据集中的不同度的节点进行分类的准确率与在相关技术的处理方式下,调用GCN模型对节点关系图数据集中的不同度的节点进行分类的准确率的比对结果;图7中的(2)表示在本申请实施例的处理方式下,显式视图分支和隐式视图分支均调用GAT模型对节点关系图数据集中的不同度的节点进行分类的准确率与在相关技术的处理方式下,调用GAT模型对节点关系图数据集中的不同度的节点进行分类的准确率的比对结果;图7中的(3)表示在本申请实施例的处理方式下,显式视图分支和隐式视图分支均调用JK-Net模型对节点关系图数据集中的不同度的节点进行分类的准确率与在相关技术的处理方式下,调用JK-Net模型对节点关系图数据集中的不同度的节点进行分类的准确率的比对结果。
图7中的实线表示在本申请实施例的处理方式下,对节点关系图数据集中的不同度的节点进行分类的准确率;虚线表示在相关技术的处理方式下,对节点关系图数据集中的不同度的节点进行分类的准确率。需要说明的是,测试过程中利用是节点关系图数据集中的验证集和测试集中的节点。
根据图7可知,在每一种模型每一种数据集上,本申请实施例的处理方式均能够提高对低度节点(即具有的度不大于2的节点)进行分类的准确率。此外,本申请实施例的处理方式可能提高对度比较高的节点进行分类的准确率,也可能降低对度比较高的节点进行分类的准确率,比如,在GCN模型和Cora数据集上,本申请实施例的处理方式提高了对具有的度为4的节点进行分类的准确率;在GAT模型和Cora数据集上,本申请实施例的处理方式降低了对具有的度为4的节点进行分类的准确率。
在本申请实施例的处理方式下,除考虑传统的节点之间的邻接关系外,还将节点的基本属性信息变换为用于指示节点的基本属性之间的关系的节点属性关系信息,在这样的设计下,低度节点由于属性关系信息的引入,节点关系方面的信息增强,从而使得对目标节点关系图的整体处理效果得到增强。在示例性实施例中,本申请实施例提供的Twin-GCN模型框架是一种可扩展的框架,能够应用于多种已知的GCN类型的模型上,增强模型的处理效果,可扩展性较好。
在本申请实施例中,目标节点关系图对应的目标处理结果是根据第一处理结果和第二处理结果获取的,其中,第一处理结果是基于节点邻接关系信息得到的,第二处理结果是基于节点属性关系信息得到的。也就是说,在获取最终的目标处理结果的过程中,关注的节点关系方面的信息不仅包括节点之间的邻接关系,还包括节点的基本属性之间的关系,关注的节点关系方面的信息较丰富,有利于提高最终得到的目标处理结果的准确性。
参见图8,本申请实施例提供了一种节点关系图的处理装置,该装置包括:
第一获取单元801,用于获取目标节点关系图对应的节点邻接关系信息和节点基本属性信息,节点邻接关系信息用于指示目标节点关系图中的各个节点之间的邻接关系;
第一处理单元802,用于基于节点邻接关系信息,对第一待更新信息进行更新处理,得到目标节点关系图对应的第一处理结果,第一待更新信息基于节点基本属性信息确定;
第二获取单元803,用于基于节点基本属性信息,获取节点属性关系信息,节点属性关系信息用于指示目标节点关系图中的各个节点的基本属性之间的关系;
第二处理单元804,用于基于节点属性关系信息,对第二待更新信息进行更新处理,得到目标节点关系图对应的第二处理结果,第二待更新信息基于节点邻接关系信息确定;
第三获取单元805,用于基于第一处理结果和第二处理结果,获取目标节点关系图对应的目标处理结果。
在一种可能实现方式中,节点基本属性信息为节点基本属性矩阵,节点属性关系信息为节点属性关系矩阵,第二获取单元803,用于计算节点基本属性矩阵和节点基本属性矩阵的转置矩阵之间的乘积,将乘积作为第一属性关系矩阵;基于第一属性关系矩阵,确定节点属性关系矩阵。
在一种可能实现方式中,第二获取单元803,还用于对第一属性关系矩阵进行检验;响应于检验的结果指示第一属性关系矩阵满足稠密条件,对第一属性关系矩阵进行稀疏化处理,将稀疏化处理后得到的矩阵作为节点属性关系矩阵;响应于检验的结果指示第一属性关系矩阵不满足稠密条件,将第一属性关系矩阵作为节点属性关系矩阵。
在一种可能实现方式中,节点邻接关系信息为节点邻接关系矩阵,第二待更新信息为第二待更新矩阵,参见图9,该装置还包括:
确定单元806,还用于对节点邻接关系矩阵进行降维处理,得到降维邻接关系矩阵;对降维邻接关系矩阵进行归一化处理,得到第二待更新矩阵。
在一种可能实现方式中,第一处理单元802,用于调用第一目标图神经网络模型,基于节点邻接关系信息,对第一待更新信息进行更新处理,得到目标节点关系图对应的第一处理结果;
第二处理单元804,用于调用第二目标图神经网络模型,基于节点属性关系信息,对第二待更新信息进行更新处理,得到目标节点关系图对应的第二处理结果。
在一种可能实现方式中,第一获取单元801,还用于获取样本节点关系图对应的节点邻接关系样本信息、节点基本属性样本信息以及标签信息;
第一处理单元802,还用于调用第一初始图神经网络模型,基于节点邻接关系样本信息,对第一待更新样本信息进行更新处理,得到样本节点关系图对应的第一样本处理结果,第一待更新样本信息基于节点基本属性样本信息确定;
第二获取单元803,还用于基于节点基本属性样本信息,获取节点属性关系样本信息;
第二处理单元804,还用于调用第二初始图神经网络模型,基于节点属性关系样本信息,对第二待更新样本信息进行更新处理,得到样本节点关系图对应的第二样本处理结果,第二待更新样本信息基于节点邻接关系样本信息确定;
参见图9,该装置还包括:
第四获取单元807,用于基于第一样本处理结果、第二样本处理结果和标签信息,获取目标损失函数;
训练单元808,用于利用目标损失函数对第一初始图神经网络模型和第二初始图神经网络模型进行训练,得到第一目标图神经网络模型和第二目标图神经网络模型。
在一种可能实现方式中,第四获取单元807,用于基于第一样本处理结果和标签信息之间的差异,获取第一损失函数;基于第二样本处理结果和标签信息之间的差异,获取第二损失函数;基于第一样本处理结果和第二样本处理结果之间的差异,获取第三损失函数;基于第一损失函数、第二损失函数和第三损失函数,获取目标损失函数。
在本申请实施例中,目标节点关系图对应的目标处理结果是根据第一处理结果和第二处理结果获取的,其中,第一处理结果是基于节点邻接关系信息得到的,第二处理结果是基于节点属性关系信息得到的。也就是说,在获取最终的目标处理结果的过程中,关注的节点关系方面的信息不仅包括节点之间的邻接关系,还包括节点的基本属性之间的关系,关注的节点关系方面的信息较丰富,有利于提高最终得到的目标处理结果的准确性。
需要说明的是,上述实施例提供的装置在实现其功能时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的装置与方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
在示例性实施例中,还提供了一种计算机设备,该计算机设备包括处理器和存储器,该存储器中存储有至少一条计算机程序。该至少一条计算机程序由一个或者一个以上处理器加载并执行,以使该计算机设备实现上述任一种节点关系图的处理方法。该计算机设备可以为终端,也可以为服务器,接下来对终端和服务器的结构分别进行介绍。
图10是本申请实施例提供的一种终端的结构示意图。该终端可以是:智能手机、平板电脑、笔记本电脑或台式电脑。终端还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端包括有:处理器1001和存储器1002。
处理器1001可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1001可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1001也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1001可以集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1001还可以包括AI处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1002可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1002还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1002中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1001所执行,以使该终端实现本申请中方法实施例提供的节点关系图的处理方法。
在一些实施例中,终端还可选包括有:外围设备接口1003和至少一个外围设备。处理器1001、存储器1002和外围设备接口1003之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口1003相连。具体地,外围设备包括:射频电路1004、显示屏1005、摄像头组件1006、音频电路1007、定位组件1008和电源1009中的至少一种。
外围设备接口1003可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器1001和存储器1002。
射频电路1004用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1004通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1004将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1004包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等。
显示屏1005用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏1005是触摸显示屏时,显示屏1005还具有采集在显示屏1005的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1001进行处理。此时,显示屏1005还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。
摄像头组件1006用于采集图像或视频。可选地,摄像头组件1006包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件1006还可以包括闪光灯。
音频电路1007可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1001进行处理,或者输入至射频电路1004以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1001或射频电路1004的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1007还可以包括耳机插孔。
定位组件1008用于定位终端的当前地理位置,以实现导航或LBS(Location BasedService,基于位置的服务)。定位组件1008可以是基于美国的GPS(Global PositioningSystem,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
电源1009用于为终端中的各个组件进行供电。电源1009可以是交流电、直流电、一次性电池或可充电电池。当电源1009包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端还包括有一个或多个传感器1010。该一个或多个传感器1010包括但不限于:加速度传感器1011、陀螺仪传感器1012、压力传感器1013、指纹传感器1014、光学传感器1015以及接近传感器1016。
加速度传感器1011可以检测以终端建立的坐标系的三个坐标轴上的加速度大小。陀螺仪传感器1012可以检测终端的机体方向及转动角度,陀螺仪传感器1012可以与加速度传感器1011协同采集用户对终端的3D动作。压力传感器1013可以设置在终端的侧边框和/或显示屏1005的下层。当压力传感器1013设置在终端的侧边框时,可以检测用户对终端的握持信号,由处理器1001根据压力传感器1013采集的握持信号进行左右手识别或快捷操作。当压力传感器1013设置在显示屏1005的下层时,由处理器1001根据用户对显示屏1005的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器1014用于采集用户的指纹,由处理器1001根据指纹传感器1014采集到的指纹识别用户的身份,或者,由指纹传感器1014根据采集到的指纹识别用户的身份。光学传感器1015用于采集环境光强度。接近传感器1016,也称距离传感器,通常设置在终端的前面板。接近传感器1016用于采集用户与终端的正面之间的距离。
本领域技术人员可以理解,图10中示出的结构并不构成对终端的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
图11是本申请实施例提供的一种服务器的结构示意图,该服务器可因配置或性能不同而产生比较大的差异,可以包括一个或多个处理器(Central Processing Units,CPU)1101和一个或多个存储器1102,其中,该一个或多个存储器1102中存储有至少一条计算机程序,该至少一条计算机程序由该一个或多个处理器1101加载并执行,以使该服务器实现上述各个方法实施例提供的节点关系图的处理方法。当然,该服务器还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该服务器还可以包括其他用于实现设备功能的部件,在此不做赘述。
在示例性实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有至少一条计算机程序,该至少一条计算机程序由计算机设备的处理器加载并执行,以使计算机实现上述任一种节点关系图的处理方法。
在一种可能实现方式中,上述计算机可读存储介质可以是只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、只读光盘(Compact DiscRead-Only Memory,CD-ROM)、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述任一种节点关系图的处理方法。
需要说明的是,本申请的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
以上所述仅为本申请的示例性实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (10)

1.一种节点关系图的处理方法,其特征在于,所述方法包括:
获取目标节点关系图对应的节点邻接关系信息和节点基本属性信息,所述节点邻接关系信息用于指示所述目标节点关系图中的各个节点之间的邻接关系;
基于所述节点邻接关系信息,对第一待更新信息进行更新处理,得到所述目标节点关系图对应的第一处理结果,所述第一待更新信息基于所述节点基本属性信息确定;
基于所述节点基本属性信息,获取节点属性关系信息,所述节点属性关系信息用于指示所述目标节点关系图中的各个节点的基本属性之间的关系;
基于所述节点属性关系信息,对第二待更新信息进行更新处理,得到所述目标节点关系图对应的第二处理结果,所述第二待更新信息基于所述节点邻接关系信息确定;
基于所述第一处理结果和所述第二处理结果,获取所述目标节点关系图对应的目标处理结果。
2.根据权利要求1所述的方法,其特征在于,所述节点基本属性信息为节点基本属性矩阵,所述节点属性关系信息为节点属性关系矩阵,所述基于所述节点基本属性信息,获取节点属性关系信息,包括:
计算所述节点基本属性矩阵和所述节点基本属性矩阵的转置矩阵之间的乘积,将所述乘积作为第一属性关系矩阵;
基于所述第一属性关系矩阵,确定所述节点属性关系矩阵。
3.根据权利要求2所述的方法,其特征在于,所述基于所述第一属性关系矩阵,确定所述节点属性关系矩阵,包括:
对所述第一属性关系矩阵进行检验;
响应于检验的结果指示所述第一属性关系矩阵满足稠密条件,对所述第一属性关系矩阵进行稀疏化处理,将稀疏化处理后得到的矩阵作为所述节点属性关系矩阵;
响应于检验的结果指示所述第一属性关系矩阵不满足稠密条件,将所述第一属性关系矩阵作为所述节点属性关系矩阵。
4.根据权利要求1所述的方法,其特征在于,所述节点邻接关系信息为节点邻接关系矩阵,所述第二待更新信息为第二待更新矩阵,所述基于所述节点属性关系信息,对第二待更新信息进行更新处理之前,所述方法还包括:
对所述节点邻接关系矩阵进行降维处理,得到降维邻接关系矩阵;
对所述降维邻接关系矩阵进行归一化处理,得到所述第二待更新矩阵。
5.根据权利要求1-4任一所述的方法,其特征在于,所述基于所述节点邻接关系信息,对第一待更新信息进行更新处理,得到所述目标节点关系图对应的第一处理结果,包括:
调用第一目标图神经网络模型,基于所述节点邻接关系信息,对第一待更新信息进行更新处理,得到所述目标节点关系图对应的第一处理结果;
所述基于所述节点属性关系信息,对第二待更新信息进行更新处理,得到所述目标节点关系图对应的第二处理结果,包括:
调用第二目标图神经网络模型,基于所述节点属性关系信息,对第二待更新信息进行更新处理,得到所述目标节点关系图对应的第二处理结果。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
获取样本节点关系图对应的节点邻接关系样本信息、节点基本属性样本信息以及标签信息;
调用第一初始图神经网络模型,基于所述节点邻接关系样本信息,对第一待更新样本信息进行更新处理,得到所述样本节点关系图对应的第一样本处理结果,所述第一待更新样本信息基于所述节点基本属性样本信息确定;
基于所述节点基本属性样本信息,获取节点属性关系样本信息;
调用第二初始图神经网络模型,基于所述节点属性关系样本信息,对第二待更新样本信息进行更新处理,得到所述样本节点关系图对应的第二样本处理结果,所述第二待更新样本信息基于所述节点邻接关系样本信息确定;
基于所述第一样本处理结果、所述第二样本处理结果和所述标签信息,获取目标损失函数;
利用所述目标损失函数对所述第一初始图神经网络模型和第二初始图神经网络模型进行训练,得到所述第一目标图神经网络模型和所述第二目标图神经网络模型。
7.根据权利要求6所述的方法,其特征在于,所述基于所述第一样本处理结果、所述第二样本处理结果和所述标签信息,获取目标损失函数,包括:
基于所述第一样本处理结果和所述标签信息之间的差异,获取第一损失函数;
基于所述第二样本处理结果和所述标签信息之间的差异,获取第二损失函数;
基于所述第一样本处理结果和所述第二样本处理结果之间的差异,获取第三损失函数;
基于所述第一损失函数、所述第二损失函数和所述第三损失函数,获取所述目标损失函数。
8.一种节点关系图的处理装置,其特征在于,所述装置包括:
第一获取单元,用于获取目标节点关系图对应的节点邻接关系信息和节点基本属性信息,所述节点邻接关系信息用于指示所述目标节点关系图中的各个节点之间的邻接关系;
第一处理单元,用于基于所述节点邻接关系信息,对第一待更新信息进行更新处理,得到所述目标节点关系图对应的第一处理结果,所述第一待更新信息基于所述节点基本属性信息确定;
第二获取单元,用于基于所述节点基本属性信息,获取节点属性关系信息,所述节点属性关系信息用于指示所述目标节点关系图中的各个节点的基本属性之间的关系;
第二处理单元,用于基于所述节点属性关系信息,对第二待更新信息进行更新处理,得到所述目标节点关系图对应的第二处理结果,所述第二待更新信息基于所述节点邻接关系信息确定;
第三获取单元,用于基于所述第一处理结果和所述第二处理结果,获取所述目标节点关系图对应的目标处理结果。
9.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条计算机程序,所述至少一条计算机程序由所述处理器加载并执行,以使所述计算机设备实现如权利要求1至7任一所述的节点关系图的处理方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条计算机程序,所述至少一条计算机程序由处理器加载并执行,以使计算机实现如权利要求1至7任一所述的节点关系图的处理方法。
CN202110335473.7A 2021-03-29 2021-03-29 节点关系图的处理方法、装置、设备及存储介质 Active CN112989134B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110335473.7A CN112989134B (zh) 2021-03-29 2021-03-29 节点关系图的处理方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110335473.7A CN112989134B (zh) 2021-03-29 2021-03-29 节点关系图的处理方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN112989134A true CN112989134A (zh) 2021-06-18
CN112989134B CN112989134B (zh) 2023-08-25

Family

ID=76337883

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110335473.7A Active CN112989134B (zh) 2021-03-29 2021-03-29 节点关系图的处理方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN112989134B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113434692A (zh) * 2021-06-22 2021-09-24 上海交通大学医学院附属仁济医院 图神经网络模型构建、诊疗方案推荐方法、系统及设备
CN113870945A (zh) * 2021-09-01 2021-12-31 南京中医药大学 一种基于衰减系数的动态蛋白质网络模型预测蛋白质之间链接的方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111553215A (zh) * 2020-04-20 2020-08-18 深圳云天励飞技术有限公司 人员关联方法及其装置、图卷积网络训练方法及其装置
US20200313975A1 (en) * 2018-04-04 2020-10-01 Tencent Technology (Shenzhen) Company Limited Clique network identification method and apparatus, computer device, and computer-readable storage medium
CN112151128A (zh) * 2020-10-16 2020-12-29 腾讯科技(深圳)有限公司 相互作用信息的确定方法、装置、设备及存储介质
CN112163095A (zh) * 2020-09-17 2021-01-01 北京大学 数据处理方法、装置、设备及存储介质
WO2021022521A1 (zh) * 2019-08-07 2021-02-11 华为技术有限公司 数据处理的方法、训练神经网络模型的方法及设备
WO2021043064A1 (zh) * 2019-09-06 2021-03-11 平安科技(深圳)有限公司 社区发现方法、装置、计算机设备和存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200313975A1 (en) * 2018-04-04 2020-10-01 Tencent Technology (Shenzhen) Company Limited Clique network identification method and apparatus, computer device, and computer-readable storage medium
WO2021022521A1 (zh) * 2019-08-07 2021-02-11 华为技术有限公司 数据处理的方法、训练神经网络模型的方法及设备
WO2021043064A1 (zh) * 2019-09-06 2021-03-11 平安科技(深圳)有限公司 社区发现方法、装置、计算机设备和存储介质
CN111553215A (zh) * 2020-04-20 2020-08-18 深圳云天励飞技术有限公司 人员关联方法及其装置、图卷积网络训练方法及其装置
CN112163095A (zh) * 2020-09-17 2021-01-01 北京大学 数据处理方法、装置、设备及存储介质
CN112151128A (zh) * 2020-10-16 2020-12-29 腾讯科技(深圳)有限公司 相互作用信息的确定方法、装置、设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张仲伟;曹雷;陈希亮;寇大磊;宋天挺;: "基于神经网络的知识推理研究综述", 计算机工程与应用, no. 12 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113434692A (zh) * 2021-06-22 2021-09-24 上海交通大学医学院附属仁济医院 图神经网络模型构建、诊疗方案推荐方法、系统及设备
CN113434692B (zh) * 2021-06-22 2023-08-01 上海交通大学医学院附属仁济医院 图神经网络模型构建、诊疗方案推荐方法、系统及设备
CN113870945A (zh) * 2021-09-01 2021-12-31 南京中医药大学 一种基于衰减系数的动态蛋白质网络模型预测蛋白质之间链接的方法
CN113870945B (zh) * 2021-09-01 2024-05-24 南京中医药大学 一种基于衰减系数的动态蛋白质网络模型预测蛋白质之间链接的方法

Also Published As

Publication number Publication date
CN112989134B (zh) 2023-08-25

Similar Documents

Publication Publication Date Title
CN110097019B (zh) 字符识别方法、装置、计算机设备以及存储介质
CN111680123B (zh) 对话模型的训练方法、装置、计算机设备及存储介质
CN111243668B (zh) 分子结合位点检测方法、装置、电子设备及存储介质
CN112163717B (zh) 人口数据预测方法、装置、计算机设备及介质
CN113449700B (zh) 视频分类模型的训练、视频分类方法、装置、设备及介质
CN111753498B (zh) 文本处理方法、装置、设备及存储介质
CN112035671B (zh) 状态检测方法、装置、计算机设备及存储介质
CN113392180A (zh) 文本处理方法、装置、设备及存储介质
CN113569052B (zh) 知识图谱的表示学习方法及装置
CN112115900B (zh) 图像处理方法、装置、设备及存储介质
CN112989134B (zh) 节点关系图的处理方法、装置、设备及存储介质
CN112990053A (zh) 图像处理方法、装置、设备及存储介质
CN113569042A (zh) 文本信息分类方法、装置、计算机设备及存储介质
CN114677350B (zh) 连接点提取方法、装置、计算机设备及存储介质
CN113821658A (zh) 对编码器进行训练的方法、装置、设备及存储介质
CN115130456A (zh) 语句解析、匹配模型的训练方法、装置、设备及存储介质
CN112037305B (zh) 对图像中的树状组织进行重建的方法、设备及存储介质
CN113822084A (zh) 语句翻译方法、装置、计算机设备及存储介质
CN112163095A (zh) 数据处理方法、装置、设备及存储介质
CN113761195A (zh) 文本分类方法、装置、计算机设备及计算机可读存储介质
CN113515943A (zh) 自然语言处理方法及其模型的获取方法、装置、存储介质
CN115168643B (zh) 音频处理方法、装置、设备及计算机可读存储介质
CN114360528A (zh) 语音识别方法、装置、计算机设备及存储介质
CN114510942A (zh) 获取实体词的方法、模型的训练方法、装置及设备
CN114328948A (zh) 文本标准化模型的训练方法、文本标准化方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40047299

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant