CN112559640A - 图谱表征系统的训练方法及装置 - Google Patents

图谱表征系统的训练方法及装置 Download PDF

Info

Publication number
CN112559640A
CN112559640A CN202011409591.XA CN202011409591A CN112559640A CN 112559640 A CN112559640 A CN 112559640A CN 202011409591 A CN202011409591 A CN 202011409591A CN 112559640 A CN112559640 A CN 112559640A
Authority
CN
China
Prior art keywords
vectors
node
level
attention
graph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011409591.XA
Other languages
English (en)
Other versions
CN112559640B (zh
Inventor
熊涛
马博群
刘杰
石磊磊
漆远
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202011409591.XA priority Critical patent/CN112559640B/zh
Publication of CN112559640A publication Critical patent/CN112559640A/zh
Application granted granted Critical
Publication of CN112559640B publication Critical patent/CN112559640B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/288Entity relationship models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本说明书实施例提供一种图谱表征系统的训练方法,该图谱表征系统包括图神经网络、多个节点级学习向量、多个中间级学习向量和多个图谱级学习向量。该方法包括:先获取第一训练样本,其中包含对应的两个关系图谱和相似度标签值,任一的第一关系图谱包括多个对象节点;接着,利用图神经网络对第一关系图谱进行图嵌入处理,得到多个对象节点嵌入向量;然后,基于该多个对象节点嵌入向量,依次利用节点相似记忆组件、节点‑图谱相似记忆组件和图谱相似记忆组件,提取不同尺度的信息,从而得到第一关系图谱的绝对化的图谱表征向量;再接着,计算对应两个关系图谱的两个图谱表征向量之间的相似度预测值,并结合相似度标签值,训练上述图谱表征系统。

Description

图谱表征系统的训练方法及装置
技术领域
本说明书实施例涉及计算机技术领域,尤其涉及一种图谱表征系统的训练方法。
背景技术
关系网络图(或称关系图谱、关系图、图谱)是对现实世界中实体之间的关系的描述,目前广泛地应用于各种计算机信息处理中。一般地,关系网络图包含节点集合和边集合,节点表示现实世界中的实体,边表示现实世界中实体之间的联系。例如,在社交网络中,人就是实体,人和人之间的关系或联系就是边。
有些情况下,会需要对关系网络图进行图谱表征。比如说,在检索场景下,需要对用户输入的查询图谱与备选库中的图谱进行表征,然后利用表征向量计算图谱间的相似度,再将备选库中与查询图谱相似度高的图谱反馈给用户。然而,采用目前的表征方式,在实际应用中需要对同一图谱的表征向量进行多次计算,且每次计算出的表征向量各不相同。比如说,在计算图谱对(graph pair)之间的相似度时,即使不同图谱对之间的包含相同的图谱,也需要分别进行表征,且得到的表征向量并不相同,对此可参见图1A。据此可知,目前的图谱表征方式,需要消耗大量的计算资源,并且,计算的图谱表征向量只在图谱对之间相对(relative)有效,因而限制了图谱表征向量的应用。
因此,迫切需要一种方案,可以实现对图谱的绝对(absolute)表征,也就是对同一图谱进行一次表征的结果,可以在不同场景进行多次使用,从而减少图谱表征占用的存储、计算资源。目前尚未出现这样的方案。
发明内容
采用本说明书描述的图谱表征系统的训练方法及装置,通过涉及分级的记忆组件,对关系图谱中信息进行不同尺度的提取,实现对关系图谱的绝对表征,同时,保证绝对表征的准确度和可用性,从而降低图谱数据的使用过程中进行图谱表征所占用的资源,并且,拓宽图谱数据的使用范围。
根据第一方面,提供一种图谱表征系统的训练方法,其中所述图谱表征系统包括图神经网络、多个节点级学习向量、多个中间级学习向量和多个图谱级学习向量;所述方法包括:
获取第一训练样本,其中包含对应的两个关系图谱和相似度标签值,其中任一的第一关系图谱包括对应于多个业务对象的多个对象节点;利用所述图神经网络对所述第一关系图谱进行图嵌入处理,得到所述多个对象节点对应的多个节点嵌入向量;利用各个节点嵌入向量针对所述多个节点级学习向量的多个注意力,对该多个节点级学习向量进行组合处理,得到对应的各个节点编码向量;利用多个节点编码向量针对各个中间级学习向量的综合注意力,对所述多个中间级学习向量进行组合处理,得到中间级表征向量;利用所述中间级表征向量针对所述多个图谱级学习向量的多个注意力,对该多个图谱级学习向量进行组合处理,得到第一图谱表征向量;计算所述两个关系图谱所对应的两个图谱表征向量之间的相似度预测值;基于所述相似度预测值和相似度标签值,训练所述图谱表征系统。
在一个实施例中,所述多个业务对象涉及以下中的至少一种:用户、商户、商品、终端设备、化学元素。
在一个实施例中,所述图神经网络包括图注意力网络GAT或图卷积网络GCN。
在一个实施例中,利用各个节点嵌入向量针对所述多个节点级学习向量的多个注意力,对该多个节点级学习向量进行组合处理,得到对应的各个节点编码向量,包括:针对各个节点嵌入向量,将其与所述多个节点级学习向量的多个第一点乘结果,作为多个第一注意力分数;对所述多个第一注意力分数进行归一化处理,得到多个第一注意力权重;利用所述多个第一注意力权重对所述多个节点级学习向量进行加权求和,得到对应的所述各个节点编码向量。
在一个实施例中,利用多个节点编码向量针对各个中间级学习向量的综合注意力,对所述多个中间级学习向量进行组合处理,得到中间级表征向量,包括:针对任一的中间级学习向量,将其与所述多个节点编码向量的多个点乘结果,作为多个第二注意力分数,并对该多个第二注意力分数进行池化处理,得到综合注意力分数;对多个第二注意力分数进行归一化处理,得到多个第二注意力权重;利用所述多个第二注意力权重对所述多个中间级向量进行加权求和,得到所述中间级表征向量。
在一个实施例中,利用所述中间级表征向量针对所述多个图谱级学习向量的多个注意力,对该多个图谱级学习向量进行组合处理,得到第一图谱表征向量,包括:将所述中间级表征向量与所述多个图谱级学习向量的多个点乘结果,作为多个第三注意力分数;对所述多个第三注意力分数进行归一化处理,得到多个第三注意力权重;利用所述多个第三注意力权重对所述多个图谱级学习向量进行加权求和,得到所述第一图谱表征向量。
在一个实施例中,计算所述两个关系图谱所对应的两个图谱表征向量之间的相似度预测值,包括:计算所述两个图谱表征向量之间的余弦相似度,作为所述相似度预测值。
根据第二方面,提供一种图谱表征系统的训练装置,其中所述图谱表征系统包括图神经网络、多个节点级学习向量、多个中间级学习向量和多个图谱级学习向量;所述装置包括:
样本获取单元,配置为获取第一训练样本,其中包含对应的两个关系图谱和相似度标签值,其中任一的第一关系图谱包括对应于多个业务对象的多个对象节点;图嵌入单元,配置为利用所述图神经网络对所述第一关系图谱进行图嵌入处理,得到所述多个对象节点对应的多个节点嵌入向量;节点级组合单元,配置为利用各个节点嵌入向量针对所述多个节点级学习向量的多个注意力,对该多个节点级学习向量进行组合处理,得到对应的各个节点编码向量;中间级组合单元,配置为利用多个节点编码向量针对各个中间级学习向量的综合注意力,对所述多个中间级学习向量进行组合处理,得到中间级表征向量;图谱级组合单元,配置为利用所述中间级表征向量针对所述多个图谱级学习向量的多个注意力,对该多个图谱级学习向量进行组合处理,得到第一图谱表征向量;相似度预测单元,配置为计算所述两个关系图谱所对应的两个图谱表征向量之间的相似度预测值;系统训练单元,配置为基于所述相似度预测值和相似度标签值,训练所述图谱表征系统。
在一个实施例中,所述多个业务对象涉及以下中的至少一种:用户、商户、商品、终端设备、化学元素。
在一个实施例中,所述图神经网络包括图注意力网络GAT或图卷积网络GCN。
在一个实施例中,所述节点级组合单元具体配置为:针对各个节点嵌入向量,将其与所述多个节点级学习向量的多个第一点乘结果,作为多个第一注意力分数;对所述多个第一注意力分数进行归一化处理,得到多个第一注意力权重;利用所述多个第一注意力权重对所述多个节点级学习向量进行加权求和,得到对应的所述各个节点编码向量。
在一个实施例中,所述中间级组合单元,具体配置为:针对任一的中间级学习向量,将其与所述多个节点编码向量的多个点乘结果,作为多个第二注意力分数,并对该多个第二注意力分数进行池化处理,得到综合注意力分数;对多个第二注意力分数进行归一化处理,得到多个第二注意力权重;利用所述多个第二注意力权重对所述多个中间级向量进行加权求和,得到所述中间级表征向量。
在一个实施例中,所述图谱级组合单元,具体配置为:将所述中间级表征向量与所述多个图谱级学习向量的多个点乘结果,作为多个第三注意力分数;对所述多个第三注意力分数进行归一化处理,得到多个第三注意力权重;利用所述多个第三注意力权重对所述多个图谱级学习向量进行加权求和,得到所述第一图谱表征向量。
在一个实施例中,所述相似度预测单元具体配置为:计算所述两个图谱表征向量之间的余弦相似度,作为所述相似度预测值。
根据第三方面,提供了一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行第一方面所描述的方法。
根据第四方面,提供了一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现第一方面所描述的方法。
综上,采用本说明书实施例披露的图谱表征系统的训练方法及装置,通过设计分级的记忆组件,对关系图谱中信息进行不同尺度的提取,实现对关系图谱的绝对表征,同时,保证绝对表征的准确度和可用性,从而降低图谱数据的使用过程中进行图谱表征所占用的资源,并且,拓宽图谱数据的使用范围。
附图说明
为了更清楚地说明本说明书披露的多个实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书披露的多个实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1A示出计算图谱相似度的传统方式;
图1B示出本说明书实施例披露的图谱相似度计算的优化方式;
图2示出根据一个实施例的图谱表征系统的训练架构示意图;
图3示出根据一个实施例的图谱表征系统的训练方法流程图;
图4示出根据一个实施例的节点相似记忆组件的使用过程示意图;
图5示出根据一个实施例的节点-图记忆组件的使用过程示意图;
图6示出根据一个实施例的图谱记忆组件的使用过程示意图;
图7示出根据一个实施例的图谱表征系统的训练装置结构图。
具体实施方式
下面结合附图,对本说明书披露的多个实施例进行描述。
本说明书实施例披露一种图谱表征系统的训练方法,利用训练得到的图谱表征系统可实现对图谱的绝对表征,图谱的绝对表征向量可以被多次重复使用。比如,参见图1B,通过本说明书实施例设计的绝对图表征空间,在计算查询图谱的图谱表征向量时,只需表征一次,即可用于计算其与3个不同备选图谱之间的相似度。
为便于直观理解,图2示出根据一个实施例的图谱表征系统的训练架构示意图,如图2所示,对于训练样本中包括的关系图谱对(也就是两个关系图谱),其中任一个的表征流程包括:先利用图神经网络GNN对关系图谱进行图嵌入处理,得到其中所包含多个节点的节点嵌入向量;然后,利用尺度分级的记忆组件,对关系图谱中信息进行不同尺度的提取,依次包括利用节点相似记忆组件对多个节点嵌入向量进行节点局部尺度的信息提取,得到多个节点编码向量,接着利用节点-图谱相似记忆组件,对多个节点编码向量进行偏图谱全局尺度的信息提取,得到中间表征向量,再利用图相似记忆组件,对中间表征向量进行图谱尺度的信息提取,得到图谱表征向量。如此,通过相同的表征流程,可以得到两个关系图谱的绝对表征向量,进而基于两个绝对表征向量计算该两个关系图谱的相似度预测值,并结合训练样本中的相似度标签值,对图谱表征系统进行训练。在多次迭代训练后,可以得到迭代收敛或者达到预设性能的图谱表征系统,在一种使用方式中,可以利用图谱表征系统对大批量的图谱进行表征,比如可以离线表征,然后对表征得到的图谱向量进行在线使用,因在线上使用时无需进行额外的表征,因而可以节省大量的计算资源和时间,有效提高使用效率和用户体验。
下面对上述方法进行展开介绍。图3示出根据一个实施例的图谱表征系统的训练方法流程图,其中图谱表征系统包括图神经网络、多个节点级学习向量、多个中间级学习向量和多个图谱级学习向量。需说明,学习向量是指,对应向量中的元素是学习参数,学习向量是图谱表征系统中系统学习参数的组成部分。其中多个节点级学习向量可用于形成上述节点相似记忆组件,多个中间级学习向量可用于形成节点-图谱相似记忆组件,多个图谱级学习向量可用于形成图谱相似记忆组件。此外,所述方法的执行主体可以为任何具有计算、处理能力的平台、装置、服务器或设备集群。
如图3所示,所述方法包括以下步骤:
步骤S310,获取第一训练样本,其中包含对应的两个关系图谱和相似度标签值,其中任一的第一关系图谱包括对应于多个业务对象的多个对象节点;步骤S320,利用所述图神经网络对所述第一关系图谱进行图嵌入处理,得到所述多个对象节点对应的多个节点嵌入向量;步骤S330,利用各个节点嵌入向量针对所述多个节点级学习向量的多个注意力,对该多个节点级学习向量进行组合处理,得到对应的各个节点编码向量;步骤S340,利用多个节点编码向量针对各个中间级学习向量的综合注意力,对所述多个中间级学习向量进行组合处理,得到中间级表征向量;步骤S350,利用所述中间级表征向量针对所述多个图谱级学习向量的多个注意力,对该多个图谱级学习向量进行组合处理,得到第一图谱表征向量;步骤S360,计算所述两个关系图谱所对应的两个图谱表征向量之间的相似度预测值;步骤S370,基于所述相似度预测值和相似度标签值,训练所述图谱表征系统。
针对以上步骤,首先需要说明的是,上述“第一训练样本”、“第一关系图谱”等中的“第一”,以及别处的“第二”、“第三”等类似用语,均为了描述的清楚简洁,仅用于区分同类事物,不具有排序等其他限定作用。
对以上步骤的展开说明如下:
首先,在步骤S310,获取第一训练样本,该第一训练样本可以是获取的训练样本集中任意的一个样本。第一训练样本中包含对应的两个关系图谱和相似度标签值,该两个关系图谱中任一的第一关系图谱包括对应于多个业务对象的多个对象节点,以及对象节点之间存在关联关系而形成的连接边。该第一关系图谱可以表示为G=<V,E>,其中V表示节点集合,E表示连接边集合。
在一个实施例中,上述多个业务对象可以涉及以下中的至少一种:用户、商户、商品、终端设备、化学元素。
在一个具体的实施例中,第一关系图谱可以是社交网络图,其中包括对应多个用户对应的多个用户节点,以及用户节点之间存在社交关系而形成的连接边。在一个更具体的实施例中,可以认为符合以下条件的两个用户存在社交关系:两个用户在社交平台中互相关注,或在即时通讯终端中互为通讯联络人。在另一个具体的实施例中,第一关系图谱可以是交易网络图,其中包括多个用户对应的多个用户节点,以及用户节点之间存在交易关系而形成的连接边。在一个更具体的实施中,可以认为符合以下条件的两个用户存在交易关系:存在一个用户向另一个用户转账的转账记录,或者,存在一个用户向另一个用户支付的支付记录,或者,存在一个用户为另一个用户代付账款的代付记录。在又一个具体的实施例中,第一关系图谱可以是用户-商品二部图,其中包括对应于多个用户的多个用户节点,对应于多个商品的多个商品节点,以及用户节点对商品节点做出特定行为而形成的连接边。在一个更具体的实施中,其中特定行为可以包括点击行为、购买行为或评价行为。在还一个具体的实施例中,第一关系图谱可以是化学式图谱,其中包括对应多个化学元素的多个元素节点,以及元素节点之间存在连接键而形成的连接边。
对于上述相似度标签值,其可以描述两个关系图谱之间的相似度真值,数值范围通常在[0,1],其可以是人工打标,或者通过其他方式采集而得到。
以上可以获取第一训练样本,然后利用该第一训练样本对图谱表征系统进行调参。针对第一训练样本中任一的第一关系图谱,在步骤S320,利用上述图神经网络对其进行图嵌入处理,得到上述多个对象节点对应的多个节点嵌入向量。如此,可以实现节点级别的特征提取。
在一个实施例中,上述图神经网络可以采用GAT(Graph Attention Networks,图注意力网络)或GCN(Graph Convolutional Networks,图卷积神经网络)。在一个具体的实施例中,在GAT网络的隐层,针对多个对象节点中任意的第i个节点(或称节点i),先计算其邻居节点集合
Figure BDA0002819261170000091
中各个邻居节点的注意力权重,再利用注意力权重对各个邻居节点进行聚合,以得到当前隐层针对第i个节点输出的隐向量,直到将最后一个隐层输出的隐向量作为对应的节点嵌入向量。比如,若隐层的总数量为1,那么,则可以直接将这个隐层输出的隐向量作为对应的节点嵌入向量。在一个示例中,可以通过以下公式(1)和(2),计算出第i个节点的节点嵌入向量。
Figure BDA0002819261170000092
Figure BDA0002819261170000093
其中,
Figure BDA0002819261170000094
表示节点i的邻居节点集合;
Figure BDA0002819261170000095
表示当前隐层中针对
Figure BDA0002819261170000096
集合中的节点j确定出的注意力权重;υi和υj分别表示上一隐层针对节点i和节点j输出的隐向量;符号||表示向量的拼接运算;patt表示学习向量,与υi和υj的拼接向量具有相同维度;W表示线性变换矩阵;σ表示激活函数;符号T表示转置运算;
Figure BDA00028192611700000911
表示上一隐层(第l个隐层)针对节点j输出的隐向量;
Figure BDA00028192611700000912
表示当前隐层(第l+1个隐层)针对节点i输出的隐向量;其中l是自然数(可以为0)。
以上,通过公式(1)和(2),可以实现对节点i的邻居节点的单次聚合,多次迭代使用,即可实现对应多级聚合(聚合的次数或者说级数,取决于隐层数量)。
以上,通过对第一关系网络图进行图嵌入处理,可以得到上述多个对象节点对应的多个节点嵌入向量。然后,在步骤S330,利用节点相似记忆(node similarity memory)组件,确定多个节点嵌入向量所对应的多个节点编码向量,以进一步抽取节点的属性信息和关系网络图中局部的拓扑信息,实现节点级相似信息的对齐(align)。
具体,利用各个节点嵌入向量针对多个节点级学习向量的多个注意力,对该多个节点级学习向量进行组合处理,得到对应的各个节点编码向量,对此可参见图4,V表示多个节点嵌入向量组成的集合,表示|V|表示集合V中元素的数量,vi表示对应第i个节点嵌入向量,K表示多个节点级学习向量的个数,mj表示第j个节点级学习向量,aij表示第i个节点嵌入向量对第j个节点级学习向量分配的第一注意力权重,
Figure BDA0002819261170000101
表示第i个节点编码向量。
在一个实施例中,本步骤可实施为:针对上述多个节点嵌入向量中的各个节点嵌入向量,将其与所述多个节点级学习向量的多个第一点乘结果,作为多个第一注意力分数;接着对该多个第一注意力分数进行归一化处理,得到多个第一注意力权重;再利用该多个第一注意力权重对上述多个节点级学习向量进行加权求和,得到对应的所述各个节点编码向量。在一个具体的实施例中,其中归一化处理可以利用softmax函数实现。在另一个具体的实施例中,归一化处理可以利用多个第一注意力分数的和值作为除数而实现。在一个示例中,可以采用以下公式(3)计算第一注意力分数,采用公式(4)计算第一注意力权重,采用公式(5)计算节点编码向量。
Figure BDA0002819261170000102
Figure BDA0002819261170000103
Figure BDA0002819261170000104
在以上公式(3)至(5)中,K表示多个节点级学习向量的向量总数;
Figure BDA0002819261170000111
第j个节点级学习向量,υi表示多个节点嵌入向量中的第i个节点嵌入向量;符号T表示转置运算;
Figure BDA0002819261170000113
表示第i个节点嵌入向量为第j个节点级学习向量分配的第一注意力分数;
Figure BDA0002819261170000114
表示第i个节点嵌入向量所对应的K个第一注意力分数;
Figure BDA0002819261170000115
表示第i个节点编码向量。
在另一个实施例中,本步骤以实施为:针对上述多个节点嵌入向量中的各个节点嵌入向量,将其与多个节点级学习向量分别进行拼接,得到多个拼接向量,将该多个拼接向量输入图谱表征系统还包含的第一前馈网络层中,得到多个第一注意力权重,再利用该多个第一注意力权重对上述多个节点级学习向量进行加权求和,得到与该各个节点嵌入向量对应的各个节点编码向量。
由上,可以得到多个节点嵌入向量所对应的多个节点编码向量。接着,在步骤S340,利用中间级记忆组件,或称为节点-图记忆(node-graph memory)组件,从该多个节点编码向量中学习偏全局尺度的信息。具体,利用多个节点编码向量针对上述多个中间级学习向量中各个中间级学习向量的综合注意力,对该多个中间级学习向量进行组合处理,得到中间级表征向量。需说明,所述中间级学习向量又可以称为图谱相似性表征原型(prototype graph similarity representations),多个图谱相似性表征原型实际学习多种典型的不同图谱所具有的特征信息,而利用综合注意力对多个中间级学习向量进行组合处理,意味着,第一关系图谱与哪个图谱相似性表征原型的相似度更高,哪个图谱表征原型就能得到更多的注意力,相应在组合处理所得到的中间级表征向量中,其所占比重越大。对于本步骤的实施,可以参见图5,其中V表示多个节点编码向量组成的集合,表示|V|表示集合V中元素的数量,vi表示对应第i个节点编码向量,K表示多个中间级学习向量的个数,mj表示第j个中间级学习向量,aj表示第j个中间级学习向量的综合注意力,g表示中间级表征向量。
在一个实施例中,本步骤可以实施为:针对任一的中间级学习向量,将其与所述多个节点编码向量的多个点乘结果,作为多个第二注意力分数,并对该多个第二注意力分数进行池化处理,得到综合注意力分数;接着,对多个综合注意力分数进行归一化处理,得到多个第二注意力权重;再利用所述多个第二注意力权重对所述多个中间级向量进行加权求和,得到所述中间级表征向量。在一个具体的实施例中,可以采用以下公式(6)计算第二注意力分数,采用公式(7)计算综合注意力分数,采用公式(8)计算第二注意力权重,采用公式(9)得到中间级表征向量。
Figure BDA0002819261170000121
un2g=mean-pooling(An2g) (7)
an2g=softmax(un2g) (8)
Figure BDA0002819261170000122
在以上公式(6)至(9)中,υi表示多个节点编码向量中的第i个节点编码向量;符号T表示转置运算;
Figure BDA0002819261170000124
第j个中间级学习向量;
Figure BDA0002819261170000125
表示第i个节点编码向量为第j个中间级学习向量分配的第二注意力分数;mean-pooling表示平均池化运算;mean-pooling(An2g)表示对
Figure BDA0002819261170000126
组成的矩阵An2g中的每一列元素进行平均池化;un2g表示平均池化得到的向量,其中包括对应K个中间级学习向量的K个综合注意力分数;an2g表示对un2g进行softmax后得到的K个综合注意力权重;g表示中间级表征向量。
在另一个实施例中,针对上述多个节点编码向量中的各个节点编码向量,将其与多个中间级学习向量分别进行拼接,得到多个拼接向量,将该多个拼接向量输入图谱表征系统还包括的第二前馈网络层中,得到多个第二注意力权重,再利用该多个第二注意力权重对上述多个中间级学习向量进行加权求和,得到中间级表征向量。
由上,可以得到针对第一关系图谱的中间级表征向量。然后,在步骤S350,利用图谱相似记忆(graph similarity memory)组件,基于中间级表征向量,提取更多图谱级别的信息,实现图谱级相似信息的对齐。
具体,利用上述中间级表征向量针对多个图谱级学习向量的多个注意力,对该多个图谱级学习向量进行组合处理,得到第一关系图谱对应的第一图谱表征向量,对此可参见图6,其中g表示中间级表征向量,mj表示第j个图谱级学习向量,K表示多个图谱级学习向量的个数,gmem表示图谱表征向量,aj表示第j个图谱级学习向量的注意力。
在一个实施例中,本步骤可以实施为:将上述中间级表征向量与多个图谱级学习向量的多个点乘结果,作为多个第三注意力分数;接着对多个第三注意力分数进行归一化处理,得到多个第三注意力权重;再利用所述多个第三注意力权重对所述多个图谱级学习向量进行加权求和,得到所述第一图谱表征向量。在一个具体的实施例中,可以采用以下公式(10)计算第三注意力分数,采用公式(11)计算第三注意力权重,采用公式(12)计算图谱级表征向量。
Figure BDA0002819261170000131
Figure BDA0002819261170000132
Figure BDA0002819261170000133
在以上公式(10)至(12)中,g表示中间级表征向量;符号T表示转置运算;
Figure BDA0002819261170000134
表示第i个图谱级学习向量;
Figure BDA0002819261170000135
表示第i个图谱级学习向量的第三注意力分数;
Figure BDA0002819261170000136
表示第i个图谱级学习向量的第三注意力权重;gmem表示图谱级表征向量。
在另一个实施例中,将上述中间级表征向量分别与多个图谱级学习向量进行拼接,得到多个拼接向量,将该多个拼接向量输入图谱表征系统还包括的第三前馈网络层中,得到多个第三注意力权重,再利用该多个第三注意力权重对上述多个图谱级学习向量进行加权求和,得到图谱级表征向量。
由上,可以得到针对第一关系图谱的图谱表征向量,其为图谱的绝对化表征向量。因第一关系图谱是上述两个关系图谱中任一的关系图谱,将上述两个关系图谱分别作为第一关系图谱,可以得到对应的两个图谱表征向量。然后,在步骤S360,计算所述两个关系图谱所对应的两个图谱表征向量之间的相似度预测值。该相似度预测值可以利用余弦相似度、或曼哈顿距离、或欧氏距离的计算方式得到。在一个示例中,可以利用以下公式(13),计算两个图谱表征向量之间的余弦相似度,作为相似度预测值。
Figure BDA0002819261170000141
在公式(13)中,
Figure BDA0002819261170000142
Figure BDA0002819261170000143
表示两个关系图谱对应的图谱表征向量;符号||||表示向量的模;·表示向量的点乘;
Figure BDA0002819261170000144
表示
Figure BDA0002819261170000145
Figure BDA0002819261170000146
之间的相似度预测值。
由上,可以得到相似度预测值,之后可以在步骤S370,基于该相似度预测值和上述第一训练样本中的相似度标签值,训练上述图谱表征系统。在一个实施例中,可以基于相似度预测值和相似度标签值,计算训练损失,再基于该训练损失,利用反向传播法,调整图谱表征系统中的学习参数,或称模型参数、网络参数。在一个具体的实施例中,上述训练损失可以通过计算欧式距离、曼哈顿距离、切比雪夫距离等得到。在一个示例中,可以利用下式计算训练损失。
Figure BDA0002819261170000147
在公式(14)中,Loss表示训练损失;D表示一批次训练样本的数量(batch size);yi表示第i个训练样本包含的相似度标签值;
Figure BDA0002819261170000148
表示针对第i个训练样本得到的相似度预测值。
以上,可以实现对图谱表征系统的训练。
综上,采用本说明书描述的图谱表征系统的训练方法,通过设计分级的记忆组件,对关系图谱中信息进行不同尺度的提取,实现对关系图谱的绝对表征,同时,保证绝对表征的准确度和可用性,从而降低图谱数据的使用过程中进行图谱表征所占用的资源,并且,拓宽图谱数据的使用范围。
与上述训练方法相对应的,本说明书实施例还披露一种训练装置。图7示出根据一个实施例的图谱表征系统的训练装置结构图,其中所述图谱表征系统包括图神经网络、多个节点级学习向量、多个中间级学习向量和多个图谱级学习向量。如图7所示,所述装置700包括:
样本获取单元710,配置为获取第一训练样本,其中包含对应的两个关系图谱和相似度标签值,其中任一的第一关系图谱包括对应于多个业务对象的多个对象节点;图嵌入单元720,配置为利用所述图神经网络对所述第一关系图谱进行图嵌入处理,得到所述多个对象节点对应的多个节点嵌入向量;节点级组合单元730,配置为利用各个节点嵌入向量针对所述多个节点级学习向量的多个注意力,对该多个节点级学习向量进行组合处理,得到对应的各个节点编码向量;中间级组合单元740,配置为利用多个节点编码向量针对各个中间级学习向量的综合注意力,对所述多个中间级学习向量进行组合处理,得到中间级表征向量;图谱级组合单元750,配置为利用所述中间级表征向量针对所述多个图谱级学习向量的多个注意力,对该多个图谱级学习向量进行组合处理,得到第一图谱表征向量;相似度预测单元760,配置为计算所述两个关系图谱所对应的两个图谱表征向量之间的相似度预测值;系统训练单元770,配置为基于所述相似度预测值和相似度标签值,训练所述图谱表征系统。
在一个实施例中,所述多个业务对象涉及以下中的至少一种:用户、商户、商品、终端设备、化学元素。
在一个实施例中,上述图神经网络包括GAT网络或GCN网络。
在一个实施例中,所述节点级组合单元730具体配置为:针对各个节点嵌入向量,将其与所述多个节点级学习向量的多个第一点乘结果,作为多个第一注意力分数;对所述多个第一注意力分数进行归一化处理,得到多个第一注意力权重;利用所述多个第一注意力权重对所述多个节点级学习向量进行加权求和,得到对应的所述各个节点编码向量。
在一个实施例中,所述中间级组合单元740,具体配置为:针对任一的中间级学习向量,将其与所述多个节点编码向量的多个点乘结果,作为多个第二注意力分数,并对该多个第二注意力分数进行池化处理,得到综合注意力分数;对多个第二注意力分数进行归一化处理,得到多个第二注意力权重;利用所述多个第二注意力权重对所述多个中间级向量进行加权求和,得到所述中间级表征向量。
在一个实施例中,所述图谱级组合单元750,具体配置为:将所述中间级表征向量与所述多个图谱级学习向量的多个点乘结果,作为多个第三注意力分数;对所述多个第三注意力分数进行归一化处理,得到多个第三注意力权重;利用所述多个第三注意力权重对所述多个图谱级学习向量进行加权求和,得到所述第一图谱表征向量。
在一个实施例中,所述相似度预测单元760具体配置为:计算所述两个图谱表征向量之间的余弦相似度,作为所述相似度预测值。
综上,采用本说明书描述的图谱表征系统的训练装置,通过设计分级的记忆组件,对关系图谱中信息进行不同尺度的提取,实现对关系图谱的绝对表征,同时,保证绝对表征的准确度和可用性,从而降低图谱数据的使用过程中进行图谱表征所占用的资源,并且,拓宽图谱数据的使用范围。
如上,根据又一方面的实施例,还提供一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行结合图3所描述的方法。
根据又一方面的实施例,还提供一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现结合图3所描述的方法。
本领域技术人员应该可以意识到,在上述一个或多个示例中,本说明书披露的多个实施例所描述的功能可以用硬件、软件、固件或它们的任意组合来实现。当使用软件实现时,可以将这些功能存储在计算机可读介质中或者作为计算机可读介质上的一个或多个指令或代码进行传输。
以上所述的具体实施方式,对本说明书披露的多个实施例的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本说明书披露的多个实施例的具体实施方式而已,并不用于限定本说明书披露的多个实施例的保护范围,凡在本说明书披露的多个实施例的技术方案的基础之上,所做的任何修改、等同替换、改进等,均应包括在本说明书披露的多个实施例的保护范围之内。

Claims (16)

1.一种图谱表征系统的训练方法,其中,所述图谱表征系统包括图神经网络、多个节点级学习向量、多个中间级学习向量和多个图谱级学习向量;所述方法包括:
获取第一训练样本,其中包含对应的两个关系图谱和相似度标签值,其中任一的第一关系图谱包括对应于多个业务对象的多个对象节点;
利用所述图神经网络对所述第一关系图谱进行图嵌入处理,得到所述多个对象节点对应的多个节点嵌入向量;
利用各个节点嵌入向量针对所述多个节点级学习向量的多个注意力,对该多个节点级学习向量进行组合处理,得到对应的各个节点编码向量;
利用多个节点编码向量针对各个中间级学习向量的综合注意力,对所述多个中间级学习向量进行组合处理,得到中间级表征向量;
利用所述中间级表征向量针对所述多个图谱级学习向量的多个注意力,对该多个图谱级学习向量进行组合处理,得到第一图谱表征向量;
计算所述两个关系图谱所对应的两个图谱表征向量之间的相似度预测值;
基于所述相似度预测值和相似度标签值,训练所述图谱表征系统。
2.根据权利要求1所述的方法,其中,所述多个业务对象涉及以下中的至少一种:用户、商户、商品、终端设备、化学元素。
3.根据权利要求1所述的方法,其中,所述图神经网络包括图注意力网络GAT或图卷积网络GCN。
4.根据权利要求1所述的方法,其中,利用各个节点嵌入向量针对所述多个节点级学习向量的多个注意力,对该多个节点级学习向量进行组合处理,得到对应的各个节点编码向量,包括:
针对各个节点嵌入向量,将其与所述多个节点级学习向量的多个第一点乘结果,作为多个第一注意力分数;
对所述多个第一注意力分数进行归一化处理,得到多个第一注意力权重;
利用所述多个第一注意力权重对所述多个节点级学习向量进行加权求和,得到对应的所述各个节点编码向量。
5.根据权利要求1所述的方法,其中,利用多个节点编码向量针对各个中间级学习向量的综合注意力,对所述多个中间级学习向量进行组合处理,得到中间级表征向量,包括:
针对任一的中间级学习向量,将其与所述多个节点编码向量的多个点乘结果,作为多个第二注意力分数,并对该多个第二注意力分数进行池化处理,得到综合注意力分数;
对多个第二注意力分数进行归一化处理,得到多个第二注意力权重;
利用所述多个第二注意力权重对所述多个中间级向量进行加权求和,得到所述中间级表征向量。
6.根据权利要求1所述的方法,其中,利用所述中间级表征向量针对所述多个图谱级学习向量的多个注意力,对该多个图谱级学习向量进行组合处理,得到第一图谱表征向量,包括:
将所述中间级表征向量与所述多个图谱级学习向量的多个点乘结果,作为多个第三注意力分数;
对所述多个第三注意力分数进行归一化处理,得到多个第三注意力权重;
利用所述多个第三注意力权重对所述多个图谱级学习向量进行加权求和,得到所述第一图谱表征向量。
7.根据权利要求1所述的方法,其中,计算所述两个关系图谱所对应的两个图谱表征向量之间的相似度预测值,包括:
计算所述两个图谱表征向量之间的余弦相似度,作为所述相似度预测值。
8.一种图谱表征系统的训练装置,其中,所述图谱表征系统包括图神经网络、多个节点级学习向量、多个中间级学习向量和多个图谱级学习向量;所述装置包括:
样本获取单元,配置为获取第一训练样本,其中包含对应的两个关系图谱和相似度标签值,其中任一的第一关系图谱包括对应于多个业务对象的多个对象节点;
图嵌入单元,配置为利用所述图神经网络对所述第一关系图谱进行图嵌入处理,得到所述多个对象节点对应的多个节点嵌入向量;
节点级组合单元,配置为利用各个节点嵌入向量针对所述多个节点级学习向量的多个注意力,对该多个节点级学习向量进行组合处理,得到对应的各个节点编码向量;
中间级组合单元,配置为利用多个节点编码向量针对各个中间级学习向量的综合注意力,对所述多个中间级学习向量进行组合处理,得到中间级表征向量;
图谱级组合单元,配置为利用所述中间级表征向量针对所述多个图谱级学习向量的多个注意力,对该多个图谱级学习向量进行组合处理,得到第一图谱表征向量;
相似度预测单元,配置为计算所述两个关系图谱所对应的两个图谱表征向量之间的相似度预测值;
系统训练单元,配置为基于所述相似度预测值和相似度标签值,训练所述图谱表征系统。
9.根据权利要求8所述的装置,其中,所述多个业务对象涉及以下中的至少一种:用户、商户、商品、终端设备、化学元素。
10.根据权利要求8所述的装置,其中,所述图神经网络包括图注意力网络GAT或图卷积网络GCN。
11.根据权利要求8所述的装置,其中,所述节点级组合单元具体配置为:
针对各个节点嵌入向量,将其与所述多个节点级学习向量的多个第一点乘结果,作为多个第一注意力分数;
对所述多个第一注意力分数进行归一化处理,得到多个第一注意力权重;
利用所述多个第一注意力权重对所述多个节点级学习向量进行加权求和,得到对应的所述各个节点编码向量。
12.根据权利要求8所述的装置,其中,所述中间级组合单元,具体配置为:
针对任一的中间级学习向量,将其与所述多个节点编码向量的多个点乘结果,作为多个第二注意力分数,并对该多个第二注意力分数进行池化处理,得到综合注意力分数;
对多个第二注意力分数进行归一化处理,得到多个第二注意力权重;
利用所述多个第二注意力权重对所述多个中间级向量进行加权求和,得到所述中间级表征向量。
13.根据权利要求8所述的装置,其中,所述图谱级组合单元,具体配置为:
将所述中间级表征向量与所述多个图谱级学习向量的多个点乘结果,作为多个第三注意力分数;
对所述多个第三注意力分数进行归一化处理,得到多个第三注意力权重;
利用所述多个第三注意力权重对所述多个图谱级学习向量进行加权求和,得到所述第一图谱表征向量。
14.根据权利要求8所述的装置,其中,所述相似度预测单元具体配置为:
计算所述两个图谱表征向量之间的余弦相似度,作为所述相似度预测值。
15.一种计算机可读存储介质,其上存储有计算机程序,其中,当所述计算机程序在计算机中执行时,令计算机执行权利要求1-7中任一项的所述的方法。
16.一种计算设备,包括存储器和处理器,其中,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现权利要求1-7中任一项所述的方法。
CN202011409591.XA 2020-12-06 2020-12-06 图谱表征系统的训练方法及装置 Active CN112559640B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011409591.XA CN112559640B (zh) 2020-12-06 2020-12-06 图谱表征系统的训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011409591.XA CN112559640B (zh) 2020-12-06 2020-12-06 图谱表征系统的训练方法及装置

Publications (2)

Publication Number Publication Date
CN112559640A true CN112559640A (zh) 2021-03-26
CN112559640B CN112559640B (zh) 2023-06-06

Family

ID=75048560

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011409591.XA Active CN112559640B (zh) 2020-12-06 2020-12-06 图谱表征系统的训练方法及装置

Country Status (1)

Country Link
CN (1) CN112559640B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113361402A (zh) * 2021-06-04 2021-09-07 北京百度网讯科技有限公司 识别模型的训练方法、确定准确率的方法、装置和设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9858340B1 (en) * 2016-04-11 2018-01-02 Digital Reasoning Systems, Inc. Systems and methods for queryable graph representations of videos
US20190354689A1 (en) * 2018-05-18 2019-11-21 Deepmind Technologies Limited Deep neural network system for similarity-based graph representations
CN111488498A (zh) * 2020-04-08 2020-08-04 浙江大学 基于图神经网络的“节点-图”跨层图匹配方法及系统
CN111581442A (zh) * 2020-04-15 2020-08-25 上海明略人工智能(集团)有限公司 一种实现图嵌入的方法、装置、计算机存储介质及终端
CN112037912A (zh) * 2020-09-09 2020-12-04 平安科技(深圳)有限公司 基于医疗知识图谱的分诊模型训练方法、装置及设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9858340B1 (en) * 2016-04-11 2018-01-02 Digital Reasoning Systems, Inc. Systems and methods for queryable graph representations of videos
US20190354689A1 (en) * 2018-05-18 2019-11-21 Deepmind Technologies Limited Deep neural network system for similarity-based graph representations
CN111488498A (zh) * 2020-04-08 2020-08-04 浙江大学 基于图神经网络的“节点-图”跨层图匹配方法及系统
CN111581442A (zh) * 2020-04-15 2020-08-25 上海明略人工智能(集团)有限公司 一种实现图嵌入的方法、装置、计算机存储介质及终端
CN112037912A (zh) * 2020-09-09 2020-12-04 平安科技(深圳)有限公司 基于医疗知识图谱的分诊模型训练方法、装置及设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
XINYU FU等: "MAGNN: Metapath Aggregated Graph Neural Network for Heterogeneous Graph Embedding", 《PROCEEDINGS OF THE WEB CONFERENCE 2020》, pages 2331 *
杨晓慧: "图结构数据的表示学习算法研究与实现", 《中国优秀硕士学位论文全文数据库 基础科学辑》, no. 1, pages 002 - 292 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113361402A (zh) * 2021-06-04 2021-09-07 北京百度网讯科技有限公司 识别模型的训练方法、确定准确率的方法、装置和设备
CN113361402B (zh) * 2021-06-04 2023-08-18 北京百度网讯科技有限公司 识别模型的训练方法、确定准确率的方法、装置和设备

Also Published As

Publication number Publication date
CN112559640B (zh) 2023-06-06

Similar Documents

Publication Publication Date Title
CN110473083B (zh) 树状风险账户识别方法、装置、服务器及存储介质
CN105022754B (zh) 基于社交网络的对象分类方法及装置
CN110427560A (zh) 一种应用于推荐系统的模型训练方法以及相关装置
CN111382868A (zh) 神经网络结构搜索方法和神经网络结构搜索装置
CN110162692B (zh) 用户标签确定方法、装置、计算机设备和存储介质
CN112085615A (zh) 图神经网络的训练方法及装置
CN113628059A (zh) 一种基于多层图注意力网络的关联用户识别方法及装置
CN115482395B (zh) 模型训练方法、图像分类方法、装置、电子设备和介质
CN112669143A (zh) 基于关联网络的风险评估方法、装置、设备以及存储介质
CN114240555A (zh) 训练点击率预测模型和预测点击率的方法和装置
CN112131261A (zh) 基于社区网络的社区查询方法、装置和计算机设备
CN110992194A (zh) 一种基于含属性的多进程采样图表示学习模型的用户参考指数算法
CN111079930A (zh) 数据集质量参数的确定方法、装置及电子设备
CN112559640A (zh) 图谱表征系统的训练方法及装置
CN112559877A (zh) 基于跨平台异构数据及行为上下文的ctr预估方法及系统
CN116580174A (zh) 一种虚拟场景实时构建方法
CN113010782B (zh) 需求量获取方法、装置、电子设备以及计算机可读介质
CN115952438A (zh) 社交平台用户属性预测方法、系统、移动设备及存储介质
CN112734519B (zh) 一种基于卷积自编码器网络的商品推荐方法
CN115618079A (zh) 会话推荐方法、装置、电子设备及存储介质
CN115659059A (zh) 基于图对比学习的推荐模型训练方法和装置
CN114493674A (zh) 一种广告点击率预测模型及方法
CN115544379A (zh) 基于四元数图卷积神经网络的推荐方法和装置
CN114897607A (zh) 产品资源的数据处理方法及装置、电子设备、存储介质
CN113886547A (zh) 基于人工智能的客户实时对话转接方法、装置和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40047864

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant