CN113033205A - 实体链接的方法、装置、设备以及存储介质 - Google Patents
实体链接的方法、装置、设备以及存储介质 Download PDFInfo
- Publication number
- CN113033205A CN113033205A CN202110314089.9A CN202110314089A CN113033205A CN 113033205 A CN113033205 A CN 113033205A CN 202110314089 A CN202110314089 A CN 202110314089A CN 113033205 A CN113033205 A CN 113033205A
- Authority
- CN
- China
- Prior art keywords
- entity
- mention
- candidate
- features
- node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/134—Hyperlinking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本公开提供了一种实体链接的方法、装置、设备以及存储介质,涉及自然语言处理、知识图谱领域。具体实现方案为:基于知识库,获取与提及相关的多个候选实体,得到多个提及候选实体对;对提及和候选实体分别进行特征提取处理,得到每个提及候选实体对的提及特征和候选实体特征;基于每个提及候选实体对的提及特征和候选实体特征,构建动态超图,并利用动态超图进行消歧处理,得到与提及对应的目标实体。根据本公开的技术方案,缩减了神经网络的训练时间,深入挖掘了提及和候选实体之间的高层语义关联,从而提高了实体链接任务的准确率和召回率。
Description
技术领域
本公开涉及人工智能技术领域,尤其涉及自然语言处理、知识图谱领域。
背景技术
相关技术中,基于图神经网络的实体链接方法通常参数量较大且较难训练,并且还存在训练资源少、数据噪声多、实体知识库随时间更新等问题,从而影响实体链接任务的准确率和召回率。
发明内容
本公开提供了一种实体链接的方法、装置、设备以及存储介质。
根据本公开的一方面,提供了一种实体链接的方法,包括:
基于知识库,获取与提及相关的多个候选实体,得到多个提及候选实体对;
对提及和候选实体分别进行特征提取处理,得到每个提及候选实体对的提及特征和候选实体特征;
基于每个提及候选实体对的提及特征和候选实体特征,构建动态超图,并利用动态超图进行消歧处理,得到与提及对应的目标实体。
根据本公开的另一方面,提供了一种实体链接的装置,包括:
候选实体获取模块,用于基于知识库,获取与提及相关的多个候选实体,得到多个提及候选实体对;
特征提取模块,用于对提及和候选实体分别进行特征提取处理,得到每个提及候选实体对的提及特征和候选实体特征;
消歧模块,用于基于每个提及候选实体对的提及特征和候选实体特征,构建动态超图,并利用动态超图进行消歧处理,得到与提及对应的目标实体。
根据本公开的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与该至少一个处理器通信连接的存储器;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行本公开任一实施例中的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行本公开任一实施例中的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现本公开任一实施例中的方法。
根据本公开的技术解决了基于图神经网络的实体链接方法通常参数量较大且较难训练的技术问题,缩减了神经网络的训练时间,深入挖掘了提及和候选实体之间的高层语义关联,从而提高了实体链接任务的准确率和召回率。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1示出本公开实施例的实体链接的方法的流程图;
图2示出本公开实施例的实体链接的构建动态超图以及对动态超图进行卷积处理的具体流程图;
图3示出本公开实施例的构建动态超图的具体流程图;
图4示出本公开实施例的构建超边的具体流程图;
图5示出本公开实施例的构建超边的具体流程图;
图6示出本公开实施例的构建超边的具体流程图;
图7示出本公开实施例的对动态超图进行卷积的具体流程图;
图8示出本公开实施例的对提及和候选实体分别进行特征提取处理的具体流程图;
图9示出本公开实施例的选取候选实体的具体流程图;
图10示出本公开实施例的实体链接的装置的示意图;
图11是用来实现本公开实施例的实体链接的方法的电子设备的框图;
图12示出本公开实施例的构建动态超图的示意图;
图13示出本公开实施例的实体链接方法的示意图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
信息提取(Information Extraction)技术,指的是从非结构化数据中自动提取结构化信息,其子任务包括命名实体识别(Named Entity Recognition)、实体链接(EntityLinking)以及下游的关系抽取和事件抽取等。
实体链接任务的目的是将自然文本中的实体提及(Mention)与知识库中的对应实体(Entity)链接起来,链接后的文本应用于其他下游任务。由于自然文本的语言表达具有多样性和歧义性,因而需要对自然文本中的提及进行实体消歧。具体而言,同一实体可能存在不同的提及,例如,“科比”作为实体,可能存在相应的多个提及,即“黑曼巴”、“小飞侠”等。再者,自然文本中同一词语在不同语境下具有不同的义项,即同一提及可能对应有不同的实体,例如,“苹果”可以指代一种水果,又可以指代“苹果手机”或“苹果公司”等。因此不能简单采用将实体提及与知识库别名表匹配等基于规则的直接链接方法,而是需要结合文档中的实体提及、文档中实体提及的上下文、知识库中的实体等信息共同推导出一个与提及最为相关的实体。候选实体消岐所做的是根据提及和上下文对候选实体集中的实体进行排序,并选择最相似的一个实体作为实体链接的结果。该步骤可以概述为特征嵌入和实体排序两个模块。
早期的特征嵌入使用的是手工特征,如bag-of-words和one-hot向量。随着word2vec等模型的提出,表示学习逐渐替代了特征工程,更多的实体链接方法选择结合手工特征和使用神经网络预训练得到的文本特征,甚至完全抛弃手工特征。
在得到特征嵌入后,实体排序模块所做的是计算上下文-提及嵌入和实体嵌入之间的相似度,再结合其他信息选择可能性最大的实体作为链接结果。相似度计算通常采用点乘或余弦相似度,而其他信息包括第一步候选实体生成中得到的提及-实体先验概率、词形相似度以及实体类别等。
相关技术中,实体链接任务最大的改进在于候选实体消岐,实体链接任务逐渐消除了对基于规则的传统手工文本特征的依赖,改为基于神经网络的文本特征和消岐算法。其中,基于图神经网络的实体链接方法通常参数量较大且较难训练,并且还存在训练资源少、数据噪声多、实体知识库随时间更新等问题,从而影响实体链接任务的准确率和召回率。
基于相关技术中存在的上述技术问题,本公开实施例提供了一种实体链接的方法。
图1示出根据本公开实施例的实体链接的方法的流程图。
如图1所示,该方法包括如下步骤:
步骤S101:基于知识库,获取与提及相关的多个候选实体,得到多个提及候选实体对;
步骤S102:对提及和候选实体分别进行特征提取处理,得到每个提及候选实体对的提及特征和候选实体特征;
步骤S103:基于每个提及候选实体对的提及特征和候选实体特征,构建动态超图(dynamic hypergraph),并利用动态超图进行消歧处理,得到与提及对应的目标实体。
在本公开实施例中,提及可以通过命名实体识别技术得到。例如,针对自然语言文本,通过命名实体识别技术识别出其中的实体名称,并将实体名称作为提及。
实体链接的过程可以包括候选实体生成和候选实体消岐。其中,候选实体生成,指的是针对自然文本中的每一个提及,生成一组可能与之对应的实体列表,也即在知识库中找到可能与该提及的含义相近的一系列实体。由于自然语言的多样性和歧义性,文档中的提及和知识库中实体的关系并非一一对应,即任一对提及和实体之间都可能存在关联。为了提高实体消歧的效率,实体消岐的过程通常基于与提及相关的候选实体集上进行,从而避免进行全局的计算。
示例性地,在步骤S101中,知识库可以为Wikipedia(维基百科)知识库、YAGO多语言知识库、WordNet知识库等。
候选实体可以根据知识库中提及-实体超链接的统计数据进行获取。具体地,可以通过词形匹配、词典查找和先验概率计算等方式,从知识库中获取与提及相关的多个候选实体。根据提及与候选实体之间的一一对应关系,生成多个提及候选实体对。
需要说明的是,提及的数量可以为一个或多个。在提及的数量为多个的情况下,基于获取到的各提及对应的候选实体,可以得到多组提及候选实体对,每组中的提及候选实体对均包含相同的提及。
示例性地,在步骤S102中,针对提及,可以利用卷积神经网络(ConvolutionalNeural Networks,CNN)、循环神经网络(Recurrent Neural Network,RNN)、自注意力机制(Self-Attention)等方式,提取提及的上下文特征作为提及特征。针对实体,可以利用实体共现数据、知识库中实体链接页面信息、训练数据中的实体提及数据等,作为实体特征。
优选地,可以利用表示学习方法,提取提及和对应的候选实体的嵌入式特征。例如,可以根据知识库的统计数据和多种预训练特征向量进行特征拼接处理,以得到具有较强表示能力的提及特征和候选实体特征。
示例性地,在步骤S103中,动态超图包括节点和超边,节点用于表征提及候选实体对,超边用于表征不同节点之间的相关程度。
在动态超图的构建过程中,针对各提及候选实体对,生成对应的节点,并将提及候选实体对的提及特征和候选实体特征嵌入至相应的节点,以得到节点特征。然后,基于各个节点之间的关联性,生成连接多个节点的多个超边。
在利用动态超图进行消歧处理的过程中,首先将各个超边上所有节点的特征聚合至超边的特征中,然后将所有超边的特征聚合至中心节点。换而言之,整个过程就是一个更新各个节点特征的过程,并根据新的节点特征更新超边的特征,这样就可以不断地重新构建动态超图。最终得到的中心节点即为目标节点,并将目标节点中提及对应的候选实体作为提及的目标实体。
需要说明的是,现有的应用于实体链接的基于图或超图的神经网络,由于在消歧过程中只采用初始的图或超图结构,会损失一定的精准度,从而影响实体链接的准确率和召回率。本公开实施例的方法通过构建并利用动态超图,在消歧过程中可以通过调整特征嵌入动态修改图或超图结构,从而确保了神经网络的精准度,有利于提高实体链接的准确率和召回率。
可以理解的是,在得到与提及对应的目标实体后,将提及与目标实体进行链接,最终完成实体链接任务。
根据本公开实施例的方法,通过利用提及候选实体对的提及特征和候选实体特征构建动态超图,并利用动态超图进行消歧处理,缩减了训练时间,且参数量较少、具有较高的处理效率,表征了多个提及候选实体对之间的关联关系,并且深入挖掘了提及和候选实体之间的高层语义关联,从而提高了实体链接任务的准确率和召回率。
如图2所示,在一种实施方式中,步骤S103包括:
步骤S201:基于每个提及候选实体对的提及特征和候选实体特征,构建动态超图;
步骤S202:对动态超图进行卷积处理,得到与提及对应的目标实体。
示例性地,在步骤S201中,每个提及候选实体对的提及特征和候选实体特征,可以为提及以及候选实体的嵌入特征,即在步骤S201之前,对提及以及候选实体的数据分别进行降维,并转换为固定大小的矢量。基于多个提及候选实体对,生成多个节点,并将每个提及候选实体对的提及特征和候选实体特征嵌入至节点中。然后根据节点之间的相关性构建连接不同节点的多个超边,以完成动态超图的构建。
示例性地,在步骤S202中,对每一条超边上的各个节点分别进行卷积处理,以将节点特征融合至超边特征中;然后,针对所有的超边进行卷积处理,以将超边特征融合至中心节点的特征中,从而得到中心节点的新的特征。经过多次卷积处理后,最终得到的中心节点即为目标节点,目标节点的候选实体即为提及对应的目标实体。
根据上述实施方式,利用动态超图表征了多个提及候选实体对之间的相互关系,并且,动态超图不仅局限于局部的实体和提及的上下文匹配,还实现了对全局的关联关系进行建模,从而利用了更全面的语义信息,提高了实体链接的精准度。
如图3所示,在一种实施方式中,步骤S201包括:
步骤S301:针对每个提及候选实体对,生成对应的节点,并将提及候选实体对的提及特征和候选实体特征嵌入至节点;
步骤S302:针对多个节点,构建连接至少两个节点的超边,得到动态超图。
在一个具体示例中,如图12所示,超图中的节点(Vertices)代表了通过步骤S101得到的提及候选实体对。每一个节点vij表示一对提及mi和它的其候选实体ej,节点的嵌入由提及和候选实体的特征嵌入拼接得到。例如,节点v21表示提及m2和与其对应的候选实体e1所构成的提及候选实体对。
超图中的超边(Hyperedges)表示的是节点之间的相关程度,每条超边是无向的,同一条超边连接的多个节点之间存在关联,且相关程度体现在超边的权重上。其中,每一条超边e可以通过其所连接的所有节点进行表示,即例如,第二超边e2可以表示为Con(e2)={v31,v21,v22};经过同一节点的所有超边可以表示为, 例如,经过节点v22的所有超边可以表示为,Adj(v22)={e1,e2,e3}。
根据上述实施方式,完成了对动态超图的构建,且各提及候选实体对的特征较好地融入至节点中,并且通过节点之间的超边可以表征出不同提及候选实体对之间的关联性。
如图4所示,在一种实施方式中,步骤S302包括:
步骤S401:针对每个节点,利用k近邻(k-Nearest Neighbor,KNN)算法获取节点的近邻节点,构建连接节点和近邻节点的超边。
可以理解的是,K近邻(k-Nearest Neighbor,KNN)算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该算法的思路是:在动态超图中,如果一个节点附近的k-1个的近邻(即特征空间中最邻近)节点的属于某一个类别,则该节点也属于这个类别。基于此,可以将具有关联性的多个节点通过超边连接建立关系。其中,可以通过交叉验证的方方确定最优的k值。
例如,在图12所示的示例中,针对节点v22,利用k近邻算法,得到节点v22的近邻节点v33和v13,利用然后构建连接节点v22、v33和v13的第一超边。
根据上述实施方式,通过利用k近邻算法构建超边,在动态超图的维度较高且节点的特征数据量较大时,可以提升超边的构建效率。
如图5所示,在一种实施方式中,构建连接至少两个节点的超边,包括:
步骤S501:针对多个节点,基于欧氏距离对多个节点进行聚类,得到多个聚类结果和多个聚类中心;
步骤S502:基于多个聚类结果和多个聚类中心,构建连接至少两个节点的超边。
示例性地,针对所有节点,基于欧氏距离,进行全局的k均值聚类算法(k-meansclustering algorithm)进行聚类,得到k个聚类结果和聚类中心。针对每一个节点,计算与节点距离最近的S-1个聚类中心,节点和属于这S-1类的所有节点共同构建起一条超边。
例如,在图12所示的示例中,针对所有节点利用k均值聚类算法进行聚类,得到一个聚类结果和聚类中心,并计算得到与聚类中心距离最近的三个节点v31、v21和v22,然后构建连接这三个节点的第二超边。
根据上述实施方式,通过利用k均值聚类算法对所有节点进行聚类,并基于得到的聚类结果和聚类中心构建超边,简化了超边的构建过程,提高了超边的构建效率。
如图6所示,在一种实施方式中,步骤S302包括:
步骤S601:针对多个节点,构建连接包含相同提及的所有节点的超边。
换而言之,针对包含相同提及的每组节点,分别构建连接每组中所有节点的超边。
例如,在图12所示的示例中,节点v11、v12和v13包含相同的提及m1,则构建连接节点v11、v12和v13的第三超边;节点v21、v22和v23包含相同的提及m2,则构建连接节点v21、v22和v23的第三超边;节点v31、v32和v33包含相同的提及m3,则构建连接节点v31、v32和v33的第三超边。
根据上述实施方式,可以针对不同节点中所包含的提及是否相同,进行超边的构建,从而表征包含相同提及的节点之间的关联性。
如图7所示,在一种实施方式中,步骤S302包括:
步骤S701:针对每个节点,将嵌入至节点的提及特征和候选实体特征融合到超边的权重特征中;
步骤S702:针对连接有同一个节点的所有超边,进行卷积处理,得到同一个节点的相关性分数;
步骤S703:基于各节点的相关性分数,选取相关性分数最大的节点对应的候选实体,作为与提及对应的目标实体。
示例性地,可以先对每个节点进行卷积处理,以将各个超边中所包含的所有节点的特征进行融合,得到各个超边的特征。然后,针对每一个超边,对超边特征进行卷积处理,得到每一个节点的相关性分数。选取相关性分数最大的节点,该节点中的提及所对应的候选实体,即为该提及对应的目标实体。
在一个具体示例中,步骤S701可以利用最大池化方法将各超边中的所有节点的特征进行融合,得到超边特征。步骤S702可以利用基于注意力机制的多层感知器,对每一个节点的所有超边进行卷积,从而得到该节点的相关性分数。
如图8所示,在一种实施方式中,步骤S102包括:
步骤S801:针对提及,计算提及的各个单词的结构化向量的平均值,以及计算提及的上下文向量特征,并对平均值和上下文向量特征进行拼接处理,得到提及特征;
步骤S802:针对候选实体,对候选实体进行多种预训练向量的特征拼接处理,得到候选实体特征。
示例性地,在步骤S801中,利用word2vec(一种词向量产生模型)处理提及,得到提及所包含的每个单词的结构化向量,并计算所有单词的结构化向量的平均值。并且,利用ELMO(一种嵌入语言模型)对提及进行处理,计算得到提及的上下文向量特征。然后,对所有单词的结构化向量的平均值和上下文向量特征进行融合处理,得到提及特征。
示例性地,在步骤S802中,实体的多种预训练向量,可以包括基于Wikipedia知识库中实体-词语共现数据的Ganea(一种词嵌入投影模型)嵌入向量、Freebase知识库中的结构化数据向量以及TransE(Translating Embedding,多元关系数据嵌入算法)分布式向量,基于这三种向量的拼接得到实体特征。
通过上述实施方式,基于知识库的统计数据和多种预训练向量,得到的提及特征和候选实体特征具有更强的表示能力,从而提升了实体链接的精准度。
如图9所示,在一种实施方式中,步骤S101包括以下中的至少一项:
步骤S901:基于知识库,计算提及与各相关实体之间的先验概率,基于先验概率,选取第一预设数量的相关实体作为与提及相关的候选实体;
步骤S902:基于知识库,计算实体嵌入向量与提及上下文嵌入向量的乘积,基于乘积,选取第二预设数量的相关实体作为与提及相关的候选实体。
示例性地,在步骤S901中,根据预先配置的数据库的统计数据,可以计算得到提及与相关实体的先验概率p(e|mi),即只根据提及mi就选择实体e的概率。其中,预先配置的数据库可以为Wikipedia知识库或YAGO知识库等。
针对每个提及,从与提及相关的实体中选择一定数量的实体作为相关实体,然后根据先验概率的大小,选取第一预设数量的相关实体作为候选实体。
例如,在先验概率p(e|mi)最高的30个相关实体中,保留前4个先验概率最高的相关实体作为与提及相关的候选实体。
示例性地,在步骤S902中,从在先验概率p(e|mi)最高的30个相关实体中,计算提及实体嵌入向量与提及上下文嵌入向量的乘积,并选取乘积最大的第二预设数量的相关实体作为候选实体。其中,第二预设数量可以为三个。
可以理解的是,候选实体的生成可以仅通过上述步骤S901实现,或者通过上述步骤S902实现,还可以通过上述步骤S901和步骤S902共同实现,即将第一预设数量的候选实体和第二预设数量的候选实体共同作为候选实体集。
通过上述实施方式,可以提高候选实体与提及之间的关联性,从而降低后续消歧过程中的计算量,提高实体链接的效率。
下面参照图13以一个具体示例描述根据本公开实施例的实体链接的方法。
如图13所示,该方法包括如下步骤:
(1)命名实体识别。针对需要进行实体链接的自然文本,通过命名实体识别技术,识别出自然文本中的提及“Scott Young”和其上下文。
(2)候选实体生成。通过知识库,获取一定数量的与提及相关的实体,并根据知识库的统计数据计算提及与各实体之间的先验概率,以及计算实体嵌入与提及上下文的嵌入乘积,基于先验概率和乘积,确定出候选实体,即图示中的“Scott_Young(writer)”、“Scott_Young(American_football)”、“Scott_Young(politician)”和“Scott_Young(Welsh_footballer)”。
(3)联合实体消歧。基于生成的候选实体,构建提及候选实体对。针对每个提及候选实体对,通过候选实体嵌入、提及嵌入以及上下文嵌入,构建动态超图的节点。然后利用K近邻算法、K-means聚类算法以及各节点中所包含提及的关系,构建超边,以形成动态超图。基于动态超图,利用最大池化方法对各节点进行卷积,得到超边特征;然后利用基于注意力机制的多层感知器,对每一个节点的所有超边进行卷积,从而得到各节点的相关性分数。选取相关性分数最大的节点作为目标节点,并将目标节点中包含的候选实体作为目标实体,输出预测结果“Scott_Young(Welsh_footballer)”。
根据本公开的实施例,本公开还提供了一种实体链接的装置。
如图10所示,该装置包括:
候选实体获取模块1001,用于基于知识库,获取与提及相关的多个候选实体,得到多个提及候选实体对;
特征提取模块1002,用于对提及和候选实体分别进行特征提取处理,得到每个提及候选实体对的提及特征和候选实体特征;
消歧模块1003,用于基于每个提及候选实体对的提及特征和候选实体特征,构建动态超图,并利用动态超图进行消歧处理,得到与提及对应的目标实体。
在一种实施方式中,消歧模块1003包括:
动态超图构建子模块,用于基于每个提及候选实体对的提及特征和候选实体特征,构建动态超图;
卷积处理子模块,用于对动态超图进行卷积处理,得到与提及对应的目标实体。
在一种实施方式中,动态超图构建子模块包括:
节点生成单元,用于针对每个提及候选实体对,生成对应的节点,并将提及候选实体对的提及特征和候选实体特征嵌入至节点;
超边生成单元,用于基于多个节点,构建连接至少两个节点的超边,得到动态超图。
在一种实施方式中,超边生成单元还用于:
针对每个节点,利用k近邻算法获取节点的近邻节点,构建连接节点和近邻节点的超边。
在一种实施方式中,超边生成单元还用于:
针对多个节点,基于欧氏距离对多个节点进行聚类,得到多个聚类结果和多个聚类中心;
基于多个聚类结果和多个聚类中心,构建连接至少两个节点的超边。
在一种实施方式中,超边生成单元还用于:
针对多个节点,构建连接包含相同提及的所有节点的超边。
在一种实施方式中,卷积处理子模块包括:
节点卷积单元,用于针对每个节点,将嵌入至节点的提及特征和候选实体特征融合到超边的权重特征中;
超边卷积单元,用于针对连接有同一个节点的所有超边,进行卷积处理,得到同一个节点的相关性分数;
目标实体确定单元,用于基于各节点的相关性分数,选取相关性分数最大的节点对应的候选实体,作为与提及对应的目标实体。
在一种实施方式中,特征提取模块1002包括:
提及特征提取子模块,用于针对提及,计算提及的各个单词的结构化向量的平均值,以及计算提及的上下文向量特征,并对平均值和上下文向量特征进行拼接处理,得到提及特征;
针对候选实体,对候选实体进行多种预训练向量的特征拼接处理,得到候选实体特征。
在一种实施方式中,候选实体获取模块1001包括以下中的至少一项:
第一候选实体获取子模块,用于基于知识库,计算提及与各相关实体之间的先验概率,基于先验概率,选取第一预设数量的相关实体作为与提及相关的候选实体;
第二候选实体获取子模块,用于基于知识库,计算实体嵌入向量与提及上下文嵌入向量的乘积,基于乘积,选取第二预设数量的相关实体作为与提及相关的候选实体。
本公开实施例各装置中的各单元、模块或子模块的功能可以参见上述方法实施例中的对应描述,在此不再赘述。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图11示出了可以用来实施本公开的实施例的示例电子设备1100的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或要求的本公开的实现。
如图11所示,电子设备1100包括计算单元1101,其可以根据存储在只读存储器(ROM)1102中的计算机程序或者从存储单元1108加载到随机访问存储器(RAM)1103中的计算机程序来执行各种适当的动作和处理。在RAM 1103中,还可存储电子设备1100操作所需的各种程序和数据。计算单元1101、ROM 1102以及RAM 1103通过总线1104彼此相连。输入输出(I/O)接口1105也连接至总线1104。
电子设备1100中的多个部件连接至I/O接口1105,包括:输入单元1106,例如键盘、鼠标等;输出单元1107,例如各种类型的显示器、扬声器等;存储单元1108,例如磁盘、光盘等;以及通信单元1109,例如网卡、调制解调器、无线通信收发机等。通信单元1109允许电子设备1100通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1101可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1101的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1101执行上文所描述的各个方法和处理,例如实体链接的方法。例如,在一些实施例中,实体链接的方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1108。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1102和/或通信单元1109而被载入和/或安装到电子设备1100上。当计算机程序加载到RAM 1103并由计算单元1101执行时,可以执行上文描述的实体链接的方法的一个或多个步骤。备选地,在其他实施例中,计算单元1101可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行实体链接的方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入、或者触觉输入来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (21)
1.一种实体链接的方法,包括:
基于知识库,获取与提及相关的多个候选实体,得到多个提及候选实体对;
对所述提及和所述候选实体分别进行特征提取处理,得到每个所述提及候选实体对的提及特征和候选实体特征;
基于每个所述提及候选实体对的提及特征和候选实体特征,构建动态超图,并利用所述动态超图进行消歧处理,得到与所述提及对应的目标实体。
2.根据权利要求1所述的方法,其中,基于每个所述提及候选实体对的提及特征和候选实体特征,构建动态超图,并利用所述动态超图进行消歧处理,得到与所述提及对应的目标实体,包括:
基于每个所述提及候选实体对的提及特征和候选实体特征,构建动态超图;
对所述动态超图进行卷积处理,得到与所述提及对应的目标实体。
3.根据权利要求1所述的方法,其中,基于每个所述提及候选实体对的提及特征和候选实体特征,构建动态超图,包括:
针对每个所述提及候选实体对,生成对应的节点,并将所述提及候选实体对的提及特征和候选实体特征嵌入至所述节点;
针对多个所述节点,构建连接至少两个所述节点的超边,得到动态超图。
4.根据权利要求3所述的方法,其中,针对多个所述节点,构建连接至少两个所述节点的超边,包括:
针对每个所述节点,利用k近邻算法获取所述节点的近邻节点,构建连接所述节点和所述近邻节点的超边。
5.根据权利要求3所述的方法,其中,针对多个所述节点,构建连接至少两个所述节点的超边,包括:
针对多个所述节点,针对欧氏距离对多个所述节点进行聚类,得到多个聚类结果和多个聚类中心;
针对多个所述聚类结果和多个所述聚类中心,构建连接至少两个所述节点的超边。
6.根据权利要求3所述的方法,其中,针对多个所述节点,构建连接至少两个所述节点的超边,包括:
针对多个所述节点,构建连接包含相同提及的所有节点的超边。
7.根据权利要求3所述的方法,其中,对所述动态超图进行卷积处理,得到与所述提及对应的目标实体,包括:
针对每个所述节点,将嵌入至所述节点的提及特征和候选实体特征融合到所述超边的权重特征中;
针对连接有同一个节点的所有超边,进行卷积处理,得到所述同一个节点的相关性分数;
基于各所述节点的相关性分数,选取所述相关性分数最大的节点所对应的候选实体,作为与所述提及对应的目标实体。
8.根据权利要求1所述的方法,其中,对所述提及和所述候选实体分别进行特征提取处理,得到每个所述提及候选实体对的提及特征和候选实体特征,包括:
针对所述提及,计算所述提及的各个单词的结构化向量的平均值,以及计算所述提及的上下文向量特征,并对所述平均值和所述上下文向量特征进行拼接处理,得到提及特征;
针对所述候选实体,对所述候选实体进行多种预训练向量的特征拼接处理,得到候选实体特征。
9.根据权利要求1所述的方法,其中,基于知识库,获取与提及相关的多个候选实体,包括以下中的至少一项:
基于知识库,计算提及与各相关实体之间的先验概率,基于所述先验概率,选取第一预设数量的相关实体作为与所述提及相关的候选实体;
基于知识库,计算实体嵌入向量与提及上下文嵌入向量的乘积,基于所述乘积,选取第二预设数量的相关实体作为与所述提及相关的候选实体。
10.一种实体链接的装置,包括:
候选实体获取模块,用于基于知识库,获取与提及相关的多个候选实体,得到多个提及候选实体对;
特征提取模块,用于对所述提及和所述候选实体分别进行特征提取处理,得到每个所述提及候选实体对的提及特征和候选实体特征;
消歧模块,用于基于每个所述提及候选实体对的提及特征和候选实体特征,构建动态超图,并利用所述动态超图进行消歧处理,得到与所述提及对应的目标实体。
11.根据权利要求10所述的装置,其中,所述消歧模块包括:
动态超图构建子模块,用于基于每个所述提及候选实体对的提及特征和候选实体特征,构建动态超图;
卷积处理子模块,用于对所述动态超图进行卷积处理,得到与所述提及对应的目标实体。
12.根据权利要求11所述的装置,其中,所述动态超图构建子模块包括:
节点生成单元,用于针对每个所述提及候选实体对,生成对应的节点,并将所述提及候选实体对的提及特征和候选实体特征嵌入至所述节点;
超边生成单元,用于基于多个所述节点,构建连接至少两个所述节点的超边,得到动态超图。
13.根据权利要求12所述的装置,其中,所述超边生成单元还用于:
针对每个所述节点,利用k近邻算法获取所述节点的近邻节点,构建连接所述节点和所述近邻节点的超边。
14.根据权利要求12所述的装置,其中,所述超边生成单元还用于:
针对多个所述节点,基于欧氏距离对多个所述节点进行聚类,得到多个聚类结果和多个聚类中心;
基于多个所述聚类结果和多个所述聚类中心,构建连接至少两个所述节点的超边。
15.根据权利要求12所述的装置,其中,所述超边生成单元还用于:
针对多个所述节点,构建连接包含相同提及的所有节点的超边。
16.根据权利要求12所述的装置,其中,所述卷积处理子模块包括:
节点卷积单元,用于针对每个所述节点,将嵌入至所述节点的提及特征和候选实体特征融合到所述超边的权重特征中;
超边卷积单元,用于针对连接有同一个节点的所有超边,进行卷积处理,得到所述同一个节点的相关性分数;
目标实体确定单元,用于基于各所述节点的相关性分数,选取所述相关性分数最大的节点对应的候选实体,作为与所述提及对应的目标实体。
17.根据权利要求10所述的装置,其中,所述特征提取模块包括:
提及特征提取子模块,用于针对所述提及,计算所述提及的各个单词的结构化向量的平均值,以及计算所述提及的上下文向量特征,并对所述平均值和所述上下文向量特征进行拼接处理,得到提及特征;
针对所述候选实体,对所述候选实体进行多种预训练向量的特征拼接处理,得到候选实体特征。
18.根据权利要求10所述的装置,其中,所述候选实体获取模块包括以下中的至少一项:
第一候选实体获取子模块,用于基于知识库,计算提及与各相关实体之间的先验概率,基于所述先验概率,选取第一预设数量的相关实体作为与所述提及相关的候选实体;
第二候选实体获取子模块,用于基于知识库,计算实体嵌入向量与提及上下文嵌入向量的乘积,基于所述乘积,选取第二预设数量的相关实体作为与所述提及相关的候选实体。
19.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至9中任一项所述的方法。
20.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使计算机执行权利要求1至9中任一项所述的方法。
21.一种计算机程序产品,包括计算机程序,该计算机程序在被处理器执行时实现根据权利要求1至9中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110314089.9A CN113033205B (zh) | 2021-03-24 | 2021-03-24 | 实体链接的方法、装置、设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110314089.9A CN113033205B (zh) | 2021-03-24 | 2021-03-24 | 实体链接的方法、装置、设备以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113033205A true CN113033205A (zh) | 2021-06-25 |
CN113033205B CN113033205B (zh) | 2023-07-25 |
Family
ID=76473382
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110314089.9A Active CN113033205B (zh) | 2021-03-24 | 2021-03-24 | 实体链接的方法、装置、设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113033205B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114647739A (zh) * | 2022-02-25 | 2022-06-21 | 北京百度网讯科技有限公司 | 实体链指方法、装置、电子设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170075891A1 (en) * | 2015-09-11 | 2017-03-16 | Google Inc. | Disambiguating join paths for natural language queries |
CN111259653A (zh) * | 2020-01-15 | 2020-06-09 | 重庆邮电大学 | 基于实体关系消歧的知识图谱问答方法、系统以及终端 |
CN111523326A (zh) * | 2020-04-23 | 2020-08-11 | 北京百度网讯科技有限公司 | 实体链指方法、装置、设备以及存储介质 |
JP2021018677A (ja) * | 2019-07-22 | 2021-02-15 | 株式会社Preferred Networks | 情報処理システム、ニューラルネットワーク構造の生成方法および情報処理プログラム |
CN112417219A (zh) * | 2020-11-16 | 2021-02-26 | 吉林大学 | 基于超图卷积的超边链接预测方法 |
CN112487168A (zh) * | 2020-12-11 | 2021-03-12 | 润联软件系统(深圳)有限公司 | 知识图谱的语义问答方法、装置、计算机设备及存储介质 |
-
2021
- 2021-03-24 CN CN202110314089.9A patent/CN113033205B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170075891A1 (en) * | 2015-09-11 | 2017-03-16 | Google Inc. | Disambiguating join paths for natural language queries |
JP2021018677A (ja) * | 2019-07-22 | 2021-02-15 | 株式会社Preferred Networks | 情報処理システム、ニューラルネットワーク構造の生成方法および情報処理プログラム |
CN111259653A (zh) * | 2020-01-15 | 2020-06-09 | 重庆邮电大学 | 基于实体关系消歧的知识图谱问答方法、系统以及终端 |
CN111523326A (zh) * | 2020-04-23 | 2020-08-11 | 北京百度网讯科技有限公司 | 实体链指方法、装置、设备以及存储介质 |
CN112417219A (zh) * | 2020-11-16 | 2021-02-26 | 吉林大学 | 基于超图卷积的超边链接预测方法 |
CN112487168A (zh) * | 2020-12-11 | 2021-03-12 | 润联软件系统(深圳)有限公司 | 知识图谱的语义问答方法、装置、计算机设备及存储介质 |
Non-Patent Citations (3)
Title |
---|
GUO-PING LIN等: "Clustering method using hypergraph models based on Set Pair Analysis", 2009 IEEE INTERNATIONAL SYMPOSIUM ON IT IN MEDICINE & EDUCATION * |
张春祥等: "一种循环神经网络的词义消歧方法", 哈尔滨理工大学学报, vol. 25, no. 1 * |
滕明岩;: "基于概念的信息抽取研究", 渤海大学学报(自然科学版), no. 02 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114647739A (zh) * | 2022-02-25 | 2022-06-21 | 北京百度网讯科技有限公司 | 实体链指方法、装置、电子设备及存储介质 |
CN114647739B (zh) * | 2022-02-25 | 2023-02-28 | 北京百度网讯科技有限公司 | 实体链指方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113033205B (zh) | 2023-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112966522B (zh) | 一种图像分类方法、装置、电子设备及存储介质 | |
CN112860866B (zh) | 语义检索方法、装置、设备以及存储介质 | |
CN111353303B (zh) | 词向量构建方法、装置、电子设备及存储介质 | |
JP7417679B2 (ja) | 情報抽出方法、装置、電子機器及び記憶媒体 | |
CN112487173A (zh) | 人机对话方法、设备和存储介质 | |
CN114861889B (zh) | 深度学习模型的训练方法、目标对象检测方法和装置 | |
CN113158687B (zh) | 语义的消歧方法及装置、存储介质、电子装置 | |
US20220138440A1 (en) | Machine translation of entities | |
CN111078842A (zh) | 查询结果的确定方法、装置、服务器及存储介质 | |
CN114782722B (zh) | 图文相似度的确定方法、装置及电子设备 | |
CN114782719B (zh) | 一种特征提取模型的训练方法、对象检索方法以及装置 | |
CN112749300A (zh) | 用于视频分类的方法、装置、设备、存储介质和程序产品 | |
CN113919424A (zh) | 文本处理模型的训练、文本处理方法、装置、设备和介质 | |
CN112906368B (zh) | 行业文本增量方法、相关装置及计算机程序产品 | |
CN113033205B (zh) | 实体链接的方法、装置、设备以及存储介质 | |
CN112989170A (zh) | 应用于信息搜索的关键词匹配方法、信息搜索方法及装置 | |
CN117290478A (zh) | 一种知识图谱问答方法、装置、设备和存储介质 | |
CN117114063A (zh) | 用于训练生成式大语言模型和用于处理图像任务的方法 | |
US20220198358A1 (en) | Method for generating user interest profile, electronic device and storage medium | |
CN116049370A (zh) | 信息查询方法和信息生成模型的训练方法、装置 | |
US11468078B2 (en) | Hierarchical data searching using tensor searching, fuzzy searching, and Bayesian networks | |
CN112925912B (zh) | 文本处理方法、同义文本召回方法及装置 | |
CN112560425B (zh) | 模板生成方法、装置、电子设备及存储介质 | |
CN111274818A (zh) | 词向量的生成方法、装置 | |
CN116244432B (zh) | 语言模型的预训练方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |