CN111506709B - 实体链接方法、装置、电子设备和存储介质 - Google Patents

实体链接方法、装置、电子设备和存储介质 Download PDF

Info

Publication number
CN111506709B
CN111506709B CN202010600786.6A CN202010600786A CN111506709B CN 111506709 B CN111506709 B CN 111506709B CN 202010600786 A CN202010600786 A CN 202010600786A CN 111506709 B CN111506709 B CN 111506709B
Authority
CN
China
Prior art keywords
entity
attention
linked
candidate
coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010600786.6A
Other languages
English (en)
Other versions
CN111506709A (zh
Inventor
李直旭
何莹
郑新
邓子恒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Iflytek Suzhou Technology Co Ltd
Original Assignee
Iflytek Suzhou Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Iflytek Suzhou Technology Co Ltd filed Critical Iflytek Suzhou Technology Co Ltd
Priority to CN202010600786.6A priority Critical patent/CN111506709B/zh
Publication of CN111506709A publication Critical patent/CN111506709A/zh
Application granted granted Critical
Publication of CN111506709B publication Critical patent/CN111506709B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明实施例提供一种实体链接方法、装置、电子设备和存储介质,其中方法包括:将待链接的实体指称所属的上下文文本中的若干个已链接实体,以及实体指称的若干个候选实体输入至实体链接模型,得到实体链接模型输出的候选链接结果;其中,实体链接模型用于基于每一已链接实体,确定每一候选实体分别对应的已链接实体注意力特征,并基于每一候选实体分别对应的已链接实体注意力特征进行实体链接;基于候选链接结果,确定实体指称的实体链接结果。本发明实施例提供的实体链接方法、装置、电子设备和存储介质,消除了无关已链接实体的干扰,提高了实体链接的准确性。

Description

实体链接方法、装置、电子设备和存储介质
技术领域
本发明涉及自然语言处理技术领域,尤其涉及一种实体链接方法、装置、电子设备和存储介质。
背景技术
随着互联网的迅速发展,网络上充斥着各类文本信息,其中包含了人名、地名和组织名等各种实体指称。由于自然语言表达的多样性,一个实体指称往往可以指向多个真实实体,因此,为了正确理解文本中的实体指称的真实含义,需要将文本中的实体指称链接到实体知识库中相应的无歧义实体上。
目前,实体链接方法主要包括以下方式:选择流行度最高的候选实体作为链接结果;或者,基于文本中所有实体指称对应的候选实体间的相关性,实现所有实体指称的链接。然而,选择流行度最高的候选实体作为链接结果的方式,完全忽略了少见的候选实体,链接准确度欠佳;基于文本中所有实体指称对应的候选实体间的相关性,进行集成链接的方式,则会受到文本中相关度较低的实体指称的干扰,导致准确度同样欠佳。
发明内容
本发明实施例提供一种实体链接方法、装置、电子设备和存储介质,用以解决现有实体链接方法准确性欠佳的问题。
第一方面,本发明实施例提供一种实体链接方法,包括:
将待链接的实体指称所属的上下文文本中的若干个已链接实体,以及所述实体指称的若干个候选实体输入至实体链接模型,得到所述实体链接模型输出的候选链接结果;
其中,所述实体链接模型是基于样本实体指称所属的上下文文本中的若干个样本已链接实体、所述样本实体指称的若干个样本候选实体,以及样本链接结果训练得到的;所述实体链接模型用于基于每一已链接实体,确定每一候选实体分别对应的已链接实体注意力特征,并基于每一候选实体分别对应的已链接实体注意力特征进行实体链接;
基于所述候选链接结果,确定所述实体指称的实体链接结果。
可选地,所述将待链接的实体指称所属的上下文文本中的若干个已链接实体,以及所述实体指称的若干个候选实体输入至实体链接模型,得到所述实体链接模型输出的候选链接结果,具体包括:
将每一已链接实体的词向量输入至所述实体链接模型的实体关联编码层,得到所述实体关联编码层输出的每一已链接实体的实体关联编码向量;
将每一已链接实体的实体关联编码向量,以及任一候选实体的词向量输入至所述实体链接模型的注意力特征表示层,得到所述注意力特征表示层输出的所述任一候选实体对应的已链接实体注意力特征;
将每一候选实体的词向量及其对应的已链接实体注意力特征输入至所述实体链接模型的结果输出层,得到所述结果输出层输出的所述候选链接结果。
可选地,所述注意力特征表示层包括若干个串联的注意力迭代编码层;
所述将每一已链接实体的实体关联编码向量,以及任一候选实体的词向量输入至所述实体链接模型的注意力特征表示层,得到所述注意力特征表示层输出的所述任一候选实体对应的已链接实体注意力特征,具体包括:
将每一已链接实体的实体关联编码向量,以及上一注意力迭代编码层输出的注意力编码特征输入至当前注意力迭代编码层,得到所述当前注意力迭代编码层输出的注意力编码特征;
其中,首个注意力迭代编码层的输入包括每一已链接实体的实体关联编码向量,以及任一候选实体的词向量;所述任一候选实体对应的已链接实体注意力特征为末层注意力迭代编码层输出的注意力编码特征。
可选地,所述将每一已链接实体的实体关联编码向量,以及上一注意力迭代编码层输出的注意力编码特征输入至当前注意力迭代编码层,得到所述当前注意力迭代编码层输出的注意力编码特征,具体包括:
将每一已链接实体的实体关联编码向量和上一注意力迭代编码层输出的注意力编码特征输入至所述当前注意力迭代编码层的注意力变换层,得到所述注意力变换层输出的注意力向量;
将所述注意力向量和上一注意力迭代编码层输出的注意力编码特征输入至所述当前注意力迭代编码层的循环编码层,得到所述循环编码层输出的注意力编码特征。
可选地,所述基于所述候选链接结果,确定所述实体指称的实体链接结果,具体包括:
基于所述上下文文本,以及所述若干个候选实体,确定所述实体指称的文本链接结果;
基于所述候选链接结果和所述文本链接结果,确定所述实体指称的实体链接结果。
可选地,所述基于所述上下文文本,以及所述若干个候选实体,确定所述实体指称的文本链接结果,具体包括:
基于所述上下文文本中的每一分词,确定所述实体指称的上下文语义特征;
基于所述实体指称的上下文语义特征和每一候选实体的词向量,确定所述文本链接结果。
可选地,所述基于所述上下文文本,确定所述实体指称的上下文语义特征,具体包括:
基于所述上下文文本中每一分词的词向量,确定每一分词的上下文向量;
对每一分词的上下文向量进行自注意力变换,确定所述实体指称的上下文语义特征。
第二方面,本发明实施例提供一种实体链接装置,包括:
候选链接结果确定单元,用于将待链接的实体指称所属的上下文文本中的若干个已链接实体,以及所述实体指称的若干个候选实体输入至实体链接模型,得到所述实体链接模型输出的候选链接结果;
其中,所述实体链接模型是基于样本实体指称所属的上下文文本中的若干个样本已链接实体、所述样本实体指称的若干个样本候选实体,以及样本链接结果训练得到的;所述实体链接模型用于基于每一已链接实体,确定每一候选实体分别对应的已链接实体注意力特征,并基于每一候选实体分别对应的已链接实体注意力特征进行实体链接;
实体链接结果确定单元,用于基于所述候选链接结果,确定所述实体指称的实体链接结果。
第三方面,本发明实施例提供一种电子设备,包括处理器、通信接口、存储器和总线,其中,处理器,通信接口,存储器通过总线完成相互间的通信,处理器可以调用存储器中的逻辑命令,以执行如第一方面所提供的方法的步骤。
第四方面,本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面所提供的方法的步骤。
本发明实施例提供的一种实体链接方法、装置、电子设备和存储介质,基于每一已链接实体,确定每一候选实体分别对应的已链接实体注意力特征,并基于每一候选实体分别对应的已链接实体注意力特征进行实体链接得到候选链接结果,消除了无关已链接实体的干扰,提高了实体链接的准确性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的实体链接方法的流程示意图;
图2为本发明实施例的实体链接模型运行方法的流程示意图;
图3为本发明实施例的注意力迭代编码层运行方法的流程示意图;
图4为本发明实施例的文本链接结果确定方法的流程示意图;
图5为本发明实施例的上下文语义特征提取方法的流程示意图;
图6为本发明实施例的实体链接模型的结构示意图;
图7为本发明实施例的实体链接装置的结构示意图;
图8为本发明实施例的电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
互联网每天都会产生海量的文本信息,其中包含了人名,地名,组织名等各类实体指称。为了有效的挖掘和利用这些实体指称包含的信息,需要理解各个实体指称的真实含义。然而,由于自然语言表达的多样性,同一个实体指称往往可以指向多个真实的实体。例如,Michael Jordan既可以代指著名的篮球明星,也可以代指计算机领域的一位学者。因此,为了正确理解各个实体指称在文本中对应的真实含义,需要将实体指称链接到实体知识库中相应的无歧义实体上。
目前,实体链接方法主要包括以下方式:选择流行度最高的候选实体作为链接结果;或者,基于文本中所有实体指称对应的候选实体间的相关性,实现所有实体指称的集成链接。其中,选择流行度最高的候选实体作为链接结果,需要事先利用统计学的方法获取各候选实体的流行度,而常用的流行度统计方法一般是统计每个候选实体在实体知识库中被链接的次数。对于所有实体指称的集成链接的方式,通常会将其转换为序列化决策模型,即每一个新的实体指称的链接决策,均依赖于之前已经链接好的实体指称的链接结果。例如,对于文本“Michael Jordan is an American retired professional basketballplayer, he won his first NBA champion with Scottie Pippen”中的实体指称“Scottie Pippen”,可以根据已链接的实体指称“Michael Jordan”对应的链接结果,得知“Scottie Pippen”应该也是篮球运动员Scottie Pippen。
然而,选择流行度最高的候选实体作为链接结果的方式,完全忽略了少见的候选实体,链接准确度欠佳。而基于文本中所有实体指称对应的候选实体间的相关性,进行集成链接的方式,则会因为文本中可能包含不止一种主题,存在部分相关度较低的实体指称,导致实体指称的链接决策会被无用信息干扰,使得链接准确度也欠佳。
对此,本发明实施例提供了一种实体链接方法。图1为本发明实施例提供的实体链接方法的流程示意图,如图1所示,该方法包括:
步骤110,将待链接的实体指称所属的上下文文本中的若干个已链接实体,以及实体指称的若干个候选实体输入至实体链接模型,得到实体链接模型输出的候选链接结果;
其中,实体链接模型是基于样本实体指称所属的上下文文本中的若干个样本已链接实体、样本实体指称的若干个样本候选实体,以及样本链接结果训练得到的;
实体链接模型用于基于每一已链接实体,确定每一候选实体分别对应的已链接实体注意力特征,并基于每一候选实体分别对应的已链接实体注意力特征进行实体链接。
此处,待链接的实体指称即文本中需要进行实体链接的实体mention,已链接实体是指该实体指称所属的上下文文本中已链接完成的实体mention所对应的知识图谱实体,候选实体是指该实体指称可能链接的知识图谱实体。其中,待链接的实体指称所属的上下文文本可以是包含有该实体指称的分句或者语段等,本发明实施例对此不作具体限定。
实体链接模型用于基于待链接的实体指称对应的若干个已链接实体,以及该实体指称对应的若干个候选实体,确定该实体指称的候选链接结果。其中,候选链接结果可以为该实体指称链接到每个候选实体的概率。
考虑到同一段文本中的实体指称通常会表达相同主题的语义信息,因此同一段文本中的实体指称之间相关程度较高,相应地,各实体指称链接到的知识图谱实体之间的相关程度也较高。因而,待链接的实体指称对应的候选实体,与该实体指称所属的上下文文本中已链接实体构成的整体之间的相关程度越高,该候选实体越有可能被链接。
然而,不能排除该实体指称对应的若干个已链接实体中存在部分与其相关程度不高的已链接实体的情形。因此,为了消除这些无关已链接实体对该实体指称的链接结果的干扰,实体链接模型针对任一候选实体,均会基于注意力机制,对所有已链接实体构成的整体进行编码,削弱无关已链接实体的语义信息,从而得到该候选实体对应的已链接实体注意力特征。此处,任一候选实体对应的已链接实体注意力特征中包含了已链接实体整体中与该候选实体紧密相关的语义信息。得到每一候选实体分别对应的已链接实体注意力特征之后,实体链接模型即可基于每一候选实体分别对应的已链接实体注意力特征,分析每一候选实体与已链接实体构成的整体之间的相关程度,从而确定候选链接结果。
另外,在执行步骤110之前,还可以预先训练得到实体链接模型,具体可通过如下方式训练得到实体链接模型:首先,收集样本实体指称所属的上下文文本中的若干个样本已链接实体,以及样本实体指称的若干个样本候选实体,并标注样本实体指称的样本链接结果。随即,利用样本实体指称所属的上下文文本中的若干个样本已链接实体、样本实体指称的若干个样本候选实体,以及样本链接结果对初始模型进行训练,从而得到实体链接模型。
步骤120,基于候选链接结果,确定实体指称的实体链接结果。
此处,实体链接结果是指待链接的实体指称链接到的知识图谱实体,实体链接结果为该实体指称的若干个候选实体中的一个。得到实体链接模型输出的候选链接结果后,可以基于候选链接结果,从待链接的实体指称的候选实体中选取最有可能被链接到的候选实体,作为实体链接结果。可选地,可以基于候选链接结果中各个候选实体被链接的概率,直接选取被链接概率最大的候选实体作为实体链接结果。
本发明实施例提供的方法,基于每一已链接实体,确定每一候选实体分别对应的已链接实体注意力特征,并基于每一候选实体分别对应的已链接实体注意力特征进行实体链接得到候选链接结果,消除了无关已链接实体的干扰,提高了实体链接的准确性。
基于上述实施例,图2为本发明实施例提供的实体链接模型运行方法的流程示意图,如图2所示,步骤110具体包括:
步骤111,将每一已链接实体的词向量输入至实体链接模型的实体关联编码层,得到实体关联编码层输出的每一已链接实体的实体关联编码向量。
具体地,实体关联编码层用于挖掘输入的每一已链接实体词向量之间的关联关系,并对每一已链接实体进行编码,得到每一已链接实体的实体关联编码向量。此处,任一已链接实体的实体关联编码向量中包含了该已链接实体本身的语义信息以及与其存在关联关系的其它已链接实体的语义信息。由于同一段文本中的已链接实体之间可能存在多种关系,例如Michael Jordan和Scottie Pippen之间既存在队友关系,也存在朋友关系,挖掘出各个已链接实体之间存在的多种关联关系,可以将更相关的已链接实体的语义信息聚合起来,丰富了各个已链接实体的语义信息,有助于提高后续实体链接的准确性。可选地,可以采用LSTM(Long Short-Term Memory,长短时记忆网络)或者BiLSTM(BidirectionalLong Short-Term Memory,双向长短时记忆网络)等网络结构构建实体关联编码层,本发明实施例对此不作具体限定。
步骤112,将每一已链接实体的实体关联编码向量,以及任一候选实体的词向量输入至实体链接模型的注意力特征表示层,得到注意力特征表示层输出的该候选实体对应的已链接实体注意力特征。
具体地,注意力特征表示层用于对每一已链接实体的实体关联编码向量,以及任一候选实体的词向量进行注意力变换,削弱每一已链接实体的实体关联编码向量中与该候选实体无关的语义信息,以消除无关已链接实体的干扰,然后编码得到该候选实体对应的已链接实体注意力特征。
步骤113,将每一候选实体的词向量及其对应的已链接实体注意力特征输入至实体链接模型的结果输出层,得到结果输出层输出的候选链接结果。
具体地,结果输出层用于分析每一候选实体的词向量及其对应的已链接实体注意力特征之间的相关程度,从而确定候选链接结果。
本发明实施例提供的方法,通过挖掘每一已链接实体的词向量之间的关联关系,从而得到每一已链接实体的实体关联编码向量,丰富了每一已链接实体的语义信息,进而基于每一已链接实体的实体关联编码向量,以及任一候选实体的词向量,得到该候选实体对应的已链接实体注意力特征,最后基于每一候选实体的词向量及其对应的已链接实体注意力特征,确定候选链接结果,提高了实体链接的准确性。
基于上述任一实施例,注意力特征表示层包括若干个串联的注意力迭代编码层。对应地,步骤112具体包括:
将每一已链接实体的实体关联编码向量,以及上一注意力迭代编码层输出的注意力编码特征输入至当前注意力迭代编码层,得到当前注意力迭代编码层输出的注意力编码特征;
其中,首个注意力迭代编码层的输入包括每一已链接实体的实体关联编码向量,以及任一候选实体的词向量;该候选实体对应的已链接实体注意力特征为末层注意力迭代编码层输出的注意力编码特征。
具体地,注意力特征表示层中设置了若干个串联的注意力迭代编码层,其中,任一注意力迭代编码层用于对每一已链接实体的实体关联编码向量,以及上一注意力迭代编码层输出的注意力编码特征进行注意力变换,然后编码得到该注意力迭代编码层对应的注意力编码特征。最终得到的末层注意力迭代编码层输出的注意力编码特征,即为该候选实体对应的已链接实体注意力特征。需要说明的是,首个注意力迭代编码层的输入包括每一已链接实体的实体关联编码向量,以及该候选实体的词向量,该首个注意力迭代编码层用于对每一已链接实体的实体关联编码向量,以及该候选实体的词向量进行注意力变换,然后编码得到对应的注意力编码特征。
由于每个注意力迭代编码层,在进行注意力变换时,会关注到不同的重要信息,上述多个注意力迭代编码层分别进行注意力变化的多跳注意力机制能够有效增强多个注意力迭代编码层串联构成的注意力特征表示层的表达能力。因此,最终输出的任一候选实体对应的已链接实体注意力特征中可以包含更丰富、更准确的语义信息,能够进一步提高实体链接的准确性。
本发明实施例提供的方法,基于若干个串联的注意力迭代编码层,进行多次注意力变换,可使得任一候选实体对应的已链接实体注意力特征中包含更丰富、更准确的语义信息,并进一步提高实体链接的准确性。
基于上述任一实施例,图3为本发明实施例提供的注意力迭代编码层运行方法的流程示意图,如图3所示,将每一已链接实体的实体关联编码向量,以及上一注意力迭代编码层输出的注意力编码特征输入至当前注意力迭代编码层,得到当前注意力迭代编码层输出的注意力编码特征,具体包括:
步骤1121,将每一已链接实体的实体关联编码向量和上一注意力迭代编码层输出的注意力编码特征输入至当前注意力迭代编码层的注意力变换层,得到注意力变换层输出的注意力向量。
具体地,注意力变换层用于对每一已链接实体的实体关联编码向量和上一注意力迭代编码层输出的注意力编码特征进行注意力变换,得到每一已链接实体对应的注意力程度。进而,基于每一已链接实体的注意力程度,以及每一已链接实体的实体关联编码向量,将每一已链接实体中的重要语义信息整合,得到注意力向量。
此外,为了进一步提高注意力变换层的表达能力,注意力变换层可以参考记忆网络的结构进行构建,可以将每一已链接实体的实体关联编码向量分别映射到两个不同的向量空间,变换得到每一已链接实体的第一空间编码向量和第二空间编码向量。随即,对每一已链接实体的第一空间编码向量和上一注意力迭代编码层输出的注意力编码特征进行注意力变换,得到每一已链接实体对应的注意力程度。然后,基于每一已链接实体对应的注意力程度,以及每一已链接实体的第二空间编码向量,确定注意力向量。可选地,可以将任一已链接实体对应的注意力程度作为该已链接实体的权重,对每一已链接实体的第二空间编码向量进行加权求和,得到注意力向量。
步骤1122,将注意力向量和上一注意力迭代编码层输出的注意力编码特征输入至当前注意力迭代编码层的循环编码层,得到循环编码层输出的注意力编码特征。
由于每一个新的待链接实体指称的链接决策,均依赖于其上下文文本中的已链接实体,若已链接实体存在链接错误的问题,则会导致该待链接实体指称以及之后的待链接实体指称在错误信息的基础上进行链接,造成错误的累加。
为了避免此问题,本发明实施例在每个注意力迭代编码层中均设置了循环编码层,用于融合注意力向量和上一注意力迭代编码层输出的注意力编码特征。循环编码层在训练过程中,在样本链接结果的指导下,会学习到如何丢弃注意力向量和上一注意力迭代编码层输出的注意力编码特征中的错误信息,并融合注意力向量和上一注意力迭代编码层输出的注意力编码特征中有助于确定正确链接结果的有用信息。因此,循环编码层可以阻碍链接错误的已链接实体的错误信息被传递到下一个注意力迭代编码层或者结果输出层,从而避免了错误累加的问题。可选地,循环编码层可以基于RNN(Recurrent NeuralNetworks,循环神经网络)、LSTM或者GRU(Gated Recurrent Unit,门控循环单元)构建得到,本发明实施例对此不作具体限定。
本发明实施例提供的方法,基于每一已链接实体的实体关联编码向量和上一注意力迭代编码层输出的注意力编码特征,确定注意力变换层输出的注意力向量,并利用循环编码层融合注意力向量和上一注意力迭代编码层输出的注意力编码特征中的有用信息,避免了错误累加问题,提高了实体链接模型的鲁棒性。
基于上述任一实施例,步骤113具体包括:
将任一候选实体的词向量及其对应的已链接实体注意力特征输入至结果输出层的匹配层,得到匹配层输出的该候选实体的词向量及其对应的已链接实体注意力特征之间的相似度。
具体地,匹配层用于将任一候选实体的词向量及其对应的已链接实体注意力特征进行匹配,得到该候选实体的词向量及其对应的已链接实体注意力特征之间的相似度。其中,任一候选实体的词向量及其对应的已链接实体注意力特征之间的相似度越高,则代表该候选实体与待链接的实体指称更相关,也更有可能将待链接的实体指称链接到该候选实体。
将每一候选实体的词向量及其对应的已链接实体注意力特征之间的相似度输入至结果输出层的链接结果确定层,得到链接结果确定层输出的候选链接结果。
具体地,链接结果确定层用于基于每一候选实体的词向量及其对应的已链接实体注意力特征之间的相似度,确定候选链接结果。可选地,可以基于每一候选实体的词向量及其对应的已链接实体注意力特征之间的相似度,直接确定每一候选实体被链接的概率,并作为候选链接结果输出;也可以选取相似度高于预设阈值的候选实体,或者相似度最高的预设数量个候选实体,然后确定其被链接的概率,并作为候选链接结果输出,本发明实施例对此不作具体限定。
由于待链接的实体指称通常较短,实体指称本身所包含的语义信息较少,因此,若仅基于待链接实体指称本身的语义信息进行实体链接,准确性欠佳。另外,部分实体链接方式会从待链接实体指称的上下文文本中挑选若干个比较有代表性的分词,再基于上述比较有代表性的分词与每个候选实体间的相似度,进行实体链接。然而,由于自然语言具有一定的复杂性,几个分词的语义信息并不能覆盖整段文本的语义信息,导致该种方式会漏掉上下文文本中的语义信息,从而造成链接结果的准确性不足。
对此,基于上述任一实施例,步骤120具体包括:
基于上下文文本,以及若干个候选实体,确定实体指称的文本链接结果。
具体地,考虑到待链接实体指称的上下文文本的语义信息与该实体指称的语义信息相关程度也较高,且上下文文本的语义信息相对于该实体指称本身的语义信息更丰富,因此还可以基于该实体指称所属上下文文本整体的语义信息,以及该实体指称对应的若干个候选结果的语义信息,确定该实体指称的文本链接结果。此处,文本链接结果可以为该实体指称链接到每个候选实体的概率。
基于候选链接结果和文本链接结果,确定实体指称的实体链接结果。
具体地,将候选链接结果和文本链接结果融合,得到待链接的实体指称最终的实体链接结果。将候选链接结果和文本链接结果融合,可以使两种不同方式得到的链接结果相互补充,以得到更准确的实体链接结果。
其中,候选链接结果和文本链接结果的融合方式包括:直接将候选链接结果和文本链接结果相加,并选取链接概率最高的候选实体作为实体链接结果;或者,基于预先设定的权重,对候选链接结果和文本链接结果进行加权求和,并选取链接概率最高的候选实体作为实体链接结果;又或者,考虑到人工设定候选链接结果和文本链接结果的权重不够灵活,无法适应不同场景,可以利用前馈神经网络自动为候选链接结果和文本链接结果分配权重,提高权重分配的准确性,再对候选链接结果和文本链接结果进行加权求和,并选取链接概率最高的候选实体作为实体链接结果,本发明实施例对融合方式不作具体限定。
本发明实施例提供的方法,基于实体指称上下文文本的整体语义,确定文本链接结果,并融合候选链接结果和文本链接结果,以使两种不同方式得到的链接结果相互补充,进一步提高了实体链接的准确性。
对此,基于上述任一实施例,图4为本发明实施例提供的文本链接结果确定方法的流程示意图,如图4所示,基于上下文文本,以及若干个候选实体,确定实体指称的文本链接结果,具体包括:
步骤1211,基于上下文文本中的每一分词,确定实体指称的上下文语义特征;
步骤1212,基于实体指称的上下文语义特征和每一候选实体的词向量,确定文本链接结果。
具体地,基于待链接的实体指称的上下文文本中的每一分词,首先提取每一分词的语义信息,并基于每一分词的语义信息,整合得到该实体指称的上下文语义特征。其中,上下文语义特征中包含了该实体指称的上下文文本整体的语义信息。随即,将实体指称的上下文语义特征和每一候选实体的词向量进行匹配,得到实体指称的上下文语义特征和每一候选实体的词向量间的相似度,从而得到文本链接结果。
本发明实施例提供的方法,基于上下文文本中的每一分词,确定实体指称的上下文语义特征,保证了上下文语义表达的完整性,避免了语义偏差,从而进一步提高实体链接的准确性。
基于上述任一实施例,图5为本发明实施例提供的上下文语义特征提取方法的流程示意图,如图5所示,步骤1211具体包括:
步骤1211-1,基于上下文文本中每一分词的词向量,确定每一分词的上下文向量;
步骤1211-2,对每一分词的上下文向量进行自注意力变换,确定实体指称的上下文语义特征。
具体地,考虑到同一分词在不同的上下文语境中可能具有不同的含义,因此为了提取每一分词准确的语义信息,可以基于上下文文本中的每一分词的词向量,确定每一分词的上下文向量。可选地,可以采用RNN、LSTM或者BILSTM等神经网络模型提取上下文文本中每一分词的上下文向量,本发明实施例对此不作具体限定。
此外,在上下文文本中,并非每个分词都是同等重要的,因此可以利用自注意力机制,对每一分词的上下文向量进行自注意力变换,得到每一分词的重要程度。然后,基于每一分词的重要程度,以及每一分词的上下文向量,确定实体指称的上下文语义特征,以增强上下文语义特征中重要分词的语义信息,从而提高上下文语义特征的语义表达准确度。可选地,可以将每一分词的重要程度作为每一分词的权重,对每一分词的上下文向量进行加权求和,得到上下文语义特征。
本发明实施例提供的方法,通过获取每一分词的上下文向量,并对每一分词的上下文向量进行自注意力变换,进而确定上下文语义特征,提高了上下文语义特征的语义表达准确度。
基于上述任一实施例,图6为本发明实施例提供的实体链接模型的结构示意图,如图6所示,实体链接模型包括:实体关联编码层、注意力特征表示层和结果输出层。其中,注意力特征表示层包括若干个串联的注意力迭代编码层,图6中示例性地给出了包含三个串联的注意力迭代编码层的注意力特征表示层结构,可以理解的是,本发明实施例不对注意力迭代编码层的数量作出具体限定。每个注意力迭代编码层中均包括注意力变换层和循环编码层。
其中,实体关联编码层用于基于每一已链接实体的词向量,确定每一已链接实体的实体关联编码向量L1,L2,…,Lt。图6中,词向量e1、e2和et分别为第1个、第2个和第t个已链接实体的词向量,实体关联编码向量L1、L2和Lt分别为第1个、第2个和第t个已链接实体的实体关联编码向量。任一注意力迭代编码层中的注意力变换层用于基于每一已链接实体的实体关联编码向量L1,L2,…,Lt,以及上一注意力迭代编码层输出的注意力编码特征,确定注意力向量。任一注意力迭代编码层中的循环编码层用于基于注意力向量和上一注意力迭代编码层输出的注意力编码特征,确定该注意力迭代编码层对应的注意力编码特征。需要说明的是,首个注意力迭代编码层中的注意力变换层的输入为每一已链接实体的实体关联编码向量和任一候选实体的词向量,循环编码层的输入为注意力变换层输出的注意力向量和该候选实体的词向量。结果输出层用于基于每一候选实体的词向量及其对应的已链接实体注意力特征,确定候选链接结果。
需要说明的是,图6中仅示出了候选实体i对应的已链接实体注意力特征的获取流程,可以理解的是,其他候选实体对应的已链接实体注意力特征的获取流程与图6中所示流程是相同的。
基于上述任一实施例,图7为本发明实施例提供的实体链接装置的结构示意图,如图7所示,该装置包括候选链接结果确定单元710和实体链接结果确定单元720。
其中,候选链接结果确定单元710用于将待链接的实体指称所属的上下文文本中的若干个已链接实体,以及实体指称的若干个候选实体输入至实体链接模型,得到实体链接模型输出的候选链接结果;
其中,实体链接模型是基于样本实体指称所属的上下文文本中的若干个样本已链接实体、样本实体指称的若干个样本候选实体,以及样本链接结果训练得到的;实体链接模型用于基于每一已链接实体,确定每一候选实体分别对应的已链接实体注意力特征,并基于每一候选实体分别对应的已链接实体注意力特征进行实体链接;
实体链接结果确定单元720用于基于候选链接结果,确定实体指称的实体链接结果。
本发明实施例提供的装置,基于每一已链接实体,确定每一候选实体分别对应的已链接实体注意力特征,并基于每一候选实体分别对应的已链接实体注意力特征进行实体链接得到候选链接结果,消除了无关已链接实体的干扰,提高了实体链接的准确性。
基于上述任一实施例,候选链接结果确定单元710具体包括:
实体关联编码单元,用于将每一已链接实体的词向量输入至实体链接模型的实体关联编码层,得到实体关联编码层输出的每一已链接实体的实体关联编码向量;
注意力特征表示单元,用于将每一已链接实体的实体关联编码向量,以及任一候选实体的词向量输入至实体链接模型的注意力特征表示层,得到注意力特征表示层输出的该候选实体对应的已链接实体注意力特征;
结果输出单元,用于将每一候选实体的词向量及其对应的已链接实体注意力特征输入至实体链接模型的结果输出层,得到结果输出层输出的候选链接结果。
本发明实施例提供的装置,通过挖掘每一已链接实体的词向量之间的关联关系,从而得到每一已链接实体的实体关联编码向量,丰富了每一已链接实体的语义信息,进而基于每一已链接实体的实体关联编码向量,以及任一候选实体的词向量,得到该候选实体对应的已链接实体注意力特征,最后基于每一候选实体的词向量及其对应的已链接实体注意力特征,确定候选链接结果,提高了实体链接的准确性。
基于上述任一实施例,注意力特征表示层包括若干个串联的注意力迭代编码层,注意力特征表示单元包括多个对应的注意力迭代编码子单元。
注意力迭代编码子单元用于将每一已链接实体的实体关联编码向量,以及上一注意力迭代编码层输出的注意力编码特征输入至当前注意力迭代编码层,得到当前注意力迭代编码层输出的注意力编码特征;
其中,首个注意力迭代编码层的输入包括每一已链接实体的实体关联编码向量,以及任一候选实体的词向量;该候选实体对应的已链接实体注意力特征为末层注意力迭代编码层输出的注意力编码特征。
本发明实施例提供的装置,基于若干个串联的注意力迭代编码层,进行多次注意力变换,可使得任一候选实体对应的已链接实体注意力特征中包含更丰富、更准确的语义信息,并进一步提高实体链接的准确性。
基于上述任一实施例,注意力迭代编码子单元具体用于:
将每一已链接实体的实体关联编码向量和上一注意力迭代编码层输出的注意力编码特征输入至当前注意力迭代编码层的注意力变换层,得到注意力变换层输出的注意力向量;
将注意力向量和上一注意力迭代编码层输出的注意力编码特征输入至当前注意力迭代编码层的循环编码层,得到循环编码层输出的注意力编码特征。
本发明实施例提供的装置,基于每一已链接实体的实体关联编码向量和上一注意力迭代编码层输出的注意力编码特征,确定注意力变换层输出的注意力向量,并利用循环编码层融合注意力向量和上一注意力迭代编码层输出的注意力编码特征中的有用信息,避免了错误累加问题,提高了实体链接模型的鲁棒性。
基于上述任一实施例,结果输出单元具体包括:
匹配单元,用于将任一候选实体的词向量及其对应的已链接实体注意力特征输入至结果输出层的匹配层,得到匹配层输出的该候选实体的词向量及其对应的已链接实体注意力特征之间的相似度;
候选链接结果确定单元,用于将每一候选实体的词向量及其对应的已链接实体注意力特征之间的相似度输入至结果输出层的链接结果确定层,得到链接结果确定层输出的候选链接结果。
基于上述任一实施例,实体链接结果确定单元720具体包括:
文本链接结果确定单元,用于基于上下文文本,以及若干个候选实体,确定实体指称的文本链接结果;
实体链接结果输出单元,用于基于候选链接结果和文本链接结果,确定实体指称的实体链接结果。
本发明实施例提供的装置,基于实体指称上下文文本的整体语义,确定文本链接结果,并融合候选链接结果和文本链接结果,以使两种不同方式得到的链接结果相互补充,进一步提高了实体链接的准确性。
基于上述任一实施例,文本链接结果确定单元具体包括:
上下文语义特征提取单元,用于基于上下文文本中的每一分词,确定实体指称的上下文语义特征;
文本链接结果输出单元,用于基于实体指称的上下文语义特征和每一候选实体的词向量,确定文本链接结果。
本发明实施例提供的装置,基于上下文文本中的每一分词,确定实体指称的上下文语义特征,保证了上下文语义表达的完整性,避免了语义偏差,从而进一步提高实体链接的准确性。
基于上述任一实施例,上下文语义特征提取单元具体包括:
上下文向量提取单元,用于基于上下文文本中每一分词的词向量,确定每一分词的上下文向量;
上下文语义特征输出单元,用于对每一分词的上下文向量进行自注意力变换,确定实体指称的上下文语义特征。
本发明实施例提供的装置,通过获取每一分词的上下文向量,并对每一分词的上下文向量进行自注意力变换,进而确定上下文语义特征,提高了上下文语义特征的语义表达准确度。
图8为本发明实施例提供的电子设备的结构示意图,如图8所示,该电子设备可以包括:处理器(processor)810、通信接口(Communications Interface)820、存储器(memory)830和通信总线840,其中,处理器810,通信接口820,存储器830通过通信总线840完成相互间的通信。处理器810可以调用存储器830中的逻辑命令,以执行如下方法:将待链接的实体指称所属的上下文文本中的若干个已链接实体,以及所述实体指称的若干个候选实体输入至实体链接模型,得到所述实体链接模型输出的候选链接结果;其中,所述实体链接模型是基于样本实体指称所属的上下文文本中的若干个样本已链接实体、所述样本实体指称的若干个样本候选实体,以及样本链接结果训练得到的;所述实体链接模型用于基于每一已链接实体,确定每一候选实体分别对应的已链接实体注意力特征,并基于每一候选实体分别对应的已链接实体注意力特征进行实体链接;基于所述候选链接结果,确定所述实体指称的实体链接结果。
此外,上述的存储器830中的逻辑命令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干命令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本发明实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的方法,例如包括:将待链接的实体指称所属的上下文文本中的若干个已链接实体,以及所述实体指称的若干个候选实体输入至实体链接模型,得到所述实体链接模型输出的候选链接结果;其中,所述实体链接模型是基于样本实体指称所属的上下文文本中的若干个样本已链接实体、所述样本实体指称的若干个样本候选实体,以及样本链接结果训练得到的;所述实体链接模型用于基于每一已链接实体,确定每一候选实体分别对应的已链接实体注意力特征,并基于每一候选实体分别对应的已链接实体注意力特征进行实体链接;基于所述候选链接结果,确定所述实体指称的实体链接结果。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干命令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种实体链接方法,其特征在于,包括:
将待链接的实体指称所属的上下文文本中的若干个已链接实体,以及所述实体指称的若干个候选实体输入至实体链接模型,得到所述实体链接模型输出的候选链接结果;
其中,所述实体链接模型是基于样本实体指称所属的上下文文本中的若干个样本已链接实体、所述样本实体指称的若干个样本候选实体,以及样本链接结果训练得到的;所述实体链接模型用于基于每一已链接实体,确定每一候选实体分别对应的已链接实体注意力特征,并基于每一候选实体分别对应的已链接实体注意力特征进行实体链接;任一候选实体对应的已链接实体注意力特征是基于每一已链接实体的实体关联编码向量,以及所述任一候选实体的词向量确定得到的;
基于所述候选链接结果,确定所述实体指称的实体链接结果。
2.根据权利要求1所述的实体链接方法,其特征在于,所述将待链接的实体指称所属的上下文文本中的若干个已链接实体,以及所述实体指称的若干个候选实体输入至实体链接模型,得到所述实体链接模型输出的候选链接结果,具体包括:
将每一已链接实体的词向量输入至所述实体链接模型的实体关联编码层,得到所述实体关联编码层输出的每一已链接实体的实体关联编码向量;
将每一已链接实体的实体关联编码向量,以及任一候选实体的词向量输入至所述实体链接模型的注意力特征表示层,得到所述注意力特征表示层输出的所述任一候选实体对应的已链接实体注意力特征;
将每一候选实体的词向量及其对应的已链接实体注意力特征输入至所述实体链接模型的结果输出层,得到所述结果输出层输出的所述候选链接结果。
3.根据权利要求2所述的实体链接方法,其特征在于,所述注意力特征表示层包括多个串联的注意力迭代编码层;
所述将每一已链接实体的实体关联编码向量,以及任一候选实体的词向量输入至所述实体链接模型的注意力特征表示层,得到所述注意力特征表示层输出的所述任一候选实体对应的已链接实体注意力特征,具体包括:
将每一已链接实体的实体关联编码向量,以及上一注意力迭代编码层输出的注意力编码特征输入至当前注意力迭代编码层,得到所述当前注意力迭代编码层输出的注意力编码特征;
其中,首个注意力迭代编码层的输入包括每一已链接实体的实体关联编码向量,以及任一候选实体的词向量;所述任一候选实体对应的已链接实体注意力特征为末层注意力迭代编码层输出的注意力编码特征。
4.根据权利要求3所述的实体链接方法,其特征在于,所述将每一已链接实体的实体关联编码向量,以及上一注意力迭代编码层输出的注意力编码特征输入至当前注意力迭代编码层,得到所述当前注意力迭代编码层输出的注意力编码特征,具体包括:
将每一已链接实体的实体关联编码向量和上一注意力迭代编码层输出的注意力编码特征输入至所述当前注意力迭代编码层的注意力变换层,得到所述注意力变换层输出的注意力向量;
将所述注意力向量和上一注意力迭代编码层输出的注意力编码特征输入至所述当前注意力迭代编码层的循环编码层,得到所述循环编码层输出的注意力编码特征。
5.根据权利要求1至4任一项所述的实体链接方法,其特征在于,所述基于所述候选链接结果,确定所述实体指称的实体链接结果,具体包括:
基于所述上下文文本,以及所述若干个候选实体,确定所述实体指称的文本链接结果;
基于所述候选链接结果和所述文本链接结果,确定所述实体指称的实体链接结果。
6.根据权利要求5所述的实体链接方法,其特征在于,所述基于所述上下文文本,以及所述若干个候选实体,确定所述实体指称的文本链接结果,具体包括:
基于所述上下文文本中的每一分词,确定所述实体指称的上下文语义特征;
基于所述实体指称的上下文语义特征和每一候选实体的词向量,确定所述文本链接结果。
7.根据权利要求6所述的实体链接方法,其特征在于,所述基于所述上下文文本,确定所述实体指称的上下文语义特征,具体包括:
基于所述上下文文本中每一分词的词向量,确定每一分词的上下文向量;
对每一分词的上下文向量进行自注意力变换,确定所述实体指称的上下文语义特征。
8.一种实体链接装置,其特征在于,包括:
候选链接结果确定单元,用于将待链接的实体指称所属的上下文文本中的若干个已链接实体,以及所述实体指称的若干个候选实体输入至实体链接模型,得到所述实体链接模型输出的候选链接结果;
其中,所述实体链接模型是基于样本实体指称所属的上下文文本中的若干个样本已链接实体、所述样本实体指称的若干个样本候选实体,以及样本链接结果训练得到的;所述实体链接模型用于基于每一已链接实体,确定每一候选实体分别对应的已链接实体注意力特征,并基于每一候选实体分别对应的已链接实体注意力特征进行实体链接;任一候选实体对应的已链接实体注意力特征是基于每一已链接实体的实体关联编码向量,以及所述任一候选实体的词向量确定得到的;
文本链接结果文本链接结果实体链接结果确定单元,用于基于所述候选链接结果,确定所述实体指称的实体链接结果。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7中任一项所述的实体链接方法的步骤。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至7中任一项所述的实体链接方法的步骤。
CN202010600786.6A 2020-06-29 2020-06-29 实体链接方法、装置、电子设备和存储介质 Active CN111506709B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010600786.6A CN111506709B (zh) 2020-06-29 2020-06-29 实体链接方法、装置、电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010600786.6A CN111506709B (zh) 2020-06-29 2020-06-29 实体链接方法、装置、电子设备和存储介质

Publications (2)

Publication Number Publication Date
CN111506709A CN111506709A (zh) 2020-08-07
CN111506709B true CN111506709B (zh) 2020-10-20

Family

ID=71872246

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010600786.6A Active CN111506709B (zh) 2020-06-29 2020-06-29 实体链接方法、装置、电子设备和存储介质

Country Status (1)

Country Link
CN (1) CN111506709B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111737422B (zh) * 2020-08-14 2020-12-29 科大讯飞(苏州)科技有限公司 实体链接方法、装置、电子设备和存储介质
CN113743104B (zh) * 2021-08-31 2024-04-16 合肥智能语音创新发展有限公司 实体链接方法及相关装置、电子设备、存储介质
CN113779225B (zh) * 2021-09-17 2024-06-28 工银科技有限公司 实体链接模型的训练方法、实体链接方法及装置
CN114638231B (zh) * 2022-03-21 2023-07-28 马上消费金融股份有限公司 实体链接方法、装置及电子设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11144830B2 (en) * 2017-11-21 2021-10-12 Microsoft Technology Licensing, Llc Entity linking via disambiguation using machine learning techniques
CN109241294A (zh) * 2018-08-29 2019-01-18 国信优易数据有限公司 一种实体链接方法及装置
CN110674317B (zh) * 2019-09-30 2022-04-12 北京邮电大学 一种基于图神经网络的实体链接方法及装置
CN110991187B (zh) * 2019-12-05 2024-03-08 北京奇艺世纪科技有限公司 一种实体链接的方法、装置、电子设备及介质

Also Published As

Publication number Publication date
CN111506709A (zh) 2020-08-07

Similar Documents

Publication Publication Date Title
CN111506709B (zh) 实体链接方法、装置、电子设备和存储介质
CN108829757B (zh) 一种聊天机器人的智能服务方法、服务器及存储介质
CN110097085B (zh) 歌词文本生成方法、训练方法、装置、服务器及存储介质
CN112257437B (zh) 语音识别纠错方法、装置、电子设备和存储介质
CN111738011A (zh) 违规文本的识别方法及装置、存储介质、电子装置
CN109857846B (zh) 用户问句与知识点的匹配方法和装置
CN109271524B (zh) 知识库问答系统中的实体链接方法
CN112036168B (zh) 事件主体识别模型优化方法、装置、设备及可读存储介质
CN113821605B (zh) 一种事件抽取方法
CN110096572B (zh) 一种样本生成方法、装置及计算机可读介质
CN113590810B (zh) 摘要生成模型训练方法、摘要生成方法、装置及电子设备
CN110377739A (zh) 文本情感分类方法、可读存储介质和电子设备
CN110163121A (zh) 图像处理方法、装置、计算机设备及存储介质
CN112650768A (zh) 对话信息的生成方法、装置及电子设备
CN112580326A (zh) 标点符号标注模型及其训练系统
CN110909174B (zh) 一种基于知识图谱的简单问答中实体链接的改进方法
CN117828024A (zh) 一种插件检索方法、装置、存储介质及设备
CN114970538A (zh) 文本纠错的方法及装置
CN116069876A (zh) 基于知识图谱的问答方法、装置、设备及存储介质
CN111488473B (zh) 图片描述的生成方法、装置和计算机可读存储介质
CN113591004A (zh) 游戏标签生成方法、装置、存储介质及电子设备
CN112686060A (zh) 文本翻译方法、装置、电子设备和存储介质
CN112699348A (zh) 核身信息校验的方法、装置、计算机设备及存储介质
CN112069800A (zh) 基于依存句法的句子时态识别方法、设备和可读存储介质
CN116049446B (zh) 一种事件抽取方法、装置、设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant