CN111428443A - 一种基于实体上下文语义交互的实体链接方法 - Google Patents

一种基于实体上下文语义交互的实体链接方法 Download PDF

Info

Publication number
CN111428443A
CN111428443A CN202010294780.0A CN202010294780A CN111428443A CN 111428443 A CN111428443 A CN 111428443A CN 202010294780 A CN202010294780 A CN 202010294780A CN 111428443 A CN111428443 A CN 111428443A
Authority
CN
China
Prior art keywords
entity
text
query
candidate
attention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010294780.0A
Other languages
English (en)
Other versions
CN111428443B (zh
Inventor
王伟
许峻峰
张焱
刘刚
孙成胜
敖佳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Electronic Technology Cyber Security Co Ltd
Original Assignee
China Electronic Technology Cyber Security Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Electronic Technology Cyber Security Co Ltd filed Critical China Electronic Technology Cyber Security Co Ltd
Priority to CN202010294780.0A priority Critical patent/CN111428443B/zh
Publication of CN111428443A publication Critical patent/CN111428443A/zh
Application granted granted Critical
Publication of CN111428443B publication Critical patent/CN111428443B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/374Thesaurus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Animal Behavior & Ethology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及数据处理技术领域,本发明公开了一种基于实体上下文语义交互的实体链接方法,结合待链接实体的上下文信息和知识库实体的属性描述信息,采用Transformer结构编码知识库实体文本,采用LSTM网络编码查询实体文本,并对知识库实体文本和查询实体文本的语义编码采用细粒度词级注意力交互来捕捉文本局部相似信息。本发明在利用LSTM和Transformer网络分别编码两段文本的基础上,增加了词级别细粒度语义特征交互,丰富了文本的细节语义特征,在验证集和测试集上达到了89.1%和88.5%的准确率,分别超过了目前主流的实体链接编码模型CNN和LSTM网络2.1%和1.7%,表明了本发明的实体链接方法的有效性。

Description

一种基于实体上下文语义交互的实体链接方法
技术领域
本发明涉及数据处理技术领域,尤其涉及一种基于实体上下文语义交互的实体链接方法。
背景技术
实体链接是将自然语言中的实体指称映射到知识库中正确的候选实体的过程。非结构化的自然语言表述往往存在大量模糊和不规范的表达,在医疗领域,这种多样性和歧义性更为常见。比如,“丁香蓼”既可指治疗肺热咳嗽等病的中药,也可指柳叶菜科的植物,作为植物,也被称为“小石榴树”、“小石榴叶”、“小疗药”等。准确理解文本中指称所指代的具体实体并将实体和已有知识库实体正确链接可极大提高信息检索、基于知识库的问答等任务的效果。
传统实体链接方法主要有基于字串匹配方法和基于相似特征分类或排序的方法,这两种方法只能提取文本表面的浅层特征,不能表示实体指称真正的语义信息,效果不佳,还耗费人力。特别是针对同名实体消歧,利用字面相似特征根本无法找到同名实体的不同指称,对于这类同名实体,往往还需要结合上下文语义信息来综合判断。基于深度学习的实体链接方法则是利用文本语义信息来判断。将实体指称和候选实体上下文转换成向量的形式,利用神经网络训练并选择与实体指称文本语义相似度最高的候选实体。现有的研究通常采用CNN(卷积神经网络)或LSTM(长短期记忆网络)对实体文本编码,并没有对查询文本和知识库文本交互做进一步的局部相似特征提取,导致可能丢失文本细节特征。
发明内容
为了解决上述问题,本发明提出一种基于实体上下文语义交互的实体链接方法,结合待链接实体的上下文信息和知识库实体的属性描述信息,采用Transformer结构编码知识库实体文本,采用LSTM网络编码查询实体文本,并对知识库实体文本和查询实体文本的语义编码采用细粒度词级注意力交互来捕捉文本局部相似信息。
进一步的,在对知识库实体文本和查询实体文本编码前,预先生成候选实体,包括以下步骤:
在训练阶段,候选实体通过与知识库中实体精确匹配生成,所有候选实体为查询实体的同名实体;
在数据预处理阶段,将知识库中所有实体名字、别称以及对应的库名称以字典形式存储,以便于查询实体查找候选实体对应的库名称;
在预测阶段,若查询实体在知识库中没有同名实体,则将整个知识库实体作为候选实体。
进一步的,查询文本为q,查询文本长度为lq,查询文本中待链接实体,即查询实体记为m,将查询实体和查询文本拼接融合后文本表示记为链接文本qM,知识库中的候选实体文本为e。
进一步的,采用LSTM网络编码查询实体文本包括以下步骤:
采用双向LSTM网络对查询文本进行编码:
Figure BDA0002451774010000021
用one-hot编码标识查询实体的位置,将编码后的查询文本
Figure BDA0002451774010000024
和查询实体m进行拼接,
Figure BDA0002451774010000022
将qM用一个过滤器大小为3的一维卷积进行编码融合:
Figure BDA0002451774010000023
进一步的,采用Transformer结构编码知识库实体文本包括以下步骤:
将知识库中候选实体的所有属性及描述信息连接起来作为候选实体的文本信息,采用Transformer网络中的encoder部分对候选实体文本编码:
Figure BDA0002451774010000031
其中,le为候选实体文本长度,
Figure BDA0002451774010000032
为编码后的候选实体文本。
进一步的,Transformer网络由多个块组成,每个块包括多头注意力子模块和前馈神经网络子模块,每部分输出后面连接一个残差和层归一化以加强信息传输,每头注意力通过缩放点积方式计算:
Figure BDA0002451774010000033
其中,Q,K,V均为候选实体文本,dk为每头注意力的隐层大小;
采用四头注意力计算以提高并行能力:
MultiHead(Q,K,V)=[head1,head2,head3,head4]Wo (5)
headi=Attention(Qi,Ki,Vi) (6)
每个head由Attention计算出,Qi,Ki,Vi分别为每头注意力的输入,Wo为训练参数,用于调整隐层维度。
进一步的,前馈神经网络子模块包括两层全连接神经网络:
FFN(x)=Relu(xW1+b1)W2+b2 (7)
其中,W1,W2,b1,b2均为全连接层学习的参数,x为多头注意力子模块的输出,Relu为第一层全连接层采用的激活函数。
进一步的,对编码融合后的链接文本和候选实体文本采用词级别点积注意力进行细粒度匹配交互:
Figure BDA0002451774010000034
Figure BDA0002451774010000035
Figure BDA0002451774010000041
其中,aij表示查询文本第i个词和候选实体文本第j个词的对齐权重,
Figure BDA0002451774010000042
表示查询文本关于第j个候选实体文本的注意力加权向量,
Figure BDA0002451774010000043
表示候选实体文本关于第i个查询文本的注意力加权向量。
进一步的,得到候选实体文本相关的链接文本表示
Figure BDA0002451774010000044
和链接文本表示相关的候选实体文本表示
Figure BDA0002451774010000045
将两段文本进行细粒度融合以提取两者局部相似特征,对于同名实体进一步比较文本细节差异,提高相似特征聚合能力;分别将经过注意力后的文本表示与原编码表示进行拼接和相乘操作,得到最终链接文本表示qM和最终候选实体文本表示
Figure BDA0002451774010000046
以丰富文本表示:
Figure BDA0002451774010000047
Figure BDA0002451774010000048
进一步的,将拼接后的链接文本表示和分别通过一层激活函数为Relu的前馈神经网络进行信息提取,采用最大池化将文本表示转为固定长度向量,最后将文本向量拼接送入激活函数为sigmoid的全连接层用于二分类。
本发明的有益效果在于:
本发明在利用LSTM和Transformer网络分别编码两段文本的基础上,增加了词级别细粒度语义特征交互,丰富了文本的细节语义特征,在验证集和测试集上达到了89.1%和88.5%的准确率,分别超过了目前主流的实体链接编码模型CNN和LSTM网络2.1%和1.7%,表明了本发明的实体链接方法的有效性。同时,本发明也高出采用Transformer编码候选实体文本的模型0.8%的准确率,进一步验证了词级交互结构的有效性。
附图说明
图1本发明的实体链接方法示意图;
图2验证集准确率曲线图;
图3词级注意力权重图。
具体实施方式
为了对本发明的技术特征、目的和效果有更加清楚的理解,现说明本发明的具体实施方式。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明,即所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
本实施例提出一种基于实体上下文语义交互的实体链接方法,如图1所示,对链接实体上下文和候选实体知识库文本分别采用不同编码方式进行编码,并对两段编码文本采用词级注意力矩阵进行交互,然后将交互后的表示送入到全连接和最大池化层进一步提取交互文本向量,最后将向量拼接用于二分类,具体如下:
1.1候选实体生成
在训练阶段,候选实体通过与知识库中实体精确匹配生成,所有候选实体为查询实体的同名实体;
在数据预处理阶段,将知识库中所有实体名字、别称以及对应的库名称以字典形式存储,以便于查询实体查找候选实体对应的库名称;
在预测阶段,若查询实体在知识库中没有同名实体,则将整个知识库实体作为候选实体。
查询文本为q,查询文本长度为lq,查询文本中待链接实体,即查询实体记为m,将查询实体和查询文本拼接融合后文本表示记为链接文本qM,知识库中的候选实体文本为e。
1.2查询实体文本编码
由于查询文本通常较短,用LSTM网络即可捕捉文本的全部依赖关系。本实施例采用双向LSTM网络对查询文本进行编码:
Figure BDA0002451774010000061
用one-hot编码标识查询实体的位置,如:查询文本“儿童轻微感冒吃什么药”,待链接实体为“感冒”,则m=[0,0,0,0,1,1,0,0,0,0]T,m向量的维度和是查询文本的字符长度,“感冒”在查询文本的第5个和第6个位置,即m向量中第5个和第6个位置的值为1。将编码后的查询文本
Figure BDA0002451774010000067
和查询实体m进行拼接,
Figure BDA0002451774010000062
将qM用一个过滤器大小为3的一维卷积进行编码融合:
Figure BDA0002451774010000063
1.3候选实体文本编码
将知识库中候选实体的所有属性及描述信息连接起来作为候选实体的文本信息。由于候选实体文本较长,采用LSTM编码不能有效捕捉长距离依赖关系,故采用Transformer网络中的encoder部分对候选实体文本编码:
Figure BDA0002451774010000064
其中,le为候选实体文本长度,
Figure BDA0002451774010000065
为编码后的候选实体文本。
Transformer网络由多个块组成,每个块包括多头注意力子模块和前馈神经网络子模块,每部分输出后面连接一个残差和层归一化以加强信息传输,每头注意力通过缩放点积方式计算:
Figure BDA0002451774010000066
其中,Q,K,V均为候选实体文本,dk为每头注意力的隐层大小。
采用四头注意力计算以提高并行能力:
MultiHead(Q,K,V)=[head1,head2,head3,head4]Wo (5)
headi=Attention(Qi,Ki,Vi) (6)
每个head由Attention计算出,Qi,Ki,Vi分别为每头注意力的输入,Wo为训练参数,用于调整隐层维度。
前馈神经网络子模块包括两层全连接神经网络:
FFN(x)=Relu(xW1+b1)W2+b2 (7)
其中,W1,W2,b1,b2均为全连接层学习的参数,x为多头注意力子模块的输出,Relu为第一层全连接层采用的激活函数。
1.4细粒度文本交互
对编码融合后的链接文本和候选实体文本采用词级别点积注意力进行细粒度匹配交互:
Figure BDA0002451774010000071
Figure BDA0002451774010000072
Figure BDA0002451774010000073
其中,aij表示查询文本第i个词和候选实体文本第j个词的对齐权重,
Figure BDA0002451774010000074
表示查询文本关于第j个候选实体文本的注意力加权向量,
Figure BDA0002451774010000075
表示候选实体文本关于第i个查询文本的注意力加权向量。
得到候选实体文本相关的链接文本表示
Figure BDA0002451774010000076
和链接文本表示相关的候选实体文本表示
Figure BDA0002451774010000077
将两段文本进行细粒度融合以提取两者局部相似特征,对于同名实体进一步比较文本细节差异,提高相似特征聚合能力;分别将经过注意力后的文本表示与原编码表示进行拼接和相乘操作,得到最终链接文本表示qM和最终候选实体文本表示
Figure BDA0002451774010000081
以丰富文本表示:
Figure BDA0002451774010000082
Figure BDA0002451774010000083
1.5文本输出层
将拼接后的链接文本表示和分别通过一层激活函数为Relu的前馈神经网络进行信息提取,采用最大池化将文本表示转为固定长度向量,最后将文本向量拼接送入激活函数为sigmoid的全连接层用于二分类。
实验验证
为了证明了本发明的基于实体上下文语义交互的实体链接方法(以下简称本模型)的有效性,本实施例在ccks2019实体链接数据集上进行实验,并在“虚拟病人”项目数据集上进行验证。
2.1实验设置
本模型基于Tensorflow框架搭建,为了更方便实体识别任务的衔接,本模型采用字级别输入表示,字表示采用200维随机初始化的向量,字向量随模型的训练而训练。模型的优化器为ADAM,batch size为64,学习率为0.001,dropout为0.2,用于防止模型过拟合。LSTM网络编码隐层为128,Transformer网络隐层维度为256,每头注意力子维度为64。
本模型在训练阶段将实体链接问题看成一个二分类问题,而在预测阶段,将链接实体对应的全部候选实体的得分进行排序,取分数最高的候选实体即为链接到知识库的实体。
2.2数据集和评价指标
本模型实验采用ccks2019实体链接比赛的数据集,该数据集的知识库中包含399252条实体信息,每条库实体文本包含实体id,实体别称,实体类型,实体描述等信息。查询文本是平均长度为16的短文本。
每条查询文本标注出了实体位置和对应的知识库id。训练集为80000条,验证集为1000条,测试集为9000条。本模型采用的评价指标为准确率。
2.3实验结果
本模型实验结果如表1所示,可看到在ccks2019实体链接数据集上的准确率均好于基模型。
表1 ccks2019数据集实验结果
Figure BDA0002451774010000091
由表1可知,基于语义编码的模型效果大幅度优于传统余弦相似度方法,对于同名实体消歧,传统基于词的共现信息的链接效果并不好,这是因为同名实体上下文信息均含有较多相同的共现词,导致无法通过共现词来判断,基于语义相似的方法则可以解决这个问题。
采用CNN或LSTM网络仅编码文本信息两者效果相当,LSTM编码网络在测试集下效果优于CNN网络,因为LSTM可以捕捉到文本的序列信息。而采用Transformer编码候选实体的长文本序列可取得更好的效果,且在训练速度上也优于LSTM网络。本模型在用LSTM和Transformer网络分别编码两段文本基础上增加了词级别细粒度语义特征交互,丰富了文本的细节语义特征,在验证集和测试集上达到了89.1%和88.5%的准确率,分别超过了目前主流的实体链接编码模型CNN和LSTM网络2.1%和1.7%,表明了本模型的有效性。同时,也高出采用Transformer编码候选实体文本的模型0.8%的准确率,进一步验证了词级交互结构的有效性。
2.4模型分析
本模型实验的四个语义编码模型在训练过程中验证集精度曲线如图2所示。
由图2和表1可知,相比余弦相似度方法,仅用CNN或LSTM网络的语义编码模型在训练开始阶段即可达到较高的准确率,分别为80.0%和79.1%。采用Transformer网络编码候选实体长文本信息在训练后期可进一步提高编码效果,准确率提升了约0.5%,本模型在此基础上增加交互信息,在训练过程中可稳定整体的准确率,最终在验证集上效果达到了89.1%。
2.5医学知识库实体链接应用
为进一步验证本模型的有效性和泛化能力,用训练好的链接模型在“虚拟病人”项目数据集上挑选部分疾病样例数据验证模型效果。“虚拟病人”是基于医学知识图谱来建设可视化知识服务系统,以支持临床模拟培训和辅助诊断决策的项目。此项目中包含一个医学知识图谱,在构建和查询知识库实体时都需用到实体链接技术。
输入查询文本为“吃坏肚子了,感冒发烧,上吐下泻好难受”。查询实体:感冒发烧。从“虚拟病人”项目数据集的疾病库中选取6个与查询实体较为相似的候选知识库实体,候选实体及描述信息如表3所示。将查询文本和候选实体输入到三个语义模型中计算分数如表2所示,为方便比较,所有分数为归一化之前结果。为直接观察到词级注意力的作用,图3为目标实体部分文本和查询文本的词级注意力可视化结果,颜色越深表示权重越大。
表2医学样例候选实体得分
Figure BDA0002451774010000101
Figure BDA0002451774010000111
由查询文本分析可知,6个候选实体中最适合的应为“肠胃性感冒”。由表2所示,本模型对“肠胃性感冒”计算得到了最高的分数,其他模型均未找到正确候选实体。根据候选实体的描述可看到,描述信息中均含有“感冒”这一实体,导致仅对文本编码都可得到相似度较高的分数,要准确找到候选实体,还需要进一步比较查询文本和候选实体文本的局部信息。而由图3可知,通过词级注意力对齐了查询文本中“感冒发烧”、“上吐下泻”和候选实体文本中“乏力”、“下泻”等关键词,捕捉到文本细节,提高了链接准确率,进一步验证了文本模型交互部分的有效性。
表3“虚拟病人”医学样例数据
Figure BDA0002451774010000112
以上所述仅是本发明的优选实施方式,应当理解本发明并非局限于本文所披露的形式,不应看作是对其他实施例的排除,而可用于各种其他组合、修改和环境,并能够在本文所述构想范围内,通过上述教导或相关领域的技术或知识进行改动。而本领域人员所进行的改动和变化不脱离本发明的精神和范围,则都应在本发明所附权利要求的保护范围内。

Claims (10)

1.一种基于实体上下文语义交互的实体链接方法,其特征在于,结合待链接实体的上下文信息和知识库实体的属性描述信息,采用Transformer结构编码知识库实体文本,采用LSTM网络编码查询实体文本,并对知识库实体文本和查询实体文本的语义编码采用细粒度词级注意力交互来捕捉文本局部相似信息。
2.根据权利要求1所述的一种基于实体上下文语义交互的实体链接方法,其特征在于,在对知识库实体文本和查询实体文本编码前,预先生成候选实体,包括以下步骤:
在训练阶段,候选实体通过与知识库中实体精确匹配生成,所有候选实体为查询实体的同名实体;
在数据预处理阶段,将知识库中所有实体名字、别称以及对应的库名称以字典形式存储,以便于查询实体查找候选实体对应的库名称;
在预测阶段,若查询实体在知识库中没有同名实体,则将整个知识库实体作为候选实体。
3.根据权利要求2所述的一种基于实体上下文语义交互的实体链接方法,其特征在于,查询文本为q,查询文本长度为lq,查询文本中待链接实体,即查询实体记为m,将查询实体和查询文本拼接融合后文本表示记为链接文本qM,知识库中的候选实体文本为e。
4.根据权利要求3所述的一种基于实体上下文语义交互的实体链接方法,其特征在于,采用LSTM网络编码查询实体文本包括以下步骤:
采用双向LSTM网络对查询文本进行编码:
Figure FDA0002451772000000011
用one-hot编码标识查询实体的位置,将编码后的查询文本
Figure FDA0002451772000000012
和查询实体m进行拼接,
Figure FDA0002451772000000013
将qM用一个过滤器大小为3的一维卷积进行编码融合:
Figure FDA0002451772000000021
5.根据权利要求4所述的一种基于实体上下文语义交互的实体链接方法,其特征在于,采用Transformer结构编码知识库实体文本包括以下步骤:
将知识库中候选实体的所有属性及描述信息连接起来作为候选实体的文本信息,采用Transformer网络中的encoder部分对候选实体文本编码:
Figure FDA0002451772000000022
其中,le为候选实体文本长度,
Figure FDA0002451772000000023
为编码后的候选实体文本。
6.根据权利要求5所述的一种基于实体上下文语义交互的实体链接方法,其特征在于,Transformer网络由多个块组成,每个块包括多头注意力子模块和前馈神经网络子模块,每部分输出后面连接一个残差和层归一化以加强信息传输,每头注意力通过缩放点积方式计算:
Figure FDA0002451772000000024
其中,Q,K,V均为候选实体文本,dk为每头注意力的隐层大小;
采用四头注意力计算以提高并行能力:
MultiHead(Q,K,V)=[head1,head2,head3,head4]Wo (5)
headi=Attention(Qi,Ki,Vi) (6)
每个head由Attention计算出,Qi,Ki,Vi分别为每头注意力的输入,Wo为训练参数,用于调整隐层维度。
7.根据权利要求6所述的一种基于实体上下文语义交互的实体链接方法,其特征在于,前馈神经网络子模块包括两层全连接神经网络:
FFN(x)=Relu(xW1+b1)W2+b2 (7)
其中,W1,W2,b1,b2均为全连接层学习的参数,x为多头注意力子模块的输出,Relu为第一层全连接层采用的激活函数。
8.根据权利要求7所述的一种基于实体上下文语义交互的实体链接方法,其特征在于,对编码融合后的链接文本和候选实体文本采用词级别点积注意力进行细粒度匹配交互:
Figure FDA0002451772000000031
Figure FDA0002451772000000032
Figure FDA0002451772000000033
其中,aij表示查询文本第i个词和候选实体文本第j个词的对齐权重,
Figure FDA0002451772000000034
表示查询文本关于第j个候选实体文本的注意力加权向量,
Figure FDA0002451772000000035
表示候选实体文本关于第i个查询文本的注意力加权向量。
9.根据权利要求8所述的一种基于实体上下文语义交互的实体链接方法,其特征在于,得到候选实体文本相关的链接文本表示
Figure FDA0002451772000000036
和链接文本表示相关的候选实体文本表示
Figure FDA0002451772000000037
将两段文本进行细粒度融合以提取两者局部相似特征,对于同名实体进一步比较文本细节差异,提高相似特征聚合能力;分别将经过注意力后的文本表示与原编码表示进行拼接和相乘操作,得到最终链接文本表示qM和最终候选实体文本表示
Figure FDA0002451772000000038
以丰富文本表示:
Figure FDA0002451772000000039
Figure FDA00024517720000000310
10.根据权利要求1所述的一种基于实体上下文语义交互的实体链接方法,其特征在于,将拼接后的链接文本表示和分别通过一层激活函数为Relu的前馈神经网络进行信息提取,采用最大池化将文本表示转为固定长度向量,最后将文本向量拼接送入激活函数为sigmoid的全连接层用于二分类。
CN202010294780.0A 2020-04-15 2020-04-15 一种基于实体上下文语义交互的实体链接方法 Active CN111428443B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010294780.0A CN111428443B (zh) 2020-04-15 2020-04-15 一种基于实体上下文语义交互的实体链接方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010294780.0A CN111428443B (zh) 2020-04-15 2020-04-15 一种基于实体上下文语义交互的实体链接方法

Publications (2)

Publication Number Publication Date
CN111428443A true CN111428443A (zh) 2020-07-17
CN111428443B CN111428443B (zh) 2022-09-13

Family

ID=71554543

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010294780.0A Active CN111428443B (zh) 2020-04-15 2020-04-15 一种基于实体上下文语义交互的实体链接方法

Country Status (1)

Country Link
CN (1) CN111428443B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112434533A (zh) * 2020-11-16 2021-03-02 广州视源电子科技股份有限公司 实体消歧方法、装置、电子设备及计算机可读存储介质
CN112507126A (zh) * 2020-12-07 2021-03-16 厦门渊亭信息科技有限公司 一种基于循环神经网络的实体链接装置和方法
US20210216716A1 (en) * 2020-04-23 2021-07-15 Beijing Baidu Netcom Science And Technology Co., Ltd. Method, electronic device, and storage medium for entity linking
CN113378018A (zh) * 2021-08-16 2021-09-10 南京烽火星空通信发展有限公司 基于深度学习多头选择模型的表头列实体关系匹配方法
CN114266230A (zh) * 2021-12-30 2022-04-01 安徽科大讯飞医疗信息技术有限公司 文本结构化处理方法、装置、存储介质及计算机设备
CN115422934A (zh) * 2022-07-08 2022-12-02 中国科学院空间应用工程与技术中心 一种航天文本数据的实体识别与链接方法、系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106295796A (zh) * 2016-07-22 2017-01-04 浙江大学 基于深度学习的实体链接方法
US20180284736A1 (en) * 2016-05-09 2018-10-04 StrongForce IoT Portfolio 2016, LLC Methods and systems for communications in an industrial internet of things data collection environment with large data sets
CN108959270A (zh) * 2018-08-10 2018-12-07 新华智云科技有限公司 一种基于深度学习的实体链接方法
CN109492232A (zh) * 2018-10-22 2019-03-19 内蒙古工业大学 一种基于Transformer的增强语义特征信息的蒙汉机器翻译方法
CN110059160A (zh) * 2019-04-17 2019-07-26 东南大学 一种端到端的基于上下文的知识库问答方法及装置
CN110110324A (zh) * 2019-04-15 2019-08-09 大连理工大学 一种基于知识表示的生物医学实体链接方法
CN110502627A (zh) * 2019-08-28 2019-11-26 上海海事大学 一种基于多层Transformer聚合编码器的答案生成方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180284736A1 (en) * 2016-05-09 2018-10-04 StrongForce IoT Portfolio 2016, LLC Methods and systems for communications in an industrial internet of things data collection environment with large data sets
CN106295796A (zh) * 2016-07-22 2017-01-04 浙江大学 基于深度学习的实体链接方法
CN108959270A (zh) * 2018-08-10 2018-12-07 新华智云科技有限公司 一种基于深度学习的实体链接方法
CN109492232A (zh) * 2018-10-22 2019-03-19 内蒙古工业大学 一种基于Transformer的增强语义特征信息的蒙汉机器翻译方法
CN110110324A (zh) * 2019-04-15 2019-08-09 大连理工大学 一种基于知识表示的生物医学实体链接方法
CN110059160A (zh) * 2019-04-17 2019-07-26 东南大学 一种端到端的基于上下文的知识库问答方法及装置
CN110502627A (zh) * 2019-08-28 2019-11-26 上海海事大学 一种基于多层Transformer聚合编码器的答案生成方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FENG NIE: "Aggregated Semantic Matching for Short Text Entity Linking", 《CONFERENCE ON COMPUTATIONAL NATUAL LANGUAGE LEARNING》 *
宁时贤: "基于生物医学词典的实体表示及其应用研究", 《中国优秀博硕士学位论文全文数据库(硕士)》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210216716A1 (en) * 2020-04-23 2021-07-15 Beijing Baidu Netcom Science And Technology Co., Ltd. Method, electronic device, and storage medium for entity linking
US11704492B2 (en) * 2020-04-23 2023-07-18 Beijing Baidu Netcom Science And Technology Co., Ltd. Method, electronic device, and storage medium for entity linking by determining a linking probability based on splicing of embedding vectors of a target and a reference text
CN112434533A (zh) * 2020-11-16 2021-03-02 广州视源电子科技股份有限公司 实体消歧方法、装置、电子设备及计算机可读存储介质
CN112507126A (zh) * 2020-12-07 2021-03-16 厦门渊亭信息科技有限公司 一种基于循环神经网络的实体链接装置和方法
CN113378018A (zh) * 2021-08-16 2021-09-10 南京烽火星空通信发展有限公司 基于深度学习多头选择模型的表头列实体关系匹配方法
CN114266230A (zh) * 2021-12-30 2022-04-01 安徽科大讯飞医疗信息技术有限公司 文本结构化处理方法、装置、存储介质及计算机设备
CN115422934A (zh) * 2022-07-08 2022-12-02 中国科学院空间应用工程与技术中心 一种航天文本数据的实体识别与链接方法、系统
CN115422934B (zh) * 2022-07-08 2023-06-16 中国科学院空间应用工程与技术中心 一种航天文本数据的实体识别与链接方法、系统

Also Published As

Publication number Publication date
CN111428443B (zh) 2022-09-13

Similar Documents

Publication Publication Date Title
CN111428443B (zh) 一种基于实体上下文语义交互的实体链接方法
CN110298037B (zh) 基于增强注意力机制的卷积神经网络匹配的文本识别方法
Dong et al. Predicting visual features from text for image and video caption retrieval
CN109783657B (zh) 基于受限文本空间的多步自注意力跨媒体检索方法及系统
Biten et al. Good news, everyone! context driven entity-aware captioning for news images
CN111930887B (zh) 基于联合训练方式的多文档多答案机器阅读理解系统
CN110059160B (zh) 一种端到端的基于上下文的知识库问答方法及装置
CN112270193A (zh) 基于bert-flat的中文命名实体识别方法
CN110287323B (zh) 一种面向目标的情感分类方法
CN113297364B (zh) 一种面向对话系统中的自然语言理解方法及装置
CN110222163A (zh) 一种融合cnn与双向lstm的智能问答方法及系统
CN110543557A (zh) 一种基于注意力机制的医疗智能问答系统的构建方法
CN109977220B (zh) 一种基于关键句和关键字的反向生成摘要的方法
CN110516145B (zh) 一种基于句向量编码的信息搜索方法
CN115761753A (zh) 一种融合知识图谱的检索式知识前缀引导视觉问答方法
CN113704437A (zh) 一种融合多头注意力机制和相对位置编码的知识库问答方法
CN114036934A (zh) 一种中文医学实体关系联合抽取方法和系统
Shao et al. Collaborative learning for answer selection in question answering
CN111581364B (zh) 一种面向医疗领域的中文智能问答短文本相似度计算方法
CN115331075A (zh) 一种多模态场景图知识增强的对抗式多模态预训练方法
CN116414962A (zh) 一种基于注意力机制的问答匹配方法
CN116561305A (zh) 基于多模态和transformer的假新闻检测方法
CN116821291A (zh) 基于知识图谱嵌入与语言模型交替学习的问答方法及系统
CN113010690B (zh) 一种基于文本信息增强实体嵌入的方法
CN113836269A (zh) 一种基于问答式系统的篇章级核心事件抽取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant