CN110704576A - 一种基于文本的实体关系抽取方法及装置 - Google Patents
一种基于文本的实体关系抽取方法及装置 Download PDFInfo
- Publication number
- CN110704576A CN110704576A CN201910944006.7A CN201910944006A CN110704576A CN 110704576 A CN110704576 A CN 110704576A CN 201910944006 A CN201910944006 A CN 201910944006A CN 110704576 A CN110704576 A CN 110704576A
- Authority
- CN
- China
- Prior art keywords
- text
- processed
- entity
- vector representation
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/31—Indexing; Data structures therefor; Storage structures
- G06F16/313—Selection or weighting of terms for indexing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本发明实施例提供了一种基于文本的实体关系抽取方法及装置,该方法从预设的语料库中确定待处理文本中待处理实体所属描述文本中的词作为待处理词;根据待处理实体和待处理词分别与待处理文本的所属关系,得到文本向量表示;将述文本向量表示输入至预设的关系分类模型,得到待处理实体间的关系表示,本实施例引入了待处理实体及待处理实体所属的描述文本,以使得到的文本向量表示包含了待处理实体存在的潜在信息,可见,应用本实施例提供的方法能够提高对文本进行分类的准确率。
Description
技术领域
本发明涉及自然语言处理技术领域,特别是涉及一种基于文本的实体关系抽取方法及装置。
背景技术
知识图谱在许多自然语言处理任务中承担着越来越重要的角色,例如自动问答和对话生成。然而,现有的知识图谱还不够完善,造成从原始文本中抽取实体间的语义关系时的准确率较低,可见,文本中实体间关系抽取的重要性。
现有技术提出一种实体关系抽取方法,该方法为通过辅助信息学习文本的向量表示,得到待处理文本的向量表示,并将得到的向量表示输入至预设的分类器中,得到待处理文本中实体间的关系表示。
由上可见,该方法将实体看作是独立的和没有意义的独热向量,从而损失了实体间关系的潜在信息,从而造成该方法在对待处理文本进行分类时存在准确率低的问题。
发明内容
本发明实施例的目的在于提供一种基于文本的实体关系抽取方法及装置,以提高对文本进行分类的准确率。具体技术方案如下:
第一方面,本发明实施例提供了一种基于文本的实体关系抽取方法,所述方法包括:
对待处理文本进行命名实体识别,获得待处理实体;
从预设的语料库中确定待处理实体所属描述文本中的词作为待处理词;
根据所述待处理实体和所述待处理词分别与所述待处理文本的所属关系,得到待处理文本的文本向量表示;
将所述文本向量表示输入至预设的关系分类模型,得到待处理实体间的关系表示;其中,所述关系分类模型为:预先采用样本文本向量表示对预设的卷积神经网络进行训练得到的、用于预测文本的关系表示模型,所述样本文本向量表示为根据样本实体和样本词分别与第一样本文本的所属关系得到的第一样本文本的向量表示,所述样本实体为对所述第一样本文本进行命名实体识别获得的实体,所述样本文本为从语料库中确定的所述样本实体所属描述文本中的词。
本发明的一个实施例中,所述根据所述待处理实体和所述待处理词分别与所述待处理文本的所属关系,得到待处理文本的文本向量表示,包括:
将所述待处理实体和所述待处理文本输入至预设的向量表示模型,得到所述待处理实体的实体向量表示和待处理文本的初始向量表示,其中,所述实体向量表示模型为预先采用第二样本文本对预设的卷积层神经网络进行训练得到的、用于预测文本的初始向量表示和文本中实体的实体向量表示的模型;
将所确定的待处理词输入至预设的词向量表示模型,得到所述待处理词的词向量表示,其中,所述词向量表示模型为预先采用样本描述文本对预设的卷积神经网络进行训练得到的、用于预测文本中实体所属描述文本中词的向量表示的模型;所述样本描述文本为从语料库中获取的包括样本实体的文本;所述样本实体为对第三样本文本进行命名实体识别获得的实体;
采用注意力机制,计算所述实体向量表示和所述词向量表示之间的注意力权重,并基于所述注意力权重对所获得的词向量表示进行加权融合,得到所述待处理实体所属描述文本的描述文本向量表示;
将所述描述文本向量表示与所述初始文本向量表示进行拼接,得到融合描述文本的待处理文本的文本向量表示。
本发明的一个实施例中,在所述将所述文本向量表示输入至预设的关系分类模型,得到待处理实体间的关系表示之前,所述方法还包括:
基于所述待处理实体与预设的目标知识图谱的映射关系,对所述待处理实体间进行平移变换,得到平移变换后的待处理变换实体关系表示,其中,所述目标知识图谱为根据所述待处理文本构建的知识图谱;
将所述待处理变换实体关系表示输入至预设的关系向量表示模型,得到所述待处理实体间的关系向量表示,其中,所述关系向量表示模型为预先采用样本变换实体关系表示对预设的卷积层神经网络进行训练得到的、用于预测文本中实体间的向量表示的模型,所述样本变换实体关系表示为基于第四样本实体与样本知识图谱的映射关系,对第四样本文本中的第四样本实体间进行平移变换得到的关系表示,样本知识图谱为根据所述第四样本文本构建的知识图谱;
对所述文本向量表示和所述关系向量表示进行融合,得到融合后的文本向量表示。
本发明的一个实施例中,在所述对待处理文本进行命名实体识别之前,所述方法还包括:
获取包括同一待处理实体的多个文本构成的待处理文本集;
确定所述待处理文本集中是否存在未被选取的文本;
若存在,从所述待处理文本集中选取一个未被选取的文本作为待处理文本,执行所述对待处理文本进行命名实体识别,获得待处理实体的步骤。
本发明的一个实施例中,在所述得到待处理实体间的关系表示之后,所述方法还包括:
利用所得到的关系表示和所述待处理实体,得到用于构建知识图谱的三元组。
本发明的一个实施例中,在所述得到用于构建知识图谱的三元组之后,所述方法还包括:
利用构建的三元组,扩充指定的知识图谱,得到新的知识图谱。
第二方面,本发明实施例提供一种基于文本的实体关系抽取装置,所述装置包括:
实体获得模块,用于对待处理文本进行命名实体识别,获得待处理实体;
词确定模块,用于从预设的语料库中确定待处理实体所属描述文本中的词作为待处理词;
文本向量得到模块,用于根据所述待处理实体和所述待处理词分别与所述待处理文本的所属关系,得到待处理文本的文本向量表示;
关系表示模块,用于将所述文本向量表示输入至预设的关系分类模型,得到待处理实体间的关系表示;其中,所述关系分类模型为:预先采用样本文本向量表示对预设的卷积神经网络进行训练得到的、用于预测文本的关系表示模型,所述样本文本向量表示为根据样本实体和样本词分别与第一样本文本的所属关系得到的第一样本文本的向量表示,所述样本实体为对所述第一样本文本进行命名实体识别获得的实体,所述样本文本为从语料库中确定的所述样本实体所属描述文本中的词。
本发明的一个实施例中,所述文本向量得到模块包括:
向量得到子模块,用于将所述待处理实体和所述待处理文本输入至预设的向量表示模型,得到所述待处理实体的实体向量表示和待处理文本的初始向量表示,其中,所述实体向量表示模型为预先采用第二样本文本对预设的卷积层神经网络进行训练得到的、用于预测文本的初始向量表示和文本中实体的实体向量表示的模型;
词向量表示得到子模块,用于所确定的待处理词输入至预设的词向量表示模型,得到所述待处理词的词向量表示,其中,所述词向量表示模型为预先采用样本描述文本对预设的卷积神经网络进行训练得到的、用于预测文本中实体所属描述文本中词的向量表示的模型;样本描述文本为从语料库中获取的包括样本实体的文本;所述样本实体为对第三样本文本进行命名实体识别获得的实体;
描述文本向量得到子模块,用于采用注意力机制,计算所述实体向量表示和所述词向量表示之间的注意力权重,并基于所述注意力权重对所获得的词向量表示进行加权融合,得到所述待处理实体所属描述文本的描述文本向量表示;
文本向量得到子模块,用于将所述描述文本向量表示与所述初始文本向量表示进行拼接,得到融合描述文本的待处理文本的文本向量表示。
本发明的一个实施例中,所述装置还包括:
变换实体得到模块,用于基于待处理实体与预设的目标知识图谱的映射关系,对待处理实体间进行平移变换,得到平移变换后的待处理变换实体关系表示,其中,所述目标知识图谱为根据待处理文本构建的知识图谱;
关系向量得到模块,用于将所述待处理变换实体关系表示输入至预设的关系向量表示模型,得到所述待处理实体间的关系向量表示,其中,所述关系向量表示模型为预先采用样本变换实体关系表示对预设的卷积层神经网络进行训练得到的、用于预测文本中实体间的向量表示的模型,所述样本变换实体关系表示为基于第四样本实体与样本知识图谱的映射关系,对第四样本文本中的第四样本实体间进行平移变换得到的关系表示,所述样本知识图谱为根据所述第四样本文本构建的知识图谱;
融合模块,用于对所述文本向量表示和所述关系向量表示进行融合,得到融合后的文本向量表示。
在本发明实施的又一方面,还提供了一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述任一所述的基于文本的实体关系抽取方法。
在本发明实施的又一方面,还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述任一所述的基于文本的实体关系抽取方法。
本发明实施例提供了一种基于文本的实体关系抽取方法及装置,该方法从预设的语料库中确定待处理文本中待处理实体所属描述文本中的词作为待处理词;根据待处理实体和待处理词分别与待处理文本的所属关系,得到文本向量表示;将述文本向量表示输入至预设的关系分类模型,得到待处理实体间的关系表示,相对于现有技术而言,本实施例引入了待处理实体所属的描述文本,以使得到的文本向量表示包含了待处理实体存在的潜在信息,可见,应用本实施例提供的方法能够提高对文本进行分类的准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的第一种基于文本的实体关系抽取方法的流程示意图;
图2为本发明实施例提供的第二种基于文本的实体关系抽取方法的流程示意图;
图3为本发明实施例提供的第三种基于文本的实体关系抽取的框架图;
图4为本发明实施例提供的基于文本的实体关系抽取装置的结构示意图;
图5为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面将简要地介绍一些本发明实施例所涉及到的符号和定义。
为了解决现有技术中的问题,本发明实施例提供了一种基于文本的实体关系抽取方法及装置。
参见图1,图1为本发明实施例提供的一种基于文本的实体关系抽取方法的流程示意图,应用于客户端或服务器,该方法包括:
S101,对待处理文本进行命名实体识别,获得待处理实体。
其中,命名实体识别(Named Entity Recognition,简称NER),又称作“专名识别”,是指识别文本中具有特定意义的实体,主要包括人名、地名、机构名、专有名词和抽象的概念等。
示例性的,文本中描述的“小明的弟弟叫小刚”,则小明、小刚均是所要识别的实体。
在本发明的一个实施例中,在S101之前,所述方法还可以包括步骤A1~步骤A2:
步骤A1,获取包括同一待处理实体的多个文本构成的待处理文本集;
其中,待处理文本集中的各个文本均包含同一待处理实体。
步骤A2,确定所述待处理文本集中是否存在未被选取的文本,若存在,从所述待处理文本集中选取一个未被选取的文本作为待处理文本,执行S101~S104的步骤。
待处理文本集中的部分文本或全部文本在被选取后,按照S101~S104的步骤得到待处理实体间的关系表示。
可见,本实施例将待处理文本集中的部分文本或全部文本作为待处理文本按照S101~S104获取待处理实体间的关系表示,能够融合待处理实体和待处理实体的描述文本中的特征信息学习待处理文本的向量表示,其中待处理实体中包含实体间的关系信息,待处理实体的描述文本提供了详细的背景知识。可见,应用本实施例能够进一步提高对文本进行分类的准确率。
S102,从预设的语料库中确定待处理实体所属描述文本中的词作为待处理词。
其中,语料库可以是事先指定的知识库。
该知识库可以是英文知识库TAP、维基百科Wikipedia、类似wikipedia的创作共享类网站Freebase、多语言知识库YAGO、中文知识库百度百科、互动百科或中文维基百科中的一种或多种组合。
其中,YAGO至少集成了Wikipedia、WordNet和GeoNames三个来源的数据。
知识库的选用与待链接文本的应用场景有关系。
本步骤为从预设的语料库中获取包含待处理实体的描述文本,再从描述文本中获取词,将该词作为待处理词。
S103,根据所述待处理实体和所述待处理词分别与所述待处理文本的所属关系,得到待处理文本的文本向量表示。
本步骤引入了待处理实体对应的描述文本中的文本信息,进一步挖掘了待处理实体存的潜在信息。
在关系抽取任务中,用于表征待处理实体间原始存在的关系分类信息的标签信息在选择有效实例上发挥着重要作用。待处理实体描述为待处理实体提供了丰富的背景知识,并且也有益于待处理实体表示的学习和关系抽取任务。
在本发明的一个实施例中,如图2~3所示,S103的具体实现方式包括如下S1031~S1035:
S1031,将所述待处理实体和所述待处理文本输入至预设的向量表示模型,得到所述待处理实体的实体向量表示和待处理文本的初始向量表示,其中,所述实体向量表示模型为预先采用第二样本文本对预设的卷积层神经网络进行训练得到的、用于预测文本的初始向量表示和文本中实体的实体向量表示的模型。
本发明的一个实施例中,可以按照如下方式获取向量表示模型,具体为:
获取第二样本文本;
从所述第二样本中获取样本实体作为第二样本实体;
获得每一第二样本实体的向量和第二样本文本的文本向量的向量标注;
将第二样本实体和第二实体所属第二样本文本作为输入参数,利用向量标注,对卷积层神经网络进行训练,得到用于预测文本中实体的实体向量表示和文本的初始向量表示的向量表示模型。
另外,待处理实体在初始时均会具有表征待处理实体间的初始关系的标签表示。
S1031可以在S1032之后,也可以在S1032之前,本实施例对此并不限定。
S1032,将所确定的待处理词输入至预设的词向量表示模型,得到所述待处理词的词向量表示,其中,所述词向量表示模型为预先采用样本描述文本对预设的卷积神经网络进行训练得到的、用于预测文本中实体所属描述文本中词的向量表示的模型;所述样本描述文本为从语料库中获取的包括样本实体的文本;所述样本实体为对第三样本文本进行命名实体识别获得的实体。
本发明的一个实施例中,可以按照如下步骤获取词向量表示模型,具体为:
获取第三样本文本;
从所述第三样本中获取样本实体作为第三样本实体;
从上述语料库中获取包含第三样本实体的样本描述文本;
从上述描述文本中获取第一样本词;
将第一样本词输入至预设的词向量表示器,得到第一样本词的词向量表示,其中,词向量表示器是以与第三样本文本不同或部分相同的样本文本作为训练集,对Word2vec进行训练得到的、用于预测文本中实体所属描述文本中词的向量表示的模型。
获得每一第一样本词的词向量标注;
将第一样本词的词向量表示作为输入参数,利用词向量标注,对预设的卷积神经网络进行训练,得到用于预测文本中实体所属描述文本中词的词向量表示的模型。
其中,Word2vec,是一群用来产生词向量的相关模型。这些模型为浅而双层的神经网络,用来训练以重新建构语言学之词文本。网络以词表现,并且需猜测相邻位置的输入词,在word2vec中词袋模型假设下,词的顺序是不重要的。训练完成之后,word2vec模型可用来映射每个词到一个向量,可用来表示词对词之间的关系,该向量为神经网络之隐藏层。
基于上述训练步骤,使用滑动窗口大小为c的卷积神经网络作为编码器学习描述文本的表示,具体为:
对每个待处理实体e,基于待处理实体所属的描述文本,得到的对待处理实体描述d,d=(w1,w2,…,wl);其中,w1,w2,…,wl分别为序号为1,2,…,l的单词。
CNN(Convolutional Neural Networks,卷积神经网络)是一类包含卷积计算且具有深度结构的前馈神经网络,是深度学习的代表算法。
S1033,采用注意力机制,计算所述实体向量表示和所述词向量表示之间的注意力权重,并基于所述注意力权重对所获得的词向量表示进行加权融合,得到所述待处理实体所属描述文本的描述文本向量表示。
本发明的一个实施例中,可以按照如下表达式,得到所述待处理实体所属描述文本的描述文本向量表示。
其中,Wx是权重矩阵,bx为偏置向量,αi是根据平移变换后的待处理变换实体rht计算得到的单词wi的注意力权重,de是待处理实体描述的描述文本向量表示,表示描述文本向量表示,tanh(·)表示激活函数,xi表示词向量。
另外,使用一个门控机制来融合待处理文本的文本向量表示de和知识图谱中的结构信息即实体向量表示e,具体为:
e′=g⊙e+(1-g)⊙de
其中,g为融合门控向量, 为待处理文本的文本向量维度,Dw为词向量维度的维度值,e′为文本向量表示,⊙表示哈达玛积,l为待处理实体间的关系标签的表示,l=t′-h′;t′为融合描述文本的待处理实体中头实体的向量表示,h′为融合描述文本的待处理实体中尾实体的向量表示。
S1034,将所述描述文本向量表示与所述初始文本向量表示进行拼接,得到融合描述文本的待处理文本的文本向量表示。
其中,为待处理词wi初始词向量,wi是待处理词wi的词向量,pi1和pi2是待处理词wi的两个位置信息,表示待处理词wi和两个待处理实体间的相对距离,符号为拼接操作,w1为序号为1的待处理词,wn为序号为n的待处理词,s为待处理实体所属描述文本中词的集合,w为一个待处理词。
基于上述训练步骤,同样使用滑动窗口大小为c的卷积神经网络作为编码器学习描述文本的表示,具体为:
[s]j=max{[z1]j,…[zi]j,…,[zn]j}
其中,zi是窗口序号i经过一层卷积层后的隐藏状态表示,s是描述文本的描述文本向量表示, 为待处理文本的文本向量维度,Dh为待处理文本的文本向量维度的维度值,[·]j是待处理文本的文本向量的第j个值,max{·}表示最大池化函数。z1为窗口序号1经过一层卷积层后的隐藏状态表示,zn为窗口序号n经过一层卷积层后的隐藏状态表示。
可见,本实施例将所确定的待处理词输入至预设的词向量表示模型,得到所述待处理词的词向量表示,并采用注意力机制,对所获得的词向量表示进行加权融合,得到描述文本向量表示;将初始文本向量表示与描述文本向量表示进行拼接处理,得到文本向量表示。本实施例首先使用待处理实体所属描述文本来增强描述文本的表示。然后利用表征待处理实体间的初始关系的标签表示和注意力机制选择有效的待处理文本,进而完成关系分类。另外,本实施例能够缓解远程监督的错误标注问题,且能够避免待处理实体存在的潜在相关信息引入的新噪声问题,进而进一步提高对文本进行分类的准确。
S104,将所述文本向量表示输入至预设的关系分类模型,得到待处理实体间的关系表示;其中,所述关系分类模型为:预先采用样本文本向量表示对预设的卷积神经网络进行训练得到的、用于预测文本的关系表示模型,所述样本文本向量表示为根据样本实体和样本词分别与第一样本文本的所属关系得到的样本文本的向量表示,所述样本实体为对第一样本文本进行命名实体识别获得的实体,所述第一样本文本为从语料库中确定的所述样本实体所属描述文本中的词。
其中,上述关系分类模型就是图3中的关系分类器。
在本发明的一个实施例中,可以按照如下方式获得关系分类模型,具体包括如下步骤A~步骤F:
步骤A,获取第一样本文本;
步骤B,对第一样本文本进行命名实体识别,获得第一样本实体;
步骤C,从预设的语料库中确定第一样本实体所属描述文本中的词作为第二样本词;
步骤D,根据所述第一样本实体和所述第二样本词分别与所述第一样本文本的所属关系,得到第一样本文本的文本向量表示;
步骤E,获得每一第一样本文本的关系表示标注;
步骤F,将第一样本文本的文本向量表示作为输入参数,利用关系表示标注,对卷积神经网络进行训练,得到用于预测文本的关系表示的关系分类模型。
可见,本实施例按照上述方式在训练时,所使用的第一样本文本的文本向量表示引入了第一样本实体所属的描述文本,以使得到的文本向量表示包含了第一样本实体存在的潜在信息,可见,应用本实施例训练的关系分类模型,能够进一步提高对文本进行分类的准确率。
在本发明的一个实施例中,上述步骤D的具体实现方式可以包括如下步骤D1~步骤D4:
步骤D1,将所述第一样本实体输入至预设的实体向量表示模型,得到所述第一样本实体的实体向量表示;
步骤D2,将所确定的第二样本词输入至预设的词向量表示模型,得到所述第二样本词的词向量表示;
步骤D3,采用注意力机制,对所获得的第二样本词的词向量表示进行加权融合,得到所述第一样本实体所属描述文本的描述文本向量表示;
步骤D4,将所述第一样本实体的实体向量表示与第一样本实体所属描述文本的描述文本向量表示进行拼接处理,得到所述第一样本文本的文本向量表示。
可见,本实施例按照上述方式在训练时,使用第一样本文本所属描述文本来增强描述文本的表示。然后利用标签表示和注意力机制选择有效的描述文本,进而完成关系分类。另外,本实施例能够避免第一样本实体存在的潜在相关信息引入的新噪声问题,进而进一步提高对文本进行分类的准确率。
在本发明的一个实施例中,在步骤D4之后,还可以包括步骤D5~步骤D7:
步骤D5,基于第一样本实体与预设的目标知识图谱的映射关系,对第一样本实体间进行平移变换,得到平移变换后的样本变换实体关系表示;
将所述样本变换实体关系表示输入至预设的关系向量表示模型,得到所述第一样本实体间的关系向量表示;
对得到第一样本文本的文本向量表示和第一样本实体间的关系向量表示进行融合,得到融合后的第一样本文本的文本向量表示。
可见,本实施例在训练时,利用第一样本实体间的关系向量表示和注意力机制来降低第一样本实体所属描述文本中噪声词汇的权重,进一步提高对文本进行分类的准确率。
在本发明的一个实施例中,如图3所示,在S104之前,上述方法还可以包括:
S1035,基于待处理实体与预设的目标知识图谱的映射关系,对待处理实体间进行平移变换,得到平移变换后的待处理变换实体关系表示,其中,所述目标知识图谱为根据待处理文本构建的知识图谱。
将一个知识图谱表示为G=(h,r,t)。知识图谱G中包含了大量的三元组(h,r,t),其中h和t分别表示头实体和尾实体,r表示实体之间的关系,他们的向量表示为(h,r,t)。
利用关系表达式rht=t-h,得到平移变换后的待处理变换实体rht。
S1036,将所述待处理变换实体关系表示输入至预设的关系向量表示模型,得到所述待处理实体间的关系向量表示,其中,所述关系向量表示模型为预先采用样本变换实体关系表示对预设的卷积层神经网络进行训练得到的、用于预测文本中实体间的向量表示的模型,所述样本变换实体关系表示为基于第四样本实体与样本知识图谱的映射关系,对第四样本文本中的第四样本实体间进行平移变换得到的关系表示,样本知识图谱为根据第四样本文本构建的知识图谱。
获取第四样本文本中的第四样本实体,将样本变换实体关系表示输入至卷积层神经网络中,对卷积层神经网络中的模型参数进行迭代调整,得到文本中实体间的关系向量表示。
使用知识图谱的表示学习方法TransE来学习知识图谱的表示。给定一个三元组(h,r,t),卷积层神经网络旨在学习实体h,t以及关系r的低维向量表示。卷积层神经网络将关系r看作从头实体h到尾实体t的翻译,其假设若三元组(h,r,t)存在则向量t应该接近h+t。得分函数定义为:
值得注意的是,由于测试集中的真实标签是未知的,则可使用将关系表示为:rht=t-h。
本发明的一个实施例中,在S1036后,还可以包括:将待处理变换实体关系表示输入至标签分类器中,获得待处理变换实体间的关系类别,其中,所述标签分类器为预先采用样本待处理变换实体关系表示对分离器进行训练得到的、用于预测平移变换后的实体间关系类别,样本待处理变换实体关系表示为基于样本待处理实体与预设的样本目标知识图谱的映射关系,对第五样本待处理实体间进行平移变换得到的平移变换后的样本待处理变换实体关系表示,第五样本待处理实体为第五样本文本进行命名实体识别获得的实体,样本目标知识图谱为根据第五样本文本构建的知识图谱。
标签分类器就是确定每一关系类别属于哪一个关系类别,基于此,为了计算每个关系类别的置信度概率P(y|B),即给定待处理文本集合B,关系标签为y的概率,将经过待处理变换实体关系表示输入到一个标签分类器中:
其中,Ms是线性变换矩阵,bs是偏置向量,Softmax(·)为Softmax函数。
可见,本实施例能够通过将待处理变换实体关系表示输入至标签分类器中,获得待处理变换实体间的关系类别,以确定每个关系类别具体属于哪一个类型。
S1037,采用注意力机制,计算所述实体向量表示和所述词向量表示之间的注意力权重,并基于所述注意力权重对所获得的词向量表示进行加权融合,得到所述待处理实体所属描述文本的描述文本向量表示。
部分监督的关系抽取方法需要大量的标注数据,而人工标注的代价很高。因此,目前提出了远程监督的方式来有效自动地标注大量训练数据。远程监督假设如果两个实体之间在知识图谱中存在关系,那么所有包含这对实体的句子都表达该关系。然而,这个假设在所有情况下并不总是成立的,而且导致了错误标注问题。基于此,本发明实施例为了缓解远程监督的错误标注问题,利用标签表示l作为描述文本上的注意力来减小待处理文本集合噪声描述文本的噪音B,B={s1,…,sm},s1为第1个待处理文本,si为第i个待处理文本。
然后,可以通过加权融合描述文本的向量表示s′i从集合B中计算描述文本向量表示:
si=tanh(Wss′i+bs),
其中,Ws是权重矩阵,bs是偏置向量,λi是基于标签表示l计算的描述文本si的注意力值,s′i是描述文本的向量表示,是加权融合后的待处理文本的文本向量表示,m为描述文本的总个数,tanh(·)为激活函,i为描述文本序号。
可见,本实施例基于待处理实体与预设的目标知识图谱的映射关系,对待处理实体间进行平移变换,得到平移变换后的待处理变换实体,并将所述待处理变换实体输入至预设的关系向量表示模型,得到所述待处理实体间的关系向量表示,且对所述文本向量表示和所述关系向量表示进行融合,得到融合后的文本向量表示。本实施例利用关系向量表示和注意力机制来降低待处理实体所属描述文本中噪声词汇的权重,进一步提高对文本进行分类的准确率。
在本发明的一个实施例中,如图2所示,在S104之后,所述方法还包括S105:
S105,利用所得到的关系表示和所述待处理实体,得到用于构建知识图谱的三元组。
构建知识图谱的三元组中的待处理实体间的关系表示包含了待处理实体的潜在信息。
可见,本实施例构建的三元组包含了待处理实体的潜在信息,在利用该三元组进行分类时,可提高对文本进行分类的准确率。
在本发明的一个实施例中,如图2所示,在S105之后,所述方法还可以包括S106:
S106,利用构建的三元组,扩充指定的知识图谱,得到新的知识图谱。
可见,本实施例通过利用构建的三元组,将非结构化文本转换为结构化文本,同时对指定的知识图谱进行扩充,可进一步完善指定的知识图谱,使得扩充后的知识图谱中实体间的关系更加丰富。
由此可见,本发明实施例提供的方法从预设的语料库中确定待处理文本中待处理实体所属描述文本中的词作为待处理词;根据待处理实体和待处理词分别与待处理文本的所属关系,得到文本向量表示;将述文本向量表示输入至预设的关系分类模型,得到待处理实体间的关系表示,相对于现有技术而言,本实施例引入了待处理实体所属的描述文本,以使得到的文本向量表示包含了待处理实体存在的潜在信息,可见,应用本实施例提供的方法能够提高对文本进行分类的准确率。
与上述基于文本的实体关系抽取方法相对应,本发明实施例还提供了基于文本的实体关系抽取方法装置。
参加图4,图4为本发明实施例提供的一种基于文本的实体关系抽取装置,所述装置包括:
实体获得模块301,用于对待处理文本进行命名实体识别,获得待处理实体;
词确定模块302,用于从预设的语料库中确定待处理实体所属描述文本中的词作为待处理词;
文本向量得到模块303,用于根据所述待处理实体和所述待处理词分别与所述待处理文本的所属关系,得到待处理文本的文本向量表示;
关系表示模块304,用于将所述文本向量表示输入至预设的关系分类模型,得到待处理实体间的关系表示;其中,所述关系分类模型为:预先采用样本文本向量表示对预设的卷积神经网络进行训练得到的、用于预测文本的关系表示模型,所述样本文本向量表示为根据样本实体和样本词分别与第一样本文本的所属关系得到的第一样本文本的向量表示,所述样本实体为对所述第一样本文本进行命名实体识别获得的实体,所述样本文本为从语料库中确定的所述样本实体所属描述文本中的词。
可选的,所述文本向量得到模块303可以包括:
向量得到子模块,用于将所述待处理实体和所述待处理文本输入至预设的向量表示模型,得到所述待处理实体的实体向量表示和待处理文本的初始向量表示,其中,所述实体向量表示模型为预先采用第二样本文本对预设的卷积层神经网络进行训练得到的、用于预测文本的初始向量表示和文本中实体的实体向量表示的模型;
词向量表示得到子模块,用于将所确定的待处理词输入至预设的词向量表示模型,得到所述待处理词的词向量表示,其中,所述词向量表示模型为预先采用样本描述文本对预设的卷积神经网络进行训练得到的、用于预测文本中实体所属描述文本中词的向量表示的模型;样本描述文本为从语料库中获取的包括样本实体的文本;所述样本实体为对第三样本文本进行命名实体识别获得的实体;
描述文本向量得到子模块,用于采用注意力机制,计算所述实体向量表示和所述词向量表示之间的注意力权重,并基于所述注意力权重对所获得的词向量表示进行加权融合,得到所述待处理实体所属描述文本的描述文本向量表示;
文本向量得到子模块,用于将所述描述文本向量表示与所述初始文本向量表示进行拼接,得到融合描述文本的待处理文本的文本向量表示。
可选的,所述装置还可以包括:
变换实体得到模块,用于基于待处理实体与预设的目标知识图谱的映射关系,对待处理实体间进行平移变换,得到平移变换后的待处理变换实体关系表示,其中,所述目标知识图谱为根据待处理文本构建的知识图谱;
关系向量得到模块,用于将所述待处理变换实体关系表示输入至预设的关系向量表示模型,得到所述待处理实体间的关系向量表示,其中,所述关系向量表示模型为预先采用样本变换实体关系表示对预设的卷积层神经网络进行训练得到的、用于预测文本中实体间的向量表示的模型,所述样本变换实体关系表示为基于第四样本实体与样本知识图谱的映射关系,对第四样本文本中的第四样本实体间进行平移变换得到的关系表示,样本知识图谱为根据第四样本文本构建的知识图谱;
融合模块,用于对所述文本向量表示和所述关系向量表示进行融合,得到融合后的文本向量表示。
可选的,上述装置在所述对待处理文本进行命名实体识别之前,所述方法还包括:
获取包括同一待处理实体的多个文本构成的待处理文本集;
确定所述待处理文本集中是否存在未被选取的文本;
若存在,从所述待处理文本集中选取一个未被选取的文本作为待处理文本,执行所述对待处理文本进行命名实体识别,获得待处理实体的步骤。
可选的,上述装置还可以包括:
三元组构建模块,用于利用所得到的关系表示和所述待处理实体,得到用于构建知识图谱的三元组。
可选的,上述装置还可以包括:
知识图谱得到模块,用于利用构建的三元组,扩充指定的知识图谱,得到新的知识图谱。
由此可见,本发明实施例提供的装置从预设的语料库中确定待处理文本中待处理实体所属描述文本中的词作为待处理词;根据待处理实体和待处理词分别与待处理文本的所属关系,得到文本向量表示;将述文本向量表示输入至预设的关系分类模型,得到待处理实体间的关系表示,相对于现有技术而言,本实施例引入了待处理实体所属的描述文本,以使得到的文本向量表示包含了待处理实体存在的潜在信息,可见,应用本实施例提供的方法能够提高对文本进行分类的准确率。
本发明实施例还提供了一种电子设备,如图5所示,包括处理器401、通信接口402、存储器403和通信总线404,其中,处理器401,通信接口402,存储器403通过通信总线404完成相互间的通信,
存储器403,用于存放计算机程序;
处理器401,用于执行存储器403上所存放的程序时,实现本发明实施例提供的一种基于文本的实体关系抽取方法。
具体的,上述基于文本的实体关系抽取方法,包括:
对待处理文本进行命名实体识别,获得待处理实体;
从预设的语料库中确定待处理实体所属描述文本中的词作为待处理词;
根据所述待处理实体和所述待处理词分别与所述待处理文本的所属关系,得到待处理文本的文本向量表示;
将所述文本向量表示输入至预设的关系分类模型,得到待处理实体间的关系表示;其中,所述关系分类模型为:预先采用样本文本向量表示对预设的卷积神经网络进行训练得到的、用于预测文本的关系表示模型,所述样本文本向量表示为根据样本实体和样本词分别与第一样本文本的所属关系得到的第一样本文本的向量表示,所述样本实体为对所述第一样本文本进行命名实体识别获得的实体,所述样本文本为从语料库中确定的所述样本实体所属描述文本中的词。
由此可见,执行本实施例提供的电子设备,通过从预设的语料库中确定待处理文本中待处理实体所属描述文本中的词作为待处理词;根据待处理实体和待处理词分别与待处理文本的所属关系,得到文本向量表示;将述文本向量表示输入至预设的关系分类模型,得到待处理实体间的关系表示,相对于现有技术而言,本实施例引入了待处理实体所属的描述文本,以使得到的文本向量表示包含了待处理实体存在的潜在信息,可见,应用本实施例提供的方法能够提高对文本进行分类的准确率。
上述的相关内容基于文本的实体关系抽取方法的实施方式与前述方法实施例部分提供的基于文本的实体关系抽取方法方式相同,这里不再赘述。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述实施例中任一所述的基于文本的实体关系抽取方法。
在本发明提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一上述的基于文本的实体关系抽取方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (10)
1.一种基于文本的实体关系抽取方法,其特征在于,所述方法包括:
对待处理文本进行命名实体识别,获得待处理实体;
从预设的语料库中确定待处理实体所属描述文本中的词作为待处理词;
根据所述待处理实体和所述待处理词分别与所述待处理文本的所属关系,得到待处理文本的文本向量表示;
将所述文本向量表示输入至预设的关系分类模型,得到待处理实体间的关系表示;其中,所述关系分类模型为:预先采用样本文本向量表示对预设的卷积神经网络进行训练得到的、用于预测文本的关系表示模型,所述样本文本向量表示为根据样本实体和样本词分别与第一样本文本的所属关系得到的第一样本文本的向量表示,所述样本实体为对所述第一样本文本进行命名实体识别获得的实体,所述样本文本为从语料库中确定的所述样本实体所属描述文本中的词。
2.如权利要求1所述的方法,其特征在于,所述根据所述待处理实体和所述待处理词分别与所述待处理文本的所属关系,得到待处理文本的文本向量表示,包括:
将所述待处理实体和所述待处理文本输入至预设的向量表示模型,得到所述待处理实体的实体向量表示和待处理文本的初始向量表示,其中,所述实体向量表示模型为预先采用第二样本文本对预设的卷积层神经网络进行训练得到的、用于预测文本的初始向量表示和文本中实体的实体向量表示的模型;
将所确定的待处理词输入至预设的词向量表示模型,得到所述待处理词的词向量表示,其中,所述词向量表示模型为预先采用样本描述文本对预设的卷积神经网络进行训练得到的、用于预测文本中实体所属描述文本中词的向量表示的模型;所述样本描述文本为从语料库中获取的包括样本实体的文本;所述样本实体为对第三样本文本进行命名实体识别获得的实体;
采用注意力机制,计算所述实体向量表示和所述词向量表示之间的注意力权重,并基于所述注意力权重对所获得的词向量表示进行加权融合,得到所述待处理实体所属描述文本的描述文本向量表示;
将所述描述文本向量表示与所述初始文本向量表示进行拼接,得到融合描述文本的待处理文本的文本向量表示。
3.如权利要求2所述的方法,其特征在于,在所述将所述文本向量表示输入至预设的关系分类模型,得到待处理实体间的关系表示之前,所述方法还包括:
基于所述待处理实体与预设的目标知识图谱的映射关系,对所述待处理实体间进行平移变换,得到平移变换后的待处理变换实体关系表示,其中,所述目标知识图谱为根据所述待处理文本构建的知识图谱;
将所述待处理变换实体关系表示输入至预设的关系向量表示模型,得到所述待处理实体间的关系向量表示,其中,所述关系向量表示模型为预先采用样本变换实体关系表示对预设的卷积层神经网络进行训练得到的、用于预测文本中实体间的向量表示的模型,所述样本变换实体关系表示为基于第四样本实体与样本知识图谱的映射关系,对第四样本文本中的第四样本实体间进行平移变换得到的关系表示,所述样本知识图谱为根据所述第四样本文本构建的知识图谱;
对所述文本向量表示和所述关系向量表示进行融合,得到融合后的文本向量表示。
4.如权利要求2所述的方法,其特征在于,在所述对待处理文本进行命名实体识别之前,所述方法还包括:
获取包括同一待处理实体的多个文本构成的待处理文本集;
确定所述待处理文本集中是否存在未被选取的文本;
若存在,从所述待处理文本集中选取一个未被选取的文本作为待处理文本,执行所述对待处理文本进行命名实体识别,获得待处理实体的步骤。
5.如权利要求1~4中任一项所述的方法,其特征在于,在所述得到待处理实体间的关系表示之后,所述方法还包括:
利用所得到的关系表示和所述待处理实体,得到用于构建知识图谱的三元组。
6.如权利要求5所述的方法,其特征在于,在所述得到用于构建知识图谱的三元组之后,所述方法还包括:
利用构建的三元组,扩充指定的知识图谱,得到新的知识图谱。
7.一种基于文本的实体关系抽取装置,其特征在于,所述装置包括::
实体获得模块,用于对待处理文本进行命名实体识别,获得待处理实体;
词确定模块,用于从预设的语料库中确定待处理实体所属描述文本中的词作为待处理词;
文本向量得到模块,用于根据所述待处理实体和所述待处理词分别与所述待处理文本的所属关系,得到待处理文本的文本向量表示;
关系表示模块,用于将所述文本向量表示输入至预设的关系分类模型,得到待处理实体间的关系表示;其中,所述关系分类模型为:预先采用样本文本向量表示对预设的卷积神经网络进行训练得到的、用于预测文本的关系表示模型,所述样本文本向量表示为根据样本实体和样本词分别与第一样本文本的所属关系得到的第一样本文本的向量表示,所述样本实体为对所述第一样本文本进行命名实体识别获得的实体,所述样本文本为从语料库中确定的所述样本实体所属描述文本中的词。
8.如权利要求7所述的装置,其特征在于,所述文本向量得到模块包括:
向量得到子模块,用于将所述待处理实体和所述待处理文本输入至预设的向量表示模型,得到所述待处理实体的实体向量表示和待处理文本的初始向量表示,其中,所述实体向量表示模型为预先采用第二样本文本对预设的卷积层神经网络进行训练得到的、用于预测文本的初始向量表示和文本中实体的实体向量表示的模型;
词向量表示得到子模块,用于将所确定的待处理词输入至预设的词向量表示模型,得到所述待处理词的词向量表示,其中,所述词向量表示模型为预先采用样本描述文本对预设的卷积神经网络进行训练得到的、用于预测文本中实体所属描述文本中词的向量表示的模型;样本描述文本为从语料库中获取的包括样本实体的文本;所述样本实体为对第三样本文本进行命名实体识别获得的实体;
描述文本向量得到子模块,用于采用注意力机制,计算所述实体向量表示和所述词向量表示之间的注意力权重,并基于所述注意力权重对所获得的词向量表示进行加权融合,得到所述待处理实体所属描述文本的描述文本向量表示;
文本向量得到子模块,用于将所述描述文本向量表示与所述初始文本向量表示进行拼接,得到融合描述文本的待处理文本的文本向量表示。
9.如权利要求8所述的装置,其特征在于,所述装置还包括:
变换实体得到模块,用于基于所述待处理实体与预设的目标知识图谱的映射关系,对所述待处理实体间进行平移变换,得到平移变换后的待处理变换实体关系表示,其中,所述目标知识图谱为根据所述待处理文本构建的知识图谱;
关系向量得到模块,用于将所述待处理变换实体关系表示输入至预设的关系向量表示模型,得到所述待处理实体间的关系向量表示,其中,所述关系向量表示模型为预先采用样本变换实体关系表示对预设的卷积层神经网络进行训练得到的、用于预测文本中实体间的向量表示的模型,所述样本变换实体关系表示为基于第四样本实体与样本知识图谱的映射关系,对第四样本文本中的第四样本实体间进行平移变换得到的关系表示,所述样本知识图谱为根据所述第四样本文本构建的知识图谱;
融合模块,用于对所述文本向量表示和所述关系向量表示进行融合,得到融合后的文本向量表示。
10.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-6任一所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910944006.7A CN110704576B (zh) | 2019-09-30 | 2019-09-30 | 一种基于文本的实体关系抽取方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910944006.7A CN110704576B (zh) | 2019-09-30 | 2019-09-30 | 一种基于文本的实体关系抽取方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110704576A true CN110704576A (zh) | 2020-01-17 |
CN110704576B CN110704576B (zh) | 2022-07-01 |
Family
ID=69197672
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910944006.7A Active CN110704576B (zh) | 2019-09-30 | 2019-09-30 | 一种基于文本的实体关系抽取方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110704576B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111401066A (zh) * | 2020-03-12 | 2020-07-10 | 腾讯科技(深圳)有限公司 | 基于人工智能的词分类模型训练方法、词处理方法及装置 |
CN111428047A (zh) * | 2020-03-19 | 2020-07-17 | 东南大学 | 一种基于ucl语义标引的知识图谱构建方法及装置 |
CN111680488A (zh) * | 2020-06-08 | 2020-09-18 | 浙江大学 | 基于知识图谱多视角信息的跨语言实体对齐方法 |
CN112241458A (zh) * | 2020-10-13 | 2021-01-19 | 北京百分点信息科技有限公司 | 文本的知识结构化处理方法、装置、设备和可读存储介质 |
CN112270196A (zh) * | 2020-12-14 | 2021-01-26 | 完美世界(北京)软件科技发展有限公司 | 实体关系的识别方法、装置及电子设备 |
CN112749557A (zh) * | 2020-08-06 | 2021-05-04 | 腾讯科技(深圳)有限公司 | 文本处理模型的构建方法和文本处理方法 |
CN112926332A (zh) * | 2021-03-30 | 2021-06-08 | 善诊(上海)信息技术有限公司 | 一种实体关系联合抽取方法及装置 |
CN113743121A (zh) * | 2021-09-08 | 2021-12-03 | 平安科技(深圳)有限公司 | 长文本实体关系抽取方法、装置、计算机设备及存储介质 |
CN114117055A (zh) * | 2022-01-27 | 2022-03-01 | 浙江太美医疗科技股份有限公司 | 一种文本实体关系的抽取方法、装置、设备和可读介质 |
WO2022043782A1 (en) * | 2020-08-28 | 2022-03-03 | International Business Machines Corpofiation | Automatic knowledge graph construction |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120158687A1 (en) * | 2010-12-17 | 2012-06-21 | Yahoo! Inc. | Display entity relationship |
US20180196881A1 (en) * | 2017-01-06 | 2018-07-12 | Microsoft Technology Licensing, Llc | Domain review system for identifying entity relationships and corresponding insights |
CN109871542A (zh) * | 2019-03-08 | 2019-06-11 | 广东工业大学 | 一种文本知识提取方法、装置、设备及存储介质 |
CN110232186A (zh) * | 2019-05-20 | 2019-09-13 | 浙江大学 | 融合实体描述、层次化类型和文本关系信息的知识图谱表示学习方法 |
WO2019174422A1 (zh) * | 2018-03-16 | 2019-09-19 | 北京国双科技有限公司 | 实体关联关系的分析方法及相关装置 |
-
2019
- 2019-09-30 CN CN201910944006.7A patent/CN110704576B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120158687A1 (en) * | 2010-12-17 | 2012-06-21 | Yahoo! Inc. | Display entity relationship |
US20180196881A1 (en) * | 2017-01-06 | 2018-07-12 | Microsoft Technology Licensing, Llc | Domain review system for identifying entity relationships and corresponding insights |
WO2019174422A1 (zh) * | 2018-03-16 | 2019-09-19 | 北京国双科技有限公司 | 实体关联关系的分析方法及相关装置 |
CN109871542A (zh) * | 2019-03-08 | 2019-06-11 | 广东工业大学 | 一种文本知识提取方法、装置、设备及存储介质 |
CN110232186A (zh) * | 2019-05-20 | 2019-09-13 | 浙江大学 | 融合实体描述、层次化类型和文本关系信息的知识图谱表示学习方法 |
Non-Patent Citations (3)
Title |
---|
侯庆霖: "基于词向量及术语关系抽取方法的文本分类方法", 《移动通信》 * |
鲍开放等: "基于结构与文本联合表示的知识图谱补全方法", 《计算机工程》 * |
黄蓓静等: "远程监督人物关系抽取中的去噪研究", 《计算机应用与软件》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111401066A (zh) * | 2020-03-12 | 2020-07-10 | 腾讯科技(深圳)有限公司 | 基于人工智能的词分类模型训练方法、词处理方法及装置 |
CN111428047A (zh) * | 2020-03-19 | 2020-07-17 | 东南大学 | 一种基于ucl语义标引的知识图谱构建方法及装置 |
CN111428047B (zh) * | 2020-03-19 | 2023-04-21 | 东南大学 | 一种基于ucl语义标引的知识图谱构建方法及装置 |
CN111680488A (zh) * | 2020-06-08 | 2020-09-18 | 浙江大学 | 基于知识图谱多视角信息的跨语言实体对齐方法 |
CN111680488B (zh) * | 2020-06-08 | 2023-07-21 | 浙江大学 | 基于知识图谱多视角信息的跨语言实体对齐方法 |
CN112749557A (zh) * | 2020-08-06 | 2021-05-04 | 腾讯科技(深圳)有限公司 | 文本处理模型的构建方法和文本处理方法 |
WO2022043782A1 (en) * | 2020-08-28 | 2022-03-03 | International Business Machines Corpofiation | Automatic knowledge graph construction |
GB2612225A (en) * | 2020-08-28 | 2023-04-26 | Ibm | Automatic knowledge graph construction |
CN112241458A (zh) * | 2020-10-13 | 2021-01-19 | 北京百分点信息科技有限公司 | 文本的知识结构化处理方法、装置、设备和可读存储介质 |
CN112241458B (zh) * | 2020-10-13 | 2022-10-28 | 北京百分点科技集团股份有限公司 | 文本的知识结构化处理方法、装置、设备和可读存储介质 |
CN112270196A (zh) * | 2020-12-14 | 2021-01-26 | 完美世界(北京)软件科技发展有限公司 | 实体关系的识别方法、装置及电子设备 |
CN112926332A (zh) * | 2021-03-30 | 2021-06-08 | 善诊(上海)信息技术有限公司 | 一种实体关系联合抽取方法及装置 |
CN113743121A (zh) * | 2021-09-08 | 2021-12-03 | 平安科技(深圳)有限公司 | 长文本实体关系抽取方法、装置、计算机设备及存储介质 |
CN113743121B (zh) * | 2021-09-08 | 2023-11-21 | 平安科技(深圳)有限公司 | 长文本实体关系抽取方法、装置、计算机设备及存储介质 |
CN114117055A (zh) * | 2022-01-27 | 2022-03-01 | 浙江太美医疗科技股份有限公司 | 一种文本实体关系的抽取方法、装置、设备和可读介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110704576B (zh) | 2022-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110704576B (zh) | 一种基于文本的实体关系抽取方法及装置 | |
CN112528672B (zh) | 一种基于图卷积神经网络的方面级情感分析方法及装置 | |
CN111967266B (zh) | 中文命名实体识别系统、模型构建方法和应用及相关设备 | |
CN111026842B (zh) | 自然语言处理方法、自然语言处理装置及智能问答系统 | |
US10176804B2 (en) | Analyzing textual data | |
CN111401077B (zh) | 语言模型的处理方法、装置和计算机设备 | |
CN110727779A (zh) | 基于多模型融合的问答方法及系统 | |
CN110674317B (zh) | 一种基于图神经网络的实体链接方法及装置 | |
CN109214006B (zh) | 图像增强的层次化语义表示的自然语言推理方法 | |
CN109299211B (zh) | 一种基于Char-RNN模型的文本自动生成方法 | |
CN114676234A (zh) | 一种模型训练方法及相关设备 | |
CN113961666B (zh) | 关键词识别方法、装置、设备、介质及计算机程序产品 | |
CN114676255A (zh) | 文本处理方法、装置、设备、存储介质及计算机程序产品 | |
CN112632258A (zh) | 文本数据处理方法、装置、计算机设备和存储介质 | |
CN112528654A (zh) | 自然语言处理方法、装置及电子设备 | |
CN112214595A (zh) | 类别确定方法、装置、设备及介质 | |
CN112131345A (zh) | 文本质量的识别方法、装置、设备及存储介质 | |
CN116385937A (zh) | 一种基于多粒度的跨模态交互框架解决视频问答的方法及系统 | |
CN112036189A (zh) | 一种金文语义识别方法和系统 | |
CN112183060B (zh) | 多轮对话系统的指代消解方法 | |
CN113705207A (zh) | 语法错误识别方法及装置 | |
CN113609873A (zh) | 翻译模型训练方法、装置及介质 | |
KR20230117716A (ko) | 검색어 추천 장치, 방법 및 기록매체 | |
WO2023116572A1 (zh) | 一种词句生成方法及相关设备 | |
CN116257632A (zh) | 基于图对比学习的未知目标立场检测方法、装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |