CN111914091A - 一种基于强化学习的实体和关系联合抽取方法 - Google Patents

一种基于强化学习的实体和关系联合抽取方法 Download PDF

Info

Publication number
CN111914091A
CN111914091A CN201910375005.5A CN201910375005A CN111914091A CN 111914091 A CN111914091 A CN 111914091A CN 201910375005 A CN201910375005 A CN 201910375005A CN 111914091 A CN111914091 A CN 111914091A
Authority
CN
China
Prior art keywords
word
training
entity
network
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910375005.5A
Other languages
English (en)
Other versions
CN111914091B (zh
Inventor
何小海
周欣
刘露平
罗晓东
卿粼波
吴小强
滕奇志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN201910375005.5A priority Critical patent/CN111914091B/zh
Publication of CN111914091A publication Critical patent/CN111914091A/zh
Application granted granted Critical
Publication of CN111914091B publication Critical patent/CN111914091B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种联合信息抽取方法。该方法实现从输入文本中联合抽取出实体和关系信息,由联合抽取模块和强化学习模块组成。联合抽取模块采用端到端设计,包含词嵌层、编码层、实体识别层和联合信息抽取层。其中词嵌层采用Glove预训练词嵌库和基于字符粒度的词嵌表示相结合的方式。编码层使用双向长短记忆网络对输入文本进行编码。实体识别层和联合信息抽取层使用单向长短记忆网络进行解码。强化学习模块用于去除数据集中的噪声,其策略网络由卷积神经网络构成。策略网络包含预训练和再训练两个过程,在预训练中,使用预训练数据集对其进行监督训练。在再训练过程中,获取联合抽取网络的奖励来对策略网络进行更新,是一个非监督学习过程。

Description

一种基于强化学习的实体和关系联合抽取方法
技术领域
本发明设计了一种基于强化学习的实体和关系联合抽取方法,属于自然语言处理技术领域。
背景技术
在自然语言处理任务中,实体识别和关系抽取是构建知识图谱的关键技术,也是语义分析、智能问答和自动摘要等自然语言处理应用的重要组成部分。该任务的核心是抽取给定文本的实体及其两个实体之间的语义关系。随着人工智能及知识图谱技术的发展,该领域目前受到了越来越多学者的关注。
传统方法通常将实体识别和关系抽取任务视为两个独立任务,即命名实体识别(Named Entity Recognition,NER)和关系分类(Relation Classification,RC)。这些系统在设计和实现上较为简单,但是它们忽略了这两个子任务之间的相关性。实际上,实体和关系抽取过程中往往要结合输入文本上下文之间的关联关系进行抽取,因此这类方法准确率较低。此外这些方法很容易受到传播误差的影响,当实体识别任务出错时,会影响后面关系分类的结果准确率。联合学习模型是解决这一问题的有效方法,它将NER和RC作为一个协同任务,同时从文本中提取实体和关系信息。联合学习模型由于能够有效地整合实体和关系的信息,因此在这一任务中取得了较好的效果,这在许多已有的研究中已经得到证明(Zheng S,Hao Y,Lu D,Bao H,Xu J,Hao H,et al.Joint entity and relationextraction based on a hybrid neural network.Neurocomputing.2017;257:59-66;Katiyar A,Cardie C,editors.Going out on a limb:Joint Extraction of EntityMentions and Relations without Dependency Trees2017:Association forComputational Linguistics;Miwa M,Bansal M,editors.End-to-End RelationExtraction using LSTMs on Sequences and Tree Structures2016:Association forComputational Linguistics)。然而,现有的联合方法大多是基于传统特征提取的方法,这些方法严重依赖于手工设计的特征或其他自然语言处理(Natural Language Processing,NLP)工具包提供的特征。近年来,研究人员开始将基于神经网络的方法应用于端到端实体和关系提取,这些方法大部分是通过端到端的神经网络来进行联合信息抽取。由于基于神经网络的方法不依赖于外部特征,其模型的鲁棒性和泛化能力更强。但目前大多数联合学习模型是基于参数共享的方式。这些系统在上游的编码阶段使用相同的神经网络来提取输入句子的语义信息,但在下游需要两个不同的网络分别提取实体和关系。
为了实现在下游任务中通过同一个网络中完成实体和关系的抽取,Zheng等人(Zheng S,Wang F,Bao H,Hao Y,Zhou P,Xu B,editors.Joint Extraction of Entitiesand Relations Based on a Novel Tagging Scheme2017:Association forComputational Linguistics)提出了一种新的端到端的联系信息抽取模型,该模型主要是基于设计了一种新的标注方法。在该标注方案中,每个实体词都会被赋予三重信息:实体类型、关系类型和关系的角色(用于说明该实体属于三元组的哪个部分)。基于该标注方案,联合信息抽取任务可以转化为序列标注问题,因此只需要一个解码网络就可以实现实体和关系的提取。该方法和传统的方法相比,取得了最优的实验结果。但是该方法仍然存在两个问题:重叠关系和噪声数据问题。重叠关系是指一个词与其他词之间存在不止一个关系,必须用不同的标签来标记。而在他们的新标签方案中,一个词只能被分配一个标签。Wang等人(Wang S,Zhang Y,Che W,Liu T.Joint Extraction of Entities and Relations Basedon a Novel Graph Scheme.international joint conference on artificialintelligence.2018:4461-7)通过设计一种新的基于图标准的方案,解决了上述的关系重叠问题。而针对数据中存在噪声的问题,则目前还没有相关的方案予以很好的解决。
针对以上问题,本发明提出了一种基于强化学习的实体和关系联合抽取方法。该方法旨在解决数据集中存在的噪声数据会对模型训练产生影响的问题。该方案中,通过设计一个强化学习网络用于去除训练集中的噪声数据,从而使得在相对干净的数据集上训练的模型具有更强的鲁棒性。
发明内容
本发明针对数据集中存在噪声数据问题,提出了一种新的联合实体和关系抽取的网络模型。所设计的网络是基于强化学习的,由联合抽取模块和强化学习(Reinforcementlearning,RL)模块两部分组成。联合抽取模块是一个端到端网络,包括词嵌层、编码层、实体识别层和联合解码层。在联合解码层,该发明基于Zheng等人提出的新的标注方案,能够同时输出实体和关系信息。由于联合解码网络只关心有关系的实体,因此本发明加入了命名实体识别层用于提取输入文本中的所有实体,并将提取的实体送入联合解码层以辅助进行更好的实体和关系抽取。本发明设计的学习强化(RL)模块使用动态选择策略来对数据集进行自动处理,将噪声数据进行分离,并得到一个干净的数据集。在RL模块训练中,将使用联合学习网络的性能变化来计算奖励值并用于指导策略网络的更新。
本发明通过以下技术方案来实现上述目的:
1、发明所述的基于强化学习的实体和关系抽取模型如图1所示,其包含联合信息抽取模块和强化学习模块两部分。本发明所述的实体和关系抽取模型包含预训练步骤和重新训练步骤。
在预训练步骤中,主要对强化学习模块的策略网络进行预训练,按照如下方法进行:
(1)从原始训练数据集中,随机抽取80%样本数据构成预训练数据,在预训练数据集中,根据数据是否包含有关系分成两类:正样本和负样本,正样本集用标签1表示,而负样本集用标签0表示。其中正样本集中的每个样本包含至少一个关系,而负样本集中的样本不包含任何关系信息。
(2)通过预训练词嵌和字符粒度词嵌表示的方式对样本集中句子的单词进行词嵌表示。
(3)将词嵌表示的预训句子送入到强化学习模块的策略网络进行训练,强化学习的策略网络是二分类网络,用于决定样本是应该保留还是去除,其中正样本对应样本应该保留,而负样本则对应该样本应该去除。
(4)在训练过程中,当策略网络的准确率达到85%的时候停止训练。
具体地在预训练步骤(2)中,样本集中每个句子都会被表示成一个N×D的词向量,其中N为句子中单词的个数,而D为对应的词向量的维度。在该发明中,词向量由两部分构成:基于预训练的词嵌表示和基于字符级别的词嵌表示,其中预训练词嵌使用的工具为斯坦福提供的预训练词嵌工具Glove-word2vec,大小为300维。而字符级别的词嵌表示则是通过一个双向长短记忆网络(Bidirectional Long Short-term Memory,Bi-LSTM)对单词中每个字符向量进行编码后得到。其计算过程如下:
Figure BDA0002051334300000021
其中Vchar是单词字符的预训练词嵌表示。在字符级别的词嵌中,得到的词嵌大小为100维度。最后将预训练词嵌表示和字符级别的词嵌表示相结合构成400维的词嵌表示。
在预训练步骤(3)中,策略网络使用卷积神经网络(Convolutional NeuralNetworks,CNN)作为分类器,在卷积神经网络中,过滤窗口大小为5,卷积核数量为100。在卷积网络后面堆叠一个全连接层和一个softmax分类器来对句子进行分类。
在预训练步骤(4)中,使用交叉熵作为训练目标函数,梯度下降使用Adam梯度下降算法,学习率为0.001,损失函数定义如下:
Figure BDA0002051334300000022
在重新训练中,需要对联合抽取网络和策略网络进行交互训练。其中策略网络更新通过将联合抽取网络的性能变化计算奖励后来指导其参数的更新。而更新后的策略网络又用于去除样本集中的噪声数据,去除掉噪声数据的样本集将用于对联合抽取网络进行训练。两者不断交互,直到联合信息抽取网络能达到最好的结果。其包含如下步骤:
(1)记初始训练数据为Pori,从原始数据集中选择固定大小的样本集Ω(包含120个样本)送入到强化学习模块中进行判别,如果决策结果为1,则代表该样本应该保留,如果决策结果为0,则表示该样本应该丢弃。如果判定结果为0的样本低于60个,则将所有结果为0的样本移除。如果判定结果为0的样本高于60个,则将得分最低60个样本移除,每次移除的噪声数据集记录为R。
(2)将去除噪声后得到的干净样本送入联合抽取模型进行训练。
(3)当联合抽取模型收敛后,将其在验证集上进行验证,记录下其F1值。
(4)将F1值与上一轮迭代中的F1值进行比较并计算得到奖励值(在该步骤初始训练时其F1值初始化为0)。
(5)如果奖励为1,则训练数据集Pori更新为Pori-R,如果奖励为0,则将移除的噪声数据R返回到原始数据集中,训练数据集Pori保持不变。
(6)用计算得到的奖励对策略网络进行更新。
(7)如果F1值连续5次未增加,则停止训练,否则返回到步骤1中,进行新的选择迭代。
具体地在重新训练步骤2中,在训练联合网络中,联合网络由四层构成:词嵌层、编码层、实体识别层和联合解码层。其中词嵌层和预训练过程过程中使用的词嵌一样。其他各层描述如下:
a)编码层,编码层用于提取输入句子的上下文语义信息,其使用双向长短记忆网络Bi-LSTM来对句子进行编码,表示如下:
Figure BDA0002051334300000031
b)实体识别层,实体感知层用于提取句子中的实体信息,其使用单向LSTM网络对编码层输出进行解码后利用一个转移矩阵得到预测得分,最后通过softmax分类器得到输出,该过程表示如下:
CONdecode=LSTM(CONrep)
yt=W(e)CONdecode+b(e)
Figure BDA0002051334300000032
通过softmax函数得到实体类别后,对实体类别进行词嵌表示,得到类别词嵌WL
c)联合解码层,联合解码层将输出实体和关系等信息,该解码层使用的也是一个单向LSTM解码器,其解码过程和实体提取层一样,其唯一区别在于句子输入为句子编码表示CONrep和实体类别的词嵌表示WL的相结合[CONrep,WL]。
在联合网络的训练中,同时训练实体识别层和联合信息抽取层,其损失函数表示如下:
Figure BDA0002051334300000041
在重新训练步骤8中,其奖励计算过程如下:
Figure BDA0002051334300000042
如果F1值上升,将得到一个奖励为1,如果F1值下降,则得到一个奖励为0。
在重新训练的步骤8中,使用移除的数据R对策略网络进行更新,如果F1值上升,则表示策略网络采取了正确的结果,其移除的是负样本,其标签值为0,而如果F1值下降,则表明策略网络采取了错误的结果,其移除的是正样本,其标签值为1。将移除数据R用于策略网络参数更新的过程中,在梯度下降过程中,其梯度下降算法为Adam梯度下降算法,学习率为0.001,其损失函数定义如下:
Figure BDA0002051334300000043
附图说明
图1是本发明网络模型的主要框架
图2是词嵌层的网络结构
图3是一个句子标签方案的例子
具体实施方式
下面结合附图对本发明作进一步说明:
图1是一个参考Zheng等人提出的标注策略的句子标签的例子,在进行训练前,我们需要将所有训练语句都按照这个标签策略进行标注。在该标签策略中,标签“O”赋给独立的单词,表示该单词要么是非实体词要么和其他实体词没有任何的关系。除了“O”标记之外,其他标签由三部分信息组成:实体词的位置、关系类型和关系角色。其中位置表示该单词是属于实体中的哪部分,位置信息采用“BILS”形式,其中“B”表示该单词位于实体词的开始位置,“I”表示单词位于实体词的中间,“E”表示该单词位于实体词的结束位置。而“S”则表示该单词独立形成一个实体词。关系类型信息从预定义好的关系集中获取,关系角色信息由数字“1”和“2”表示,其中“1”表示该实体属于三元组的第一个实体,“2”表示该实体属于三元组中的第二个实体。现在根据附图举例说明该标记策略。在这句话中,第一个实体“United States”和第二个实体“Trump”的关系是“Country-Presidient”。因此,将单词“United”标记为“B-CP-1”,其中“B”表示该词是实体词的起始位置,“CP”表示关系类型,数字“1”表示该单词属于第一个实体。单词“states”一词被标记为“E-CP-1”,其中“E”表示该单词位于实体的尾部。第二个实体“Trump”被标记为“S-CP-2”,这意味着第二个实体只包含一个单词,关系类型为“CP”。句子其他的非相关词都用标签“O”表示。最后,我们可以从这句话中提取出一个三元组(United State,Country-President,Trump)。
图2是对输入句子进行词嵌表示的网络结构。在该方案中,输入句子的词嵌由两部分构成:基于预训练的词嵌表示和基于字符粒度的词嵌表示。其中预训练词嵌通过利用斯坦福提供的预训练词嵌库Glove-word2vec将单个单词映射成300维大小的词向量。而在字符串粒度的词嵌表示中,通过一个双向LSTM网络来对单词中每个字符的词嵌进行编码后得到100维大小的词嵌表示。最后将两者进行连接得到400维大小的词嵌表示。
图3是联合信息抽取模型。模型由联合抽取模块和强化学习模块两部分组成。联合抽取模块是一个端到端网络,用于从文本中联合提取实体和关系信息,其对输入句子的词向量表示利用双向LSTM网络编码后得到句子上下文的语义信息表示,然后将编码得到的信息输入到LSTM解码网络进行解码后得到实体标签信息。解码得到的实体标签进行词嵌表示后和编码层输出的信息进行连接后一起输入到联合解码层的LSTM网络进行解码后得到实体和关系的联合信息输出。强化学习模块主要是从数据集中去除噪声数据,其通过一个二分类的策略网络来对样本集中的每个句子进行过滤。策略网络的输出结果为1表示该句子应该被保留,而如果输出结果为0则表示该句子是噪声数据,应该被丢弃。策略网络的训练过程包含一个预训练和再训练的过程。在预训练时从原始数据中选择80%的样本作为预训练数据及对其进行预训练。在再训练的过程中,其奖励值来自于联合抽取网络两次性能变化,强化学习模块根据该奖励来指导策略网络的更新。
表1是本发明在NYT数据集上的实验结果,通过实验表明,提出的模型与现有最好的模型相比,其综合评价指标F1值取得最好的结果。
表1本发明网络模型在NYT数据集上的实验结果
Figure BDA0002051334300000051
表2是实验过程的一些例子,在该发明方法中,其采用新的标准策略,能直接输出相应的三元组信息。
表2本发明在验证数据集上的一些实际结果
Figure BDA0002051334300000052
Figure BDA0002051334300000061
上述实施例只是本发明的较佳实施例,并不是对本发明技术方案的限制,只要是不经过创造性劳动即可在上述实施例的基础上实现的技术方案,均应视为落入本发明专利的权利保护范围内。

Claims (6)

1.一种基于强化学习的实体和关系联合抽取方法,其特征在于包括以下步骤:
(1)基于新的标准策略对训练数据进行标注;
(2)对训练数据集中的样本进行词嵌表示;
(3)从训练数据集中选择80%的样本数据作为预训练集对强化学习模块的策略网络进行预训练;
(4)依次从原始数据集中选择固定大小的数据集输入预训练好的策略网络中进行决策,根据策略网络的决策结果,将判定结果为0的样本按照得分高低顺序依次排序,并移除其中固定数量的得分最低的噪声数据;
(5)将去除噪声后剩下的干净样本送入联合抽取模型进行训练,当模型收敛后在验证集上进行验证,并记录下其F1值;
(6)将F1值与上一轮迭代中的F1值进行比较并计算得到奖励值(在该步骤初始训练时,其F1值初始化为0);
(7)用计算得到的奖励信息对策略网络参数进行更新;
(8)如果F1值上升,则将移除的数据去除,原始数据集更新为去噪声数据后剩下的部分,而如果F1值下降,则将移除的数据返回到原始数据集中,原始数据集保持不变;
(9)重复步骤4-8,直到联合信息抽取网络的F1值连续5次不再有提升。
2.根据权利要求2所述的实体和关系联合抽取方法,其特征在于:样本集中每个句子都会被表示成一个N×D的词向量表示,其中N为句子中单词的个数,而D为对应的词向量的维度;在该发明中,词向量由两部分构成:基于预训练的词嵌表示和基于字符级别的词嵌表示,其中预训练词嵌使用的训练工具为斯坦福提供的预训练词嵌工具Glove-word2vec,大小为300维;而字符级别的词嵌表示则是用一个双向LSTM网络对单词中每个字符词嵌向量进行编码后得到,其计算过程如下:
Figure FDA0002051334290000021
其中Vchar是单词字符的词嵌表示,在单词级别的词嵌中,得到的词嵌大小为100维,最后将预训练词嵌表示和字符级别的词嵌表示相结合构成400维的词嵌表示。
3.根据权利要求3所述的实体和关系联合抽取方法,其特征在于:策略网络使用卷积神经网络(Convolutional Neural Networks,CNN)作为分类器,在卷积神经网络中,过滤窗口大小为5,卷积核数量为100;在预训练卷积神经网络时,使用交叉熵作为训练目标函数,梯度下降使用Adam梯度下降算法,学习率为0.001,损失函数定义如下:
Figure FDA0002051334290000022
4.根据权利要求5所述的实体和关系联合抽取方法,其特征在于,在训练联合信息抽取网络中,联合信息抽取网络由四层构成:词嵌层、编码层、实体识别层和联合解码层,其中词嵌层和步骤(2)中的词嵌过程的一样,其他各层实现形式如下:
a)编码层,编码层用于提取输入句子的上下文语义信息,其使用双向长短记忆网络(Bidirectional Long Short-term Memory,Bi-LSTM)来对句子进行编码,其中隐含层神经元数量为300,计算公式表示如下:
Figure FDA0002051334290000023
其中Vw为词嵌层输出的单词的词嵌信息;
b)实体识别层,实体识别层用于提取句子中的实体信息,其使用单向长短记忆网络(Long Short-term Memory,LSTM)对编码层输出信息进行解码后利用一个转移矩阵计算得到预测得分,解码层神经元的数量也是300,最后通过softmax分类器得到输出,该过程表示如下:
CONdecode=LSTM(CONrep)
yt=W(e)CONdecode+b(e)
Figure FDA0002051334290000031
通过softmax函数得到实体类别后,对实体类别进行词嵌表示,得到类别词嵌WL,其中类别词嵌的大小为100维;
c)联合解码层,联合解码层将同时输出实体和关系信息,该解码层使用一个单向LSTM解码器,其隐含层神经元数量为300,解码过程和实体识别层一样,其唯一区别在于句子输入为句子编码表示CONrep和实体类别的词嵌表示WL相结合[CONrep,WL];
在联合网络的训练中,同时训练实体识别层和联合信息抽取层,在训练时,梯度下降算法使用Adam梯度下降法,学习率为0.001,其损失函数表示如下:
Figure FDA0002051334290000032
5.根据权利要求6所述的实体和关系联合抽取方法,其特征在于:奖励的计算过程如下:
Figure FDA0002051334290000033
其中F1 i是在i轮中,联合模型在验证数据集上取得的F1值,而F1 i-1是在i-1轮中,联合模型在验证数据集上取得的F1值。
6.根据权利要求7所述的实体和关系联合抽取方法,其特征在于:使用移除的数据对策略网络进行更新,如果F1值上升,则表示移除的是负样本,其标签值应该为0,而如果F1值下降,则表明移除的应该是正样本,其标签值为1,将移除的数据用于策略网络参数的更新,在更新时使用Adam梯度下降算法,学习率为0.001,其损失函数定义如下:
Figure FDA0002051334290000041
CN201910375005.5A 2019-05-07 2019-05-07 一种基于强化学习的实体和关系联合抽取方法 Active CN111914091B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910375005.5A CN111914091B (zh) 2019-05-07 2019-05-07 一种基于强化学习的实体和关系联合抽取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910375005.5A CN111914091B (zh) 2019-05-07 2019-05-07 一种基于强化学习的实体和关系联合抽取方法

Publications (2)

Publication Number Publication Date
CN111914091A true CN111914091A (zh) 2020-11-10
CN111914091B CN111914091B (zh) 2022-10-14

Family

ID=73242592

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910375005.5A Active CN111914091B (zh) 2019-05-07 2019-05-07 一种基于强化学习的实体和关系联合抽取方法

Country Status (1)

Country Link
CN (1) CN111914091B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112434171A (zh) * 2020-11-26 2021-03-02 中山大学 一种基于强化学习的知识图谱推理补全方法及系统
CN112711949A (zh) * 2021-01-05 2021-04-27 山东众阳健康科技集团有限公司 一种命名实体识别和实体关系抽取的联合方法
CN112905713A (zh) * 2020-11-13 2021-06-04 昆明理工大学 联合罪名预测的涉案新闻重叠实体关系抽取方法
CN112966517A (zh) * 2021-04-30 2021-06-15 平安科技(深圳)有限公司 命名实体识别模型的训练方法、装置、设备及介质
CN113051366A (zh) * 2021-03-10 2021-06-29 北京工业大学 专业领域论文的批量实体抽取方法及系统
CN113553850A (zh) * 2021-03-30 2021-10-26 电子科技大学 一种基于有序结构编码指针网络解码的实体关系抽取方法
CN113779260A (zh) * 2021-08-12 2021-12-10 华东师范大学 一种基于预训练模型的领域图谱实体和关系联合抽取方法及系统
CN113965450A (zh) * 2021-09-30 2022-01-21 西安交通大学 一种数据中心虚拟基础设施的故障时间分析方法及装置
CN114609925A (zh) * 2022-01-14 2022-06-10 中国科学院自动化研究所 水下探索策略模型的训练方法及仿生机器鱼水下探索方法
CN114625880A (zh) * 2022-05-13 2022-06-14 上海帜讯信息技术股份有限公司 人物关系抽取方法、装置、终端及存储介质
CN114996438A (zh) * 2022-05-20 2022-09-02 昆明理工大学 一种多策略强化学习的汉越跨语言摘要生成方法
CN115048907A (zh) * 2022-05-31 2022-09-13 北京深言科技有限责任公司 文本数据质量确定的方法及装置
CN117743696A (zh) * 2024-02-18 2024-03-22 四川日报网络传媒发展有限公司 基于反馈强化学习的信息发布方法、装置及存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120066217A1 (en) * 2005-03-31 2012-03-15 Jeffrey Scott Eder Complete context™ search system
CN106970981A (zh) * 2017-03-28 2017-07-21 北京大学 一种基于转移矩阵构建关系抽取模型的方法
US20170337268A1 (en) * 2016-05-17 2017-11-23 Xerox Corporation Unsupervised ontology-based graph extraction from texts
US20180060301A1 (en) * 2016-08-31 2018-03-01 Microsoft Technology Licensing, Llc End-to-end learning of dialogue agents for information access
CN107832400A (zh) * 2017-11-01 2018-03-23 山东大学 一种基于位置的lstm和cnn联合模型进行关系分类的方法
CN108416058A (zh) * 2018-03-22 2018-08-17 北京理工大学 一种基于Bi-LSTM输入信息增强的关系抽取方法
CN109376250A (zh) * 2018-09-27 2019-02-22 中山大学 基于强化学习的实体关系联合抽取方法
CN109408812A (zh) * 2018-09-30 2019-03-01 北京工业大学 一种基于注意力机制的序列标注联合抽取实体关系的方法
CN109543690A (zh) * 2018-11-27 2019-03-29 北京百度网讯科技有限公司 用于提取信息的方法和装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120066217A1 (en) * 2005-03-31 2012-03-15 Jeffrey Scott Eder Complete context™ search system
US20170337268A1 (en) * 2016-05-17 2017-11-23 Xerox Corporation Unsupervised ontology-based graph extraction from texts
US20180060301A1 (en) * 2016-08-31 2018-03-01 Microsoft Technology Licensing, Llc End-to-end learning of dialogue agents for information access
CN106970981A (zh) * 2017-03-28 2017-07-21 北京大学 一种基于转移矩阵构建关系抽取模型的方法
CN107832400A (zh) * 2017-11-01 2018-03-23 山东大学 一种基于位置的lstm和cnn联合模型进行关系分类的方法
CN108416058A (zh) * 2018-03-22 2018-08-17 北京理工大学 一种基于Bi-LSTM输入信息增强的关系抽取方法
CN109376250A (zh) * 2018-09-27 2019-02-22 中山大学 基于强化学习的实体关系联合抽取方法
CN109408812A (zh) * 2018-09-30 2019-03-01 北京工业大学 一种基于注意力机制的序列标注联合抽取实体关系的方法
CN109543690A (zh) * 2018-11-27 2019-03-29 北京百度网讯科技有限公司 用于提取信息的方法和装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JUN FENG等: "Reinforcement Learning for Relation Classification from Noisy Data", 《INFORMATION RETRIEVAL》 *
SUNCONG ZHENG等: "Joint Extraction of Entities and Relations Based on a Novel Tagging Scheme", 《MEETING OF THE ASSOCIATION FOR COMPUTATIONAL LINGUISTICS》 *
孙莹莹: "基于多尺度FCN-CRF和强化学习的高分辨SAR图像语义分割", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112905713B (zh) * 2020-11-13 2022-06-14 昆明理工大学 联合罪名预测的涉案新闻重叠实体关系抽取方法
CN112905713A (zh) * 2020-11-13 2021-06-04 昆明理工大学 联合罪名预测的涉案新闻重叠实体关系抽取方法
CN112434171A (zh) * 2020-11-26 2021-03-02 中山大学 一种基于强化学习的知识图谱推理补全方法及系统
CN112711949A (zh) * 2021-01-05 2021-04-27 山东众阳健康科技集团有限公司 一种命名实体识别和实体关系抽取的联合方法
CN112711949B (zh) * 2021-01-05 2022-04-22 山东众阳健康科技集团有限公司 一种命名实体识别和实体关系抽取的联合方法
CN113051366A (zh) * 2021-03-10 2021-06-29 北京工业大学 专业领域论文的批量实体抽取方法及系统
CN113553850A (zh) * 2021-03-30 2021-10-26 电子科技大学 一种基于有序结构编码指针网络解码的实体关系抽取方法
CN112966517A (zh) * 2021-04-30 2021-06-15 平安科技(深圳)有限公司 命名实体识别模型的训练方法、装置、设备及介质
CN112966517B (zh) * 2021-04-30 2022-02-18 平安科技(深圳)有限公司 命名实体识别模型的训练方法、装置、设备及介质
CN113779260A (zh) * 2021-08-12 2021-12-10 华东师范大学 一种基于预训练模型的领域图谱实体和关系联合抽取方法及系统
CN113965450A (zh) * 2021-09-30 2022-01-21 西安交通大学 一种数据中心虚拟基础设施的故障时间分析方法及装置
CN114609925A (zh) * 2022-01-14 2022-06-10 中国科学院自动化研究所 水下探索策略模型的训练方法及仿生机器鱼水下探索方法
CN114609925B (zh) * 2022-01-14 2022-12-06 中国科学院自动化研究所 水下探索策略模型的训练方法及仿生机器鱼水下探索方法
CN114625880A (zh) * 2022-05-13 2022-06-14 上海帜讯信息技术股份有限公司 人物关系抽取方法、装置、终端及存储介质
CN114996438A (zh) * 2022-05-20 2022-09-02 昆明理工大学 一种多策略强化学习的汉越跨语言摘要生成方法
CN114996438B (zh) * 2022-05-20 2024-05-28 昆明理工大学 一种多策略强化学习的汉越跨语言摘要生成方法
CN115048907A (zh) * 2022-05-31 2022-09-13 北京深言科技有限责任公司 文本数据质量确定的方法及装置
CN115048907B (zh) * 2022-05-31 2024-02-27 北京深言科技有限责任公司 文本数据质量确定的方法及装置
CN117743696A (zh) * 2024-02-18 2024-03-22 四川日报网络传媒发展有限公司 基于反馈强化学习的信息发布方法、装置及存储介质
CN117743696B (zh) * 2024-02-18 2024-04-30 四川日报网络传媒发展有限公司 基于反馈强化学习的信息发布方法、装置及存储介质

Also Published As

Publication number Publication date
CN111914091B (zh) 2022-10-14

Similar Documents

Publication Publication Date Title
CN111914091B (zh) 一种基于强化学习的实体和关系联合抽取方法
WO2018028077A1 (zh) 一种基于深度学习的中文语义分析的方法及装置
CN111738004A (zh) 一种命名实体识别模型的训练方法及命名实体识别的方法
CN111738003B (zh) 命名实体识别模型训练方法、命名实体识别方法和介质
CN111709242B (zh) 一种基于命名实体识别的中文标点符号添加方法
CN113468888A (zh) 基于神经网络的实体关系联合抽取方法与装置
CN114169330A (zh) 融合时序卷积与Transformer编码器的中文命名实体识别方法
CN107797987B (zh) 一种基于Bi-LSTM-CNN的混合语料命名实体识别方法
CN112307208A (zh) 长文本的分类方法、终端及计算机存储介质
CN113268586A (zh) 文本摘要生成方法、装置、设备及存储介质
CN112749274B (zh) 基于注意力机制和干扰词删除的中文文本分类方法
CN115292463B (zh) 一种基于信息抽取的联合多意图检测和重叠槽填充的方法
CN111274804A (zh) 基于命名实体识别的案件信息提取方法
CN116127953B (zh) 一种基于对比学习的中文拼写纠错方法、装置和介质
CN107977353A (zh) 一种基于lstm-cnn的混合语料命名实体识别方法
CN114282527A (zh) 多语言文本检测与纠错方法、系统、电子设备及存储介质
CN113255320A (zh) 基于句法树和图注意力机制的实体关系抽取方法及装置
CN115545041B (zh) 一种增强医疗语句语义向量表示的模型构造方法及系统
CN114510946B (zh) 基于深度神经网络的中文命名实体识别方法及系统
CN116956835A (zh) 一种基于预训练语言模型的文书生成方法
CN107992468A (zh) 一种基于lstm的混合语料命名实体识别方法
CN116522165B (zh) 一种基于孪生结构的舆情文本匹配系统及方法
CN116910251A (zh) 基于bert模型的文本分类方法、装置、设备及介质
CN114881038B (zh) 基于跨度和注意力机制的中文实体与关系抽取方法及装置
CN112131879A (zh) 一种关系抽取系统、方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant