CN112487189B - 一种图卷积网络增强的隐式篇章文本关系分类方法 - Google Patents

一种图卷积网络增强的隐式篇章文本关系分类方法 Download PDF

Info

Publication number
CN112487189B
CN112487189B CN202011445448.6A CN202011445448A CN112487189B CN 112487189 B CN112487189 B CN 112487189B CN 202011445448 A CN202011445448 A CN 202011445448A CN 112487189 B CN112487189 B CN 112487189B
Authority
CN
China
Prior art keywords
network
sentence
relationship
graph
relation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011445448.6A
Other languages
English (en)
Other versions
CN112487189A (zh
Inventor
钱铁云
郑浩杰
姜聪聪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202011445448.6A priority Critical patent/CN112487189B/zh
Publication of CN112487189A publication Critical patent/CN112487189A/zh
Application granted granted Critical
Publication of CN112487189B publication Critical patent/CN112487189B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种图卷积网络增强的隐式篇章文本关系分类方法。该方法是一种从电子文本中进行隐式篇章关系分类的方法。首先,其引入了BERT预训练模型,提供了更高效的动态词向量表示,从而提高了篇章级别的整体表示;其次,该发明引入了图神经网络来建模句子之间的词级别的关系,能够更加准确地预测出句子对之间的隐式关系类型。该隐式篇章关系分类的方法采用图卷积网络增强的神经网络的技术,形成了一个更加直接、完整、端到端的隐式篇章关系分类模型,提高了关系分类任务的效果。

Description

一种图卷积网络增强的隐式篇章文本关系分类方法
技术领域
本发明涉及篇章关系分类领域,具体涉及一种图卷积网络增强的隐式篇章文本关系分类方法。
背景技术
互联网的快速发展和广泛普及,使得大量信息以电子文本的形式呈现在人们眼前。篇章关系(Discourse Relation)是指大量电子文本片段之间的语义关系或者修辞关系,文本片段通常由一个句子或者几个句子共同组成。篇章关系中主要包含四大类关系:对比关系(Comparison),条件关系(Contingency),时序关系(Temporal),扩充关系(Expansion)。篇章关系分类(Discourse Relation Classification)指对文本中的文本片段之间存在的上述关系进行分类。篇章关系分类是篇章分析的关键步骤之一,对信息提取、机器翻译和自然语言生成等自然语言处理任务都有重要意义。
篇章关系主要分类两种类型:一种是在文本中有明显能表明关系类型的连接词,比如but、because等,这种类型的篇章关系称作显式篇章关系;相对的,另一种是在文本中没有出现连接词,必须从上下文语义中判断篇章关系的,这种称作隐式篇章关系。显式篇章关系因为有连接词的存在,可以很好地判断出篇章关系类型,而隐式篇章关系的分类准确度较低,所以本发明主要涉及的是隐式篇章关系分类方法。
初期的篇章关系分类任务通常采用基于特征工程技术的模型。这种模型的复杂度较低,实现简单,但是存在显著缺陷。因为特征工程技术需要由领域相关的专家人工设计关键的特征和规则,并且会依赖外部的自然语言处理工具。
随着深度学习及神经网络在学术界与工业界的大力应用,采用深度学习技术的隐式篇章关系分类模型被广泛使用,一定程度上缓解了基于特征工程技术模型的缺陷。采用深度学习技术的模型一方面可以实现“端到端”的系统架构,即一端输入原始数据,另一端输出分析结果,可以形成更加自动、完整的事件抽取系统。另一方面深度学习技术具有更加强大的特征表示与建模能力,能够从大量的数据中自动学习到有用的特征帮助模型进行关系分类。
在目前已有的基于神经网络的隐式篇章关系分类模型中,大多是在词向量基础上进行特征提取和特征交互,最后对句子关系进行分类。这种方法存在的缺陷就是,由词向量得到的句子整体含义的表示会有很大程度的偏差。并且以前的方法一般利用词对和Attention机制来获取句子对之间的关系,但是Attention机制不能很好判断成分之间的联系程度和重要程度,因此存在句子内部不同成分的交互不足的缺陷。
针对以上缺陷,本发明提出了一种图卷积网络增强的隐式篇章文本关系分类模型,以形成一种端到端和高效的隐式关系方法。
发明内容
针对已有联合模型中的缺陷,本发明提供了一种图卷积网络增强的隐式篇章文本关系分类方法。该方法考虑了句子整体表示获取的方法以及以往的方法在句子内部成分关系交互方面的不足,提高了隐式关系分类的准确度。
本发明的技术方案如下:图卷积网络增强的隐式篇章文本关系分类方法,其特征在于,包括以下步骤:
步骤1:对原始数据集中的电子文本及标注信息,进行预处理获得符号化表示,并且按照需求比例划分训练集、验证集和测试集。
步骤2:将训练样本与验证样本批量随机地输入图卷积网络增强的隐式篇章文本关系分类模型中,开始迭代模型训练过程,得到训练集与验证集上的评价指标,当验证集上的指标不再上升或者迭代达到一定次数后停止,保存验证集上的最优模型。
步骤3:加载保存的在验证集上评价指标最优的图卷积网络增强的篇章文本关系分类模型,将测试样本批量送入网络中,输出与保存分类的结果。
进一步的,所述步骤1中的原始数据集需要包含相关的篇章文本与其对应的关系的标注结果。对含有隐式篇章关系的篇章文本与标注的预处理包括将文章中有隐式篇章关系的每对文本提取出来,并且与其关系对应等,最终处理成一系列有序、固定格式、篇章级别的模型所需输入。最后,按照需求,划分训练集、验证集和测试集。
进一步的,所述步骤2中的图卷积网络增强的隐式篇章文本关系分类网络具体包含以下子步骤:动态词向量表示、序列信息特征表示、句子对之间关系表示、关系分类。1)动态词向量是相对于静态词向量而言的词向量表示,主要以BERT模型生成的词向量为代表。动态词向量表示的目标是利用预先训练好的BERT模型,将文本中的每个字转化为具有上下文信息的对应的动态向量表示。具体地,本发明在将文本输入BERT模型之前,还需要在句子1的前面加一个[CLS]位,在句子1和句子2之间以及句子2的最后各加一个[SEP]位,这是BERT预训练模型在进行句子对关系分类时的固定输入模式。利用预训练好的BERT模型生成动态词向量,每个词都用一个连续的动态的稠密向量来表示,并且[CLS]对应的词向量包含了句子对的整体信息和句子对之间的关系信息。BERT模型的参数也会随着训练而进行微调。2)序列信息特征主要是通过建模使得序列中的每个个体能够获得上下文的信息。序列信息特征表示的目标是对每条句子的单词序列进行建模。本发明采用了双向长短期记忆网络分别对该任务中的每条句子进行序列建模,这样每个单词的表示融合了上下文的信息。3)句子对之间关系表示的目的是融合两个句子对之间的一些重要短语或单词之间的关系。具体地,本发明将序列信息特征的表示输入图卷积网络中,采用图卷积的方法来建模句子对的内部单词之间的关系,可以帮助识别句子对之间的关系。图卷积网络输出的每个单词的表示融合了句子对之间的词对信息,然后将两句话的所有单词的表示输入Pooling层,得到了图卷积网络建模的句间关系的特征表示。4)关系分类的目的是识别出每一对句子之间的关系类型。本发明采用两个分类器。分类器1是对BERT的[CLS]位的输出特征进行分类,将[CLS]位对应的向量的表示通过前馈神经网络及softmax层,可转换为每种关系的概率分布P1。分类器2是将图卷积网络建模的句间关系的特征表示输入前馈神经网络和softmax层,也可以转换成每种句间关系的概率分布P2。对P1和P2两个概率分布分别计算交叉熵损失然后求和,通过最小化该损失和,可使得分类任务的准确性更高。
按照上述几个子步骤依次构建图卷积网络增强的隐式篇章文本关系分类网络后,将训练与验证样本随机批量的输入到网络中,并且利用随机梯度下降(StochasticGradient Descent)方法使网络逐渐学习最优的参数值,同时计算在验证集上的评价指标,当验证集上的指标不再上升或者网络训练迭代到一定次数后停止训练,保存验证集上表现最优的关系分类模型。
进一步的,所述步骤3的测试过程具体为先加载步骤2中训练好的关系分类模型,再将测试集中的样本批量输入到网络中,此时网络参数固定不变。经过网络计算后,得到每对句子之间的关系类型。
与现有技术相比,本发明具有以下优点和积极效果:
1)本发明引入了BERT预训练模型来获取更好的动态的词向量表示,并且提高了句子的整体表示效果。
2)本发明考虑到了句子之间内部成分关系的交互,采用了图卷积网络来增强上下句之间的交互,提高关系分类的准确度。
附图说明
图1为本发明实施例的方法流程图;
图2为本发明实施例的网络框架图;
具体实施方式
具体实施时,本发明所提供技术方案可由本领域技术人员采用计算机软件技术实现自动运行流程。以下结合附图和实施例详细说明本发明技术方案。
步骤1:对原始数据集中的电子文本及标注信息,进行预处理获得符号化表示,并且按照需求比例划分训练集、验证集和测试集。
实施例中,本发明选择了篇章关系分类任务中被广泛采用的PDTB v2.0数据集,该数据集自被提出后便逐渐在篇章关系分类领域内取得了广泛的使用。该数据集提供了三种不同层次的关系分类标注,由于第一层次的四个大类已经能很好的描述篇章级别的语义关系,而且在第二层次的分类中的各种关系中所包含的数据条数之间极度不平衡,故本发明选择在第一层次的关系标注上进行实验。第一层次标注中包含Comparison,Contingency,Expansion,Temporal四个大类关系。
在进行预处理后,将按照通用的训练、验证、测试划分方式,对于总计包含23个section的电子文本的PDTB v2.0英文数据集,本发明把section 2-20作为训练集,把section 0-1作为验证集,把section 21-22作为测试集。具体地,一对具有篇章关系的文本可以表示为:
D={W1,W2}
其中W1=w11,w12…,w1n和=w21,w22…,w2m代表两条句子分别包含N个和M个词。
步骤2:参考附图1,将训练样本与验证样本批量随机地输入图神经网络增强的隐式篇章文本关系分类网络中,开始迭代模型训练过程,得到训练集与验证集上的评价指标,当验证集上的指标不再上升或者迭代达到一定次数后停止,保存验证集上的最优模型。
实施例中,按照固定的批大小,每次随机选定部分样本句子对作为输入。参考附图2,此处以步骤1中的篇章关系文本D中的一对句子W1,W2为例,说明整个网络的实现过程。
1)动态词向量表示:本发明采用Google公司提出的预训练动态词向量模型BERT。首先,将W1,W2分别用BERT分词工具进行分词,然后句子1的前面加一个[CLS]位,在句子1和句子2之间以及句子2的最后各加一个[SEP]位,这是BERT预训练模型在进行句子对关系分类时的固定输入模式。接着将两个序列拼成一个,一起输入到BERT模型中,利用BERT内已有的参数来为整个句子对生成隐藏层向量。每一个输入BERT的分词就会对应一个动态词向量表示,并且[CLS]位对应的输出向量包含了上下句之间的关系:
Figure BDA0002824206190000041
Figure BDA0002824206190000042
其大小分别为(N+2)*dw和(M+1)*dw,其中dw为BERT输出的词向量的维度。
最后,本发明将上下句得到的向量拼接成一个序列,得到整个句子对序列初步的矩阵向量表示
Figure BDA0002824206190000051
其维度为(N+M+3)*dw。同时,BERT输出的[CLS]位对应的词向量包含着两句话之间的关系和全局的信息,也会在最后用来预测关系分类,记为x[CLS]
2)序列信息特征表示:本发明选择使用双向长短期记忆网络(Bi-LSTM)来捕获每个句子的特定序列信息,并建立上下文关系。具体地,将上下句的词向量矩阵
Figure BDA0002824206190000052
分别送入双向LSTM网络中,得到前向的表示:
Figure BDA0002824206190000053
以及后向的表示:
Figure BDA0002824206190000054
接着将前向表示与后向表示拼接得到序列信息的特征表示:
Figure BDA0002824206190000055
其维度为(N+2)*(2dgru),其中dgru为设定的双向LSTM的隐藏单元个数。
本发明考虑了两句话之间训练趋势的差异,为句子一和句子二分别训练了一套双向LSTM,即对于输入矩阵
Figure BDA0002824206190000056
最终可以分别得到序列向量表示
Figure BDA0002824206190000057
3)句子对之间关系表示:本发明将序列信息特征的表示输入图卷积网络中,采用图卷积的方法来建模句子对的内部单词之间的关系,可以帮助识别句子对之间的关系。具体地,经过Bi-LSTM之后,可以得到句子对的序列信息特征表示
Figure BDA0002824206190000058
Figure BDA0002824206190000059
然后本发明对这两个表示进行图卷积操作。现在假设
Figure BDA00028242061900000510
的长度是N+2,
Figure BDA00028242061900000511
的长度是M+1,所以构造的图的节点数是|V|=N+M+3,关系图的邻接矩阵是A∈R|V|×|V|。因为篇章关系分类的目标在于分析两个句子间的关系,因此构图的目标是建立两个句子之间单词之间的关系,而不是同句子内部的关系。为了方便描述,邻接矩阵A可以表示为分块矩阵:
Figure BDA00028242061900000512
其中,I(N+2)×(N+2)和I(M+1)×(M+1)是句子一和句子二各自内部单词的连边,对于同一个句内的单词,只构建自连边,故而它们为单位矩阵。W∈R(N+2)×(M+1)表示句子一的单词表示和句子二的单词表示之间的关系。W中的每个元素表示的是两句话之间的单词的关系,而不是同一句话内部的单词之间的关系。具体地,W中的第i行第j列的元素wij表示的是句子一的第i个位置的表示与句子二的第j个位置的表示关系。wij的值由两个部分得到,其中前半部分为句子一的第i个单词的序列表示h1i和句子二的第j个单词序列表示h2j的余弦相似度值;后半部分为第一个句子的第i个单词的序列表示h1i和BERT预训练模型输出的[CLS]位的隐藏层向量x[CLS]的余弦相似度值:
Figure BDA0002824206190000061
其中‖·‖表示的是L2正则化。那么矩阵W就可表示为:
Figure BDA0002824206190000062
得到两个句子的邻接矩阵以及节点的表示(也就是单词的序列表示)后,本发明按照图卷积运算进行计算,得到卷积后的每个节点的表示:
Figure BDA0002824206190000063
其中D矩阵是A矩阵的度矩阵,D为一个对角矩阵,其对角线上的值计算方式为Dii=∑jAij。σ为激活函数如Sigmoid,Tanh或者Relu等。
经过图卷积层后,我们得到经过图卷积的节点表示矩阵G后,本发明采用平均池化和最大值池化的方法来获得最后的用于篇章关系分类的表示:
O=[maxpooling(G),meanpooling(G)]
4)关系分类:本发明采用两个分类器。分类器1是对BERT的[CLS]位的输出特征进行分类,将[CLS]位对应的向量的表示x[CLS]通过前馈神经网络及softmax层,可转换为每种关系的概率分布P1
P1=softmax(FFN(x[CLS]))
分类器2是将图卷积网络建模的句间关系的特征表示O输入前馈神经网络和softmax层,也可以转换成每种句间关系的概率分布P2
P2=softmax(FFN(O))
对P1和P2两个概率分布分别计算交叉熵损失然后求和,通过最小化该损失的和,可使得分类任务的准确性更高。
本发明使用Adam算法将梯度回传并计算更新后的参数值。在每一轮训练后,考察模型在验证集Ddev上的性能指标:精确度Precision、召回率Recall和宏平均F1值。最后,保存在验证集上表现最好的模型,作为最终的交互增强的多任务联合事件抽取模型。
步骤3:加载步骤2中训练好的隐式篇章关系分类模型,再将测试集中的样本批量输入到网络中,此时网络参数固定不变。经过网络计算后,得到每对句子的关系类型。
实施例中,加载在验证集上表现最好的模型,输入测试集Dtest,得到测试集的关系分类结果。例如,输入一对句子:
Arg 1:as many real-estate values depreciated,the council says.(该委员会说,由于许多房地产价格下跌。)
Arg 2:RJR Nabisco pays up to$30,000of losses,including improvements.(RJR纳贝斯克公司承担了高达3万美元的损失,包括改善的费用。)
模型输出的关系类型为Expansion(扩展)。
本文中所描述的具体实施例仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例作各种各样的修改、补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (6)

1.一种图卷积网络增强的隐式篇章文本关系分类方法,其特征在于,包括以下步骤:
步骤1:对原始数据集中的电子文本及标注信息,进行预处理获得符号化表示,并且按照需求比例划分训练集、验证集和测试集;
步骤2:将训练样本与验证样本批量随机地输入图卷积网络增强的隐式篇章文本关系分类模型中,开始迭代模型训练过程,得到训练集与验证集上的评价指标,当验证集上的指标不再上升或者迭代达到一定次数后停止,保存验证集上的最优模型;
图卷积网络增强的隐式篇章文本关系分类模型具体包含以下子过程:
1)动态词向量表示:利用预先训练好的BERT模型,将文本中的每个字转化为具有上下文信息的对应的动态向量表示;
2)序列信息特征表示:对每条句子的序列信息进行建模;
3)句子对之间关系表示:融合两个句子对之间的一些重要短语或单词之间的关系;
4)关系分类:识别出每一对句子之间的关系类型;
所述关系分类具体为:采用两个分类器,分类器1对BERT的[CLS]位的输出特征进行分类,将[CLS]位对应的向量表示通过前馈神经网络及softmax层,转换为每种关系的概率分布P1;分类器2是将图卷积网络建模的句间关系的特征表示输入前馈神经网络和softmax层,转换成每种句间关系的概率分布P2;对P1和P2两个概率分布分别计算交叉熵损失然后求和,通过最小化损失和;按照上述步骤依次构建图卷积网络增强的隐式篇章文本关系分类网络后,将训练与验证样本随机批量的输入到网络中,并且利用随机梯度下降方法使网络逐渐学习最优的参数值,同时计算在验证集上的评价指标,当验证集上的指标不再上升或者网络训练迭代到一定次数后停止训练,保存验证集上表现最优的关系分类模型;
步骤3:加载保存的在验证集上评价指标最优的图卷积网络增强的篇章文本关系分类模型,将测试样本批量送入网络中,输出与保存分类的结果。
2.根据权利要求1所述的图卷积网络增强的隐式篇章文本关系分类方法,其特征在于,所述步骤1中的原始数据集需要包含相关的篇章文本与其对应的关系的标注结果;对含有隐式篇章关系的篇章文本与标注的预处理包括将文章中有隐式篇章关系的每对文本提取出来,并且与其关系对应,最终处理成一系列有序、固定格式、篇章级别的模型所需输入;最后,按照需求,划分训练集、验证集和测试集。
3.根据权利要求2所述的图卷积网络增强的隐式篇章文本关系分类方法,其特征在于:所述动态词向量表示具体为:将文本输入BERT模型之前,在句子1的前面加一个[CLS]位,在句子1和句子2之间以及句子2的最后各加一个[SEP]位,利用预训练好的BERT模型生成动态词向量,每个词都用一个连续的动态的稠密向量来表示,并且[CLS]对应的词向量包含了句子对的整体信息和句子对之间的关系信息。
4.根据权利要求3所述的图卷积网络增强的隐式篇章文本关系分类方法,其特征在于:所述序列信息特征表示具体为:采用了双向长短期记忆网络分别对任务中的每条句子进行序列建模。
5.根据权利要求4所述的图卷积网络增强的隐式篇章文本关系分类方法,其特征在于:所述句子对之间关系表示具体为:将序列信息特征的表示输入图卷积网络中,采用图卷积的方法来建模句子对的内部单词之间的关系;图卷积网络输出的每个单词的表示融合了句子对之间的词对信息,然后将两句话的所有单词的表示输入Pooling层,得到了图卷积网络建模的句间关系的特征表示。
6.根据权利要求1所述的图卷积网络增强的隐式篇章文本关系分类方法,其特征在于,所述步骤3的测试过程具体为先加载步骤2中训练好的关系分类模型,再将测试集中的样本批量输入到网络中,此时网络参数固定不变;经过网络计算后,得到每对句子之间的关系类型。
CN202011445448.6A 2020-12-08 2020-12-08 一种图卷积网络增强的隐式篇章文本关系分类方法 Active CN112487189B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011445448.6A CN112487189B (zh) 2020-12-08 2020-12-08 一种图卷积网络增强的隐式篇章文本关系分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011445448.6A CN112487189B (zh) 2020-12-08 2020-12-08 一种图卷积网络增强的隐式篇章文本关系分类方法

Publications (2)

Publication Number Publication Date
CN112487189A CN112487189A (zh) 2021-03-12
CN112487189B true CN112487189B (zh) 2022-07-05

Family

ID=74941263

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011445448.6A Active CN112487189B (zh) 2020-12-08 2020-12-08 一种图卷积网络增强的隐式篇章文本关系分类方法

Country Status (1)

Country Link
CN (1) CN112487189B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113190662A (zh) * 2021-04-09 2021-07-30 苏州大学 基于篇章结构图网络的话题分割方法
CN113435190B (zh) * 2021-05-18 2022-08-05 北京理工大学 一种融合多层次信息抽取和降噪的篇章关系抽取方法
CN113535973B (zh) * 2021-06-07 2023-06-23 中国科学院软件研究所 基于知识映射的事件关系抽取、语篇关系分析方法及装置
CN113505240B (zh) * 2021-07-09 2023-04-18 吉林大学 一种基于注意力引导图lstm关系提取方法及装置
CN113590821B (zh) * 2021-07-26 2023-04-14 北方工业大学 一种隐含语篇关系的分类方法
CN118013962B (zh) * 2024-04-09 2024-06-21 华东交通大学 一种基于双向序列生成的汉语篇章连接词识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111241294A (zh) * 2019-12-31 2020-06-05 中国地质大学(武汉) 基于依赖解析和关键词的图卷积网络的关系抽取方法
CN111651974A (zh) * 2020-06-23 2020-09-11 北京理工大学 一种隐式篇章关系分析方法和系统
CN111695341A (zh) * 2020-06-16 2020-09-22 北京理工大学 一种基于篇章结构图卷积的隐式篇章关系分析方法和系统
CN111985245A (zh) * 2020-08-21 2020-11-24 江南大学 基于注意力循环门控图卷积网络的关系提取方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11526676B2 (en) * 2019-05-17 2022-12-13 Naver Corporation Implicit discourse relation classification with contextualized word representation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111241294A (zh) * 2019-12-31 2020-06-05 中国地质大学(武汉) 基于依赖解析和关键词的图卷积网络的关系抽取方法
CN111695341A (zh) * 2020-06-16 2020-09-22 北京理工大学 一种基于篇章结构图卷积的隐式篇章关系分析方法和系统
CN111651974A (zh) * 2020-06-23 2020-09-11 北京理工大学 一种隐式篇章关系分析方法和系统
CN111985245A (zh) * 2020-08-21 2020-11-24 江南大学 基于注意力循环门控图卷积网络的关系提取方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Adapting BERT to implicit discourse relation classification with a focus on discourse connectives;Yudai Kishimoto等;《LREC 2020》;20200531;正文第1152-1158页 *
基于深度学习的隐式篇章关系识别综述;胡超文等;《计算机科学》;20191216;正文第157-161页 *

Also Published As

Publication number Publication date
CN112487189A (zh) 2021-03-12

Similar Documents

Publication Publication Date Title
CN112487189B (zh) 一种图卷积网络增强的隐式篇章文本关系分类方法
CN112069811B (zh) 多任务交互增强的电子文本事件抽取方法
CN110245229B (zh) 一种基于数据增强的深度学习主题情感分类方法
CN110609897A (zh) 一种融合全局和局部特征的多类别中文文本分类方法
CN110929034A (zh) 一种基于改进lstm的商品评论细粒度情感分类方法
CN110472042B (zh) 一种细粒度情感分类方法
CN113626589B (zh) 一种基于混合注意力机制的多标签文本分类方法
CN112732916A (zh) 一种基于bert的多特征融合模糊文本分类模型
CN112100401B (zh) 面向科技服务的知识图谱构建方法、装置、设备及存储介质
CN110717330A (zh) 基于深度学习的词句级短文本分类方法
CN113886601B (zh) 电子文本事件抽取方法、装置、设备及存储介质
CN109214006A (zh) 图像增强的层次化语义表示的自然语言推理方法
CN111966812A (zh) 一种基于动态词向量的自动问答方法和存储介质
CN114238577B (zh) 融合多头注意力机制的多任务学习情感分类方法
CN114911945A (zh) 基于知识图谱的多价值链数据管理辅助决策模型构建方法
CN109614611B (zh) 一种融合生成非对抗网络与卷积神经网络的情感分析方法
CN111753088A (zh) 一种自然语言信息的处理方法
US20220156489A1 (en) Machine learning techniques for identifying logical sections in unstructured data
CN115952292B (zh) 多标签分类方法、装置及计算机可读介质
Suyanto Synonyms-based augmentation to improve fake news detection using bidirectional LSTM
CN111723572B (zh) 基于CNN卷积层和BiLSTM的中文短文本相关性度量方法
CN114942974A (zh) 电商平台商品用户评价情感倾向分类方法
Wang et al. Transfer learning-based query classification for intelligent building information spoken dialogue
CN113919319A (zh) 基于动作场景强化的脚本事件预测方法
Tiwari et al. Comparative classification performance evaluation of various deep learning techniques for sentiment analysis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant