CN107330032A - 一种基于递归神经网络的隐式篇章关系分析方法 - Google Patents

一种基于递归神经网络的隐式篇章关系分析方法 Download PDF

Info

Publication number
CN107330032A
CN107330032A CN201710495283.5A CN201710495283A CN107330032A CN 107330032 A CN107330032 A CN 107330032A CN 201710495283 A CN201710495283 A CN 201710495283A CN 107330032 A CN107330032 A CN 107330032A
Authority
CN
China
Prior art keywords
word
msub
mtr
mtd
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710495283.5A
Other languages
English (en)
Other versions
CN107330032B (zh
Inventor
鉴萍
耿瑞莹
黄河燕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN201710495283.5A priority Critical patent/CN107330032B/zh
Publication of CN107330032A publication Critical patent/CN107330032A/zh
Application granted granted Critical
Publication of CN107330032B publication Critical patent/CN107330032B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明提出了一种基于递归神经网络的隐式篇章关系分析方法,属于自然语言处理应用技术领域。包括以下步骤:首先基于一定规则初始化训练语料的词向量,然后把词向量作为Bi‑LSTM模型的输入,得到Bi‑LSTM模型的两个隐层向量,并将其拼接后作为递归神经网络的输入,该网络结构所需的句法树由PDTB语料的标注得出,合成函数采用神经张量合成,最后,得到每个论元的向量表示,并把两个论元向量拼接后输入MLP中进行分类,采用随机梯度下降法更新模型中的参数至收敛,使用性能最优的参数完成隐式篇章关系的分析。

Description

一种基于递归神经网络的隐式篇章关系分析方法
技术领域
本发明涉及一种隐式篇章关系分析方法,特别涉及一种基于递归神经网络的隐式篇章关系分析方法,属于自然语言处理应用技术领域。
背景技术
作为自然语言处理应用技术领域中的一项重要任务,篇章关系分析,尤其是隐式篇章关系分析,一直为学者们所不懈研究着,并在统计机器翻译、信息抽取、情感分析等领域发挥着重要的作用。随着自然语言的语义分析逐渐成为学术和应用的主流,针对一篇文章,如何高效正确地理解其结构与内容,引起了越来越多研究人员的重视。如今又恰逢大数据时代,海量且无结构的信息层出不穷,将这些数据应用在隐式篇章关系分析上,能对现有的结果有较大的提升。然而,之前很多基于特征工程的隐式篇章关系分析方法存在普遍的数据稀疏性问题,而普通的深度学习方法,虽然应用到深度语义表示,但是并没有考虑到句子本身的连贯性顺序和句子内部的句法结构,因此,需要一种基于递归神经网络的方法,能够结合深度语义表示和句法结构树,训练出一个高效的隐式篇章关系分析模型,这是一项既有学术意义又有实用价值的研究课题。
隐式篇章关系分析,顾名思义,旨在篇章级别对没有篇章连接词连接的句际关系进行识别与归类。由于篇章连接词的缺失,整个隐式篇章关系的识别与分类过程,便从单个篇章连接词的语义分析转变为篇章论元结构的语义分析。目前,关于隐式篇章关系分析方面的研究并不充分,仍处于探索阶段;另外,没有篇章连接词这一特征的帮助,也使得隐式篇章关系分析的研究更加难以深入。主流的隐式篇章关系分析方法着眼于用特征或浅层语义表征隐式篇章关系论元对,针对句内与句际的深度语义挖掘和深度句法结构鲜有尝试。
发明内容
本发明的目的是为解决以往在隐式篇章关系分析中存在的下述问题:1)针对特征工程的方法无法有效利用深度语义信息以及数据稀疏的问题;2)针对普通神经网络的方法没有考虑句子原有连贯性的问题;3)针对普通的深度学习方法没有考虑句子原有的句法结构信息的问题;4)针对单词本身存在的一词多义问题。本发明提出使用词的分布式表示解决稀疏性问题,使用双向LSTM网络解决词的多义性问题,使用递归神经网络融合句法结构信息,从而在理解深度语义的基础上进行隐式篇章分析。
为实现上述目的,本发明所采用的技术方案如下:
本发明技术方案的思想是:首先,根据大规模语料库,训练表示单词语义的词向量;其次,根据PDTB2.0标注语料,训练Bi-LSTM模型,提取每个LSTM模型中的隐层变量并进行合成,用得到的向量表示每个单词的语义以获取该单词所在的上下文信息,从而消除歧义性;再次,根据PDTB2.0人工标注的句法树,递归地合成每个论元,合成函数采用神经张量法,在句法树的根节点得到对于每个论元的向量表示;最后,将两个向量拼接后输入多层感知机进行分类,使用随机梯度下降法拟合隐式篇章关系类别标签,找到使性能达到最优的模型参数完成隐式篇章关系的分析。
本发明的具体技术方案如下:
一种基于层次深度语义的隐式篇章关系分析方法,该方法包括以下步骤:
步骤一、语料预处理:统计PTTB2.0中每个单词出现的频率,保留出现频率最高的20000个单词,将其他单词标记为<unk>,将句法树中标注的词性进行删除,并将其二叉化;
步骤二、词的embedding表示:使用大规模语料库训练word2vec,将论元中每个单词映射为向量空间的低维向量,从而表示每个单词的语义;
步骤三、构建双向LSTM层:对于每个论元,分别按从头到尾和从尾到头的顺序构建LSTM模型,将两个模型的隐层向量拼接后表示每个单词,作为下一层的输入;
(1)对于训练语料中的每个论元,即标注有篇章关系类别的句子,首先用步骤二中训练的词向量对其进行编码,即把每个单词映射为维度为50的向量;
(2)对于每个论元,分别构建前向和后向的LSTM网络,LSTM过程的合成函数如下:
ht=ot×tanh(ct), (3)
其中,xt是第t个位置的单词的向量表示,it,ft,ot分别表示输入门、记忆门和输出门,TA,b表示在网络参数A和b之下的非线性变换,ct和ct-1分别表示当前时刻和上一时刻的状态变量,为候选状态变量,ht和ht-1分别表示当前时刻和上一时刻的隐藏变量。经过足够次数的迭代以后,ht中将包含单词xt所所在的上文信息。本模型中,使用两个方向的LSTM模型对论元进行编码,所得隐变量分别为我们将其拼接作为第t个单词的向量表示:
步骤四、构建递归神经网络:按照步骤一处理过的句法树,递归地合成每个单词,由递归神经网络的输出得到每个论元的向量表示,将两个论元的向量拼接,作为下一层的输入;
递归神经网络构建过程为:
(1)获取句法树:我们使用PDTB2.0所标注的成分句法树,首先将其二叉化,即保证树中每个节点最多只有两个子节点,然后去掉词性,最终得到由左右括号和单词所组成的句法序列,比如((the cat)(sat down));
(2)确定合成顺序:对于第一步所得句法序列,我们从左至右进行遍历,读取到左括号’(’时,不采取任何操作,读取到右括号’)’时,执行Reduce操作,读取到单词时,执行Shift操作。现将Shift和Reduce操作定义如下:
Shift:对于读取到的单词w,将其在步骤一中所得的向量表示ht压入堆栈S。
Reduce:从堆栈S中弹出两个元素xi和xj,将xi和xj按照(3)中所述合成函数进行合成,并将合成结果压入堆栈S;
(3)确定合成函数:对于从堆栈S中弹出的元素xi和xj,按照如下方式合成:
其中,V∈R2d×2d×d是合成张量,W∈Rd×2d是合成矩阵,b∈Rd是和合成偏置,向量维度d=100,f是relu激活函数,产生的新向量y将会重新被压入堆栈S作为新的合成函数的输入。
步骤五、构建多层感知机分类器:将步骤四中的得到的向量输入多层感知机中,在全连接的网络之后接入softmax函数,最终得到分类预判结果,利用语料库真实标注结果与预判结果计算交叉熵作为损失函数,采用随机梯度下降法更新模型中的参数,迭代一定次数后达到收敛。
步骤六、进行篇章关系识别:将待识别论元对作为训练后神经网络的输入,利用多层感知机的输出得到每个类别上的分类概率,选取其中概率最大值对应的篇章关系作为最终的篇章关系识别结果。
有益效果
本发明对比现有技术,通过采用双向LSTM和递归神经网络,将深度语义信息和句子本身的句法结构信息相结合,同时根据上下文内容解决了词的多义性问题,在隐式篇章关系类别标签的指导下提升分析精度的同时,实现了各层次语义向量的互相优化,弥补了基于特征选取的机器学习方法导致的错判,能够有效地利用未标注语料及不同层次语义信息进行分析,使用户能够更快速而准确地获得隐式篇章关系的分析结果。
附图说明
图1为本发明方法的系统架构图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细说明。
图1为本发明方法的系统架构图。本实施例首先介绍Bi-LSTM的构建过程,然后介绍基于句法树递归神经网络的合成过程,最后介绍整个模型的训练方法。
根据步骤一进行语料预处理,实现步骤如下:
(1)统计PDTB2.0语料中每个单词的出现频数,并按照频数排序,取频数最高的前20000个单词存储为词典,对于其他单词统一标记为<unk>;
(2)对于PDTB2.0语料标注的句法树,使用Stanford Parser中的binarization方法进行二叉化,之后删除其中的词性标注作为后续输入。
根据步骤二进行词的embedding表示,实现步骤如下:
(1)获取训练语料:爬虫获取giga新闻语料,在每一句最后加入句子结尾标记<end>,作为后续输入;
(2)使用word2vec工具训练词向量,选择cbow模型,输出维度为50,学习率设置为1e-3,窗口大小设置为5,训练之后得到词向量文件。
根据步骤三,构建双向LSTM层,实现步骤如下:
(1)对于训练语料中的每个论元,即标注有篇章关系类别的句子,首先用步骤二中训练的词向量对其进行编码,即把每个单词映射为维度为50的向量;
(2)对于每个论元,分别构建前向和后向的LSTM网络,LSTM过程的合成函数如下:
ht=ot×tanh(ct), (3)
其中,xt是第t个位置的单词的向量表示,it,ft,ot分别表示输入门、记忆门和输出门,TA,b表示在网络参数A和b之下的非线性变换,ct和ct-1分别表示当前时刻和上一时刻的状态变量,为候选状态变量,ht和ht-1分别表示当前时刻和上一时刻的隐藏变量。经过足够次数的迭代以后,ht中将包含单词xt所所在的上文信息。本模型中,使用两个方向的LSTM模型对论元进行编码,所得隐变量分别为我们将其拼接作为第t个单词的向量表示:
根据步骤四构建递归神经网络,实现步骤如下:
(1)获取句法树:我们使用PDTB2.0所标注的成分句法树,首先将其二叉化,即保证树中每个节点最多只有两个子节点,然后去掉词性,最终得到由左右括号和单词所组成的句法序列,比如((the cat)(sat down));
(2)确定合成顺序:对于第一步所得句法序列,我们从左至右进行遍历,读取到左括号’(’时,不采取任何操作,读取到右括号’)’时,执行Reduce操作,读取到单词时,执行Shift操作。现将Shift和Reduce操作定义如下:
Shift:对于读取到的单词w,将其在步骤一中所得的向量表示ht压入堆栈S。
Reduce:从堆栈S中弹出两个元素xi和xj,将xi和xj按照(3)中所述合成函数进行合成,并将合成结果压入堆栈S;
(3)确定合成函数:对于从堆栈S中弹出的元素xi和xj,按照如下方式合成:
其中,V∈R2d×2d×d是合成张量,W∈Rd×2d是合成矩阵,b∈Rd是和合
成偏置,向量维度d=100,f是relu激活函数,产生的新向量y将会重新
被压入堆栈S作为新的合成函数的输入。
根据步骤五构建多层感知机分类器,其实现步骤如下:
(1)对于待分类的论元对(arg1,arg2),分别使用步骤二所述合成方式进行合成,最后得到包含论元语义信息和句法信息的向量(x1,x2),将两个向量拼接后输入多层感知机进行分类,得到预测的类别概率
(2)对于语料中标注的关系类别,编码成一维one-hot的表示l,然后计算损失函数:
其中x1,x2表示论元1和论元2,C表示要分类的类别数,和l分别表示预测标签和真实标签,lj分别表示在第j个类别下的真实标签值和预测概率值。
(3)对于步骤五(2)中所得损失函数,使用随机梯度下降法的一个变种AdaGrad更新模型中的参数,迭代至收敛,模型构建完成。
根据步骤六进行篇章关系识别,其实现步骤如下:
(1)对于每对待识别的论元,输入到上述步骤所述网络结构,得到最后多层感知机的输出
(2)将作为本次篇章关系的识别结果,即为所求。

Claims (2)

1.一种基于递归神经网络的隐式篇章关系分析方法,其特征在于,包括以下步骤:
步骤一、语料预处理:统计PTTB2.0中每个单词出现的频率,保留出现频率最高的20000个单词,将其他单词标记为<unk>,将句法树中标注的词性进行删除,并将其二叉化;
步骤二、词的embedding表示:使用大规模语料库训练word2vec,将论元中每个单词映射为向量空间的低维向量,从而表示每个单词的语义;
步骤三、构建双向LSTM层:对于每个论元,分别按从头到尾和从尾到头的顺序构建LSTM模型,将两个模型的隐层向量拼接后表示每个单词,作为下一层的输入;
步骤四、构建递归神经网络:按照步骤一处理过的句法树,递归地合成每个单词,由递归神经网络的输出得到每个论元的向量表示,将两个论元的向量拼接,作为下一层的输入;
步骤五、构建多层感知机分类器:将步骤四中的得到的向量输入多层感知机中,在全连接的网络之后接入softmax函数,最终得到分类预判结果,利用语料库真实标注结果与预判结果计算交叉熵作为损失函数,采用随机梯度下降法更新模型中的参数,迭代一定次数后达到收敛;
步骤六、篇章关系识别:将待识别论元对作为训练后神经网络的输入,利用多层感知机的输出得到每个类别上的分类概率,选取其中概率最大值对应的篇章关系作为最终的篇章关系识别结果。
2.根据权利要求1所述的一种基于递归神经网络的隐式篇章关系分析方法,其特征还在于,递归神经网络的构建包含以下步骤:
步骤一、获取句法树:我们使用PDTB2.0所标注的成分句法树,首先将其二叉化,即保证树中每个节点最多只有两个子节点,然后去掉词性,最终得到由左右括号和单词所组成的句法序列;
步骤二、确定合成顺序:对于第一步所得句法序列,我们从左至右进行遍历,读取到左括号’(’时,不采取任何操作,读取到右括号’)’时,执行Reduce操作,读取到单词时,执行Shift操作;将Shift和Reduce操作定义如下:
Shift:对于读取到的单词w,将其在步骤一中所得向量表示ht压入堆栈S;
Reduce:从堆栈S中弹出两个元素xi和xj,将xi和xj按照ht=ot×tanh(ct)合成函数进行合成,并将合成结果压入堆栈S;ht表示当前时刻的隐藏变量;ot表示输出门,ct表示当前时刻的状态变量;
步骤三、确定合成函数:对于从堆栈S中弹出的元素xi和xj,按照如下方式合成:
<mrow> <mi>y</mi> <mo>=</mo> <mi>f</mi> <mrow> <mo>(</mo> <msup> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>x</mi> <mi>i</mi> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>x</mi> <mi>j</mi> </msub> </mtd> </mtr> </mtable> </mfenced> <mi>T</mi> </msup> <msup> <mi>V</mi> <mrow> <mo>&amp;lsqb;</mo> <mn>1</mn> <mo>:</mo> <mi>d</mi> <mo>&amp;rsqb;</mo> </mrow> </msup> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>x</mi> <mi>i</mi> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>x</mi> <mi>j</mi> </msub> </mtd> </mtr> </mtable> </mfenced> <mo>+</mo> <mi>W</mi> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>x</mi> <mi>i</mi> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>x</mi> <mi>j</mi> </msub> </mtd> </mtr> </mtable> </mfenced> <mo>+</mo> <mi>b</mi> <mo>)</mo> </mrow> </mrow>
其中,V∈R2d×2d×d是合成张量,W∈Rd×2d是合成矩阵,b∈Rd是和合成偏置,向量维度d=100,f是relu激活函数,产生的新向量y将会重新被压入堆栈S作为新的合成函数的输入。
CN201710495283.5A 2017-06-26 2017-06-26 一种基于递归神经网络的隐式篇章关系分析方法 Active CN107330032B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710495283.5A CN107330032B (zh) 2017-06-26 2017-06-26 一种基于递归神经网络的隐式篇章关系分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710495283.5A CN107330032B (zh) 2017-06-26 2017-06-26 一种基于递归神经网络的隐式篇章关系分析方法

Publications (2)

Publication Number Publication Date
CN107330032A true CN107330032A (zh) 2017-11-07
CN107330032B CN107330032B (zh) 2020-08-21

Family

ID=60197077

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710495283.5A Active CN107330032B (zh) 2017-06-26 2017-06-26 一种基于递归神经网络的隐式篇章关系分析方法

Country Status (1)

Country Link
CN (1) CN107330032B (zh)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107908620A (zh) * 2017-11-15 2018-04-13 珠海金山网络游戏科技有限公司 一种基于工作文档预判用户职业的方法和装置
CN108182976A (zh) * 2017-12-28 2018-06-19 西安交通大学 一种基于神经网络的临床医学信息提取方法
CN108280064A (zh) * 2018-02-28 2018-07-13 北京理工大学 分词、词性标注、实体识别及句法分析的联合处理方法
CN108416058A (zh) * 2018-03-22 2018-08-17 北京理工大学 一种基于Bi-LSTM输入信息增强的关系抽取方法
CN108959351A (zh) * 2018-04-25 2018-12-07 中国科学院自动化研究所 中文篇章关系的分类方法及装置
CN109241265A (zh) * 2018-09-17 2019-01-18 四川长虹电器股份有限公司 一种面向多轮查询的领域识别方法及系统
CN109446526A (zh) * 2018-10-26 2019-03-08 苏州大学 一种隐式篇章关系语料库的构建方法、装置和存储介质
CN109460466A (zh) * 2018-09-20 2019-03-12 电子科技大学 一种基于多任务双向长短时记忆网络的隐式句间关系分析方法
CN109582296A (zh) * 2018-10-19 2019-04-05 北京大学 一种基于栈增强lstm的程序表示方法
CN110033091A (zh) * 2018-12-13 2019-07-19 阿里巴巴集团控股有限公司 一种基于模型进行预测的方法和装置
CN110135846A (zh) * 2019-05-17 2019-08-16 杭州云象网络技术有限公司 一种区块链节点的行为序列自动分类方法
CN110147452A (zh) * 2019-05-17 2019-08-20 北京理工大学 一种基于层级bert神经网络的粗粒度情感分析方法
CN110347793A (zh) * 2019-06-28 2019-10-18 北京牡丹电子集团有限责任公司宁安智慧工程中心 一种中文语义解析方法及装置
CN110633473A (zh) * 2019-09-25 2019-12-31 华东交通大学 基于条件随机场的隐式篇章关系识别方法与系统
CN110750979A (zh) * 2019-10-17 2020-02-04 科大讯飞股份有限公司 一种篇章连贯性的确定方法以及检测装置
CN111209366A (zh) * 2019-10-10 2020-05-29 天津大学 基于TransS驱动的互激励神经网络的隐式篇章关系识别方法
CN111651974A (zh) * 2020-06-23 2020-09-11 北京理工大学 一种隐式篇章关系分析方法和系统
CN111695341A (zh) * 2020-06-16 2020-09-22 北京理工大学 一种基于篇章结构图卷积的隐式篇章关系分析方法和系统
CN112395876A (zh) * 2021-01-21 2021-02-23 华东交通大学 基于知识蒸馏和多任务学习的篇章关系识别方法与装置
CN112699688A (zh) * 2021-01-08 2021-04-23 北京理工大学 一种篇章关系可控的文本生成方法和系统
CN113626672A (zh) * 2021-02-26 2021-11-09 新大陆数字技术股份有限公司 基于rcnn网络的舆情分析方法及系统
CN113779963A (zh) * 2021-07-30 2021-12-10 北京理工大学 一种用于隐式篇章关系分析的显式数据筛选方法及系统
CN114969553A (zh) * 2022-07-19 2022-08-30 苏芯物联技术(南京)有限公司 一种基于知识图谱的焊接成本和工艺参数综合智能推荐方法
WO2023103914A1 (zh) * 2021-12-07 2023-06-15 中兴通讯股份有限公司 文本情感分析方法、装置及计算机可读存储介质
CN118013962A (zh) * 2024-04-09 2024-05-10 华东交通大学 一种基于双向序列生成的汉语篇章连接词识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105955956A (zh) * 2016-05-05 2016-09-21 中国科学院自动化研究所 一种汉语隐式篇章关系识别方法
CN106294322A (zh) * 2016-08-04 2017-01-04 哈尔滨工业大学 一种基于lstm的汉语零指代消解方法
CN106326212A (zh) * 2016-08-26 2017-01-11 北京理工大学 一种基于层次深度语义的隐式篇章关系分析方法
EP3173983A1 (en) * 2015-11-26 2017-05-31 Siemens Aktiengesellschaft A method and apparatus for providing automatically recommendations concerning an industrial system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3173983A1 (en) * 2015-11-26 2017-05-31 Siemens Aktiengesellschaft A method and apparatus for providing automatically recommendations concerning an industrial system
CN105955956A (zh) * 2016-05-05 2016-09-21 中国科学院自动化研究所 一种汉语隐式篇章关系识别方法
CN106294322A (zh) * 2016-08-04 2017-01-04 哈尔滨工业大学 一种基于lstm的汉语零指代消解方法
CN106326212A (zh) * 2016-08-26 2017-01-11 北京理工大学 一种基于层次深度语义的隐式篇章关系分析方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LI FEI ET.AL.: "《A Bi-LSTM-RNN Model for Relation Classification Using Low-Cost Sequence Features》", 《ARXIV.ORG》 *
徐凡等: "《基于树核的隐式篇章关系识别》", 《软件学报》 *

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107908620A (zh) * 2017-11-15 2018-04-13 珠海金山网络游戏科技有限公司 一种基于工作文档预判用户职业的方法和装置
CN108182976A (zh) * 2017-12-28 2018-06-19 西安交通大学 一种基于神经网络的临床医学信息提取方法
CN108280064B (zh) * 2018-02-28 2020-09-11 北京理工大学 分词、词性标注、实体识别及句法分析的联合处理方法
CN108280064A (zh) * 2018-02-28 2018-07-13 北京理工大学 分词、词性标注、实体识别及句法分析的联合处理方法
CN108416058A (zh) * 2018-03-22 2018-08-17 北京理工大学 一种基于Bi-LSTM输入信息增强的关系抽取方法
CN108416058B (zh) * 2018-03-22 2020-10-09 北京理工大学 一种基于Bi-LSTM输入信息增强的关系抽取方法
CN108959351A (zh) * 2018-04-25 2018-12-07 中国科学院自动化研究所 中文篇章关系的分类方法及装置
CN108959351B (zh) * 2018-04-25 2022-11-08 中国科学院自动化研究所 中文篇章关系的分类方法及装置
CN109241265A (zh) * 2018-09-17 2019-01-18 四川长虹电器股份有限公司 一种面向多轮查询的领域识别方法及系统
CN109460466A (zh) * 2018-09-20 2019-03-12 电子科技大学 一种基于多任务双向长短时记忆网络的隐式句间关系分析方法
CN109582296A (zh) * 2018-10-19 2019-04-05 北京大学 一种基于栈增强lstm的程序表示方法
CN109582296B (zh) * 2018-10-19 2020-12-18 北京大学 一种基于栈增强lstm的程序表示方法
CN109446526A (zh) * 2018-10-26 2019-03-08 苏州大学 一种隐式篇章关系语料库的构建方法、装置和存储介质
CN109446526B (zh) * 2018-10-26 2023-05-12 苏州大学 一种隐式篇章关系语料库的构建方法、装置和存储介质
US11803752B2 (en) 2018-12-13 2023-10-31 Advanced New Technologies Co., Ltd. Separate deployment of machine learning model and associated embedding
CN110033091A (zh) * 2018-12-13 2019-07-19 阿里巴巴集团控股有限公司 一种基于模型进行预测的方法和装置
CN110147452A (zh) * 2019-05-17 2019-08-20 北京理工大学 一种基于层级bert神经网络的粗粒度情感分析方法
CN110135846A (zh) * 2019-05-17 2019-08-16 杭州云象网络技术有限公司 一种区块链节点的行为序列自动分类方法
CN110147452B (zh) * 2019-05-17 2022-03-01 北京理工大学 一种基于层级bert神经网络的粗粒度情感分析方法
CN110347793A (zh) * 2019-06-28 2019-10-18 北京牡丹电子集团有限责任公司宁安智慧工程中心 一种中文语义解析方法及装置
CN110633473A (zh) * 2019-09-25 2019-12-31 华东交通大学 基于条件随机场的隐式篇章关系识别方法与系统
CN110633473B (zh) * 2019-09-25 2022-11-08 华东交通大学 基于条件随机场的隐式篇章关系识别方法与系统
CN111209366A (zh) * 2019-10-10 2020-05-29 天津大学 基于TransS驱动的互激励神经网络的隐式篇章关系识别方法
CN111209366B (zh) * 2019-10-10 2023-04-21 天津大学 基于TransS驱动的互激励神经网络的隐式篇章关系识别方法
CN110750979A (zh) * 2019-10-17 2020-02-04 科大讯飞股份有限公司 一种篇章连贯性的确定方法以及检测装置
CN111695341A (zh) * 2020-06-16 2020-09-22 北京理工大学 一种基于篇章结构图卷积的隐式篇章关系分析方法和系统
CN111651974B (zh) * 2020-06-23 2022-11-01 北京理工大学 一种隐式篇章关系分析方法和系统
CN111651974A (zh) * 2020-06-23 2020-09-11 北京理工大学 一种隐式篇章关系分析方法和系统
CN112699688B (zh) * 2021-01-08 2022-11-04 北京理工大学 一种篇章关系可控的文本生成方法和系统
CN112699688A (zh) * 2021-01-08 2021-04-23 北京理工大学 一种篇章关系可控的文本生成方法和系统
CN112395876B (zh) * 2021-01-21 2021-04-13 华东交通大学 基于知识蒸馏和多任务学习的篇章关系识别方法与装置
CN112395876A (zh) * 2021-01-21 2021-02-23 华东交通大学 基于知识蒸馏和多任务学习的篇章关系识别方法与装置
CN113626672A (zh) * 2021-02-26 2021-11-09 新大陆数字技术股份有限公司 基于rcnn网络的舆情分析方法及系统
CN113779963A (zh) * 2021-07-30 2021-12-10 北京理工大学 一种用于隐式篇章关系分析的显式数据筛选方法及系统
WO2023103914A1 (zh) * 2021-12-07 2023-06-15 中兴通讯股份有限公司 文本情感分析方法、装置及计算机可读存储介质
CN114969553A (zh) * 2022-07-19 2022-08-30 苏芯物联技术(南京)有限公司 一种基于知识图谱的焊接成本和工艺参数综合智能推荐方法
CN114969553B (zh) * 2022-07-19 2022-10-28 苏芯物联技术(南京)有限公司 一种基于知识图谱的焊接成本和工艺参数综合智能推荐方法
CN118013962A (zh) * 2024-04-09 2024-05-10 华东交通大学 一种基于双向序列生成的汉语篇章连接词识别方法

Also Published As

Publication number Publication date
CN107330032B (zh) 2020-08-21

Similar Documents

Publication Publication Date Title
CN107330032A (zh) 一种基于递归神经网络的隐式篇章关系分析方法
CN109214003B (zh) 基于多层注意力机制的循环神经网络生成标题的方法
CN109858041B (zh) 一种半监督学习结合自定义词典的命名实体识别方法
CN109408812A (zh) 一种基于注意力机制的序列标注联合抽取实体关系的方法
CN111859935B (zh) 基于文献的癌症相关生物医学事件数据库构建方法
CN107578106A (zh) 一种融合单词语义知识的神经网络自然语言推理方法
CN106294322A (zh) 一种基于lstm的汉语零指代消解方法
CN110321563A (zh) 基于混合监督模型的文本情感分析方法
Mabona et al. Neural generative rhetorical structure parsing
CN111651974A (zh) 一种隐式篇章关系分析方法和系统
Tang et al. Deep sequential fusion LSTM network for image description
CN110781290A (zh) 一种长篇章结构化文本摘要提取方法
CN113378547B (zh) 一种基于gcn的汉语复句隐式关系分析方法及装置
CN111914556A (zh) 基于情感语义转移图谱的情感引导方法及系统
CN114547298A (zh) 基于多头注意力和图卷积网络结合R-Drop机制的生物医学关系抽取方法、装置和介质
CN114881042B (zh) 基于图卷积网络融合句法依存与词性的中文情感分析方法
CN117291265B (zh) 一种基于文本大数据的知识图谱构建方法
CN114818717A (zh) 融合词汇和句法信息的中文命名实体识别方法及系统
CN113657123A (zh) 基于目标模板指导和关系头编码的蒙语方面级情感分析方法
El Desouki et al. Exploring the recent trends of paraphrase detection
Xu et al. Chinese event detection based on multi-feature fusion and BiLSTM
CN116340507A (zh) 一种基于混合权重和双通道图卷积的方面级情感分析方法
CN116186241A (zh) 基于语义学分析与提示学习的事件要素抽取方法、装置、电子设备及存储介质
Xin et al. Automatic annotation of text classification data set in specific field using named entity recognition
CN114358021A (zh) 基于深度学习的任务型对话语句回复生成方法及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant