CN107330032B - 一种基于递归神经网络的隐式篇章关系分析方法 - Google Patents

一种基于递归神经网络的隐式篇章关系分析方法 Download PDF

Info

Publication number
CN107330032B
CN107330032B CN201710495283.5A CN201710495283A CN107330032B CN 107330032 B CN107330032 B CN 107330032B CN 201710495283 A CN201710495283 A CN 201710495283A CN 107330032 B CN107330032 B CN 107330032B
Authority
CN
China
Prior art keywords
word
vector
argument
neural network
vectors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710495283.5A
Other languages
English (en)
Other versions
CN107330032A (zh
Inventor
鉴萍
耿瑞莹
黄河燕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN201710495283.5A priority Critical patent/CN107330032B/zh
Publication of CN107330032A publication Critical patent/CN107330032A/zh
Application granted granted Critical
Publication of CN107330032B publication Critical patent/CN107330032B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明提出了一种基于递归神经网络的隐式篇章关系分析方法,属于自然语言处理应用技术领域。包括以下步骤:首先基于一定规则初始化训练语料的词向量,然后把词向量作为Bi‑LSTM模型的输入,得到Bi‑LSTM模型的两个隐层向量,并将其拼接后作为递归神经网络的输入,该网络结构所需的句法树由PDTB语料的标注得出,合成函数采用神经张量合成,最后,得到每个论元的向量表示,并把两个论元向量拼接后输入MLP中进行分类,采用随机梯度下降法更新模型中的参数至收敛,使用性能最优的参数完成隐式篇章关系的分析。

Description

一种基于递归神经网络的隐式篇章关系分析方法
技术领域
本发明涉及一种隐式篇章关系分析方法,特别涉及一种基于递归神经网络的隐式篇章关系分析方法,属于自然语言处理应用技术领域。
背景技术
作为自然语言处理应用技术领域中的一项重要任务,篇章关系分析,尤其是隐式篇章关系分析,一直为学者们所不懈研究着,并在统计机器翻译、信息抽取、情感分析等领域发挥着重要的作用。随着自然语言的语义分析逐渐成为学术和应用的主流,针对一篇文章,如何高效正确地理解其结构与内容,引起了越来越多研究人员的重视。如今又恰逢大数据时代,海量且无结构的信息层出不穷,将这些数据应用在隐式篇章关系分析上,能对现有的结果有较大的提升。然而,之前很多基于特征工程的隐式篇章关系分析方法存在普遍的数据稀疏性问题,而普通的深度学习方法,虽然应用到深度语义表示,但是并没有考虑到句子本身的连贯性顺序和句子内部的句法结构,因此,需要一种基于递归神经网络的方法,能够结合深度语义表示和句法结构树,训练出一个高效的隐式篇章关系分析模型,这是一项既有学术意义又有实用价值的研究课题。
隐式篇章关系分析,顾名思义,旨在篇章级别对没有篇章连接词连接的句际关系进行识别与归类。由于篇章连接词的缺失,整个隐式篇章关系的识别与分类过程,便从单个篇章连接词的语义分析转变为篇章论元结构的语义分析。目前,关于隐式篇章关系分析方面的研究并不充分,仍处于探索阶段;另外,没有篇章连接词这一特征的帮助,也使得隐式篇章关系分析的研究更加难以深入。主流的隐式篇章关系分析方法着眼于用特征或浅层语义表征隐式篇章关系论元对,针对句内与句际的深度语义挖掘和深度句法结构鲜有尝试。
发明内容
本发明的目的是为解决以往在隐式篇章关系分析中存在的下述问题:1)针对特征工程的方法无法有效利用深度语义信息以及数据稀疏的问题;2)针对普通神经网络的方法没有考虑句子原有连贯性的问题;3)针对普通的深度学习方法没有考虑句子原有的句法结构信息的问题;4)针对单词本身存在的一词多义问题。本发明提出使用词的分布式表示解决稀疏性问题,使用双向LSTM网络解决词的多义性问题,使用递归神经网络融合句法结构信息,从而在理解深度语义的基础上进行隐式篇章分析。
为实现上述目的,本发明所采用的技术方案如下:
本发明技术方案的思想是:首先,根据大规模语料库,训练表示单词语义的词向量;其次,根据PDTB2.0标注语料,训练Bi-LSTM模型,提取每个LSTM模型中的隐层变量并进行合成,用得到的向量表示每个单词的语义以获取该单词所在的上下文信息,从而消除歧义性;再次,根据PDTB2.0人工标注的句法树,递归地合成每个论元,合成函数采用神经张量法,在句法树的根节点得到对于每个论元的向量表示;最后,将两个向量拼接后输入多层感知机进行分类,使用随机梯度下降法拟合隐式篇章关系类别标签,找到使性能达到最优的模型参数完成隐式篇章关系的分析。
本发明的具体技术方案如下:
一种基于层次深度语义的隐式篇章关系分析方法,该方法包括以下步骤:
步骤一、语料预处理:统计PTTB2.0中每个单词出现的频率,保留出现频率最高的20000个单词,将其他单词标记为<unk>,将句法树中标注的词性进行删除,并将其二叉化;
步骤二、词的embedding表示:使用大规模语料库训练word2vec,将论元中每个单词映射为向量空间的低维向量,从而表示每个单词的语义;
步骤三、构建双向LSTM层:对于每个论元,分别按从头到尾和从尾到头的顺序构建LSTM模型,将两个模型的隐层向量拼接后表示每个单词,作为下一层的输入;
(1)对于训练语料中的每个论元,即标注有篇章关系类别的句子,首先用步骤二中训练的词向量对其进行编码,即把每个单词映射为维度为50的向量;
(2)对于每个论元,分别构建前向和后向的LSTM网络,LSTM过程的合成函数如下:
Figure GDA0002497291980000031
Figure GDA0002497291980000032
ht=ot×tanh(ct), (3)
其中,xt是第t个位置的单词的向量表示,it,ft,ot分别表示输入门、记忆门和输出门,TA,b表示在网络参数A和b之下的非线性变换,ct和ct-1分别表示当前时刻和上一时刻的状态变量,
Figure GDA0002497291980000036
为候选状态变量,ht和ht-1分别表示当前时刻和上一时刻的隐藏变量。经过足够次数的迭代以后,ht中将包含单词xt所所在的上文信息。本模型中,使用两个方向的LSTM模型对论元进行编码,所得隐变量分别为
Figure GDA0002497291980000033
Figure GDA0002497291980000034
我们将其拼接作为第t个单词的向量表示:
Figure GDA0002497291980000035
步骤四、构建递归神经网络:按照步骤一处理过的句法树,递归地合成每个单词,由递归神经网络的输出得到每个论元的向量表示,将两个论元的向量拼接,作为下一层的输入;
递归神经网络构建过程为:
(1)获取句法树:我们使用PDTB2.0所标注的成分句法树,首先将其二叉化,即保证树中每个节点最多只有两个子节点,然后去掉词性,最终得到由左右括号和单词所组成的句法序列,比如((the cat)(sat down));
(2)确定合成顺序:对于第一步所得句法序列,我们从左至右进行遍历,读取到左括号’(’时,不采取任何操作,读取到右括号’)’时,执行Reduce操作,读取到单词时,执行Shift操作。现将Shift和Reduce操作定义如下:
Shift:对于读取到的单词w,将其在步骤一中所得的向量表示ht压入堆栈S。
Reduce:从堆栈S中弹出两个元素xi和xj,将xi和xj按照(3)中所述合成函数进行合成,并将合成结果压入堆栈S;
(3)确定合成函数:对于从堆栈S中弹出的元素xi和xj,按照如下方式合成:
Figure GDA0002497291980000041
其中,V∈R2d×2d×d是合成张量,W∈Rd×2d是合成矩阵,b∈Rd是和合成偏置,向量维度d=100,f是relu激活函数,产生的新向量y将会重新被压入堆栈S作为新的合成函数的输入。
步骤五、构建多层感知机分类器:将步骤四中的得到的向量输入多层感知机中,在全连接的网络之后接入softmax函数,最终得到分类预判结果,利用语料库真实标注结果与预判结果计算交叉熵作为损失函数,采用随机梯度下降法更新模型中的参数,迭代一定次数后达到收敛。
步骤六、进行篇章关系识别:将待识别论元对作为训练后神经网络的输入,利用多层感知机的输出得到每个类别上的分类概率,选取其中概率最大值对应的篇章关系作为最终的篇章关系识别结果。
有益效果
本发明对比现有技术,通过采用双向LSTM和递归神经网络,将深度语义信息和句子本身的句法结构信息相结合,同时根据上下文内容解决了词的多义性问题,在隐式篇章关系类别标签的指导下提升分析精度的同时,实现了各层次语义向量的互相优化,弥补了基于特征选取的机器学习方法导致的错判,能够有效地利用未标注语料及不同层次语义信息进行分析,使用户能够更快速而准确地获得隐式篇章关系的分析结果。
附图说明
图1为本发明方法的系统架构图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细说明。
图1为本发明方法的系统架构图。本实施例首先介绍Bi-LSTM的构建过程,然后介绍基于句法树递归神经网络的合成过程,最后介绍整个模型的训练方法。
根据步骤一进行语料预处理,实现步骤如下:
(1)统计PDTB2.0语料中每个单词的出现频数,并按照频数排序,取频数最高的前20000个单词存储为词典,对于其他单词统一标记为<unk>;
(2)对于PDTB2.0语料标注的句法树,使用Stanford Parser中的binarization方法进行二叉化,之后删除其中的词性标注作为后续输入。
根据步骤二进行词的embedding表示,实现步骤如下:
(1)获取训练语料:爬虫获取giga新闻语料,在每一句最后加入句子结尾标记<end>,作为后续输入;
(2)使用word2vec工具训练词向量,选择cbow模型,输出维度为50,学习率设置为1e-3,窗口大小设置为5,训练之后得到词向量文件。
根据步骤三,构建双向LSTM层,实现步骤如下:
(1)对于训练语料中的每个论元,即标注有篇章关系类别的句子,首先用步骤二中训练的词向量对其进行编码,即把每个单词映射为维度为50的向量;
(2)对于每个论元,分别构建前向和后向的LSTM网络,LSTM过程的合成函数如下:
Figure GDA0002497291980000051
Figure GDA0002497291980000052
ht=ot×tanh(ct), (3)
其中,xt是第t个位置的单词的向量表示,it,ft,ot分别表示输入门、记忆门和输出门,TA,b表示在网络参数A和b之下的非线性变换,ct和ct-1分别表示当前时刻和上一时刻的状态变量,
Figure GDA0002497291980000053
为候选状态变量,ht和ht-1分别表示当前时刻和上一时刻的隐藏变量。经过足够次数的迭代以后,ht中将包含单词xt所所在的上文信息。本模型中,使用两个方向的LSTM模型对论元进行编码,所得隐变量分别为
Figure GDA0002497291980000054
Figure GDA0002497291980000055
我们将其拼接作为第t个单词的向量表示:
Figure GDA0002497291980000056
根据步骤四构建递归神经网络,实现步骤如下:
(1)获取句法树:我们使用PDTB2.0所标注的成分句法树,首先将其二叉化,即保证树中每个节点最多只有两个子节点,然后去掉词性,最终得到由左右括号和单词所组成的句法序列,比如((the cat)(sat down));
(2)确定合成顺序:对于第一步所得句法序列,我们从左至右进行遍历,读取到左括号’(’时,不采取任何操作,读取到右括号’)’时,执行Reduce操作,读取到单词时,执行Shift操作。现将Shift和Reduce操作定义如下:
Shift:对于读取到的单词w,将其在步骤一中所得的向量表示ht压入堆栈S。
Reduce:从堆栈S中弹出两个元素xi和xj,将xi和xj按照(3)中所述合成函数进行合成,并将合成结果压入堆栈S;
(3)确定合成函数:对于从堆栈S中弹出的元素xi和xj,按照如下方式合成:
Figure GDA0002497291980000061
其中,V∈R2d×2d×d是合成张量,W∈Rd×2d是合成矩阵,b∈Rd是和合成偏置,向量维度d=100,f是relu激活函数,产生的新向量y将会重新被压入堆栈S作为新的合成函数的输入。
根据步骤五构建多层感知机分类器,其实现步骤如下:
(1)对于待分类的论元对(arg1,arg2),分别使用步骤二所述合成方式进行合成,最后得到包含论元语义信息和句法信息的向量(x1,x2),将两个向量拼接后输入多层感知机进行分类,得到预测的类别概率
Figure GDA0002497291980000067
(2)对于语料中标注的关系类别,编码成一维one-hot的表示l,然后计算损失函数:
Figure GDA0002497291980000062
其中x1,x2表示论元1和论元2,C表示要分类的类别数,
Figure GDA0002497291980000063
和l分别表示预测标签和真实标签,lj
Figure GDA0002497291980000064
分别表示在第j个类别下的真实标签值和预测概率值。
(3)对于步骤五(2)中所得损失函数,使用随机梯度下降法的一个变种AdaGrad更新模型中的参数,迭代至收敛,模型构建完成。
根据步骤六进行篇章关系识别,其实现步骤如下:
(1)对于每对待识别的论元,输入到上述步骤所述网络结构,得到最后多层感知机的输出
Figure GDA0002497291980000065
(2)将
Figure GDA0002497291980000066
作为本次篇章关系的识别结果,即为所求。

Claims (1)

1.一种基于递归神经网络的隐式篇章关系分析方法,其特征在于,包括以下步骤:
步骤一、语料预处理:统计PDTB2.0中每个单词出现的频率,保留出现频率最高的20000个单词,将其他单词标记为<unk>,将句法树中标注的词性进行删除,并将其二叉化;
步骤二、词的embedding表示:训练word2vec,将论元中每个单词映射为向量空间的低维向量,从而表示每个单词的语义;
步骤三、构建双向LSTM层:对于训练语料中的每个论元,即标注有篇章关系类别的句子,首先用步骤二中训练的词向量对其进行编码,即把每个单词映射为维度为50的向量;对于每个论元,分别按从头到尾和从尾到头的顺序构建LSTM模型,将两个模型的隐层向量拼接后表示每个单词,作为下一层的输入;
步骤四、构建递归神经网络:按照步骤一处理过的句法树,递归地合成每个树节点的语义表示向量,并使用根节点的语义表示向量作为论元的语义向量,将两个论元的向量拼接,作为下一层的输入;
递归神经网络的构建包含以下步骤:
(1)获取句法树:我们使用PDTB2.0所标注的成分句法树,首先将其二叉化,即保证树中每个节点最多只有两个子节点,然后去掉词性,最终得到由左右括号和单词所组成的句法序列;
(2)确定合成函数:对于从堆栈S中弹出的元素xi和xj,按照如下方式合成:
Figure FDA0002497291970000011
其中,V∈R2d×2d×d是合成张量,W∈Rd×2d是合成矩阵,b∈Rd是和合成偏置,向量维度d=100,f是relu激活函数,产生的新向量x将会重新被压入堆栈S作为新的合成函数的输入;
(3)确定合成顺序:对于第一步所得句法序列,我们从左至右进行遍历,读取到左括号’(’时,不采取任何操作,读取到右括号’)’时,执行Reduce操作,读取到单词时,执行Shift操作;将Shift和Reduce操作定义如下:
Shift:对于读取到的单词w,将其对应的词向量表示xt压入堆栈S;
Reduce:从堆栈S中弹出两个元素xi和xj,将xi和xj按照步骤二中的合成函数
Figure FDA0002497291970000021
进行合成,并将合成结果压入堆栈S;
步骤五、构建多层感知机分类器:将步骤四中的得到的向量输入多层感知机中,在全连接的网络之后接入softmax函数,最终得到分类预判结果,利用语料库真实标注结果与预判结果计算交叉熵作为损失函数,采用随机梯度下降法更新模型中的参数,迭代一定次数后达到收敛;
步骤六、篇章关系识别:将待识别论元对作为训练后神经网络的输入,利用多层感知机的输出得到每个类别上的分类概率,选取其中概率最大值对应的篇章关系作为最终的篇章关系识别结果。
CN201710495283.5A 2017-06-26 2017-06-26 一种基于递归神经网络的隐式篇章关系分析方法 Active CN107330032B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710495283.5A CN107330032B (zh) 2017-06-26 2017-06-26 一种基于递归神经网络的隐式篇章关系分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710495283.5A CN107330032B (zh) 2017-06-26 2017-06-26 一种基于递归神经网络的隐式篇章关系分析方法

Publications (2)

Publication Number Publication Date
CN107330032A CN107330032A (zh) 2017-11-07
CN107330032B true CN107330032B (zh) 2020-08-21

Family

ID=60197077

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710495283.5A Active CN107330032B (zh) 2017-06-26 2017-06-26 一种基于递归神经网络的隐式篇章关系分析方法

Country Status (1)

Country Link
CN (1) CN107330032B (zh)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107908620A (zh) * 2017-11-15 2018-04-13 珠海金山网络游戏科技有限公司 一种基于工作文档预判用户职业的方法和装置
CN108182976A (zh) * 2017-12-28 2018-06-19 西安交通大学 一种基于神经网络的临床医学信息提取方法
CN108280064B (zh) * 2018-02-28 2020-09-11 北京理工大学 分词、词性标注、实体识别及句法分析的联合处理方法
CN108416058B (zh) * 2018-03-22 2020-10-09 北京理工大学 一种基于Bi-LSTM输入信息增强的关系抽取方法
CN108959351B (zh) * 2018-04-25 2022-11-08 中国科学院自动化研究所 中文篇章关系的分类方法及装置
CN109241265B (zh) * 2018-09-17 2022-06-03 四川长虹电器股份有限公司 一种面向多轮查询的领域识别方法及系统
CN109460466A (zh) * 2018-09-20 2019-03-12 电子科技大学 一种基于多任务双向长短时记忆网络的隐式句间关系分析方法
CN109582296B (zh) * 2018-10-19 2020-12-18 北京大学 一种基于栈增强lstm的程序表示方法
CN109446526B (zh) * 2018-10-26 2023-05-12 苏州大学 一种隐式篇章关系语料库的构建方法、装置和存储介质
CN110033091B (zh) 2018-12-13 2020-09-01 阿里巴巴集团控股有限公司 一种基于模型进行预测的方法和装置
CN110135846A (zh) * 2019-05-17 2019-08-16 杭州云象网络技术有限公司 一种区块链节点的行为序列自动分类方法
CN110147452B (zh) * 2019-05-17 2022-03-01 北京理工大学 一种基于层级bert神经网络的粗粒度情感分析方法
CN110347793A (zh) * 2019-06-28 2019-10-18 北京牡丹电子集团有限责任公司宁安智慧工程中心 一种中文语义解析方法及装置
CN110633473B (zh) * 2019-09-25 2022-11-08 华东交通大学 基于条件随机场的隐式篇章关系识别方法与系统
CN111209366B (zh) * 2019-10-10 2023-04-21 天津大学 基于TransS驱动的互激励神经网络的隐式篇章关系识别方法
CN110750979B (zh) * 2019-10-17 2023-07-25 科大讯飞股份有限公司 一种篇章连贯性的确定方法以及检测装置
CN111695341B (zh) * 2020-06-16 2023-04-14 北京理工大学 一种基于篇章结构图卷积的隐式篇章关系分析方法和系统
CN111651974B (zh) * 2020-06-23 2022-11-01 北京理工大学 一种隐式篇章关系分析方法和系统
CN112699688B (zh) * 2021-01-08 2022-11-04 北京理工大学 一种篇章关系可控的文本生成方法和系统
CN112395876B (zh) * 2021-01-21 2021-04-13 华东交通大学 基于知识蒸馏和多任务学习的篇章关系识别方法与装置
CN113626672A (zh) * 2021-02-26 2021-11-09 新大陆数字技术股份有限公司 基于rcnn网络的舆情分析方法及系统
CN113779963A (zh) * 2021-07-30 2021-12-10 北京理工大学 一种用于隐式篇章关系分析的显式数据筛选方法及系统
CN114201957A (zh) * 2021-12-07 2022-03-18 中兴通讯股份有限公司 文本情感分析方法、装置及计算机可读存储介质
CN114969553B (zh) * 2022-07-19 2022-10-28 苏芯物联技术(南京)有限公司 一种基于知识图谱的焊接成本和工艺参数综合智能推荐方法
CN118013962B (zh) * 2024-04-09 2024-06-21 华东交通大学 一种基于双向序列生成的汉语篇章连接词识别方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105955956A (zh) * 2016-05-05 2016-09-21 中国科学院自动化研究所 一种汉语隐式篇章关系识别方法
EP3173983A1 (en) * 2015-11-26 2017-05-31 Siemens Aktiengesellschaft A method and apparatus for providing automatically recommendations concerning an industrial system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106294322A (zh) * 2016-08-04 2017-01-04 哈尔滨工业大学 一种基于lstm的汉语零指代消解方法
CN106326212B (zh) * 2016-08-26 2019-04-16 北京理工大学 一种基于层次深度语义的隐式篇章关系分析方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3173983A1 (en) * 2015-11-26 2017-05-31 Siemens Aktiengesellschaft A method and apparatus for providing automatically recommendations concerning an industrial system
CN105955956A (zh) * 2016-05-05 2016-09-21 中国科学院自动化研究所 一种汉语隐式篇章关系识别方法

Also Published As

Publication number Publication date
CN107330032A (zh) 2017-11-07

Similar Documents

Publication Publication Date Title
CN107330032B (zh) 一种基于递归神经网络的隐式篇章关系分析方法
CN111291185B (zh) 信息抽取方法、装置、电子设备及存储介质
CN109800437B (zh) 一种基于特征融合的命名实体识别方法
CN110020438B (zh) 基于序列识别的企业或组织中文名称实体消歧方法和装置
CN106933804B (zh) 一种基于深度学习的结构化信息抽取方法
CN111737496A (zh) 一种电力设备故障知识图谱构建方法
CN109753660B (zh) 一种基于lstm的中标网页命名实体抽取方法
CN111738004A (zh) 一种命名实体识别模型的训练方法及命名实体识别的方法
CN113239700A (zh) 改进bert的文本语义匹配设备、系统、方法及存储介质
CN108829722A (zh) 一种远程监督的Dual-Attention关系分类方法及系统
US20180053107A1 (en) Aspect-based sentiment analysis
CN109214006B (zh) 图像增强的层次化语义表示的自然语言推理方法
CN113190656B (zh) 一种基于多标注框架与融合特征的中文命名实体抽取方法
CN111651974A (zh) 一种隐式篇章关系分析方法和系统
CN113255320A (zh) 基于句法树和图注意力机制的实体关系抽取方法及装置
CN113065331A (zh) 基于实体上下文判别的实体情感识别方法和系统
CN114896388A (zh) 一种基于混合注意力的层级多标签文本分类方法
CN112306494A (zh) 一种基于卷积和循环神经网络的代码分类及聚类方法
CN115081437B (zh) 基于语言学特征对比学习的机器生成文本检测方法及系统
CN114881042B (zh) 基于图卷积网络融合句法依存与词性的中文情感分析方法
CN114818717A (zh) 融合词汇和句法信息的中文命名实体识别方法及系统
CN110245349A (zh) 一种句法依存分析方法、装置及一种电子设备
CN111145914B (zh) 一种确定肺癌临床病种库文本实体的方法及装置
CN115238691A (zh) 基于知识融合的嵌入的多意图识别与槽位填充模型
CN116932661A (zh) 一种面向网络安全的事件知识图谱构建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant