CN109783799B - 一种基于语义依存图的关系提取方法 - Google Patents

一种基于语义依存图的关系提取方法 Download PDF

Info

Publication number
CN109783799B
CN109783799B CN201811522442.7A CN201811522442A CN109783799B CN 109783799 B CN109783799 B CN 109783799B CN 201811522442 A CN201811522442 A CN 201811522442A CN 109783799 B CN109783799 B CN 109783799B
Authority
CN
China
Prior art keywords
shortest path
neural network
network
data
bidirectional cyclic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811522442.7A
Other languages
English (en)
Other versions
CN109783799A (zh
Inventor
姜明
何杰成
张旻
汤景凡
滕海滨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201811522442.7A priority Critical patent/CN109783799B/zh
Publication of CN109783799A publication Critical patent/CN109783799A/zh
Application granted granted Critical
Publication of CN109783799B publication Critical patent/CN109783799B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

本发明公开了一种基于语义依存图的关系提取方法。本发明包括如下步骤:步骤(1)训练双向循环卷积注意神经网络;步骤(2)读取语句数据;步骤(3)将数据输入训练好的深度神经网络,输出数据与各个关系的相关度。本发明通过引入语义依存图的信息来降低噪声数据和增强数据特征信息的方法。通过从语义依存图中提出来的实体对之间的最短路径中提取句子的特征信息。本发明通过引入语义依存图和双向循环卷积注意网络进行关系提取,通过语义依存的分析并提取的实体间最短路径,可以有效的降低远程监督学习带来的噪声数据影响,从而提高了关系提取的准确率。

Description

一种基于语义依存图的关系提取方法
技术领域
本发明涉及关系提取方法,具体来讲是一种基于语义依存图的关系提取方法,属于自然语言处理技术领域。
背景技术
在自然语言处理技术领域中,最重要的任务是分析人类话语并能理解。在这个大领域中有一项十分重要的任务是如何构建知识图谱。在建立知识图谱中,如果通过人类一句话一句话的进行分析并提取实体与关系,这是十分浪费人力的。因此,我们需要通过引入深度神经网络训练模型,让模型自动提取出句子中实体的关系。目前,主要的关系提取方法有无监督学习,监督学习和远程监督学习。由于,无监督学习效果一般,监督学习效果好,但是需要大量的训练数据,标记训练数据是一项浪费资源的工作。我们采用远程监督学习,但是,在该方法中会引入大量的噪声数据,因此,我们需要改进方法降低噪声数据对模型的影响。
发明内容
本发明针对使用远程监督学习方式进行关系提取中的噪声问题,公开一种通过引入语义依存图的信息来降低噪声数据和增强数据特征信息的方法。
为实现以上的技术目的,本发明将采用以下的技术方案:
步骤(1)训练双向循环卷积注意神经网络;
步骤(2)读取语句数据;
步骤(3)将数据输入训练好的深度神经网络,输出数据与各个关系的相关度;
步骤(1)包括如下步骤:
步骤A对输入数据进行语义分析,提取实体对的最短路径,并编码整理序列化;所述的最短路径包含词和依赖关系边;
步骤B构建双向循环卷积注意神经网络,确定双向循环卷积注意神经网络每一层的输入输出的向量维度、计算方式、训练方式;
步骤C特征提取,将处理好的数据和对应的结果标签输入到双向循环卷积注意神经网络中,提取出每个组的特征;
步骤D对于步骤C中的每个组,计算组的特征与结果候选集中每个关系的相关度,将相关度最大的作为该组提取的结果;
步骤E利用交叉熵损失函数计算结果与标签的误差,并调整双向循环卷积注意神经网络中的参数。
步骤A具体为:首先,将训练数据按照标签分组;其次,使用NLP分析工具将自然语言句子进行语义依存分析,得到相应的语义依存图;根据自然语言句子中的实体对和得到的语义依存图,使用改进后的最短路径迪杰斯特拉算法,提取出多条实体对之间的最短路径;
所述的改进后的最短路径迪杰斯特拉算法,具体是在原算法基础上加入一个PATH数据表记录每个图中节点在最短路径中的前一跳是哪个节点。
步骤B中,所述的双向循环卷积注意神经网络由BCNN网络架构改进实现,首先由一个双向循环网络对最短路径进行编码,每条最短路径循环次数限制为15次;再使用卷积网络与池化层提取编码后的最短路径的特征,卷积网络中采用200个过滤器;然后用注意力网络计算每条最短路径在当前组中的权重。
所述的双向循环卷积注意神经网络采用远程监督学习训练,网络自底向上的流程包括:
第一层:对每条最短路径中的词和依赖关系边,分别使用双向循环卷积注意神经网络进行编码,编码的过程为:
it=σ(wi·xt+ut·ht-1+bi)
gt=tanh(wc·xt+uc·ht-1+bc)
ft=σ(wf·xt+uf·ht-1+bf)
Figure BDA0001903552680000021
ot=σ(wo·xt+uo·ht-1+bo)
Figure BDA0001903552680000022
其中,w表示模型中的参数,x表示输入的词特征或者依赖关系边特征,u表示模型中的参数,b表示模型中的参数,h表示循环中的前一时刻的输出,σ表示sigmod函数,
Figure BDA0001903552680000031
表示相乘;
得到前向和后向中每个词的编码信息hwi和每条依赖关系边的编码信息hei
第二层:将前向和后向的编码信息按照依存单元进行组合,依存单元形式为<词,依赖关系边,词>;从而得到以下forward集合和backward集合,其中forward集合表示前向,backward集合表示后向:
Figure BDA0001903552680000032
Figure BDA0001903552680000033
第三层:使用卷积网络和池化层提取前向和后向的依存单元信息,然后将两个信息相连得到最短路径的特征信息;
第四层:使用注意力模型对一个组中所有最短路径特征信息融合得到组的特征;采取计算注意力方法,根据句子最短路径特征计算每条最短路径在该组中的权重,公式为:
S=∑αiGi
Figure BDA0001903552680000034
fi=GiAr
其中,S表示组的特征信息,α表示每条最短路径的权重,G表示最短路径特征信息,f表示最短路径和标签关系的相关度,i表示第i条最短路径,k表示列举改组中的所有最短路径。
步骤E中双向循环卷积注意神经网络的调优,具体实现如下:
采用自顶向下的远程监督学习方式进行调优,即使用标签的样本数据进行训练,误差自顶向下进行传输,对网络进行调优,包括:根据交叉熵损失函数的结果,利用反向传播算法重新调整双向循环卷积注意神经网络参数,最终达到全局网络最优,交叉熵损失函数为:
Figure BDA0001903552680000041
其中,θ是模型中的参数,r表示关系信息,G表示最短路径信息,i表示组中最短路径下标。
本发明由于采取以上技术方案,具有如下优点:
本发明通过引入语义依存图和双向循环卷积注意网络进行关系提取,通过语义依存的分析并提取的实体间最短路径,可以有效的降低远程监督学习带来的噪声数据影响,从而提高了关系提取的准确率。
附图说明
图1是本发明的神经网络模型流程示例图;
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
如图1所示,一种基于语义依存图的关系提取方法,按照如下步骤进行:
步骤(1)训练双向循环卷积注意神经网络;
步骤(2)读取语句数据;
步骤(3)将数据输入训练好的深度神经网络,输出特征与各个关系的相关度
其中训练双向循环卷积注意神经网络的步骤如下:
将训练数据集中的数据按照实体对和标记关系进行分组。
将每一组句子,分别使用NLP工具进行语义分析得到相应的语义依存图。
根据句子中的实体对和得到的语义依存图,使用改进后的最短路径迪杰斯特拉算法,提取出多条实体对之间的最短路径;算法改进所做的是加入一个PATH数据记录每个图中节点在最短路径中的前一跳是哪个节点。
将得到的最短路径分别输入到双向循环卷积注意神经网络中,初始化BP神经网络参数,训练双向循环卷积注意神经网络。
以下是对本发明一种基于语义依存的关系提取方法神经网络模型的详细说明,模型图如图1。
第一层是双向循环神经网络(BiLSTM),该网络的作用是对最短路径中的单词特征信息和依存关系边特征信息进行编码,其中前向和后向,单词和依存关系边要进行组合分开进行。因此,可以得到四组特征信息。
将前向的单词特征信息和依存关系边特征信息,按照依存单元的形式进行组合。可以得到前向依存单元组和后向依存单元组。依存单元的形式为:<单词,依存关系边,单词>。
第二层是卷积池化神经网络(CNN),该网络的作用是提取依存单元的特征信息,网络中的窗口大小为1,过滤器组数为200个,再通过一个池化层得到前向的特征信息和后向的特征信息,最后将两者相连。
第三层是一个注意力神经网络,该网络的作用是计算该组中每个句子和标签关系的相关程度,也就是该句子在组中的权重大小。
根据得到的权重大小,将组中的句子进行加权求和,得到该组的特征信息。
根据得到的组特征信息,计算它与每个关系的相关程度,最后去相关程度最高的关系,作为当次计算的结果。
根据得到的结果,使用交叉熵目标函数对bp网络中的参数进行调整,实验的迭代次数为50次。
使用模型过程为,输入一组相同实体对的句子,先进行NLP工具分析语义信息,得到语义依存图。再从中抽取出实体对之间的最短路径,并输入到双向循环卷积注意网络中,网络输出组中句子所表达的关系。

Claims (2)

1.一种基于语义依存图的关系提取方法,其特征在于包括如下步骤:
步骤(1)训练双向循环卷积注意神经网络;
步骤(2)读取语句数据;
步骤(3)将数据输入训练好的双向循环卷积注意神经网络,输出数据与各个关系的相关度;
步骤(1)包括如下步骤:
步骤A对输入数据进行语义分析,提取实体对的最短路径,并编码整理序列化;所述的最短路径包含词和依赖关系边;
步骤B构建双向循环卷积注意神经网络,确定双向循环卷积注意神经网络每一层的输入输出的向量维度、计算方式、训练方式;
步骤C特征提取,将处理好的数据和对应的结果标签输入到双向循环卷积注意神经网络中,提取出每个组的特征;
步骤D对于步骤C中的每个组,计算组的特征与结果候选集中每个关系的相关度,将相关度最大的作为该组提取的结果;
步骤E利用交叉熵损失函数计算结果与标签的误差,并调整双向循环卷积注意神经网络中的参数;
步骤A具体为:首先,将训练数据按照标签分组;其次,使用NLP分析工具将自然语言句子进行语义依存分析,得到相应的语义依存图;根据自然语言句子中的实体对和得到的语义依存图,使用改进后的最短路径迪杰斯特拉算法,提取出多条实体对之间的最短路径;
所述的改进后的最短路径迪杰斯特拉算法,具体是在原算法基础上加入一个PATH数据表记录每个图中节点在最短路径中的前一跳是哪个节点;
所述的双向循环卷积注意神经网络由BCNN网络架构改进实现,首先由一个双向循环网络对最短路径进行编码,每条最短路径循环次数限制为15次;再使用卷积网络与池化层提取编码后的最短路径的特征,卷积网络中采用200个过滤器;然后用注意力网络计算每条最短路径在当前组中的权重;
双向循环卷积注意神经网络采用远程监督学习训练,网络自底向上的流程包括:
第一层:对每条最短路径中的词和依赖关系边,分别使用双向循环卷积注意神经网络进行编码,编码的过程为:
it=σ(wi·xt+ut·ht-1+bi)
gt=tanh(wc·xt+uc·ht-1+bc)
ft=σ(wf·xt+uf·ht-1+bf)
Figure FDA0002371335030000021
ot=σ(wo·xt+uo·ht-1+bo)
Figure FDA0002371335030000022
其中,w表示双向循环卷积注意神经网络中的参数,x表示输入的词特征或者依赖关系边特征,u表示双向循环卷积注意神经网络中的参数,b表示双向循环卷积注意神经网络中的参数,ht-1表示循环中的前一时刻的输出,σ表示sigmod函数,
Figure FDA0002371335030000023
表示相乘;
得到前向和后向中每个词的编码信息hwi和每条依赖关系边的编码信息hei
第二层:将前向和后向的编码信息按照依存单元进行组合,依存单元形式为<词,依赖关系边,词>;从而得到以下forward集合和backward集合,其中forward集合表示前向,backward集合表示后向:
Figure FDA0002371335030000024
第三层:使用卷积网络和池化层提取前向和后向的依存单元信息,然后将两个信息相连得到最短路径的特征信息;
第四层:使用注意力模型对一个组中所有最短路径特征信息融合得到组的特征;采取计算注意力方法,根据句子最短路径特征计算每条最短路径在该组中的权重,公式为:
Figure FDA0002371335030000031
其中,S表示组的特征信息,α表示每条最短路径的权重,G表示最短路径特征信息,f表示最短路径和标签关系的相关度,i表示第i条最短路径,k表示列举该组中的所有最短路径。
2.根据权利要求1所述的基于语义依存图的关系提取方法,其特征在于步骤E中双向循环卷积注意神经网络的调优,具体实现如下:
采用自顶向下的远程监督学习方式进行调优,即使用标签的样本数据进行训练,误差自顶向下进行传输,对网络进行调优,包括:根据交叉熵损失函数的结果,利用反向传播算法重新调整双向循环卷积注意神经网络参数,最终达到全局网络最优,交叉熵损失函数为:
Figure FDA0002371335030000032
其中,θ是模型中的参数,r表示关系信息,G表示最短路径特征信息,i表示第i条最短路径。
CN201811522442.7A 2018-12-13 2018-12-13 一种基于语义依存图的关系提取方法 Active CN109783799B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811522442.7A CN109783799B (zh) 2018-12-13 2018-12-13 一种基于语义依存图的关系提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811522442.7A CN109783799B (zh) 2018-12-13 2018-12-13 一种基于语义依存图的关系提取方法

Publications (2)

Publication Number Publication Date
CN109783799A CN109783799A (zh) 2019-05-21
CN109783799B true CN109783799B (zh) 2020-05-05

Family

ID=66495877

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811522442.7A Active CN109783799B (zh) 2018-12-13 2018-12-13 一种基于语义依存图的关系提取方法

Country Status (1)

Country Link
CN (1) CN109783799B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110555084B (zh) * 2019-08-26 2023-01-24 电子科技大学 基于pcnn和多层注意力的远程监督关系分类方法
CN110674642B (zh) * 2019-08-29 2023-04-18 中国人民解放军国防科技大学 一种用于含噪稀疏文本的语义关系抽取方法
CN110633467B (zh) * 2019-08-29 2023-04-07 中国人民解放军国防科技大学 一种基于改进特征融合的语义关系抽取方法
CN113035193B (zh) * 2021-03-01 2024-04-12 上海匠芯知音信息科技有限公司 一种员工管理系统及应用
CN113591478B (zh) * 2021-06-08 2023-04-18 电子科技大学 一种基于深度强化学习的远程监督文本实体关系抽取方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108021557A (zh) * 2017-12-25 2018-05-11 北京牡丹电子集团有限责任公司数字电视技术中心 基于深度学习的不规则实体识别方法
CN108536754A (zh) * 2018-03-14 2018-09-14 四川大学 基于blstm和注意力机制的电子病历实体关系抽取方法

Also Published As

Publication number Publication date
CN109783799A (zh) 2019-05-21

Similar Documents

Publication Publication Date Title
CN109783799B (zh) 一种基于语义依存图的关系提取方法
Xie et al. Deep learning enabled semantic communication systems
CN112528676B (zh) 文档级别的事件论元抽取方法
CN111241294B (zh) 基于依赖解析和关键词的图卷积网络的关系抽取方法
CN110134946B (zh) 一种针对复杂数据的机器阅读理解方法
CN111274398B (zh) 一种方面级用户产品评论情感分析方法及系统
CN108363695B (zh) 一种基于双向依赖语法树表征的用户评论属性抽取方法
CN112487143A (zh) 一种基于舆情大数据分析的多标签文本分类方法
CN107729311B (zh) 一种融合文本语气的中文文本特征提取方法
CN111027595B (zh) 双阶段语义词向量生成方法
CN109063164A (zh) 一种基于深度学习的智能问答方法
CN110633467B (zh) 一种基于改进特征融合的语义关系抽取方法
CN113128206B (zh) 基于单词重要性加权的问题生成方法
CN110060657B (zh) 基于sn的多对多说话人转换方法
CN110033008A (zh) 一种基于模态变换与文本归纳的图像描述生成方法
CN111400494B (zh) 一种基于GCN-Attention的情感分析方法
CN110427616A (zh) 一种基于深度学习的文本情感分析方法
CN111428481A (zh) 一种基于深度学习的实体关系抽取方法
CN115062109A (zh) 一种基于实体对注意力机制的实体关系联合抽取方法
CN115309869A (zh) 一种一对多的多用户语义通信模型及通信方法
CN114492459A (zh) 基于知识图谱与交互图卷积的评论情感分析方法及系统
Yang et al. Skeleton neural networks via low-rank guided filter pruning
CN110610006A (zh) 基于笔画和字形的形态学双通道中文词嵌入方法
CN117235216A (zh) 一种基于异构知识融合的知识推理方法
CN114298052B (zh) 一种基于概率图的实体联合标注关系抽取方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant