CN112948505A - 一种实体关系分类的模型构建方法、设备及存储介质 - Google Patents

一种实体关系分类的模型构建方法、设备及存储介质 Download PDF

Info

Publication number
CN112948505A
CN112948505A CN202110339935.2A CN202110339935A CN112948505A CN 112948505 A CN112948505 A CN 112948505A CN 202110339935 A CN202110339935 A CN 202110339935A CN 112948505 A CN112948505 A CN 112948505A
Authority
CN
China
Prior art keywords
entity
word
entity relationship
sentence
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110339935.2A
Other languages
English (en)
Inventor
李灯熬
赵菊敏
王薇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taiyuan University of Technology
Original Assignee
Taiyuan University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taiyuan University of Technology filed Critical Taiyuan University of Technology
Priority to CN202110339935.2A priority Critical patent/CN112948505A/zh
Publication of CN112948505A publication Critical patent/CN112948505A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/285Clustering or classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/288Entity relationship models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Abstract

本发明涉及数据处理领域,公开了一种实体关系分类的模型构建方法、设备及存储介质,包括获取网络文本数据;对文本句子作分词和依存句法分析并抽取若干个特征的预处理;训练单词向量词汇表
Figure DDA0002998852280000011
将若干个特征输入Embedding层进行训练,映射为低维向量表示;将句子的低维向量表示输入Bi‑GRU层进行训练;经Bi‑GRU层训练后的所有时刻输出向量利用Multi‑headattention层进行多次的self‑attention计算,获取不同表征子空间内的更多层面的特征,从而获取句子更多的上下文信息;通过胶囊网络层提取实体关系分类任务中关键词的文本信息和位置信息,通过胶囊向量的长度对实体关系进行分类。通过结合Multi‑headattention和胶囊网络提出的实体关系分类模型,可以更有效的利用实体和位置信息,提高关系分类效果,提升位置信息感。

Description

一种实体关系分类的模型构建方法、设备及存储介质
技术领域
本发明涉及数据处理领域,特别涉及一种实体关系分类的模型构建方法、设备及存储介质。
背景技术
关系分类是自然语言处理领域的一项重要任务,能够在构建知识图谱、问答系统和信息检索等方面上提供技术支持。以往的模型大多采用单层注意力机制,特征表达相对单一,特征表达能力较低,因此,为了解决特征表达单一的问题,本发明在已有的基础上进行进一步的研发,引入基于自主注意力机制的多头注意力机制,学习多个映射器,进而从不同维度,不同子空间获取更多层面的信息,以此来表达特征,提高特征表达能力。
发明内容
为了解决现有技术关系分类中特征表达相对单一、特征表达能力较低的问题,本发明提供了一种实体关系分类的模型构建方法、设备及存储介质。
本发明的技术方案如下:
一种实体关系分类的模型构建方法,包括以下步骤:
S1:获取网络文本数据;
S2:对文本句子作分词和依存句法分析并抽取若干个特征的预处理;
S3:训练单词向量词汇表
Figure BDA0002998852260000011
将所述若干个特征输入Embedding层进行训练,映射为低维向量表示,根据特征填充句子传递给Bi-GRU层;
S4:填充句子在Bi-GRU层进行训练,获得句子的顺序信息和基于上下文的单词语义的信息;
S5:再通过建设基于多次self-attention计算的Multi-head attention层,利用self-attention多次进行计算,获取不同表征子空间中的更多层面的特征,从而获取句子更多的上下文信息;
S6:最后通过胶囊网络层提取实体关系分类任务中关键词的文本信息和位置信息,通过胶囊向量的长度对实体关系进行分类。
进一步地,所述S2包括抽取相对位置特征、依存句法特征与相对核心谓词依赖特征。
进一步地,所述相对位置特征为句子中每个词到实体对之间的距离,所述依存句法特征包括获取每个词在句子中的依存句法属性值的及获取每个词所依赖的词在句子中的索引值的,所述相对核心谓词依赖特征为句子中每个词与核心谓词存在的依赖关系,所述相对核心谓词依赖特征分为核心谓词本身、核心谓词子节点与其他。
进一步地,所述S3包括将由n个单词组成的句子SK={w1,w2,...,wn},使用训练好的单词向量词汇表
Figure BDA0002998852260000021
其中|V|表示词汇表的大小,将单词
Figure BDA0002998852260000022
映射到Xi
Figure BDA0002998852260000023
上,使用每个单词到实体对之间的距离作为位置特征PF,使用具有位置指标符PI的原始文本作为输入,填充句子
Figure BDA0002998852260000024
输入到Bi-GRU层。
进一步地,所述S5包括:
S51:通过单次self-attention计算得到单次attention输出特征值h,使用符号H表示一个矩阵,由Bi-GRU层所有时刻输出向量组成[h1,h2,...,hr],使用符号r表示该层最终输出值,根据以下计算公式得到单次attention输出特征值h:
Figure BDA0002998852260000025
Figure BDA0002998852260000026
h*=tan(r) 式(3);
式(1)中,
Figure BDA0002998852260000031
dh是隐藏层节点数,ω是一个参数向量,ω、
Figure BDA0002998852260000032
和r的维度分别是dh,T,dh
S52:进行k次self-attention计算完成Multi-head attention计算,将计算结果拼接和线性映射,得到最终结果hs
Figure BDA0002998852260000033
式(4)中,向量ωs的维度是k×dh,
Figure BDA0002998852260000034
表示逐元素点乘,针对式(1),在每次使用H时,先将H进行一次线性变换,即Wi hH,其中,
Figure BDA0002998852260000035
每次在进行单次self-attention计算时,H的维度会进行压缩,Multi-head attention为并行执行计算。
本发明提供了一种实体关系分类设备,所述实体关系分类设备包括:
存储器、处理器,通信总线以及存储在所述存储器上的实体关系分类程序,
所述通信总线用于实现处理器与存储器间的通信连接;
所述处理器用于执行所述实体关系分类程序,以实现如上述中任意一项所述的实体关系分类程序的模型构建方法的步骤。
一种计算机可读存储介质,存储有可执行指令,所述存储介质上存储有实体关系分类程序,所述实体关系分类程序被处理器执行时实现上述中任意一项所述的的实体关系分类程序的模型构建方法的步骤。
本发明至少包括以下有益效果:通过结合Multi-head attention和胶囊网络提出的实体关系分类模型,使用原文作为模型输入,利用双GRU捕获语句的顺序信息和基于上下文的语义信息后,通过Multi-head attention得到词与词之间的相关性,通过胶囊网络获取位置信息,可以更有效的利用实体和位置信息,提高关系分类效果,提升位置信息感。
附图说明
图1为本发明的实体关系分类模型应用于实施例中的结构示意图。
图2为本发明的实施例中的Multi-head attention层结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
结合图1-2所示,本发明提供了一种实体关系分类的模型构建方法,包括以下步骤:
S1:获取网络文本数据,该模型只使用原文作为输入,而不是以背景知识或句法特征作为辅助信息,首先获取句子“People have been moving back into downtown”;
S2:对文本句子作分词和依存句法分析并抽取若干个特征的预处理;
通常情况下,所获取到的数据相对复杂,因此需要进行预处理,首先对句子进行分词和依存句法分析,将获取的句子分成单个的单词,并抽取以下三个特征:
(I)相对位置特征PF,相对位置特征PF为句子中每个词到实体对之间的距离;
(II)依存句法特征DP,依存句法特征DP包括获取每个词在句子中的依存句法属性值的DP-NAME及获取每个词所依赖的词在句子中的索引值的DP-PAR;
(III)相对核心谓词依赖特征DEP,相对核心谓词依赖特征DEP为句子中每个词与核心谓词存在的依赖关系,所述相对核心谓词依赖特征DEP分为核心谓词本身DEP-S、核心谓词子节点DEP-C与其他DEP-O。
S3:训练单词向量词汇表
Figure BDA0002998852260000051
将所述若干个特征输入Embedding层进行训练,映射为低维向量表示,根据特征填充句子传递给Bi-GRU层;
对于由7个单词组成的句子SK={w1,w2,w3,w4,w5,w6,w7},使用训练好的单词向量词汇表
Figure BDA0002998852260000052
其中|V|表示词汇表的大小,将单词
Figure BDA0002998852260000053
映射到Xi
Figure BDA0002998852260000055
上,使用每个单词到实体对之间的距离作为位置特征PF,使用具有位置指标符PI的原始文本作为输入,将得到的每个指标作为输入模型的位置特征,7个单词填充成句子
Figure BDA0002998852260000054
作为整个模型的输入传递到Bi-GRU层,其中L为填充句子的长度,一般等于训练和测试集中最长句子的长度。
S4:填充句子在Bi-GRU层进行训练,获得句子的顺序信息和基于上下文的单词语义的信息;
单词出现的顺序往往会影响句子的意义,GRU的目的是使每个递归单元自适应地捕获对不同时间分辨率的依赖,GRU采用了更简单的结构很更少的参数来加快计算和训练,同时在考虑到正向和反向语序的影响,采用了Bi-GRU模型来提取句子结构的语义信息。
S5:再通过建设基于多次self-attention计算的Multi-head attention层,利用self-attention多次进行计算,获取不同表征子空间中的更多层面的特征,从而获取句子更多的上下文信息;;
S51:通过单次self-attention计算得到单次attention输出特征值h,使用符号H表示一个矩阵,由Bi-GRU层所有时刻输出向量组成[h1,h2,...,hr],使用符号r表示该层最终输出值,根据以下计算公式得到单次attention输出特征值h:
Figure BDA0002998852260000061
Figure BDA0002998852260000062
h*=tan(r) 式(3);
式(1)中,
Figure BDA0002998852260000063
dh是隐藏层节点数,ω是一个参数向量,ω、
Figure BDA0002998852260000064
和r的维度分别是dh,T,dh,每次计算使用的ω均不相同;
S52:进行k次self-attention计算完成Multi-head attention计算,将计算结果拼接和线性映射,得到最终结果hs
Figure BDA0002998852260000065
式(4)中,向量ωs的维度是k×dh,
Figure BDA0002998852260000066
表示逐元素点乘,针对式(1),在每次使用H时,先将H进行一次线性变换,即Wi hH,其中,
Figure BDA0002998852260000067
每次在进行单次self-attention计算时,H的维度会进行压缩,Multi-head attention为并行执行计算。
本发明使用乘法注意力机制,乘法注意力机制在实现上可以使用高度优化的矩形乘法,使整体计算成本和单次注意力机制的计算成本之间的差值缩小,同时提升模型的特征表达能力。
S6:最后通过胶囊网络层提取实体关系分类任务中关键词的文本信息和位置信息,通过胶囊向量的长度对实体关系进行分类。
胶囊网络层是将低到高级别的特征传递,既可以获取序列信息及基于上下文的语义信息,又能够提取局部特征,完成底层次特征与高层次特征的集成,采用胶囊网络层加强文本表示能力,从而提高关系分类的准确性。
本发明提供了一种实体关系分类设备,所述实体关系分类设备包括:
存储器、处理器,通信总线以及存储在所述存储器上的实体关系分类程序,所述通信总线用于实现处理器与存储器间的通信连接;所述处理器用于执行所述实体关系分类程序,以实现如上述中任意一项所述的实体关系分类程序的模型构建方法的步骤。
一种计算机可读存储介质,存储有可执行指令,所述存储介质上存储有实体关系分类程序,所述实体关系分类程序被处理器执行时实现上述中任意一项所述的的实体关系分类程序的模型构建方法的步骤。
本发明通过结合Multi-head attention和胶囊网络提出的实体关系分类模型,使用原文作为模型输入,利用双GRU捕获语句的顺序信息和基于上下文的语义信息后,通过Multi-head attention得到词与词之间的相关性,通过胶囊网络获取位置信息,可以更有效的利用实体和位置信息,提高关系分类效果,提升位置信息感。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (7)

1.一种实体关系分类的模型构建方法,其特征在于:
包括以下步骤:
S1:获取网络文本数据;
S2:对文本句子作分词和依存句法分析并抽取若干个特征的预处理;
S3:训练单词向量词汇表
Figure FDA0002998852250000011
将所述若干个特征输入Embedding层进行训练,映射为低维向量表示,根据特征填充句子传递给Bi-GRU层;
S4:填充句子在Bi-GRU层进行训练,获得句子的顺序信息和基于上下文的单词语义的信息;
S5:再通过建设基于多次self-attention计算的Multi-head attention层,利用self-attention多次进行计算,获取不同表征子空间中的更多层面的特征,从而获取句子更多的上下文信息;
S6:最后通过胶囊网络层提取实体关系分类任务中关键词的文本信息和位置信息,通过胶囊向量的长度对实体关系进行分类。
2.根据权利要求1所述的一种实体关系分类的模型构建方法,其特征在于:所述S2包括抽取相对位置特征、依存句法特征与相对核心谓词依赖特征。
3.根据权利要求2所述的一种实体关系分类的模型构建方法,其特征在于:所述相对位置特征为句子中每个词到实体对之间的距离,所述依存句法特征包括获取每个词在句子中的依存句法属性值的及获取每个词所依赖的词在句子中的索引值的,所述相对核心谓词依赖特征为句子中每个词与核心谓词存在的依赖关系,所述相对核心谓词依赖特征分为核心谓词本身、核心谓词子节点与其他。
4.根据权利要求1-3任意一项所述的一种实体关系分类的模型构建方法,其特征在于:所述S3包括将由n个单词组成的句子SK={w1,w2,...,wn},使用训练好的单词向量词汇表
Figure FDA0002998852250000021
其中|V|表示词汇表的大小,将单词
Figure FDA0002998852250000022
映射到Xi
Figure FDA0002998852250000023
上,使用每个单词到实体对之间的距离作为位置特征PF,使用具有位置指标符PI的原始文本作为输入,填充句子
Figure FDA0002998852250000024
传输到Bi-GRU层。
5.根据权利要求1所述的一种实体关系分类的模型构建方法,其特征在于:所述S5包括:
S51:通过单次self-attention计算得到单次attention输出特征值h,使用符号H表示一个矩阵,由Bi-GRU层所有时刻输出向量组成[h1,h2,...,hr],使用符号r表示该层最终输出值,根据以下计算公式得到单次attention输出特征值h*
Figure FDA0002998852250000025
Figure FDA0002998852250000026
h*=tan(r) 式(3);
式(1)中,
Figure FDA00029988522500000211
dh是隐藏层节点数,ω是一个参数向量,ω、
Figure FDA0002998852250000027
和r的维度分别是dh,T,dh
S52:进行k次self-attention计算完成Multi-head attention计算,将计算结果拼接和线性映射,得到最终结果hs
Figure FDA0002998852250000028
式(4)中,向量ωs的维度是k×dh,
Figure FDA0002998852250000029
表示逐元素点乘,针对式(1),在每次使用H时,先将H进行一次线性变换,即Wi hH,其中,
Figure FDA00029988522500000210
每次在进行单次self-attention计算时,H的维度会进行压缩,Multi-head attention为并行执行计算。
6.本发明提供了一种实体关系分类设备,其特征在于:所述实体关系分类设备包括:
存储器、处理器,通信总线以及存储在所述存储器上的实体关系分类程序,
所述通信总线用于实现处理器与存储器间的通信连接;
所述处理器用于执行所述实体关系分类程序,以实现如上述权利要求1-5中任意一项所述的实体关系分类程序的模型构建方法的步骤。
7.一种计算机可读存储介质,存储有可执行指令,其特征在于:所述存储介质上存储有实体关系分类程序,所述实体关系分类程序被处理器执行时实现上述权利要求1-5中任意一项所述的的实体关系分类程序的模型构建方法的步骤。
CN202110339935.2A 2021-03-30 2021-03-30 一种实体关系分类的模型构建方法、设备及存储介质 Pending CN112948505A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110339935.2A CN112948505A (zh) 2021-03-30 2021-03-30 一种实体关系分类的模型构建方法、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110339935.2A CN112948505A (zh) 2021-03-30 2021-03-30 一种实体关系分类的模型构建方法、设备及存储介质

Publications (1)

Publication Number Publication Date
CN112948505A true CN112948505A (zh) 2021-06-11

Family

ID=76230470

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110339935.2A Pending CN112948505A (zh) 2021-03-30 2021-03-30 一种实体关系分类的模型构建方法、设备及存储介质

Country Status (1)

Country Link
CN (1) CN112948505A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113392217A (zh) * 2021-06-24 2021-09-14 广东电网有限责任公司 一种电力设备故障缺陷实体关系的抽取方法及装置
CN113535950A (zh) * 2021-06-15 2021-10-22 杭州电子科技大学 一种基于知识图谱和胶囊网络的小样本意图识别方法
CN113609291A (zh) * 2021-07-27 2021-11-05 科大讯飞(苏州)科技有限公司 实体分类方法、装置、电子设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111160008A (zh) * 2019-12-18 2020-05-15 华南理工大学 一种实体关系联合抽取方法及系统
CN112507039A (zh) * 2020-12-15 2021-03-16 苏州元启创人工智能科技有限公司 基于外部知识嵌入的文本理解方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111160008A (zh) * 2019-12-18 2020-05-15 华南理工大学 一种实体关系联合抽取方法及系统
CN112507039A (zh) * 2020-12-15 2021-03-16 苏州元启创人工智能科技有限公司 基于外部知识嵌入的文本理解方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DUNLU PENG 等: "BG-SAC: Entity relationship classification model based on Self-Attention supported Capsule Networks", 《APPLIED SOFT COMPUTING》 *
刘峰 等: "基于Multi-head Attention和Bi-LSTM的实体关系分类", 《计算机系统应用》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113535950A (zh) * 2021-06-15 2021-10-22 杭州电子科技大学 一种基于知识图谱和胶囊网络的小样本意图识别方法
CN113535950B (zh) * 2021-06-15 2022-09-27 杭州电子科技大学 一种基于知识图谱和胶囊网络的小样本意图识别方法
CN113392217A (zh) * 2021-06-24 2021-09-14 广东电网有限责任公司 一种电力设备故障缺陷实体关系的抽取方法及装置
CN113392217B (zh) * 2021-06-24 2022-06-10 广东电网有限责任公司 一种电力设备故障缺陷实体关系的抽取方法及装置
CN113609291A (zh) * 2021-07-27 2021-11-05 科大讯飞(苏州)科技有限公司 实体分类方法、装置、电子设备和存储介质

Similar Documents

Publication Publication Date Title
CN106980683B (zh) 基于深度学习的博客文本摘要生成方法
CN106970910B (zh) 一种基于图模型的关键词提取方法及装置
Gallant et al. Representing objects, relations, and sequences
CN112948505A (zh) 一种实体关系分类的模型构建方法、设备及存储介质
CN109472024A (zh) 一种基于双向循环注意力神经网络的文本分类方法
CN110321563B (zh) 基于混合监督模型的文本情感分析方法
CN109711465B (zh) 基于mll和asca-fr的图像字幕生成方法
CN109214006B (zh) 图像增强的层次化语义表示的自然语言推理方法
CN111274790B (zh) 基于句法依存图的篇章级事件嵌入方法及装置
CN108763191A (zh) 一种文本摘要生成方法及系统
CN113255320A (zh) 基于句法树和图注意力机制的实体关系抽取方法及装置
CN110968725B (zh) 图像内容描述信息生成方法、电子设备及存储介质
CN114926835A (zh) 文本生成、模型训练方法和装置
CN115438215A (zh) 图文双向搜索及匹配模型训练方法、装置、设备及介质
CN115374270A (zh) 一种基于图神经网络的法律文本摘要生成方法
CN115775349A (zh) 基于多模态融合的假新闻检测方法和装置
CN110334340B (zh) 基于规则融合的语义分析方法、装置以及可读存储介质
CN111291565A (zh) 一种用于命名实体识别的方法与装置
CN108875024B (zh) 文本分类方法、系统、可读存储介质及电子设备
CN111445545B (zh) 一种文本转贴图方法、装置、存储介质及电子设备
CN111241843B (zh) 基于复合神经网络的语义关系推断系统和方法
CN116665232A (zh) 一种图文关键信息提取方法、装置、设备及存储介质
CN113449517B (zh) 基于bert门控多窗口注意力网络模型的实体关系抽取方法
CN114492450A (zh) 文本匹配方法及装置
CN115048926A (zh) 一种实体关系抽取方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20210611

WD01 Invention patent application deemed withdrawn after publication