CN113641767B - 实体关系抽取方法、装置、设备及存储介质 - Google Patents
实体关系抽取方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN113641767B CN113641767B CN202110811529.1A CN202110811529A CN113641767B CN 113641767 B CN113641767 B CN 113641767B CN 202110811529 A CN202110811529 A CN 202110811529A CN 113641767 B CN113641767 B CN 113641767B
- Authority
- CN
- China
- Prior art keywords
- sentence
- vector
- processed
- package
- initial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000605 extraction Methods 0.000 title claims description 35
- 239000013598 vector Substances 0.000 claims abstract description 273
- 230000011218 segmentation Effects 0.000 claims abstract description 56
- 238000000034 method Methods 0.000 claims abstract description 30
- 230000007246 mechanism Effects 0.000 claims abstract description 16
- 238000011176 pooling Methods 0.000 claims description 41
- 230000006870 function Effects 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 15
- 230000004913 activation Effects 0.000 claims description 12
- 230000003044 adaptive effect Effects 0.000 claims description 5
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 244000269722 Thea sinensis Species 0.000 description 3
- 241000607479 Yersinia pestis Species 0.000 description 3
- 201000010099 disease Diseases 0.000 description 3
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 3
- 241000238631 Hexapoda Species 0.000 description 2
- 235000006468 Thea sinensis Nutrition 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/28—Databases characterised by their database models, e.g. relational or object models
- G06F16/284—Relational databases
- G06F16/288—Entity relationship models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/28—Databases characterised by their database models, e.g. relational or object models
- G06F16/284—Relational databases
- G06F16/285—Clustering or classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种实体关系抽取方法、装置、设备及存储介质,包括:获取待处理句子包,并将所述待处理句子包中的各句子输入预设PCNN模型,以获得各句子对应的初始句子向量;根据通道注意力机制确定各初始句子向量的分段权重,并根据各初始句子向量的分段权重将对应的初始句子向量的分段重新组合,获得各句子对应的最终句子向量;根据所述各句子对应的最终句子向量确定所述待处理句子包的特征向量,并将所述特征向量输入预设分类器,获得所述待处理句子包的实体关系分类,解决了现有技术中无法提取重要文本特征的技术问题,提高了分类器预测准确率。
Description
技术领域
本发明涉及信息抽取技术领域,尤其涉及一种实体关系抽取方法、装置、设备及存储介质。
背景技术
传统的实体关系抽取方法并没有针对茶叶病虫害知识的应用,针对农业细分领域的研究也是少之又少。面对当前互联网上的海量茶叶病虫害数据,大部分信息以无结构化文本、图片等数据形式存在的情况,缺少一个让普通用户能快速的获取有价值的信息的方法。想要对于某种病害需要进一步认识的话,往往需要进一步的在海量网页中进行搜索,耗时耗力,得到的结果却并不理想,甚至有时候得到的是错误的答案,使得错过了对病虫害防治的最佳时机,给茶叶产业带来不可挽回的损失。
上述内容仅用于辅助理解本发明的技术方案,并不代表承认上述内容是现有技术。
发明内容
本发明的主要目的在于提供了一种实体关系抽取方法、装置、设备及存储介质,旨在解决现有技术中分类器的预测准确率低的技术问题。
为实现上述目的,本发明提供了一种实体关系抽取方法,所述方法包括以下步骤:
获取待处理句子包,并将所述待处理句子包中的各句子输入预设PCNN模型,以获得各句子对应的初始句子向量;
根据通道注意力机制确定各初始句子向量的分段权重,并根据各初始句子向量的分段权重将对应的初始句子向量的分段重新组合,获得各句子对应的最终句子向量;
根据所述各句子对应的最终句子向量确定所述待处理句子包的特征向量,并将所述特征向量输入预设分类器,获得所述待处理句子包的实体关系分类。
可选地,所述获取待处理句子包,并将所述待处理句子包中的各句子输入预设PCNN模型,以获得各句子对应的初始句子向量,包括:
获取待处理的句子包,并确定所述待处理句子包中各句子对应的单词特征向量;
将所述各句子对应的单词特征向量输入预设PCNN模型,以获得所述待处理句子包中各句子对应的初始句子向量。
可选地,所述预设PCNN模型包括输入层、卷积层和池化层,所述将所述各句子对应的单词特征向量输入预设PCNN模型,以获得所述待处理句子包中各句子对应的初始句子向量,包括:
将所述各句子对应的单词特征向量作为所述输入层的输入;
利用所述卷积层对所述各句子对应的单词特征向量进行卷积操作,获得各句子对应的单词结果向量;
按照预设规则将所述各句子对应的单词结果向量划分为若干分段,并利用所述池化层对各句子对应的单词结果向量的各分段进行最大池化处理,获得所述单词结果向量的各分段对应的最大池化向量;
将所述各分段对应的最大池化向量进行拼接,以获得所述待处理句子包中各句子对应的初始句子向量。
可选地,所述根据通道注意力机制确定各初始句子向量的分段权重,并根据各初始句子向量的分段权重将对应的初始句子向量的分段重新组合,获得各句子对应的最终句子向量,包括:
对所述待处理句子包中各句子对应的单词结果向量的各分段做全局自适应池化处理,以提取所述单词结果向量的各分段的局部全局信息;
根据所述局部全局信息确定所述各句子对应的单词结果向量的各分段的分段权重;
根据所述分段权重将对应的初始句子向量的分段重新组合,以获得各句子对应的最终句子向量。
可选地,所述根据所述局部全局信息确定所述各句子对应的单词结果向量的各分段的分段权重,包括:
将所述局部全局信息依次输入第一线性层、第一激活函数、第二线性层和第二激活函数获得所述各句子对应的单词结果向量的各分段的分段权重。
可选地,所述根据所述各句子对应的最终句子向量确定所述待处理句子包的特征向量,并将所述特征向量输入预设分类器,获得所述待处理句子包的实体关系分类,包括:
根据所述各句子对应的最终句子向量和预设公式确定所述待处理句子包的特征向量;
将所述特征向量输入softmax分类器,获得所述待处理句子包的实体关系分类。
可选地,所述根据所述各句子对应的最终句子向量和预设公式确定所述待处理句子包的特征向量,包括:
根据所述各句子对应的最终句子向量和预设公式确定所述待处理句子包的特征向量;其中,所述预设公式为:
式中,b为句子包的特征向量,i为句子包中句子的编号,m为句子包中句子的总个数,ai为第i个句子的注意力权重,si为第i个句子的最终句子向量。
此外,为实现上述目的,本发明还提出一种实体关系抽取装置,所述装置包括:
获取模块,用于获取待处理句子包,并将所述待处理句子包中的各句子输入预设PCNN模型,以获得各句子对应的初始句子向量;
确定模块,用于根据通道注意力机制确定各初始句子向量的分段权重,并根据各初始句子向量的分段权重将对应的初始句子向量的分段重新组合,获得各句子对应的最终句子向量;
分类模块,用于根据所述各句子对应的最终句子向量确定所述待处理句子包的特征向量,并将所述特征向量输入预设分类器,获得所述待处理句子包的实体关系分类。
此外,为实现上述目的,本发明还提出一种实体关系抽取设备,所述设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的实体关系抽取程序,所述实体关系抽取程序配置为实现如上文所述的实体关系抽取方法的步骤。
此外,为实现上述目的,本发明还提出一种存储介质,所述存储介质上存储有实体关系抽取程序,所述实体关系抽取程序被处理器执行时实现如上文所述的实体关系抽取方法的步骤。
本发明通过获取待处理句子包,并将所述待处理句子包中的各句子输入预设PCNN模型,以获得各句子对应的初始句子向量;根据通道注意力机制确定各初始句子向量的分段权重,并根据各初始句子向量的分段权重将对应的初始句子向量的分段重新组合,获得各句子对应的最终句子向量;根据所述各句子对应的最终句子向量确定所述待处理句子包的特征向量,并将所述特征向量输入预设分类器,获得所述待处理句子包的实体关系分类,由于本发明是通过将句子包中的句子输入预设PCNN模型获得各句子对应的初始句子向量,根据通道注意力机制确定的分段权重对初始句子向量的分段重新组合获得最终句子向量,根据各最终句子向量确定句子包的特征向量,将句子包的特征向量输入分类器获得句子包的实体关系分类,解决了现有技术中无法提取重要文本特征的技术问题,从而提高了分类器预测准确率。
附图说明
图1是本发明实施例方案涉及的硬件运行环境的实体关系抽取设备的结构示意图;
图2为本发明实体关系抽取方法第一实施例的流程示意图;
图3为本发明实体关系抽取方法第二实施例的流程示意图;
图4为本发明实体关系抽取方法第二实施例中确定分段权重的流程示意图;
图5为本发明实体关系抽取装置第一实施例的结构框图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
参照图1,图1为本发明实施例方案涉及的硬件运行环境的实体关系抽取设备结构示意图。
如图1所示,该实体关系抽取设备可以包括:处理器1001,例如中央处理器(Central Processing Unit,CPU),通信总线1002、用户接口1003,网络接口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如无线保真(Wireless-Fidelity,WI-FI)接口)。存储器1005可以是高速的随机存取存储器(RandomAccess Memory,RAM),也可以是稳定的非易失性存储器(Non-Volatile Memory,NVM),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的结构并不构成对实体关系抽取设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种存储介质的存储器1005中可以包括操作系统、数据存储模块、网络通信模块、用户接口模块以及实体关系抽取程序。
在图1所示的实体关系抽取设备中,网络接口1004主要用于与网络服务器进行数据通信;用户接口1003主要用于与用户进行数据交互;本发明实体关系抽取设备中的处理器1001、存储器1005可以设置在实体关系抽取设备中,所述实体关系抽取设备通过处理器1001调用存储器1005中存储的实体关系抽取程序,并执行本发明实施例提供的实体关系抽取方法。
本发明实施例提供了一种实体关系抽取方法,参照图2,图2为本发明实体关系抽取方法第一实施例的流程示意图。
本实施例中,所述实体关系抽取方法包括以下步骤:
步骤S10:获取待处理句子包,并将所述待处理句子包中的各句子输入预设PCNN模型,以获得各句子对应的初始句子向量。
需要说明的是,本实施例的执行主体可以是一种具有数据处理、网络通信以及程序运行功能的计算服务设备,例如平板电脑、个人电脑、手机等,或者是一种能够实现上述功能的电子设备、实体关系抽取设备等。以下以实体关系抽取设备为例,对本实施例及下述各实施例进行说明,并不构成对本实施例的限制。
可以理解的是,待处理句子包是待进行实体关系分类的句子包,该句子包中包含多个句子。
应该理解的是,待处理句子包中任意一个句子包含n个单词,通过映射词向量表将任意一个句子中的单词转换为对应的词向量,对各句子的单词,计算其相对于句子中实体的相对距离,然后将这两个相对距离映射成句子中各单词对应的位置向量。
可以理解的是,将句子中各单词的词向量和位置向量拼接得到单词的单词特征向量,将单词特征向量输入预设PCNN模型,预设PCNN模型的卷积层对单词特征向量做卷积处理,获得每个单词的单词结果向量,将每个单词的单词结果向量分为三段,利用PCNN模型的池化层对每一段进行最大池化处理得到最大池化向量,将最大池化向量组合获得各句子对应的初始句子向量。
步骤S20:根据通道注意力机制确定各初始句子向量的分段权重,并根据各初始句子向量的分段权重将对应的初始句子向量的分段重新组合,获得各句子对应的最终句子向量。
应该理解的是,根据通道注意力机制将预设PCNN模型的卷积层输出的结果单词结果向量的每一段做全局自适应池化,来提取每一段对应的局部全局信息,对每一段对应的局部全局信息计算通道注意力获得每一段的分段权重。
可以理解的是,根据分段权重对初始句子向量中每一段加权,将加权后的分段重新组合获得最终句子向量。
步骤S30:根据所述各句子对应的最终句子向量确定所述待处理句子包的特征向量,并将所述特征向量输入预设分类器,获得所述待处理句子包的实体关系分类。
可以理解的是,使用得分函数可以计算各句子对应的最终句子向量和关系向量的注意力权重,根据句子包中各句子的最终句子向量和注意力权重可以确定待处理句子包的特征向量,将待处理句子包的特征向量输入预设分类器获得待处理句子包的实体关系分类。
进一步地,为了提高分类器的预测准确率,所述步骤S10包括:获取待处理句子包,并确定所述待处理句子包中各句子对应的单词特征向量;将所述各句子对应的单词特征向量输入预设PCNN模型,以获得所述待处理句子包中各句子对应的初始句子向量。
可以理解的是,待处理句子包中任意一个句子包含若干个单词,假设包含n个单词,通过映射词向量表将每个单词转换成词向量,对于句子中的每个单词,计算该单词分别相对于句子中两个实体的相对距离,将这两个相对距离映射成为单词的位置向量。
应该理解的是,将句子中各单词的词向量和位置向量拼接可得到该单词的单词特征向量,将待处理句子包中各句子对应的单词特征向量输入预设PCNN模型得到待处理句子包中各句子对应的初始句子向量。
进一步地,为了提高分类器的预测准确率,所述预设PCNN模型包括输入层、卷积层和池化层,所述将所述各句子对应的单词特征向量输入预设PCNN模型,以获得所述待处理句子包中各句子对应的初始句子向量,包括:将所述各句子对应的单词特征向量作为所述输入层的输入;利用所述卷积层对所述各句子对应的单词特征向量进行卷积操作,获得各句子对应的单词结果向量;按照预设规则将所述各句子对应的单词结果向量划分为若干分段,并利用所述池化层对各句子对应的单词结果向量的各分段进行最大池化处理,获得所述单词结果向量的各分段对应的最大池化向量;将所述各分段对应的最大池化向量进行拼接,以获得所述待处理句子包中各句子对应的初始句子向量。
可以理解的是,预设PCNN模型包括输入层、卷积层和池化层,待处理句子包中各句子对应的单词特征向量为输入层的输入,在待处理句子包中各句子对应的单词特征向量输入预设PCNN模型的输入层后,利用卷积层对单词特征向量进行卷积操作后,得到每个单词的单词结果向量,将每个单词的结果向量分为三段,利用池化层对每一段进行最大池化得到最大池化向量,将最大池化向量拼接得到待处理句子包中各句子对应的初始句子向量。
本实施例通过获取待处理句子包,并将所述待处理句子包中的各句子输入预设PCNN模型,以获得各句子对应的初始句子向量;根据通道注意力机制确定各初始句子向量的分段权重,并根据各初始句子向量的分段权重将对应的初始句子向量的分段重新组合,获得各句子对应的最终句子向量;根据所述各句子对应的最终句子向量确定所述待处理句子包的特征向量,并将所述特征向量输入预设分类器,获得所述待处理句子包的实体关系分类,由于本实施例是通过将句子包中的句子输入预设PCNN模型获得各句子对应的初始句子向量,根据通道注意力机制确定的分段权重对初始句子向量的分段重新组合获得最终句子向量,根据各最终句子向量确定句子包的特征向量,将句子包的特征向量输入分类器获得句子包的实体关系分类,解决了现有技术中无法提取重要文本特征的技术问题,从而提高了分类器预测准确率。
参考图3,图3为本发明实体关系抽取方法第二实施例的流程示意图。
基于上述第一实施例,在本实施例中,所述步骤S20包括:
步骤S201:对所述待处理句子包中各句子对应的单词结果向量的各分段做全局自适应池化处理,以提取所述单词结果向量的各分段的局部全局信息。
可以理解的是,待处理句子包中各句子的每个单词对应的单词特征向量经过预设PCNN模型的卷积层处理后,得到每个单词对应的单词结果向量,将单词结果向量划分为三段,则可表示为其中i表示句子中的第i个单词,对三段中的每一段都做最大池化处理,最后进行拼接,得到初始句子向量,可表示为
应该理解的是,可以利用如下公式对的每段做全局自适应池化来提取局部全局信息:/>
步骤S202:根据所述局部全局信息确定所述各句子对应的单词结果向量的各分段的分段权重。
应该理解的是,参考图4,在图4中,Global Pooling为全局自适应池化层,与Global Pooling相连的FC为线性层1,Relu为激活函数Relu,与线性层1相连的FC为线性层2,Sigmoid为激活函数Sigmoid,用全局自适应池化的结果avg_pool依次接入线性层1,激活函数Relu,线性层2,激活函数sigmoid,获得单词结果向量各分段的分段权重,具体可由如下公式求得:式中/>为各分段的分段权重。
步骤S203:根据所述分段权重将对应的初始句子向量的分段重新组合,以获得各句子对应的最终句子向量。
可以理解的是,计算预设PCNN模型的最大池化输出qi和分段权重的点积,为每一段加权,可由如下公式确定加权后的分段:/>式中p(i)为加权后的分段,将加权后的分段拼接得到最终句子向量,可表示为:S=[p(1);p(2);p(3)],式中S为最终句子向量。
进一步地,为了提取重要文本特征,所述步骤S202包括:将所述局部全局信息依次输入第一线性层、第一激活函数、第二线性层和第二激活函数获得所述各句子对应的单词结果向量的各分段的分段权重。
进一步地,为了提高分类器的预测准确率,所述根据所述各句子对应的最终句子向量确定所述待处理句子包的特征向量,并将所述特征向量输入预设分类器,获得所述待处理句子包的实体关系分类,包括:根据所述各句子对应的最终句子向量和预设公式确定所述待处理句子包的特征向量;将所述特征向量输入softmax分类器,获得所述待处理句子包的实体关系分类。
进一步地,为了提高分类器的预测准确率,所述根据所述各句子对应的最终句子向量和预设公式确定所述待处理句子包的特征向量,包括:根据所述各句子对应的最终句子向量和预设公式确定所述待处理句子包的特征向量;其中,所述预设公式为:
式中,b为句子包的特征向量,i为句子包中句子的编号,m为句子包中句子的总个数,ai为第i个句子的注意力权重,si为第i个句子的最终句子向量。
可以理解的是,待处理句子包的特征向量由句子包中各句子对应的最终句子向量的加权得到,因为待处理句子包中有正确的句子也有噪声句子,所以每个句子的注意力权重不同,可使用得分函数计算每个句子的最终句子向量和关系向量的注意力权重,在权重注意力确定后,可以根据得到待处理句子包的特征向量。
应该理解的是,将得到的待处理句子包的特征向量输入softmax分类器,即可得到该待处理句子包的实体关系分类。
本实施例通过对所述待处理句子包中各句子对应的单词结果向量的各分段做全局自适应池化处理,以提取所述单词结果向量的各分段的局部全局信息;根据所述局部全局信息确定所述各句子对应的单词结果向量的各分段的分段权重;根据所述分段权重将对应的初始句子向量的分段重新组合,以获得各句子对应的最终句子向量,由于本实施例是通过对单词结果的各分段做全局自适应池化处理获得各分段的局部全局信息,根据局部全局信息确定分段权重,根据分段权重将初始句子向量的分段重新组合得到最终句子向量,解决了现有技术中无法区分哪一段对最后句子的分类任务具有较大贡献的技术问题,实现了提取重要文本特征的技术效果。
此外,本发明实施例还提出一种存储介质,所述存储介质上存储有实体关系抽取程序,所述实体关系抽取程序被处理器执行时实现如上文所述的实体关系抽取方法的步骤。
参照图5,图5为本发明实体关系抽取装置第一实施例的结构框图。
如图5所示,本发明实施例提出的实体关系抽取装置包括:获取模块10、确定模块20、分类模块30。
所述获取模块10,用于获取待处理句子包,并将所述待处理句子包中的各句子输入预设PCNN模型,以获得各句子对应的初始句子向量;
所述确定模块20,用于根据通道注意力机制确定各初始句子向量的分段权重,并根据各初始句子向量的分段权重将对应的初始句子向量的分段重新组合,获得各句子对应的最终句子向量;
所述分类模块30,用于根据所述各句子对应的最终句子向量确定所述待处理句子包的特征向量,并将所述特征向量输入预设分类器,获得所述待处理句子包的实体关系分类。
本实施例通过获取模块10获取待处理句子包,并将所述待处理句子包中的各句子输入预设PCNN模型,以获得各句子对应的初始句子向量;确定模块20根据通道注意力机制确定各初始句子向量的分段权重,并根据各初始句子向量的分段权重将对应的初始句子向量的分段重新组合,获得各句子对应的最终句子向量;分类模块30根据所述各句子对应的最终句子向量确定所述待处理句子包的特征向量,并将所述特征向量输入预设分类器,获得所述待处理句子包的实体关系分类,由于本实施例是通过将句子包中的句子输入预设PCNN模型获得各句子对应的初始句子向量,根据通道注意力机制确定的分段权重对初始句子向量的分段重新组合获得最终句子向量,根据各最终句子向量确定句子包的特征向量,将句子包的特征向量输入分类器获得句子包的实体关系分类,解决了现有技术中无法提取重要文本特征的技术问题,从而提高了分类器预测准确率。
基于本发明上述实体关系抽取装置第一实施例,提出本发明实体关系抽取装置的第二实施例。
在本实施例中,所述预设PCNN模型包括输入层、卷积层和池化层,所述获取模块10,还用于获取待处理句子包,并确定所述待处理句子包中各句子对应的单词特征向量;将所述各句子对应的单词特征向量输入预设PCNN模型,以获得所述待处理句子包中各句子对应的初始句子向量。
所述获取模块10,还用于将所述各句子对应的单词特征向量作为所述输入层的输入;利用所述卷积层对所述各句子对应的单词特征向量进行卷积操作,获得各句子对应的单词结果向量;按照预设规则将所述各句子对应的单词结果向量划分为若干分段,并利用所述池化层对各句子对应的单词结果向量的各分段进行最大池化处理,获得所述单词结果向量的各分段对应的最大池化向量;将所述各分段对应的最大池化向量进行拼接,以获得所述待处理句子包中各句子对应的初始句子向量。
所述确定模块20,还用于对所述待处理句子包中各句子对应的单词结果向量的各分段做全局自适应池化处理,以提取所述单词结果向量的各分段的局部全局信息;根据所述局部全局信息确定所述各句子对应的单词结果向量的各分段的分段权重;根据所述分段权重将对应的初始句子向量的分段重新组合,以获得各句子对应的最终句子向量。
所述确定模块20,还用于将所述局部全局信息依次输入第一线性层、第一激活函数、第二线性层和第二激活函数获得所述各句子对应的单词结果向量的各分段的分段权重。
所述分类模块30,还用于根据所述各句子对应的最终句子向量和预设公式确定所述待处理句子包的特征向量;将所述特征向量输入softmax分类器,获得所述待处理句子包的实体关系分类。
所述分类模块30,还用于根据所述各句子对应的最终句子向量和预设公式确定所述待处理句子包的特征向量;其中,所述预设公式为:
式中,b为句子包的特征向量,i为句子包中句子的编号,m为待处理句子包中句子的总个数,ai为第i个句子的注意力权重,si为第i个句子的最终句子向量。
本发明实体关系抽取装置的其他实施例或具体实现方式可参照上述各方法实施例,此处不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如只读存储器/随机存取存储器、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种实体关系抽取方法,其特征在于,所述方法包括:
获取待处理句子包,并将所述待处理句子包中的各句子输入预设PCNN模型,以获得各句子对应的初始句子向量;
根据通道注意力机制确定各初始句子向量的分段权重,并根据各初始句子向量的分段权重将对应的初始句子向量的分段重新组合,获得各句子对应的最终句子向量;
根据所述各句子对应的最终句子向量确定所述待处理句子包的特征向量,并将所述特征向量输入预设分类器,获得所述待处理句子包的实体关系分类;
所述根据通道注意力机制确定各初始句子向量的分段权重,包括:
根据通道注意力机制将所述预设PCNN模型的卷积层输出的单词结果向量的每一段做全局自适应池化,来提取每一段对应的局部全局信息,对每一段对应的局部全局信息计算通道注意力获得每一段的分段权重。
2.如权利要求1所述的方法,其特征在于,所述获取待处理句子包,并将所述待处理句子包中的各句子输入预设PCNN模型,以获得各句子对应的初始句子向量,包括:
获取待处理句子包,并确定所述待处理句子包中各句子对应的单词特征向量;
将所述各句子对应的单词特征向量输入预设PCNN模型,以获得所述待处理句子包中各句子对应的初始句子向量。
3.如权利要求2所述的方法,其特征在于,所述预设PCNN模型包括输入层、卷积层和池化层,所述将所述各句子对应的单词特征向量输入预设PCNN模型,以获得所述待处理句子包中各句子对应的初始句子向量,包括:
将所述各句子对应的单词特征向量作为所述输入层的输入;
利用所述卷积层对所述各句子对应的单词特征向量进行卷积操作,获得各句子对应的单词结果向量;
按照预设规则将所述各句子对应的单词结果向量划分为若干分段,并利用所述池化层对各句子对应的单词结果向量的各分段进行最大池化处理,获得所述单词结果向量的各分段对应的最大池化向量;
将所述各分段对应的最大池化向量进行拼接,以获得所述待处理句子包中各句子对应的初始句子向量。
4.如权利要求3所述的方法,其特征在于,所述根据通道注意力机制确定各初始句子向量的分段权重,并根据各初始句子向量的分段权重将对应的初始句子向量的分段重新组合,获得各句子对应的最终句子向量,包括:
对所述待处理句子包中各句子对应的单词结果向量的各分段做全局自适应池化处理,以提取所述单词结果向量的各分段的局部全局信息;
根据所述局部全局信息确定所述各句子对应的单词结果向量的各分段的分段权重;
根据所述分段权重将对应的初始句子向量的分段重新组合,以获得各句子对应的最终句子向量。
5.如权利要求4所述的方法,其特征在于,所述根据所述局部全局信息确定所述各句子对应的单词结果向量的各分段的分段权重,包括:
将所述局部全局信息依次输入第一线性层、第一激活函数、第二线性层和第二激活函数获得所述各句子对应的单词结果向量的各分段的分段权重。
6.如权利要求1至5任一项所述的方法,其特征在于,所述根据所述各句子对应的最终句子向量确定所述待处理句子包的特征向量,并将所述特征向量输入预设分类器,获得所述待处理句子包的实体关系分类,包括:
根据所述各句子对应的最终句子向量和预设公式确定所述待处理句子包的特征向量;
将所述特征向量输入softmax分类器,获得所述待处理句子包的实体关系分类。
7.如权利要求6所述的方法,其特征在于,所述根据所述各句子对应的最终句子向量和预设公式确定所述待处理句子包的特征向量,包括:
根据所述各句子对应的最终句子向量和预设公式确定所述待处理句子包的特征向量;其中,所述预设公式为:
式中,b为句子包的特征向量,i为句子包中句子的编号,m为待处理句子包中句子的总个数,ai为第i个句子的注意力权重,si为第i个句子的最终句子向量。
8.一种实体关系抽取装置,其特征在于,所述装置包括:
获取模块,用于获取待处理句子包,并将所述待处理句子包中的各句子输入预设PCNN模型,以获得各句子对应的初始句子向量;
确定模块,用于根据通道注意力机制确定各初始句子向量的分段权重,并根据各初始句子向量的分段权重将对应的初始句子向量的分段重新组合,获得各句子对应的最终句子向量;
分类模块,用于根据所述各句子对应的最终句子向量确定所述待处理句子包的特征向量,并将所述特征向量输入预设分类器,获得所述待处理句子包的实体关系分类;
所述确定模块,还用于根据通道注意力机制将所述预设PCNN模型的卷积层输出的单词结果向量的每一段做全局自适应池化,来提取每一段对应的局部全局信息,对每一段对应的局部全局信息计算通道注意力获得每一段的分段权重。
9.一种实体关系抽取设备,其特征在于,所述设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的实体关系抽取程序,所述实体关系抽取程序配置为实现如权利要求1至7中任一项所述的实体关系抽取方法的步骤。
10.一种存储介质,其特征在于,所述存储介质上存储有实体关系抽取程序,所述实体关系抽取程序被处理器执行时实现如权利要求1至7任一项所述的实体关系抽取方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110811529.1A CN113641767B (zh) | 2021-07-16 | 2021-07-16 | 实体关系抽取方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110811529.1A CN113641767B (zh) | 2021-07-16 | 2021-07-16 | 实体关系抽取方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113641767A CN113641767A (zh) | 2021-11-12 |
CN113641767B true CN113641767B (zh) | 2024-04-19 |
Family
ID=78417657
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110811529.1A Active CN113641767B (zh) | 2021-07-16 | 2021-07-16 | 实体关系抽取方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113641767B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114757179A (zh) * | 2022-04-13 | 2022-07-15 | 成都信息工程大学 | 一种实体关系联合抽取方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111078895A (zh) * | 2019-12-18 | 2020-04-28 | 江南大学 | 基于去噪卷积神经网络的远程监督实体关系抽取方法 |
CN112084778A (zh) * | 2020-08-04 | 2020-12-15 | 中南民族大学 | 基于新型关系注意力机制的实体关系抽取方法及设备 |
CN112579792A (zh) * | 2020-12-22 | 2021-03-30 | 东北大学 | 一种基于pgat和ftatt的远程监督关系抽取方法 |
CN112784573A (zh) * | 2021-01-25 | 2021-05-11 | 中南民族大学 | 文本情感内容分析方法、装置、设备及存储介质 |
CN112800774A (zh) * | 2021-01-15 | 2021-05-14 | 华南理工大学 | 基于注意力机制的实体关系抽取方法、装置、介质和设备 |
CN112883738A (zh) * | 2021-03-23 | 2021-06-01 | 西南交通大学 | 基于神经网络和自注意力机制的医学实体关系抽取方法 |
-
2021
- 2021-07-16 CN CN202110811529.1A patent/CN113641767B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111078895A (zh) * | 2019-12-18 | 2020-04-28 | 江南大学 | 基于去噪卷积神经网络的远程监督实体关系抽取方法 |
CN112084778A (zh) * | 2020-08-04 | 2020-12-15 | 中南民族大学 | 基于新型关系注意力机制的实体关系抽取方法及设备 |
CN112579792A (zh) * | 2020-12-22 | 2021-03-30 | 东北大学 | 一种基于pgat和ftatt的远程监督关系抽取方法 |
CN112800774A (zh) * | 2021-01-15 | 2021-05-14 | 华南理工大学 | 基于注意力机制的实体关系抽取方法、装置、介质和设备 |
CN112784573A (zh) * | 2021-01-25 | 2021-05-11 | 中南民族大学 | 文本情感内容分析方法、装置、设备及存储介质 |
CN112883738A (zh) * | 2021-03-23 | 2021-06-01 | 西南交通大学 | 基于神经网络和自注意力机制的医学实体关系抽取方法 |
Non-Patent Citations (2)
Title |
---|
基于多通道自注意力机制的电子病历实体关系抽取;宁尚明 等;计算机学报;20200515(第05期);全文 * |
基于新型关系注意力机制的实体关系抽取;毛养勤 等;中南民族大学学报( 自然科学版);20210615;第40卷(第3期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113641767A (zh) | 2021-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11194965B2 (en) | Keyword extraction method and apparatus, storage medium, and electronic apparatus | |
CN109871532B (zh) | 文本主题提取方法、装置及存储介质 | |
EP2866421B1 (en) | Method and apparatus for identifying a same user in multiple social networks | |
CN107491547A (zh) | 基于人工智能的搜索方法和装置 | |
CN110334179B (zh) | 问答处理方法、装置、计算机设备和存储介质 | |
JP6854748B2 (ja) | 情報提供装置、情報提供方法、およびプログラム | |
CN110390106B (zh) | 基于双向关联的语义消歧方法、装置、设备及存储介质 | |
CN112328909B (zh) | 信息推荐方法、装置、计算机设备及介质 | |
CN112955883A (zh) | 应用推荐方法、装置、服务器和计算机可读存储介质 | |
CN103577547B (zh) | 网页类型识别方法及装置 | |
CN113641767B (zh) | 实体关系抽取方法、装置、设备及存储介质 | |
CN116091113A (zh) | 营销模型数据处理方法、系统及计算机可读存储介质 | |
CN113435531B (zh) | 零样本图像分类方法、系统、电子设备及存储介质 | |
CN109710924B (zh) | 文本模型训练方法、文本识别方法、装置、设备及介质 | |
CN113343101A (zh) | 一种对象排序方法及系统 | |
CN114692889A (zh) | 用于机器学习算法的元特征训练模型 | |
CN110442674B (zh) | 标签传播的聚类方法、终端设备、存储介质及装置 | |
CN113569118A (zh) | 自媒体推送方法、装置、计算机设备及存储介质 | |
CN116680401A (zh) | 文档处理方法、文档处理装置、设备及存储介质 | |
CN116310994A (zh) | 一种视频片段提取方法、装置、电子设备及介质 | |
CN113722437B (zh) | 基于人工智能的用户标签识别方法、装置、设备及介质 | |
CN114821173A (zh) | 图像分类方法、装置、设备及存储介质 | |
CN114428838A (zh) | 内容召回方法、装置、计算机设备及存储介质 | |
CN109815490B (zh) | 文本分析方法、装置、设备及存储介质 | |
CN114186039A (zh) | 一种视觉问答方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |