CN116521899A - 一种基于改进的图神经网络的文档级关系抽取算法及系统 - Google Patents
一种基于改进的图神经网络的文档级关系抽取算法及系统 Download PDFInfo
- Publication number
- CN116521899A CN116521899A CN202310511544.3A CN202310511544A CN116521899A CN 116521899 A CN116521899 A CN 116521899A CN 202310511544 A CN202310511544 A CN 202310511544A CN 116521899 A CN116521899 A CN 116521899A
- Authority
- CN
- China
- Prior art keywords
- document
- neural network
- graph neural
- improved
- entity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 74
- 238000000605 extraction Methods 0.000 title claims abstract description 45
- 239000011159 matrix material Substances 0.000 claims abstract description 44
- 238000000034 method Methods 0.000 claims abstract description 18
- 239000013598 vector Substances 0.000 claims description 44
- 230000006870 function Effects 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 239000012633 leachable Substances 0.000 claims description 4
- 230000006872 improvement Effects 0.000 claims description 3
- 238000005065 mining Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 125000004122 cyclic group Chemical group 0.000 abstract description 3
- 230000000694 effects Effects 0.000 abstract description 2
- 238000010801 machine learning Methods 0.000 abstract description 2
- 238000013135 deep learning Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Machine Translation (AREA)
Abstract
本申请提出了一种基于改进的图神经网络的文档级关系抽取算法及系统,涉及机器学习、深度学习技术领域。该方法包括:通过预训练的BERT网络模型获取文档的上下层语义特征,进行文档全局语义提取。通过将改进的图神经网络与可学习的关联矩阵相结合构成图推理模块,通过深层次的图推理模块挖掘文档中的深层次语义信息,从而实现抽取文档中的实体与实体之间的关系类型,比传统的基于循环神经网络、卷积神经网络以及图神经网络在文档级的关系抽取任务中更能捕获文档的全局语义,并且获得更好的效果。
Description
技术领域
本申请涉及机器学习技术领域,具体而言,涉及一种基于改进的图神经网络的文档级关系抽取算法及系统。
背景技术
关系抽取是自然语言处理领域的一个重要分支,是众多科研工作者的研究热门方向,它为大规模知识图谱的构建的根基。近年来,一些科研工作者采用循环神经网络、卷积神经网络来实现句子层面的关系抽取。尽管在句子层面的关系抽取问题获得了不错的效果,但在文档级的关系抽取任务中性能却不理想。基于循环神经网络、卷积神经网络能够获取深层次的语义结构特征,但其对非结构化的图结构特征容易导致信息缺失,进而影响模型的性能。据众多科研工作者对大量文本数据进行分析,两实体之间所隐藏的关系类型往往不在同一个句子,它们有可能得通过多个句子,结合多个句子的语义信息才能推理出两者的关系类型。有个学者对维基百科中的文本数据进行分析和统计,据其分析表明维基百科里的文本数据有40.7%的关系类型需要跨越多个句子才能找到两实体之间的关系类型。
近年来,文档关系抽取面临巨大困难,科研工作者们提出的模型首先需要获取整个文档的全局信息,理清句子的条理,通过多个句子之间的因果关联去推出两实体间的关系类型。在整个关系抽取过程当中,两实体的关系类型己超出了句子层次的情况,模型需要对多个句子进行推理和分析。为了更好提取句子内部和跨句子间的关联信息,一些科研工作者尝试利用图神经网络捕获文档中的非结构化信息,通过将文档的每个单词示为一个图节点,用特定类型的边组成关联矩阵,利用图神经网络在非结构化语义提取的优势进行实体与实体之间的关系抽取,然而这类图神经网络随着模型的深入,其推理能力性能严重下滑,因此现有技术存在如下缺陷:
(1)基于循环神经网络、卷积神经网的一些模型算法型在句子层次的关系抽取任务中获得不错的效果,但在文档级关系抽取任务中由于忽略非结构化的语义特征,导致其在文档级关系抽取中语义缺失,进而导致性能下降。
(2)其于图神经网络的关系抽取算法能更好捕获文档的非结构化信息,但是随着模型算法的深入,其图推理的性能会下降。。
发明内容
本申请的目的在于提供一种基于改进的图神经网络的文档级关系抽取算法,其能够通过将改进图神经网络与可学习的关联矩阵相结合构成图推理模块,通过深层次的图推理模块挖掘文档中的深层次语义信息,从而实现抽取文档中的实体与实体之间的关系类型。
本申请的另一目的在于提供一种基于改进的图神经网络的文档级关系抽取系统,其能够运行一种基于改进的图神经网络的文档级关系抽取算法。
本申请的实施例是这样实现的:
第一方面,本申请实施例提供一种基于改进的图神经网络的文档级关系抽取算法,其包括通过预训练的BERT网络模型获取文档的上下层语义特征,进行文档全局语义提取;利用改进图神经网络与可学习的关联矩阵相结合进行关系推理,提取得到深层次的文档中每个实体的特征向量;通过提取到的特征向量抽取文档中的实体和关系类型。
在本申请的一些实施例中,上述通过预训练的BERT网络模型获取文档的上下层语义特征,进行文档全局语义提取包括:通过采用预训练的BERT模型提取输入文档的全局语义特征,将输入的文档映射成固定维度的特征向量。
在本申请的一些实施例中,上述利用改进图神经网络与可学习的关联矩阵相结合进行关系推理,提取得到深层次的文档中每个实体的特征向量包括:采用可学习的关联矩阵,通过学习训练的方式获得权重矩阵的各条边的权重矩阵。
在本申请的一些实施例中,上述还包括:将改进图神经网络结合学习到的权重矩阵,组成图推理模块,用于挖掘文档中深层次的语义信息。
在本申请的一些实施例中,上述改进图神经网络包括:改进图神经网络定义:
其中,符号δ表示sigmoid函数,符号ρ表示Relu函数,表示图神经网络输入的初始状态,hi表示经过BERT模块获得的每个单词所表示的特征向量,A表示可学习的关联矩阵,/>表示r门控可学习权重矩阵,/>表示Z门控可学习权重矩阵,wle表示z门控可学习权重矩阵,/>表示r门控可学习权重偏置,/>表示z门控可学习权重偏置,/>表示g门控可学习权重偏置,⊙表示点乘运算,/>表示r门控t时刻v节点隐状态向量表示,/>表示z门控t时刻v节点隐状态向量表示,/>表示g门控t时刻v节点隐状态向量表示,/>表示g门控t时刻v节点隐状态向量的逆矩阵表示,/>表示图神经网络u节点t-1时刻隐状态向量,/>表示g门控u节点t-1时刻隐状态向量。
在本申请的一些实施例中,上述还包括:通过改进图神经网络处理图和序列结构化数据,从而获得深层次的文档中每个实体的特征向量。
在本申请的一些实施例中,上述通过提取到的特征向量抽取文档中的实体和关系类型包括:通过采用双层线性变换层计算实体与实体之间所属的关系类型。
第二方面,本申请实施例提供一种基于改进的图神经网络的文档级关系抽取系统,其包括文档编码模块,用于通过预训练的BERT网络模型获取文档的上下层语义特征,进行文档全局语义提取;
文档推理模块,用于利用改进图神经网络与可学习的关联矩阵相结合进行关系推理,提取得到深层次的文档中每个实体的特征向量;
关系分类模块,用于通过提取到的特征向量抽取文档中的实体和关系类型。
第三方面,本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如一种基于改进的图神经网络的文档级关系抽取算法中任一项的方法。
相对于现有技术,本申请的实施例至少具有如下优点或有益效果:
通过改进图神经网络算法,使得在文档级关系抽取任务中能更好获取文档的全局语义,进而能够更好的挖掘文档中的实体与实体之间的关系,克服了由传统的基于循环神经网络、卷积神经网络以及图神经网文档级关系抽取在语义特征提取上的信息缺失。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的基于改进的图神经网络的文档级关系抽取模型框架示意图;
图2为本申请实施例提供的一种基于改进的图神经网络的文档级关系抽取系统模块示意图;
图3为本申请实施例提供的一种电子设备。
图标:101-存储器;102-处理器;103-通信接口。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
需要说明的是,术语“包括”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的各个实施例及实施例中的各个特征可以相互组合。
实施例1
请参阅图1,图1为本申请实施例提供的基于改进的图神经网络的文档级关系抽取模型框架示意图,其如下所示:
步骤S1.通过采用预训练的BERT模型提取输入文档的全局语义特征,将输入的文档映射成固定维度的特征向量H,其中hi表示每个文档里的单词所表示的特征向量。
在一些实施方式中,输入的可以是一篇文档(里面包含n个字),需要通过预训练好的BERT模型将文档里的每一个字进行向量化,此时己获取了文档中每个词的全局语义;
关系矩阵和改进的图神经网络相结合的关系,假如一篇文档里包含n个实体,那么就会有n*n的关联矩阵,它跟图神经网络相结合,为的是挖掘文档中的图结构特征语义。将经过图推理的实体特征向量经过关系分类模块即可获得两实体的关系类型。
在一些实施方式中,BERT模型不需要先训练,是直接采用目前别人己经预训练过的语言模型,然后根据我们实际关系抽取的任务训练出我们需要的模型参数。图像,图神经网络和关联矩阵相结合组成的图推模块,它是由多个图推理模块组成的,所以称为多级推理。
步骤S2.采用可学习的关联矩阵,通过学习训练的方式获得权重矩阵的各条边的权重矩阵W。
步骤S3.采用改进图神经网络,并结合步骤S2.学习到的权重矩阵,组成图推理模块,用来挖掘文档中深层次的语义信息,改进图神经网络可定义为:
改进图神经网络能够与可学习的关联矩阵相结合进行深度图推理,其中,符号δ表示sigmoid函数,符号ρ表示Relu函数,表示图神经网络输入的初始状态,hi表示经过BERT模块获得的每个单词所表示的特征向量,A表示可学习的关联矩阵,/>表示r门控可学习权重矩阵,/>表示Z门控可学习权重矩阵,wle表示z门控可学习权重矩阵,/>表示r门控可学习权重偏置,/>表示z门控可学习权重偏置,/>表示g门控可学习权重偏置,⊙表示点乘运算,/>表示r门控t时刻v节点隐状态向量表示,/>表示z门控t时刻v节点隐状态向量表示,/>表示g门控t时刻v节点隐状态向量表示,/>表示g门控t时刻v节点隐状态向量的逆矩阵表示,/>表示图神经网络u节点t-1时刻隐状态向量,/>表示g门控u节点t-1时刻隐状态向量。
步骤S4.通过改进图神经网络来处理图和序列结构化数据,从而获得深层次的文档中每个实体的特征向量ei。
ei=GGNNs(A,hi)
其中,A表示可学习的关联矩阵,GGNNs表示我们改进图神经网络。
步骤S5.通过采用双层线性变换层计算每一个实体与实体之间所属的关系类型。
其中,We为可学习的权重矩阵,be为偏置,δ表示sigmoid函数,等式右边的下标r表示关系类型,ei和ei分别表示实体i和实体j的向量表示。
实施例2
请参阅图2,图2为本申请实施例提供的一种基于改进的图神经网络的文档级关系抽取系统模块示意图,其如下所示:
文档编码模块,用于通过预训练的BERT网络模型获取文档的上下层语义特征,进行文档全局语义提取;
文档推理模块,用于利用改进图神经网络与可学习的关联矩阵相结合进行关系推理,提取得到深层次的文档中每个实体的特征向量;
关系分类模块,用于通过提取到的特征向量抽取文档中的实体和关系类型。
如图3所示,本申请实施例提供一种电子设备,其包括存储器101,用于存储一个或多个程序;处理器102。当一个或多个程序被处理器102执行时,实现如上述第一方面中任一项的方法。
还包括通信接口103,该存储器101、处理器102和通信接口103相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。存储器101可用于存储软件程序及模块,处理器102通过执行存储在存储器101内的软件程序及模块,从而执行各种功能应用以及数据处理。该通信接口103可用于与其他节点设备进行信令或数据的通信。
其中,存储器101可以是但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-OnlyMemory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。
处理器102可以是一种集成电路芯片,具有信号处理能力。该处理器102可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(NetworkProcessor,NP)等;还可以是数字信号处理器(Digital Signal Processing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本申请所提供的实施例中,应该理解到,所揭露的方法及系统,也可以通过其它的方式实现。以上所描述的方法及系统实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的方法及系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
另一方面,本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器102执行时实现如上述第一方面中任一项的方法。所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器101(ROM,Read-Only Memory)、随机存取存储器101(RAM,RandomAccess Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
综上所述,本申请实施例提供的一种基于改进的图神经网络的文档级关系抽取算法及系统,通过改进图神经网络算法,使得在文档级关系抽取任务中能更好获取文档的全局语义,进而能够更好的挖掘文档中的实体与实体之间的关系,克服了由传统的基于循环神经网络、卷积神经网络以及图神经网文档级关系抽取在语义特征提取上的信息缺失。
以上仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
对于本领域技术人员而言,显然本申请不限于上述示范性实施例的细节,而且在不背离本申请的精神或基本特征的情况下,能够以其它的具体形式实现本申请。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本申请的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本申请内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
Claims (9)
1.一种基于改进的图神经网络的文档级关系抽取算法,其特征在于,包括:
通过预训练的BERT网络模型获取文档的上下层语义特征,进行文档全局语义提取;
利用改进图神经网络与可学习的关联矩阵相结合进行关系推理,提取得到深层次的文档中每个实体的特征向量;
通过提取到的特征向量抽取文档中的实体和关系类型。
2.如权利要求1所述的一种基于改进的图神经网络的文档级关系抽取算法,其特征在于,所述通过预训练的BERT网络模型获取文档的上下层语义特征,进行文档全局语义提取包括:
通过采用预训练的BERT模型提取输入文档的全局语义特征,将输入的文档映射成固定维度的特征向量。
3.如权利要求1所述的一种基于改进的图神经网络的文档级关系抽取算法,其特征在于,所述利用改进图神经网络与可学习的关联矩阵相结合进行关系推理,提取得到深层次的文档中每个实体的特征向量包括:
采用可学习的关联矩阵,通过学习训练的方式获得权重矩阵的各条边的权重矩阵。
4.如权利要求3所述的一种基于改进的图神经网络的文档级关系抽取算法,其特征在于,还包括:
将改进图神经网络结合学习到的权重矩阵,组成图推理模块,用于挖掘文档中深层次的语义信息。
5.如权利要求4所述的一种基于改进的图神经网络的文档级关系抽取算法,其特征在于,所述改进图神经网络包括:
改进图神经网络定义:
其中,符号δ表示sigmoid函数,符号ρ表示Relu函数,表示图神经网络输入的初始状态,hi表示经过BERT模块获得的每个单词所表示的特征向量,A表示可学习的关联矩阵,/>表示r门控可学习权重矩阵,/>表示Z门控可学习权重矩阵,wle表示z门控可学习权重矩阵,/>表示r门控可学习权重偏置,/>表示z门控可学习权重偏置,/>表示g门控可学习权重偏置,⊙表示点乘运算,/>表示r门控t时刻v节点隐状态向量表示,/>表示z门控t时刻v节点隐状态向量表示,/>表示g门控t时刻v节点隐状态向量表示,/>表示g门控t时刻v节点隐状态向量的逆矩阵表示,/>表示图神经网络u节点t-1时刻隐状态向量,/>表示g门控u节点t-1时刻隐状态向量。
6.如权利要求5所述的一种基于改进的图神经网络的文档级关系抽取算法,其特征在于,还包括:
通过改进图神经网络处理图和序列结构化数据,从而获得深层次的文档中每个实体的特征向量。
7.如权利要求6所述的一种基于改进的图神经网络的文档级关系抽取算法,其特征在于,所述通过提取到的特征向量抽取文档中的实体和关系类型包括:
通过采用双层线性变换层计算实体与实体之间所属的关系类型。
8.一种基于改进的图神经网络的文档级关系抽取系统,其特征在于,包括:
文档编码模块,用于通过预训练的BERT网络模型获取文档的上下层语义特征,进行文档全局语义提取;
文档推理模块,用于利用改进图神经网络与可学习的关联矩阵相结合进行关系推理,提取得到深层次的文档中每个实体的特征向量;
关系分类模块,用于通过提取到的特征向量抽取文档中的实体和关系类型。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1-7中任一项所述的算法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310511544.3A CN116521899B (zh) | 2023-05-08 | 2023-05-08 | 一种基于改进的图神经网络的文档级关系抽取方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310511544.3A CN116521899B (zh) | 2023-05-08 | 2023-05-08 | 一种基于改进的图神经网络的文档级关系抽取方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116521899A true CN116521899A (zh) | 2023-08-01 |
CN116521899B CN116521899B (zh) | 2024-03-26 |
Family
ID=87393832
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310511544.3A Active CN116521899B (zh) | 2023-05-08 | 2023-05-08 | 一种基于改进的图神经网络的文档级关系抽取方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116521899B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117496542A (zh) * | 2023-12-29 | 2024-02-02 | 恒生电子股份有限公司 | 文档信息提取方法、装置、电子设备和存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113297838A (zh) * | 2021-05-21 | 2021-08-24 | 华中科技大学鄂州工业技术研究院 | 一种基于图神经网络的关系抽取方法 |
CN113919441A (zh) * | 2021-11-03 | 2022-01-11 | 北京工业大学 | 一种基于超图变换网络的分类方法 |
US20220121822A1 (en) * | 2020-10-21 | 2022-04-21 | Beijing Wodong Tianjun Information Technology Co., Ltd. | System and method for relation extraction with adaptive thresholding and localized context pooling |
CN114519106A (zh) * | 2022-01-10 | 2022-05-20 | 山东师范大学 | 一种基于图神经网络的文档级实体关系抽取方法及系统 |
CN114816997A (zh) * | 2022-03-29 | 2022-07-29 | 湖北大学 | 一种基于图神经网络与双向gru特征抽取的缺陷预测方法 |
CN114942977A (zh) * | 2022-05-30 | 2022-08-26 | 北京邮电大学 | 基于支持句预测的多任务文档级关系抽取方法及装置 |
CN115204171A (zh) * | 2022-08-04 | 2022-10-18 | 齐鲁工业大学 | 基于超图神经网络的文档级事件抽取方法及系统 |
EP4078597A1 (en) * | 2020-04-01 | 2022-10-26 | NEC Laboratories Europe GmbH | Method and system for learning novel relationships among various biological entities |
CN115358234A (zh) * | 2022-07-14 | 2022-11-18 | 北京理工大学 | 基于图卷积网络与关系证据互指导的篇章关系抽取方法 |
CN115693918A (zh) * | 2022-09-07 | 2023-02-03 | 浙江心友机电设备安装有限公司 | 一种建筑综合智能用电系统及其方法 |
-
2023
- 2023-05-08 CN CN202310511544.3A patent/CN116521899B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4078597A1 (en) * | 2020-04-01 | 2022-10-26 | NEC Laboratories Europe GmbH | Method and system for learning novel relationships among various biological entities |
US20220121822A1 (en) * | 2020-10-21 | 2022-04-21 | Beijing Wodong Tianjun Information Technology Co., Ltd. | System and method for relation extraction with adaptive thresholding and localized context pooling |
CN113297838A (zh) * | 2021-05-21 | 2021-08-24 | 华中科技大学鄂州工业技术研究院 | 一种基于图神经网络的关系抽取方法 |
CN113919441A (zh) * | 2021-11-03 | 2022-01-11 | 北京工业大学 | 一种基于超图变换网络的分类方法 |
CN114519106A (zh) * | 2022-01-10 | 2022-05-20 | 山东师范大学 | 一种基于图神经网络的文档级实体关系抽取方法及系统 |
CN114816997A (zh) * | 2022-03-29 | 2022-07-29 | 湖北大学 | 一种基于图神经网络与双向gru特征抽取的缺陷预测方法 |
CN114942977A (zh) * | 2022-05-30 | 2022-08-26 | 北京邮电大学 | 基于支持句预测的多任务文档级关系抽取方法及装置 |
CN115358234A (zh) * | 2022-07-14 | 2022-11-18 | 北京理工大学 | 基于图卷积网络与关系证据互指导的篇章关系抽取方法 |
CN115204171A (zh) * | 2022-08-04 | 2022-10-18 | 齐鲁工业大学 | 基于超图神经网络的文档级事件抽取方法及系统 |
CN115693918A (zh) * | 2022-09-07 | 2023-02-03 | 浙江心友机电设备安装有限公司 | 一种建筑综合智能用电系统及其方法 |
Non-Patent Citations (3)
Title |
---|
JUNTENG JIA ET AL.: "Residual Correlation in Graph Neural Network Regression", 《PROCEEDINGS OF THE 26TH ACM SIGKDD INTERNATINAL CONFERENCE ON KNOWLEDGE DISCOVERY & DATA MINING》, 20 August 2020 (2020-08-20), pages 588 - 598, XP058987403, DOI: 10.1145/3394486.3403101 * |
杜博 等: "基于几何深度学习的知识图谱关键技术研究进展", 《航空兵器》, no. 03, 31 March 2020 (2020-03-31), pages 5 - 14 * |
齐金山 等: "大规模复杂信息网络表示学习:概念、方法与挑战", 《计算机学报》, no. 10, 20 December 2017 (2017-12-20), pages 222 - 248 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117496542A (zh) * | 2023-12-29 | 2024-02-02 | 恒生电子股份有限公司 | 文档信息提取方法、装置、电子设备和存储介质 |
CN117496542B (zh) * | 2023-12-29 | 2024-03-15 | 恒生电子股份有限公司 | 文档信息提取方法、装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN116521899B (zh) | 2024-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Cui et al. | Edge-enhanced graph convolution networks for event detection with syntactic relation | |
CN111291181B (zh) | 经由主题稀疏自编码器和实体嵌入的用于输入分类的表示学习 | |
CN110059262B (zh) | 一种基于混合神经网络的项目推荐模型的构建方法及装置、项目推荐方法 | |
US11263250B2 (en) | Method and system for analyzing entities | |
CN110765775B (zh) | 一种融合语义和标签差异的命名实体识别领域自适应的方法 | |
CN109344404B (zh) | 情境感知的双重注意力自然语言推理方法 | |
CN112084331A (zh) | 文本处理、模型训练方法、装置、计算机设备和存储介质 | |
CN113596007B (zh) | 一种基于深度学习的漏洞攻击检测方法和设备 | |
CN110750640A (zh) | 基于神经网络模型的文本数据分类方法、装置及存储介质 | |
CN111475622A (zh) | 一种文本分类方法、装置、终端及存储介质 | |
CN108664512B (zh) | 文本对象分类方法及装置 | |
CN108108354A (zh) | 一种基于深度学习的微博用户性别预测方法 | |
CN116521899B (zh) | 一种基于改进的图神经网络的文档级关系抽取方法及系统 | |
CN113553510B (zh) | 一种文本信息推荐方法、装置及可读介质 | |
Thapa et al. | Spamhd: Memory-efficient text spam detection using brain-inspired hyperdimensional computing | |
CN114358203A (zh) | 图像描述语句生成模块的训练方法及装置、电子设备 | |
CN113761868A (zh) | 文本处理方法、装置、电子设备及可读存储介质 | |
CN113887213A (zh) | 一种基于多层图注意力网络的事件检测方法及装置 | |
CN115169342A (zh) | 文本相似度计算方法、装置、电子设备及存储介质 | |
CN111859980A (zh) | 讽刺类型的文本识别方法、装置、设备及计算机可读介质 | |
CN111241843B (zh) | 基于复合神经网络的语义关系推断系统和方法 | |
CN114818724A (zh) | 一种社交媒体灾害有效信息检测模型的构建方法 | |
CN109117471B (zh) | 一种词语相关度的计算方法及终端 | |
CN111859979A (zh) | 讽刺文本协同识别方法、装置、设备及计算机可读介质 | |
CN116432705A (zh) | 文本生成模型构建、文本生成方法和装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |