CN113535973A - 基于知识映射的事件关系抽取、语篇关系分析方法及装置 - Google Patents
基于知识映射的事件关系抽取、语篇关系分析方法及装置 Download PDFInfo
- Publication number
- CN113535973A CN113535973A CN202110632197.0A CN202110632197A CN113535973A CN 113535973 A CN113535973 A CN 113535973A CN 202110632197 A CN202110632197 A CN 202110632197A CN 113535973 A CN113535973 A CN 113535973A
- Authority
- CN
- China
- Prior art keywords
- representation
- event
- relation
- cls
- semantic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Machine Translation (AREA)
Abstract
本发明公开一种基于知识映射的事件关系抽取、语篇关系分析方法及装置,包括基于语言模型,挖掘事件文本中存在相似的词法与句法结构,得到特殊字词[CLS]的嵌入表示h[CLS];基于变分自编码的语义表示编码器,获取事件文本中可类推的语义关系表示hz;根据嵌入表示h[CLS]与语义关系表示hz进行粗粒度关系分类,并获得粗粒度类别嵌入表示利用嵌入表示h[CLS]、语义关系表示hz及粗粒度类别嵌入表示对事件文本中事件对的关系类别进行分类,得到事件关系抽取结果。本发明降低训练事件关系抽取数据要求,发现大量有价值的隐式事件关系,提升事件抽取及语篇分析的准确率,丰富了大量有价值的隐式事件关系后的事件知识图谱,能够更有效地提升下游自然语言理解任务性能。
Description
技术领域
本发明涉及一种事件关系抽取方法,特别是涉及一种基于知识映射的事件关系抽取、语篇关系分析方法及装置,属于自然语言处理技术领域。
背景技术
以事件为核心的知识图谱结构化地存储事件以及事件之间的关系,是机器智能理解的关键技术,并广泛应用在诸如自动问答,阅读理解,常识知识获取等下游任务中。
近年来,半自动构建的以事件为核心的知识图谱受到了研究人员的广泛关注。这类方法能够在少量或者没有人为干预的情况下从海量的自然语言文本中构建出大规模的事件知识图谱。通常,知识图谱中的每一个节点表示一个结构化的事件,每一条连边表示一个事件对存在的关系,并且事件关系的抽取十分依赖显式的连接词。例如,如图1所示,事件E2:“PER orders two hamburgers”与事件E3:“PER is so hungry”之间由于存在连接词“because”才能抽取出事件关系Reason。
然而,基于连接词的事件关系抽取方法面临着覆盖率过低的问题。大量有价值的事件关系因为没有显式的连接词而没有被抽取。本发明将其称为“隐式事件关系”。如图1所示,事件E1:“PER goes to the restaurant”与事件E3:“PER is so hungry”之间的隐式事件关系Reason由于缺少显式连接词而被遗漏。同时,由于高质量的事件关系抽取数据的缺少,很难利用监督学习从零开始训练一个有效的事件关系分类器。
发明内容
为解决上述问题,本发明公开了一种基于知识映射的事件关系抽取、语篇关系分析方法及装置,利用字词表示级别的知识映射模块、语义表示级别的知识映射模块及粗粒度分类级别的知识映射模块,发现大量有价值的隐式事件关系,有效地提升下游自然语言理解任务性能。
为达到上述目的,本发明采用具体技术方案是:
一种基于知识映射的事件关系抽取方法,其步骤包括:
1)基于语言模型,挖掘事件文本中存在相似的词法与句法结构,得到特殊字词[CLS]的嵌入表示h[CLS];
2)基于变分自编码的语义表示编码器,获取事件文本中可类推的语义关系表示hz;
进一步地,所述语言模型包括:BERT模型。
进一步地,通过以下步骤得到事件对中特殊字词[CLS]的嵌入表示h[CLS]:
2)对序列中的每一自然语言字符e,将获取的词向量、分割向量及位置向量拼接在一起,得到各字词的初始字词表示向量;
3)利用各字词的初始字词表示向量,获取序列表示向量;
4)将序列表示向量输入语言模型,得到特殊字词[CLS]的嵌入表示h[CLS]。
进一步地,通过以下步骤获取事件文本中可类推的语义关系表示hz:
1)通过独立的关系嵌入表示网络获得输出端的关系嵌入表示hY;
2)通过一个非线性的变换层,将嵌入表示h[CLS]与关系嵌入表示hY映射到一个公共的语义表示空间,得到在同一空间的语义表示h′z=tanh(Wz[h[CLS];hY]+bz),其中W为可学习的参数矩阵,b为可学习的偏置项;
3)通过线性回归方法,分别得到第一高斯语义表示参数μ=Wμh′z+bμ与第二高斯语义表示参数log(σ2)=Wσh′z+bσ;
进一步地,粗粒度关系分类的标准包括:时序关系、应变关系、比较关系和阐述关系。
1)获取粗粒度分类结果Yc;
进一步地,利用一分类器,对事件文本中事件对的关系类别进行分类,其中训练分类器的目标函数L(θ)=α(L(θ;Y)+λKL(P||Q))+(1-α(L(θ;Yc)),λ与α分别是两个超参数,Yc为粗粒度关系分类,KL(P||Q)是语义表示编码器中的KL距离,L(θ;Yc)=logp(Yc|h[CLS],hz),p为先验模型。
一种基于知识映射的语篇关系分析方法,其步骤包括:
1)基于语言模型,挖掘语篇文本中存在相似的词法与句法结构,得到特殊字词[CLS]的嵌入表示h[CLS];
2)基于变分自编码的语义表示编码器,获取语篇文本中可类推的语义关系表示hz;
一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行上述所述的方法。
一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机以执行上述所述的方法。
与现有技术相比,本发明的积极效果:
1)通过多层级从语篇到事件的知识映射,能够大幅度降低训练事件关系抽取数据要求,发现大量有价值的隐式事件关系,相较于从零开始训练的模型以及简单的迁移学习等框架有稳定的准确率提升;
2)丰富了大量有价值的隐式事件关系后的事件知识图谱,能够更有效地提升下游自然语言理解任务性能。
附图说明
图1为从语篇到事件的知识映射范式方法示意图。
图2为变分语义编码器有向图结构。
图3为模型概览图。
具体实施方式
为了使本技术领域的人员更好地理解本发明实施例中的技术方案,并使本发明的目的、特征和优点能够更加明显易懂,下面结合附图对本发明中技术核心作进一步详细的说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
如图1所示,为了克服基于连接词的事件关系抽取方法低覆盖率的不足以及利用监督学习从零开始训练一个事件关系分类器遇到的高质量人工标注数据瓶颈,本发明提供了一种基于知识映射的事件关系抽取方法。其主要利用语篇和事件之间存在的多层级人类语言学关联,内容包括:(一)字词表示级别的知识映射模块;(二)语义表示级别的知识映射模块;(三)粗粒度分类级别的知识映射模块。字词表示级别的知识映射模块充分挖掘了语篇文本和事件文本存在相似的词法和句法结构。语义表示级别的知识映射模块充分建模了语篇语义和事件语义蕴含可类推的语义关系。粗粒度分类级别的知识映射模块充分利用了语篇关系和事件关系共享相同的粗粒度分类标准。通过上述多层级从语篇到事件的知识映射范式,本发明能够大幅度降低训练事件关系抽取数据要求,发现大量有价值的隐式事件关系,相较于从零开始训练的模型以及简单的迁移学习等框架有稳定的准确率提升,并更有效地提升下游自然语言理解任务性能。
本发明所采用的技术方案概述如下:
一种基于知识映射的事件关系抽取方法,其关键步骤包括:
关键技术
1)字词表示级别的知识映射模块,通过共享基于预训练模型的字词表示编码器,充分挖掘了语篇文本和事件文本存在相似的词法和句法结构,为事件关系抽取提供更具有泛化性的字词表示信息;
2))语义表示级别的知识映射模块,通过共享基于变分语义表示编码器,充分建模了语篇语义和事件语义蕴含可类推的语义关系,为事件关系抽取提供更精确的语义表示信息;
3)粗粒度分类级别的知识映射模块,通过共享基于粗粒度类别解码器,充分利用了语篇关系和事件关系共享相同的粗粒度分类标准,为事件关系抽取提供更可信的粗粒度类别表示信息;
4)基于上述三个不同层级的知识映射模块,获得更具有泛化性的字词表示信息,更精确的语义表示信息和更可信的粗粒度类别表示信息,使用事件关系类别分类器对事件对关系类别分类,从而大幅度降低训练事件关系抽取数据要求。
本发明涉及以下所述的关键要素:
一)核心技术
1.字词表示级别的知识映射模块
最近相关工作展示出相似的自然语言任务文本具有相似的词法和句法结构因此应当具有相似的字词表示。因此,字词表示级别的知识映射模块共享语篇分析以及事件关系抽取的基于预训练模型的字词表示编码器参数。通过多任务学习的框架,字词表示编码器在接收更多的监督信号的条件下能够更加有效地编码出具有泛化性的字词表示信息。
具体地,给定一个事件关系对<E1,E2>,本发明首先将其序列化地表示为:
其中,[CLS]以及[SEP]是两个特别的字符分别是整个事件关系对的开始标记和事件关系对中每一个事件的结束标记,e则是事件关系对中出现的自然语言字符。对序列中的每个字词,本发明将其对应的词向量,分割向量以及位置向量拼接在一起作为最终初始的字词表示向量。然后,将整个事件对序列输入基于预训练语言模型BERT的字词表示编码器,通过多层编码器Transformer的更新。最终,本发明获取字词表示编码器的顶层特殊字符[CLS]对应的隐藏层向量表示作为整个事件对的字词级别表示:
如图3所示,通过映射字词级别的语篇知识到事件,本发明共享相同的基于预训练语言模型BERT的字词表示编码器。在优化阶段,字词表示编码器参数能够同时受益于事件关系抽取数据和语篇关系分析数据带来的监督信号。
2.语义表示级别的知识映射模块
由于事件关系和语篇关系分析都需要准确地表示输入对地深层次语义表示,浅层地字词级别表示还远远不能满足该要求。基于预训练模型BERT的字词级别表示往往有各向异性的缺点,无法建模连续地语义空间。
为了解决这个缺陷,本发明引入了基于变分自编码的语义表示编码器。变分语义表示编码器将各项异性的字词级别表示投影到连续光滑的高斯分布空间。并且,本发明通过共享事件关系和语篇关系任务的语义表示编码器参数,以充分建模语篇语义和事件语义蕴含可类推的语义关系。
具体地,如图2所示,变分语义编码器是由生成模型P以及变分模型Q组成的有向图,并通过自编码器训练方法进行参数训练。本发明假设语义表示hz服从高斯分布其中μ和σ2分别是高斯分布的均值和方差。基于该假设,原本事件关系/语篇关系的条件概率能够表达为:
后验近似为q(hz|h[CLS],hY),其中h[CLS]根据不同的任务(事件关系抽取或者语篇关系分析)可以是或者为特殊字词[CLS]对应的嵌入表示,hY可以是或者为关系的嵌入表示。具体地,本发明首先通过共享的基于预训练语言模型BERT获得输入端的嵌入表示h[CLS(同步骤一)和通过独立的关系嵌入表示网络获得输出端的关系嵌入表示hY。其次,本发明再通过一个非线性的变换层将上述字词级别表示与关系嵌入表示映射到一个公共的语义表示空间以获得在同一空间的语义表示h′z:
h′z=tanh(Wz[h[CLS];hY]+bz)
再通过线性回归方法获得第一高斯语义表示参数μ和第二高斯语义表示参数log(σ2):
μ=Wμh′z+bμ,log(σ2)=Wσh′z+bσ
其中,W和b分别是可学习的参数矩阵和偏置项。最后,本发明通过重参数的技巧获得最终的语义表示:
hz=μ+σ⊙∈
先验模型p(hz|h[CLS])和后验近似q(hz|h[CLS],hY)拥有相同的神经网络结构,除了hY的缺少。并且这两个模型参数是独立于彼此的。
在测试阶段,由于无法直接获得hY,本发明直接平均先验模型p(hz|h[CLS])以获得语义表示hz。在训练阶段,本发明通过最小化生成模型P与变分模型Q之间的Kullback-Leibler距离KL(P||Q)来拉近这两个模型之间的表示距离:
KL(q(hz|h[CLS],hY)||p(hz|h[CLS]))
如图3所示,通过映射语义级别的语篇知识到事件,本发明共享相同的基于变分自编码器的语义表示编码器。在优化阶段,变分语义编码器能够同时受益于事件关系抽取数据和语篇关系分析数据带来的监督信号与格外加入的KL距离约束。
3.粗粒度分类级别的知识映射模块
字词级别的知识映射模块以及语义级别的知识映射模块很好地覆盖了输入端的相关知识。然而,本发明发现,事件关系抽取与语篇关系分析在输出端共享相同的粗粒度分类标准:Temporal(时序关系),Contingency(应变关系),Comparison(比较关系)和Expansion(阐述关系)。因此本发明在输出端引入从粗粒度到细粒度的框架拉近事件和语篇异构的细粒度类别距离。具体的,本发明根据字词级别的表示h[CLS]与深度语义表示hz先进行粗粒度的关系分类:
Yc=ClassifierCoarse(h[CLS],hz)
其中,Yc是粗粒度的分类结果,属于{Temporal(时序关系),Contingency(应变关系),Comparison(比较关系),Expansion(阐述关系)}中的其中一个。其次,本发明再通过粗粒度关系嵌入网络获得粗粒度类别嵌入表示具体的,粗粒度关系嵌入网络接受一个具体的关系,通过一个映射矩阵得到该关系对应的稠密向量表示。
如图3所示,通过映射粗粒度分类级别的语篇知识到事件,本发明共享相同的粗粒度关系分类器。在优化阶段,粗粒度关系分类器能够同时受益于事件关系抽取数据和语篇关系分析数据带来的监督信号。
4.基于上述三个层次知识映射的事件关系抽取模块
基于上述三个不同层级的知识映射模块,获得更具有泛化性的字词表示信息,更精确的语义表示信息和更可信的粗粒度类别表示信息,使用事件关系类别分类器对事件对关系类别分类。最终目标函数如下:
L(θ)=α(L(θ;Y)+λKL(P||Q))+(1-α(L(θ;Yc))
其中,Y根据不同的任务(事件关系抽取或者语篇关系分析)可以是Ye(代表事件关系)或者Yd(代表语篇关系),λ和α分别是两个超参数,KL(P||Q)是语义编码器中的KL距离,L(θ;Y)和L(θ;Yc)分别是细粒度的关系抽取目标与粗粒度的关系抽取目标:
L(θ;Yc)=log p(Yc|h[CLS],hz)
值得注意的是,整个模型中只有基于预训练语言模型的字词表示编码器,基于变分自编码器的语义表示编码器和粗粒度级别分类器的参数是共享的,细粒度级别分类器参数以及其他参数是独立的。
以抽取事件E1:“PER goes to the restaurant”与事件E3:“PER is so hungry”之间的隐式事件关系Reason为例。
场景:
训练语料:
事件关系抽取训练例1:<“PER orders two hamburgers”;“PER is so hungry”>的细粒度关系标记为“Reason”,粗粒度标记为“Contingency”。
语篇关系分析训练例1:<“Tom orders two hamburgers”;“Tom is so hungry”>的细粒度关系标记为“Reason”,粗粒度标记为“Cause”。
测试语料:
测试例1:<“PER goes to the restaurant”;“PER is so hungry”>。
实施:
(一)基于训练语料,使用神经网络模型构建事件关系抽取分类器。在本方法中,神经网络模型基于字词表示级别的知识映射模块,语义表示级别的知识映射模块,粗粒度分类级别的知识映射模块以及最终的事件关系分类器。
(二)基于神经网络模型,判定测试实例中每个事件对的粗粒度关系与细粒度关系。例如测试例1,模型将<“PER goes to the restaurant”;“PER is so hungry”>细粒度关系标记为“Reason”,粗粒度标记为“Contingency”。在本例中,这是由于,之前在模型训练中,模型从事件关系抽取训练实例1和语篇关系分析训练实例1中学习到了更具有泛化性的字词表示信息,更精确的语义表示信息和更可信的粗粒度类别表示信息。从而对测试例1做出正确的判断。
实验数据
与现有的技术相比,本发明在公开的数据ASER和PDTB2.0上展现出充足的进步性。其中,ASER是当前公开的权威事件知识图谱用于评价事件关系抽取性能,PDTB2.0是当前公开的权威语篇关系数据用于评价语篇关系分析性能。具体数据包括:表1中的本发明与现有技术在事件关系抽取上的表现对比和表2中本发明与现有技术在语篇关系分析上的表现对比,具体如下:
表1
方法 | 准确率 |
基于预训练语言模型的抽取技术 | 50.91 |
与本发明同架构但没有引入语篇知识的抽取技术 | 52.86 |
本发明 | 54.09 |
表2
其中,F1分数是指关系抽取精确率和召回率的调和平均值,用于综合衡量系统的精确性和召回性。
以上所述实施例仅表达了本发明的实施方式,其描述较为具体,但并不能因此理解为对本发明范围的限制。应当指出,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明的保护范围应当以所附权利要求为准。
Claims (10)
2.如权利要求1所述的方法,其特征在于,所述语言模型包括:BERT模型。
4.如权利要求1所述的方法,其特征在于,通过以下步骤获取事件文本中可类推的语义关系表示hz:
1)通过独立的关系嵌入表示网络获得输出端的关系嵌入表示hY;
2)通过一个非线性的变换层,将嵌入表示h[CLS]与关系嵌入表示hY映射到一个公共的语义表示空间,得到在同一空间的语义表示h′z=tanh(Wz[h[CLS];hY]+bz),其中W为可学习的参数矩阵,b为可学习的偏置项;
3)通过线性回归方法,分别得到第一高斯语义表示参数μ=Wμh′z+bμ与第二高斯语义表示参数log(σ2)=Wσh′z+bσ;
5.如权利要求1所述的方法,其特征在于,粗粒度关系分类的标准包括:时序关系、应变关系、比较关系和阐述关系。
9.一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行权利要求1-8中任一所述方法。
10.一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行如权利要求1-8中任一所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110632197.0A CN113535973B (zh) | 2021-06-07 | 2021-06-07 | 基于知识映射的事件关系抽取、语篇关系分析方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110632197.0A CN113535973B (zh) | 2021-06-07 | 2021-06-07 | 基于知识映射的事件关系抽取、语篇关系分析方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113535973A true CN113535973A (zh) | 2021-10-22 |
CN113535973B CN113535973B (zh) | 2023-06-23 |
Family
ID=78124626
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110632197.0A Active CN113535973B (zh) | 2021-06-07 | 2021-06-07 | 基于知识映射的事件关系抽取、语篇关系分析方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113535973B (zh) |
Citations (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100191748A1 (en) * | 2008-09-15 | 2010-07-29 | Kingsley Martin | Method and System for Creating a Data Profile Engine, Tool Creation Engines and Product Interfaces for Identifying and Analyzing Files and Sections of Files |
US20120197631A1 (en) * | 2011-02-01 | 2012-08-02 | Accenture Global Services Limited | System for Identifying Textual Relationships |
WO2015003143A2 (en) * | 2013-07-03 | 2015-01-08 | Thomson Reuters Global Resources | Method and system for simplifying implicit rhetorical relation prediction in large scale annotated corpus |
US20150220539A1 (en) * | 2014-01-31 | 2015-08-06 | Global Security Information Analysts, LLC | Document relationship analysis system |
CN109344244A (zh) * | 2018-10-29 | 2019-02-15 | 山东大学 | 一种融合区分度信息的神经网络关系分类方法及其实现系统 |
CN109885621A (zh) * | 2019-01-07 | 2019-06-14 | 北京科技大学 | 一种数据存储实体关系图提取方法 |
CN110059320A (zh) * | 2019-04-23 | 2019-07-26 | 腾讯科技(深圳)有限公司 | 实体关系抽取方法、装置、计算机设备和存储介质 |
US20190236085A1 (en) * | 2018-01-30 | 2019-08-01 | Oracle International Corporation | Building dialogue structure by using communicative discourse trees |
CN110188202A (zh) * | 2019-06-06 | 2019-08-30 | 北京百度网讯科技有限公司 | 语义关系识别模型的训练方法、装置及终端 |
WO2019174422A1 (zh) * | 2018-03-16 | 2019-09-19 | 北京国双科技有限公司 | 实体关联关系的分析方法及相关装置 |
EP3660699A1 (en) * | 2018-11-29 | 2020-06-03 | Tata Consultancy Services Limited | Method and system to extract domain concepts to create domain dictionaries and ontologies |
CN111274394A (zh) * | 2020-01-16 | 2020-06-12 | 重庆邮电大学 | 一种实体关系的抽取方法、装置、设备及存储介质 |
CN111309919A (zh) * | 2020-03-23 | 2020-06-19 | 智者四海(北京)技术有限公司 | 文本分类模型的系统及其训练方法 |
CN111428525A (zh) * | 2020-06-15 | 2020-07-17 | 华东交通大学 | 隐式篇章关系识别方法、系统及可读存储介质 |
CN111475617A (zh) * | 2020-03-30 | 2020-07-31 | 招商局金融科技有限公司 | 事件主体抽取方法、装置及存储介质 |
CN111563164A (zh) * | 2020-05-07 | 2020-08-21 | 成都信息工程大学 | 一种基于图神经网络的特定目标情感分类方法 |
WO2020228376A1 (zh) * | 2019-05-16 | 2020-11-19 | 华为技术有限公司 | 文本处理方法、模型训练方法和装置 |
CN112084790A (zh) * | 2020-09-24 | 2020-12-15 | 中国民航大学 | 一种基于预训练卷积神经网络的关系抽取方法及系统 |
CN112199519A (zh) * | 2020-11-18 | 2021-01-08 | 北京观微科技有限公司 | 一种基于Bert的实体关系流水线抽取方法和系统 |
CN112487189A (zh) * | 2020-12-08 | 2021-03-12 | 武汉大学 | 一种图卷积网络增强的隐式篇章文本关系分类方法 |
CN112527981A (zh) * | 2020-11-20 | 2021-03-19 | 清华大学 | 开放式信息抽取方法、装置、电子设备及存储介质 |
CN112581327A (zh) * | 2020-11-17 | 2021-03-30 | 天津汇智星源信息技术有限公司 | 基于知识图谱的法律推荐方法、装置和电子设备 |
US20210103634A1 (en) * | 2019-10-04 | 2021-04-08 | Omilia Natural Language Solutions Ltd. | Unsupervised induction of user intents from conversational customer service corpora |
CN112883153A (zh) * | 2021-01-28 | 2021-06-01 | 北京联合大学 | 基于信息增强bert的关系分类方法及装置 |
-
2021
- 2021-06-07 CN CN202110632197.0A patent/CN113535973B/zh active Active
Patent Citations (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100191748A1 (en) * | 2008-09-15 | 2010-07-29 | Kingsley Martin | Method and System for Creating a Data Profile Engine, Tool Creation Engines and Product Interfaces for Identifying and Analyzing Files and Sections of Files |
US20120197631A1 (en) * | 2011-02-01 | 2012-08-02 | Accenture Global Services Limited | System for Identifying Textual Relationships |
WO2015003143A2 (en) * | 2013-07-03 | 2015-01-08 | Thomson Reuters Global Resources | Method and system for simplifying implicit rhetorical relation prediction in large scale annotated corpus |
US20150220539A1 (en) * | 2014-01-31 | 2015-08-06 | Global Security Information Analysts, LLC | Document relationship analysis system |
US20190236085A1 (en) * | 2018-01-30 | 2019-08-01 | Oracle International Corporation | Building dialogue structure by using communicative discourse trees |
WO2019174422A1 (zh) * | 2018-03-16 | 2019-09-19 | 北京国双科技有限公司 | 实体关联关系的分析方法及相关装置 |
CN109344244A (zh) * | 2018-10-29 | 2019-02-15 | 山东大学 | 一种融合区分度信息的神经网络关系分类方法及其实现系统 |
EP3660699A1 (en) * | 2018-11-29 | 2020-06-03 | Tata Consultancy Services Limited | Method and system to extract domain concepts to create domain dictionaries and ontologies |
CN109885621A (zh) * | 2019-01-07 | 2019-06-14 | 北京科技大学 | 一种数据存储实体关系图提取方法 |
CN110059320A (zh) * | 2019-04-23 | 2019-07-26 | 腾讯科技(深圳)有限公司 | 实体关系抽取方法、装置、计算机设备和存储介质 |
WO2020228376A1 (zh) * | 2019-05-16 | 2020-11-19 | 华为技术有限公司 | 文本处理方法、模型训练方法和装置 |
CN110188202A (zh) * | 2019-06-06 | 2019-08-30 | 北京百度网讯科技有限公司 | 语义关系识别模型的训练方法、装置及终端 |
US20210103634A1 (en) * | 2019-10-04 | 2021-04-08 | Omilia Natural Language Solutions Ltd. | Unsupervised induction of user intents from conversational customer service corpora |
CN111274394A (zh) * | 2020-01-16 | 2020-06-12 | 重庆邮电大学 | 一种实体关系的抽取方法、装置、设备及存储介质 |
CN111309919A (zh) * | 2020-03-23 | 2020-06-19 | 智者四海(北京)技术有限公司 | 文本分类模型的系统及其训练方法 |
CN111475617A (zh) * | 2020-03-30 | 2020-07-31 | 招商局金融科技有限公司 | 事件主体抽取方法、装置及存储介质 |
CN111563164A (zh) * | 2020-05-07 | 2020-08-21 | 成都信息工程大学 | 一种基于图神经网络的特定目标情感分类方法 |
CN111428525A (zh) * | 2020-06-15 | 2020-07-17 | 华东交通大学 | 隐式篇章关系识别方法、系统及可读存储介质 |
CN112084790A (zh) * | 2020-09-24 | 2020-12-15 | 中国民航大学 | 一种基于预训练卷积神经网络的关系抽取方法及系统 |
CN112581327A (zh) * | 2020-11-17 | 2021-03-30 | 天津汇智星源信息技术有限公司 | 基于知识图谱的法律推荐方法、装置和电子设备 |
CN112199519A (zh) * | 2020-11-18 | 2021-01-08 | 北京观微科技有限公司 | 一种基于Bert的实体关系流水线抽取方法和系统 |
CN112527981A (zh) * | 2020-11-20 | 2021-03-19 | 清华大学 | 开放式信息抽取方法、装置、电子设备及存储介质 |
CN112487189A (zh) * | 2020-12-08 | 2021-03-12 | 武汉大学 | 一种图卷积网络增强的隐式篇章文本关系分类方法 |
CN112883153A (zh) * | 2021-01-28 | 2021-06-01 | 北京联合大学 | 基于信息增强bert的关系分类方法及装置 |
Non-Patent Citations (6)
Title |
---|
SUNGMIN YANG: "DeNERT-KG: Named Entity and Relation Extraction Model Using DQN, Knowledge Graph, and BERT", 《COMPUTING AND ARTIFICIAL INTELLIGENCE FOR VISUAL DATA ANALYSIS》 * |
YUDAI KISHIMOTO: "Adapting BERT to Implicit Discourse Relation Classification with a Focus on Discourse Connectives", 《PROCEEDINGS OF THE 12TH CONFERENCE ON LANGUAGE RESOURCES AND EVALUATION (LREC 2020)》 * |
孙乐: "中文实体关系抽取中的特征选择研究", 《中文信息学报》 * |
翟羽佳;王芳;: "基于文本挖掘的中文领域本体构建方法研究", 情报科学 * |
肖思琪: "基于文本生成式的实体关系抽取算法研究与系统实现", 《中国优秀硕士学位论文全文数据库 信息科技》 * |
郑江龙: "基于卷积神经网络的隐式篇章关系识别模型", 《中国优秀硕士学位论文全文数据库 信息科技》 * |
Also Published As
Publication number | Publication date |
---|---|
CN113535973B (zh) | 2023-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107273355B (zh) | 一种基于字词联合训练的中文词向量生成方法 | |
CN111931506B (zh) | 一种基于图信息增强的实体关系抽取方法 | |
CN111209401A (zh) | 网络舆情文本信息情感极性分类处理系统及方法 | |
CN112541356B (zh) | 一种生物医学命名实体识别的方法和系统 | |
CN113191148B (zh) | 一种基于半监督学习和聚类的轨道交通实体识别方法 | |
CN115238029A (zh) | 一种电力故障知识图谱的构建方法和装置 | |
CN112349294B (zh) | 语音处理方法及装置、计算机可读介质、电子设备 | |
CN110717341A (zh) | 一种以泰语为枢轴的老-汉双语语料库构建方法及装置 | |
CN115759119B (zh) | 一种金融文本情感分析方法、系统、介质和设备 | |
CN114818717A (zh) | 融合词汇和句法信息的中文命名实体识别方法及系统 | |
CN114742069A (zh) | 一种代码相似度检测方法及装置 | |
CN118227790A (zh) | 基于多标签关联的文本分类方法、系统、设备及介质 | |
CN107622047B (zh) | 一种设计决策知识的提取和表达方法 | |
CN116757195B (zh) | 一种基于提示学习的隐性情感识别方法 | |
CN117556789A (zh) | 基于多层次语义挖掘的学生评语生成方法 | |
CN112861538A (zh) | 一种基于上下文语义关系和文档一致性约束的实体链接方法 | |
Pogorilyy et al. | Assessment of Text Coherence by Constructing the Graph of Semantic, Lexical, and Grammatical Consistancy of Phrases of Sentences | |
CN115203429B (zh) | 一种用于构建审计领域本体框架的知识图谱自动扩充方法 | |
CN106021225A (zh) | 一种基于汉语简单名词短语的汉语最长名词短语识别方法 | |
Ramesh et al. | Interpretable natural language segmentation based on link grammar | |
CN115525777A (zh) | 一种基于自然语言问答的知识图谱三元组显著性评估方法 | |
CN113535973A (zh) | 基于知识映射的事件关系抽取、语篇关系分析方法及装置 | |
CN115358227A (zh) | 一种基于短语增强的开放域关系联合抽取方法及系统 | |
CN114372467A (zh) | 命名实体抽取方法及装置、电子设备、存储介质 | |
CN112948570A (zh) | 无监督的领域知识图谱自动化构建系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |