CN111078895A - 基于去噪卷积神经网络的远程监督实体关系抽取方法 - Google Patents

基于去噪卷积神经网络的远程监督实体关系抽取方法 Download PDF

Info

Publication number
CN111078895A
CN111078895A CN201911306495.XA CN201911306495A CN111078895A CN 111078895 A CN111078895 A CN 111078895A CN 201911306495 A CN201911306495 A CN 201911306495A CN 111078895 A CN111078895 A CN 111078895A
Authority
CN
China
Prior art keywords
feature
attention
sentence
learning
dimension
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911306495.XA
Other languages
English (en)
Other versions
CN111078895B (zh
Inventor
宋威
朱富鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangnan University
Original Assignee
Jiangnan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangnan University filed Critical Jiangnan University
Priority to CN201911306495.XA priority Critical patent/CN111078895B/zh
Publication of CN111078895A publication Critical patent/CN111078895A/zh
Application granted granted Critical
Publication of CN111078895B publication Critical patent/CN111078895B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

基于去噪卷积神经网络的远程监督实体关系抽取方法,属于自然语言处理、实体关系抽取领域。本发明提出了一种去噪卷积神经网络的模型来进行实体的关系进行抽取。使用特征缩放层对词向量在各语义空间进行有效缩放,同时通过对卷积网络中各卷积核进行注意力权重计算,使网络可以自己学习到不同卷积核的重要性,进而进一步降低噪声的影响,达到改善模型抽取能力的目的。

Description

基于去噪卷积神经网络的远程监督实体关系抽取方法
技术领域
本发明属于自然语言处理、实体关系抽取领域,提出一种去噪卷积神经网络模型,可以有效分析复杂文本中实体对之间的关系,从而能对实体之间的关系进行预测。
背景技术
随着互联网的高速发展,网络中包含大量信息,但是很多信息是非结构化信息,无法被有效利用。在构建知识图谱过程中,结构化信息是十分关键的信息,而如何从大量非结构化数据中抽取结构化数据是一大难题。实体关系抽取作为信息抽取的重要任务,是指在实体识别的基础上,从非结构化文本中抽取出预先定义的实体关系。实体对的关系可被形式化描述为关系三元组<e1,r,e2>,其中,e1和e2是实体,r属于目标关系集R{r1,r2,r3,...,rn}。关系抽取的任务是从自然语言文本中抽取出关系三元组<e1,r,e2>,从而提取文本信息。
基于深度学习的关系抽取依赖大量人工标注的数据集,然而人工标注耗时费力,Mintz首次提出不依赖人工标注的关系抽取,把远程监督应用到关系抽取上,从而实现利用知识库(Freebase)对数据进行自动对齐的一种标注方法。虽然这样节省了大量人工标注的时间,但是同时给远程监督的数据带来了大量噪声,如何降低相关噪声的影响成为解决该问题的主流方法。解决该问题的方法主要通过改进特征提取器和抑制错误标签。在特征提取器方面主要通过CNN或者RNN以及相关网络变体进行表示学习,由于RNN的自身特性导致其无法并行计算,同时在训练过程中容易出现梯度消失或者梯度爆炸,因而在远程监督关系抽取中一般使用CNN网络及其变体进行表示学习。PCNN(Piecewise Convolution NeuralNetwork)拥有良好的效果,但是由于其仅仅使用单层的卷积网络和单层的全连接网络,无法有效的对句子中无效信息进行滤除。由于深度学习中对文本进行表示是通过词向量的形式,而词向量是将文本信息映射到语义空间中进行表示的。获取词向量的方法是通过对大量文本数据进行无监督训练,从而实现对文本进行表示。这种方法虽然使得词向量有更丰富的表达,但是在类似关系抽取这种特定任务中,一些语义空间中的信息会成为噪声,进而影响模型的性能。
发明内容
针对上述存在问题,本发明提出了一种去噪卷积神经网络(DenoisingConvolution Neural Network)的模型来进行实体的关系进行抽取。使用特征缩放层对词向量在各语义空间进行有效缩放,同时通过对卷积网络中各卷积核进行注意力权重计算,使网络可以自己学习到不同卷积核的重要性,进而进一步降低噪声的影响,达到改善模型抽取能力的目的。
本发明的技术方案:
基于去噪卷积神经网络的远程监督实体关系抽取方法,步骤如下:
步骤一、远程监督构建数据集
首先对于原始非结构化数据使用NLP工具包对其进行命名实体标注,当一个句子中含有两个实体,且这两个实体在Freebase中是一个关系对时,那么将Freebase中的结构数据与非结构文本进行自动对齐,产生标注数据,进而构建完成远程监督数据集;
步骤二、词向量以及位置信息的输入
设句子表示为:Xinput={w1,w2,...,wi,...,wm},其中
Figure BDA0002323269750000021
da是词向量的维度,db是位置信息的维度;位置信息是直接拼接在原始词向量上,位置信息主要描述当前词与两个实体的相对位置信息,由当前词与实体的相对位置在db维度进行词嵌入获取。
步骤三、特征缩放及提取
(1)给输入句子矩阵Xinput插入“学习”通道进行学习:
Xi=WiXinput+bi (1)
其中,Wi表示第i个学习通道的权重,bi表示第i个学习通道的偏置,在n维语义空间下的学习矩阵为:
H=[X1,X2,...,Xi,...,Xn] (2)
训练时将学习矩阵H进行稀疏表示:
HS=H⊙Sn (3)
其中,Sn是维度为n,概率为0.5的伯努利随机变量的向量;
(2)对于n个卷积核的特征输入C={p1,p2,...,pi,...,pn},
Figure BDA0002323269750000031
其中l是句子长度,d是词向量维度,首先获取通道特征,使用该通道的特征图的平均值作为通道特征:
C={Avg(p1),Avg(p2),...,Avg(pn)} (4)
(3)训练过程中对通道特征进行稀疏表示:
Cs=C⊙Sn (5)
其中Sn是维度为n,概率为0.5的伯努利随机变量的向量;
(4)对稀疏表示的通道特征进行压缩编码
Figure BDA0002323269750000032
(5)对编码后的信息使用激活函数GELU进行非线性变换后进行解码
Figure BDA0002323269750000033
encoder和decoder是互为可逆的网络操作,对通道特征经行sigmoid输出权重为0~1的注意力权重。
Figure BDA0002323269750000034
(6)由公式(3)得知HS={Xs1,Xs2,...,Xsi,...,Xsn},其中Xsi为Xi的稀疏表示,通过获取的注意力权重矩阵Attention,对由公式(3)获取的Hs的数据流进行控制,
Figure BDA0002323269750000035
其中,
Figure BDA0002323269750000036
是对Hs进行注意力缩放后的特征表示;
(7)将从n维语义空间学习到的特征值进行压缩,
Figure BDA0002323269750000037
其中,W[1,2,...,n]是压缩层n个可学习权重,b是压缩层的可学习偏置,作用在于将n维的
Figure BDA0002323269750000041
通过网络学习压缩至原始维度,O为通过特征缩放后的输出;
对经过特征缩放的O使用k个卷积核进行卷积操作
Oc=Conv(O) (11)
其中,conv表示卷积操作,
步骤四、计算权值Attention
通过公式(4)-(8)计算注意力权值Attention,随后对提取的特征使用Attention权重按其重要程度进行过滤或者缩放;
Figure BDA0002323269750000042
其中
Figure BDA0002323269750000043
是卷积后的特征输出,其中oi是每个卷积核卷积后的特征表示,通过两个实体的位置将特征表示分为3个部分{oi1,oi2,oi3};
步骤五、通过分段最大值池化将每个句子提取出3个主要特征:
pij=max(oij),1≤i≤k,1≤j≤3 (13)
其中max是最大值池化操作,获取一个3维向量pi={pi1,pi2,pi3},然后将所有向量进行拼接得到p1:k,进行非线性激活:
g=tanh(P1:k) (14)
其中tanh是非线性激活函数Tanh,P1:k是每个句子特征分段池化后的3个句子特征,
Figure BDA0002323269750000044
是最后的句子特征表示;
步骤六、接上全连接层,进行关系分类
vi=Wlg+bl (15)
其中,Wl是全连接层的可学习权重,bl是全连接层的可学习偏置,vi是最后的特征表示;
设有|y|个类别,经过softmax预测输出:
Figure BDA0002323269750000051
最后目标函数优化
Figure BDA0002323269750000052
其中θ是网络中所有可学习参数,λ是L2正则化的超参数,yi是标签,
Figure BDA0002323269750000053
是模型预测输出。
本发明的有益效果:提出了一种基于去噪卷积网络的远程监督关系抽取方法,旨在利用特征缩放层以及不同学习通道间的注意力来降低关系抽取任务中输入的噪音对模型关系抽取的影响。
附图说明
图1为本发明总体模型训练流程图;
图2为网络中特征缩放的结构示意图;
图3为注意力结构图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,结合以上所给技术方案和附图,进一步说明本发明的具体使用方式,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。
如图1所示,是本发明提出的一种远程监督关系抽取方法的流程图
词向量表示,词向量利用无监督预训练的词向量,此外针对关系抽取加入了实体的位置信息,句子表示Xinput={w1,w2,...,wn},其中
Figure BDA0002323269750000054
da是词向量的维度,db是位置信息的维度。将句子信息输入模型首先经过特征缩放层,
Xi=WiXinput+bi (1)
在n维语义空间下的学习矩阵:
H=[X1,X2,...,Xi,...,Xn] (2)
训练时将学习矩阵H进行稀疏表示:
HS=H⊙Sn (3)
其中Sn是维度为n,概率为0.5的伯努利随机变量的向量,接着对稀疏表示的学习矩阵Hs进行通道注意力计算,获取注意力权重矩阵Attention,由公式(3)可知HS={Xs1,Xs2,...,Xsn},其中Xsi为Xi的稀疏表示,,首先获取通道特征
C={Avg(p1),Avg(p2),...,Avg(pn)} (4)
训练过程中对通道特征进行稀疏表示,其中Sn是维度为n,概率为0.5的伯努利随机变量的向量。
Cs=C⊙Sn (5)
对稀疏表示的通道特征进行压缩编码
Figure BDA0002323269750000061
接着对编码后的信息使用激活函数GELU(Gaussian Error Linear Units)进行非线性变换后进行解码
Figure BDA0002323269750000062
encoder和decoder是互为可逆的网络操作,本发明使用的是卷积网络进行编码和解码。当对通道特征进行稀疏表示及编码后,解码后的通道特征可以包含更丰富的模型注意力学习表示,接着对通道特征经行sigmoid输出权重为0~1的注意力权重。
Figure BDA0002323269750000063
通过获取的注意力权重矩阵Attention,对由公式(3)获取的Hs的数据流进行控制
Figure BDA0002323269750000064
Figure BDA0002323269750000071
是对Hs进行注意力缩放后的特征表示接着将从n维语义空间学习到的特征值进行压缩,
Figure BDA0002323269750000072
其中,W[1,2,...,n]是压缩层n个可学习权重,b是压缩层的可学习偏置,作用在于将n维的
Figure BDA0002323269750000073
通过网络学习压缩至原始维度,O为通过特征缩放后的输出;
对经过特征缩放的O使用k个卷积核进行卷积操作
Oc=Conv(O) (11)
其中,conv表示卷积操作,
步骤四、计算权值Attention
通过公式(4)-(8)计算注意力权值Attention,随后对提取的特征使用Attention权重按其重要程度进行过滤或者缩放;
Figure BDA0002323269750000074
Figure BDA0002323269750000075
是卷积后的特征输出,其中oi是卷积后的特征表示,通过两个实体的位置将特征表示分为3个部分{oi1,oi2,oi3},通过分段最大值池化将每个句子提取出3个主要特征:
pij=max(oij),1≤i≤n,1≤j≤3 (13)
其中max是最大值池化操作,然后将每个句子的3个特征进行拼接进行非线性激活
g=tanh(P1:k) (14)
其中tanh是非线性激活函数Tanh,P是每个句子特征分段池化后的3个句子特征,
Figure BDA0002323269750000076
是最后的句子特征表示,最后接上全连接层,进行关系分类
vi=Wlg+bl (15)
Wi是全连接层的可学习权重,bl是全连接层的可学习偏置,vi是最后的特征表示,假设有|y|个类别,经过softmax预测输出
Figure BDA0002323269750000081
最后目标函数优化
Figure BDA0002323269750000082
其中θ是网络中所有可学习参数,λ是L2正则化的超参数,yi是标签,
Figure BDA0002323269750000083
是模型预测输出。
本发明神经网络详细参数,特征缩放的“学习”通道数为32,特征提取采用230个窗口大小为3的卷积核,防止过拟合策略采用L2正则化0.00001,使用批量大小为40迭代训练200000次,使用小批量SGD算法对网络参数进行更新,初始学习速率0.1,每80000次学习衰减为原来的十分之一,通过广泛使用的多实例学习方法对模型输出结果进行预测。通过对比在相同策略下不同神经网络对抽取效果的影响,评价指标采用广泛使用的P@N以及AUC(Area Under Curve),结果显示去噪卷积神经网络对噪音滤除有较好的作用,AUC比较于CNN结构有了0.082的提高,对比使用广泛的PCNN结构有了0.022的提高,在平均精确度上分别有了10.8%和5.3%的提高。此外本发明的网络结构可以结合于其他远程监督关系抽取非网络结构部分的去噪方法,可以达到更好的效果。
Figure BDA0002323269750000084
Figure BDA0002323269750000091
使用本发明提出的关系抽取方法对网络收集的文本数据集进行预测,该数据集共收集了20000条文本数据,其中训练样本18000个,测试样本2000个。预测输出有27个类别。
以下是预测实例:
In January,[YouTube]’s co-founder,[Chad Hurley],said the companywould inthe coming months begin sharing advertisingrevenue with contributors.预测YouTube与Chad Hurley的关系是founders,预测结果表明基于去噪卷积神经网络实现的关系抽取方法相比于人工分类节约了80%的时间,尤其在大规模非结构化数据上可以节约非常可观的时间,并且预测的准确率也能达到预期要求。因此,本发明提出的方法可以有效对大规模非结构化数据进行结构化整理,并能大大减少人力与时间耗费,实现高效的智能化处理。

Claims (1)

1.基于去噪卷积神经网络的远程监督实体关系抽取方法,其特征在于,步骤如下:
步骤一、远程监督构建数据集
首先对于原始非结构化数据使用NLP工具包对其进行命名实体标注,当一个句子中含有两个实体,且这两个实体在Freebase中是一个关系对时,那么将Freebase中的结构数据与非结构文本进行自动对齐,产生标注数据,进而构建完成远程监督数据集;
步骤二、词向量以及位置信息的输入
设句子表示为:Xinput={w1,w2,...,wi,...,wm},其中
Figure FDA0002323269740000011
da是词向量的维度,db是位置信息的维度;位置信息是直接拼接在原始词向量上,位置信息主要描述当前词与两个实体的相对位置信息,由当前词与实体的相对位置在db维度进行词嵌入获取;
步骤三、特征缩放及提取
(1)给输入句子矩阵Xinput插入学习通道进行学习:
Xi=WiXinput+bi (1)
其中,Wi表示第i个学习通道的权重,bi表示第i个学习通道的偏置,在n维语义空间下的学习矩阵为:
H=[X1,X2,...,Xi,...,Xn] (2)
训练时将学习矩阵H进行稀疏表示:
HS=H⊙Sn (3)
其中,Sn是维度为n,概率为0.5的伯努利随机变量的向量;
(2)对于n个卷积核的特征输入C={p1,p2,...,pi,...,pn},
Figure FDA0002323269740000012
其中l是句子长度,d是词向量维度,首先获取通道特征,使用该通道的特征图的平均值作为通道特征:
C={Avg(p1),Avg(p2),...,Avg(pn)} (4)
(3)训练过程中对通道特征进行稀疏表示:
Cs=C⊙Sn (5)
其中Sn是维度为n,概率为0.5的伯努利随机变量的向量;
(4)对稀疏表示的通道特征进行压缩编码
Figure FDA0002323269740000021
(5)对编码后的信息使用激活函数GELU进行非线性变换后进行解码
Figure FDA0002323269740000022
encoder和decoder是互为可逆的网络操作,对通道特征经行sigmoid输出权重为0~1的注意力权重;
Figure FDA0002323269740000023
(6)由公式(3)得知HS={Xs1,Xs2,...,Xsi,...,Xsn},其中Xsi为Xi的稀疏表示,通过获取的注意力权重矩阵Attention,对由公式(3)获取的Hs的数据流进行控制,
Figure FDA0002323269740000024
其中,
Figure FDA0002323269740000025
是对Hs进行注意力缩放后的特征表示;
(7)将从n维语义空间学习到的特征值进行压缩,
Figure FDA0002323269740000026
其中,W[1,2,...,n]是压缩层n个可学习权重,b是压缩层的可学习偏置,作用在于将n维的
Figure FDA0002323269740000027
通过网络学习压缩至原始维度,O为通过特征缩放后的输出;
对经过特征缩放的O使用k个卷积核进行卷积操作
Oc=Conv(O) (11)
其中,conv表示卷积操作,
步骤四、计算权值Attention
通过公式(4)-(8)计算注意力权值Attention,随后对提取的特征使用Attention权重按其重要程度进行过滤或者缩放;
Figure FDA0002323269740000028
其中
Figure FDA0002323269740000031
是卷积后的特征输出,其中oi是每个卷积核卷积后的特征表示,通过两个实体的位置将特征表示分为3个部分{oi1,oi2,oi3};
步骤五、通过分段最大值池化将每个句子提取出3个主要特征:
pij=max(oij),1≤i≤k,1≤j≤3 (13)
其中max是最大值池化操作,获取一个3维向量pi={pi1,pi2,pi3},然后将所有向量进行拼接得到p1:k,进行非线性激活:
g=tanh(P1:k) (14)
其中tanh是非线性激活函数Tanh,P1:k是每个句子特征分段池化后的3个句子特征,
Figure FDA0002323269740000032
是最后的句子特征表示;
步骤六、接上全连接层,进行关系分类
vi=Wlg+bl (15)
其中,Wl是全连接层的可学习权重,bl是全连接层的可学习偏置,vi是最后的特征表示;
设有|y|个类别,经过softmax预测输出:
Figure FDA0002323269740000033
最后目标函数优化
Figure FDA0002323269740000034
其中θ是网络中所有可学习参数,λ是L2正则化的超参数,yi是标签,
Figure FDA0002323269740000035
是模型预测输出。
CN201911306495.XA 2019-12-18 2019-12-18 基于去噪卷积神经网络的远程监督实体关系抽取方法 Active CN111078895B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911306495.XA CN111078895B (zh) 2019-12-18 2019-12-18 基于去噪卷积神经网络的远程监督实体关系抽取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911306495.XA CN111078895B (zh) 2019-12-18 2019-12-18 基于去噪卷积神经网络的远程监督实体关系抽取方法

Publications (2)

Publication Number Publication Date
CN111078895A true CN111078895A (zh) 2020-04-28
CN111078895B CN111078895B (zh) 2023-04-18

Family

ID=70315287

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911306495.XA Active CN111078895B (zh) 2019-12-18 2019-12-18 基于去噪卷积神经网络的远程监督实体关系抽取方法

Country Status (1)

Country Link
CN (1) CN111078895B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112487796A (zh) * 2020-11-27 2021-03-12 北京智源人工智能研究院 一种用于序列标注的方法、装置和电子设备
CN112507699A (zh) * 2020-09-16 2021-03-16 东南大学 一种基于图卷积网络的远程监督关系抽取方法
CN113392216A (zh) * 2021-06-23 2021-09-14 武汉大学 基于一致性文本增强的远程监督关系抽取方法及装置
CN113641767A (zh) * 2021-07-16 2021-11-12 中南民族大学 实体关系抽取方法、装置、设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030007696A1 (en) * 2001-07-04 2003-01-09 Matsushita Electric Industrial Co., Ltd. Image coding device and method
CN106570148A (zh) * 2016-10-27 2017-04-19 浙江大学 一种基于卷积神经网络的属性抽取方法
CN107077463A (zh) * 2014-10-02 2017-08-18 微软技术许可有限责任公司 远程监督关系提取器
CN109448850A (zh) * 2018-10-17 2019-03-08 北京邮电大学 一种身体质量指数预测方法、装置、电子设备及存储介质
CN109710932A (zh) * 2018-12-22 2019-05-03 北京工业大学 一种基于特征融合的医疗实体关系抽取方法
US20190244103A1 (en) * 2018-02-07 2019-08-08 Royal Bank Of Canada Robust pruned neural networks via adversarial training
CN110209836A (zh) * 2019-05-17 2019-09-06 北京邮电大学 远程监督关系抽取方法及装置
CN110263174A (zh) * 2019-06-27 2019-09-20 成都冰鉴信息科技有限公司 —基于焦点关注的主题类别分析方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030007696A1 (en) * 2001-07-04 2003-01-09 Matsushita Electric Industrial Co., Ltd. Image coding device and method
CN107077463A (zh) * 2014-10-02 2017-08-18 微软技术许可有限责任公司 远程监督关系提取器
CN106570148A (zh) * 2016-10-27 2017-04-19 浙江大学 一种基于卷积神经网络的属性抽取方法
US20190244103A1 (en) * 2018-02-07 2019-08-08 Royal Bank Of Canada Robust pruned neural networks via adversarial training
CN109448850A (zh) * 2018-10-17 2019-03-08 北京邮电大学 一种身体质量指数预测方法、装置、电子设备及存储介质
CN109710932A (zh) * 2018-12-22 2019-05-03 北京工业大学 一种基于特征融合的医疗实体关系抽取方法
CN110209836A (zh) * 2019-05-17 2019-09-06 北京邮电大学 远程监督关系抽取方法及装置
CN110263174A (zh) * 2019-06-27 2019-09-20 成都冰鉴信息科技有限公司 —基于焦点关注的主题类别分析方法

Non-Patent Citations (9)

* Cited by examiner, † Cited by third party
Title
CHUANG GAN 等: "VQS: Linking Segmentations to Questions and Answers for Supervised Attention in VQA and Question-Focused Semantic Segmentation" *
JUN XIAO 等: "Attentional factorization machines: Learning the weight of feature interactions via attention networks" *
冯建周 等: "基于改进注意力机制的实体关系抽取方法" *
宋威 等: "基于全局和局部特征感知网络的关系提取方法" *
朱富鑫: "面向关系提取的多通道神经网络研究" *
李艳娟 等: "结合注意力机制和本体的远程监督关系抽取" *
王斌 等: "融合多特征的基于远程监督的中文领域实体关系抽取" *
胡正平 等: "基于注意力机制的时间分组深度网络行为识别算法" *
袁祯祺 等: "基于Gate-ResNet-D模型的远程监督关系提取方法" *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112507699A (zh) * 2020-09-16 2021-03-16 东南大学 一种基于图卷积网络的远程监督关系抽取方法
CN112487796A (zh) * 2020-11-27 2021-03-12 北京智源人工智能研究院 一种用于序列标注的方法、装置和电子设备
CN113392216A (zh) * 2021-06-23 2021-09-14 武汉大学 基于一致性文本增强的远程监督关系抽取方法及装置
CN113392216B (zh) * 2021-06-23 2022-06-17 武汉大学 基于一致性文本增强的远程监督关系抽取方法及装置
CN113641767A (zh) * 2021-07-16 2021-11-12 中南民族大学 实体关系抽取方法、装置、设备及存储介质
CN113641767B (zh) * 2021-07-16 2024-04-19 中南民族大学 实体关系抽取方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN111078895B (zh) 2023-04-18

Similar Documents

Publication Publication Date Title
CN111078895B (zh) 基于去噪卷积神经网络的远程监督实体关系抽取方法
CN107832787B (zh) 基于双谱自编码特征的雷达辐射源识别方法
Wang et al. Two-step quantization for low-bit neural networks
CN109918671B (zh) 基于卷积循环神经网络的电子病历实体关系抽取方法
CN108170736B (zh) 一种基于循环注意力机制的文档快速扫描定性方法
CN114169330B (zh) 融合时序卷积与Transformer编码器的中文命名实体识别方法
CN111540367B (zh) 语音特征提取方法、装置、电子设备和存储介质
CN112183742B (zh) 基于渐进式量化和Hessian信息的神经网络混合量化方法
Albelwi et al. Automated optimal architecture of deep convolutional neural networks for image recognition
CN109933682B (zh) 一种基于语义与内容信息结合的图像哈希检索方法及系统
CN117475038B (zh) 一种图像生成方法、装置、设备及计算机可读存储介质
CN116152554A (zh) 基于知识引导的小样本图像识别系统
CN116884067B (zh) 一种基于改进的隐式语义数据增强的微表情识别方法
CN116743182A (zh) 一种数据无损压缩方法
CN115544260A (zh) 用于文本情感分析的对比优化编解码模型及方法
CN115017907A (zh) 一种基于领域词典的中文农业命名实体识别方法
CN114036947A (zh) 一种半监督学习的小样本文本分类方法和系统
CN114298290A (zh) 一种基于自监督学习的神经网络编码方法及编码器
CN114596464A (zh) 多特征交互的无监督目标检测方法、系统、电子设备和可读存储介质
CN113392929A (zh) 一种基于词嵌入与自编码器融合的生物序列特征提取方法
CN113283519A (zh) 一种基于离散系数的深度神经网络近似模型分析方法
CN112487231A (zh) 一种基于双图正则化约束和字典学习的图像自动标注方法
CN115994922B (zh) 运动分割方法、装置、电子设备及存储介质
CN116431757B (zh) 基于主动学习的文本关系抽取方法、电子设备及存储介质
CN115329118B (zh) 一种面向垃圾图像的图像相似性检索方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant