CN111241294A - 基于依赖解析和关键词的图卷积网络的关系抽取方法 - Google Patents
基于依赖解析和关键词的图卷积网络的关系抽取方法 Download PDFInfo
- Publication number
- CN111241294A CN111241294A CN201911424470.XA CN201911424470A CN111241294A CN 111241294 A CN111241294 A CN 111241294A CN 201911424470 A CN201911424470 A CN 201911424470A CN 111241294 A CN111241294 A CN 111241294A
- Authority
- CN
- China
- Prior art keywords
- sentence
- dependency
- graph
- vector
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明提供一种基于依赖解析和关键词的图卷积网络的关系抽取方法,首先对结构化文本进行句子依赖解析生成依赖解析图,并通过关键词对句子进行修剪;利用word2vec获取句子的词嵌入向量和位置嵌入向量,拼接后得到词向量序列;对所述词向量序列进行双向GRU神经网络,得到输出向量矩阵;采用图卷积网络处理所述输出向量矩阵,得到句子的依赖表示;将所述输出向量矩阵以及句子的依赖表示通过多头注意力机制进行结合得到句子的表示向量;采用softmax函数建立关系以及实体类型的预测模型,并将所述句子的表示向量作为预测模型的输入,由此训练得到预测概率最大的关系作为抽取结果。
Description
技术领域
本发明涉及文本关系抽取领域,尤其涉及一种基于依赖解析和关键词的图卷积网络的关系抽取方法。
背景技术
关系抽取的输出一般是一个三元组(实体1,关系,实体2),表示实体1和实体2之间存在特定类别的语义关系,例如,句子“中国的首都是北京”可以抽取出关系(中国,首都,北京)这个三元组。关系抽取最常用的方法是监督学习和深度学习,这两种方法都取得了很好的效果。
其中,深度学习方法是基于神经网络的方法,虽然在准确率和回归率方面都有着相当不错的表现,但对于监督数据集(比如ACE-05和SemEval-2010task 8)十分依赖,而这些监督数据都是依靠人工标注的,十分耗时耗力,因此深度学习方法难以扩展到更大的领域中。另外,神经关系抽取现有的特征不够分辨出更准确的关系,尚有大量与知识有关的其他信息没有得到有效利用,比如句子依赖关系、关键词和实体类型信息。现有的方法并未充分利用这些信息,如何结合这些信息获取更准确的特征,从而提高关系抽取的精确度具有重要意义。
远程监督(Distant Supervision)可以通过将语料库与外部知识图谱对齐来自动构建大量的训练标注数据,因此成为目前关系抽取任务最主流的方法。这类数据构造方法的具体实现步骤是:首先,从知识图谱中抽取存在关系的实体对,然后从非结构化文本中抽取含有实体对的句子作为训练样例。它将现有知识图谱中的三元组<e1,r,e2>作为种子,匹配同时含有e1和e2的文本,得到的文本用作关系r的标注数据。通过远程监督构建的大量标注数据可以训练出一个效果不错的关系抽取器,减少模型对人工标注数据的依赖,从而增强模型跨领域适应能力。
但是,远程监督传统模型严重依赖特定知识领域的专家手工设计特征,过于费时费力,或者利用词性标注、句法解析等自然语言处理(NLP)标注来提供分类特征,而NLP工具比如命名实体识别(NER)、依赖解析等,往往误差较大,越多的特征工程会带来越多的误差,在整个任务的pipeline上造成误差的传播和积累,最终影响后续关系抽取的精度。
发明内容
有鉴于此,本发明提供了一种基于依赖解析和关键词的图卷积网络的关系抽取方法,将经过依赖解析的文本句子作为一个图,采用GCN(图卷积神经网络)捕捉依赖特征,丰富句子的语义信息。
本发明提供一种基于依赖解析和关键词的图卷积网络的关系抽取方法,包括以下步骤:
S1、利用Stanford NLP工具对非结构化文本进行句子依赖解析,生成句子的依赖解析图;将所述依赖解析图中连接最多依赖边的词作为句子中的关键词,并通过所述关键词对句子进行修剪;
S2、利用word2vec对非结构化文本中的句子进行处理,得到句子的词嵌入向量和位置嵌入向量,并将所述词嵌入向量和位置嵌入向量进行拼接,得到词向量序列s={x1,x2,…,xm},m表示句子中词的数量;
S3、采用双向GRU神经网络处理词向量序列s={x1,x2,…,xm},得到输出向量矩阵H={h1,h2,…,hm},其中,hi=[GRUf(hi-1,xi);GRUb(hi+1,xi)],i=1,2,…,m,f、b分别表示词向量序列的正向遍历和反向遍历;
S4、采用图卷积网络处理所述输出向量矩阵H={h1,h2,…,hm},得到句子的依赖表示H′={h1′,h2′,…,hm′};
S5、将双向GRU的输出向量矩阵H与句子的依赖表示H′通过多头注意力机制进行结合得到句子的表示向量B;
S6、采用softmax函数建立关系以及实体类型的预测模型,将所述句子的表示向量B作为预测模型的输入,由此训练得到预测概率最大的关系作为抽取结果。
进一步地,所述步骤S1中,采用Stanford NLP工具对非结构化文本进行句子依赖解析时,还利用FIGER定义句子中的实体类型,解析完成后每个实体都具有确定的唯一类型。
进一步地,所述步骤S1中,进行依赖解析后的每个句子构成一个有向依赖解析图G=(V,E),其中,V、E分别表示节点和依赖边的集合,一条从节点u到节点v的依赖边表示成Luv,所述依赖边Luv包括正向、反向、自环三种类型。
进一步地,所述步骤S1中,将生成的依赖解析图通过PageRank算法得到句子中每个词的PageRank值,将PageRank值超过设定阈值的所有词作为关键词,仅保留与所述关键词有依赖边的词和边,完成对句子的修剪。
进一步地,所述步骤S2中,所述词嵌入向量是指采用word2vec将输入词转化为一个低维的稠密实数向量,每一个字符对应一个词嵌入向量;
所述位置嵌入向量是指将一个词对于头实体和尾实体的两个相对位置信息放在同一个向量中,作为这个词的位置嵌入,所述相对位置表示字符与目标实体的距离。
进一步地,所述步骤S4中,所述图卷积网络的隐藏层的计算公式为:
式中,表示第k+1层图卷积后的输出向量,ReLu表示激活函数,N(i)表示节点i的所有邻接节点,Liu表示节点i与节点u的依赖边的标识符号;表示图中依赖边的权重,D表示图中节点的度,表示的对称归一化,表示图卷积神经网络学习到的权重矩阵。
进一步地,所述步骤S5中,将句子的依赖表示H′作为所述多头注意力机制的quiries输入,将双向GRU的输出向量矩阵H作为所述多头注意力机制的keys和values输入,即:
B=Multi_Head_Attention(quries=H′,keys=H,values=H)。
进一步地,所述步骤S6的具体过程为:
将句子的向量表示B和步骤S1中定义的实体类型进行拼接,得到B′=[B;type],其中,type表示实体类型,建立实体类型的损失函数:
losstype=||B-type||;
然后通过sofftmax函数得到关系预测概率P:
P((Bn;rn)|θ)=softmax(WB′+b),
式中,W和b表示待学习的参数,Bn为数据集中第n个句子,n=1,…,N,N表示数据集中所有句子的个数;rn表示句子对应的关系标签,θ表示模型中的所有参数;利用交叉熵定义关系预测概率户的损失函数:
由此,得到预测模型的目标函数为:
式中,λ表示超参数,训练所述预测模型,取概率最大的关系作为抽取结果。
本发明提供的技术方案带来的有益效果是:本发明利用图卷积网络来提取经过修剪后的句子依赖特征,帮助神经网络模型更好地提取特征;另一方面,将连接最多依赖边的词作为关键词来预测关系,同时还引入实体类型作为额外信息添加到模型中,提高了关系抽取模型的关系预测的准确率和召回率。
附图说明
图1是本发明实施例提供的基于依赖解析和关键词的图卷积网络的关系抽取方法的过程示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地描述。
请参考图1,本发明的实施例提供了一种基于依赖解析和关键词的图卷积网络的关系抽取方法,包括以下步骤:
S1、利用Stanford NLP工具对非结构化文本进行句子依赖解析,生成句子的依赖解析图,所述依赖解析图用于进行图神经网络;将依赖解析图中连接最多依赖边的词作为句子中的关键词,并通过所述关键词对句子进行修剪以便更好地预测关系。
具体地,采用Stanford NLP工具对非结构化文本进行句子依赖解析时,利用FIGER定义句子中的实体类型,优选地,本实施例共定义88种实体类型,因此解析完成后每个实体都有确定的唯一类型,作为额外信息补充,比如图1中的“/person”、“/company”;解析后的每个句子构成一个有向依赖解析图G=(V,E),其中,V、E分别表示节点和依赖边的集合,一条从节点u到节点v的依赖边可以表示成Luv,本实施例为了简化图卷积神经网络的训练过程,定义三种类型的依赖边Luv:正向、反向、自环;
将生成的依赖解析图通过PageRank算法得到句子中每个词的PageRank值,将PageRank值超过0.02的所有词作为关键词,仅保留与所述关键词有依赖边的词和边,完成对句子的修剪,图1中句子“Zuckerberg is the founder of Facebook”中的关键词为“founder”。
S2、利用word2vec对非结构化文本中的句子进行处理,得到句子的词嵌入向量和位置嵌入向量,并将所述词嵌入向量和位置嵌入向量拼接起来作为词向量序列s={x1,x2,…,xm},m表示节点个数,即句子中词的数量。
其中,所述词嵌入向量是指用word2vec将输入词转化为一个低维的稠密实数向量,每一个字符对应一个词嵌入向量;
所述位置嵌入向量是指字符位置的嵌入低维向量,即将一个词对于头实体和尾实体的两个相对位置信息放在同一个向量中,作为这个词的位置嵌入;所述相对位置表示字符与目标实体的距离,比如,对于句子“Zuckerberg is the founder of Facebook”,词“founder”与实体“Zuckerberg”和“Facebook”的相对位置分别为3和2。
S3、采用双向GRU神经网络处理词向量序列s={x1,x2,…,xm},得到输出向量矩阵H={h1,h2,…,hm},其中,hi=[GRUf(hi-1,xi);GRUb(hi+1,xi)],i=1,2,…,m,f、b分别表示词向量序列的正向遍历和反向遍历。
S4、采用图卷积网络(GCN)处理所述输出向量矩阵H={h1,h2,…,hm},得到句子的依赖表示,其中,所述GCN的隐藏层计算公式如下:
式中,表示第k+1层图卷积后的输出向量,ReLu表示激活函数,表示图中依赖边的权重(edge-wise gating),D表示图中节点的度,表示的对称归一化,表示图卷积神经网络学习到的权重矩阵;由此,得到句子的依赖表示为H′={h1′,h2′,…,hm′}。
S5、将双向GRU的输出向量矩阵H与句子的依赖表示H′通过多头注意力机制进行结合得到句子的表示向量B,其中,句子的依赖表示H′作为多头注意力机制的quiries输入,双向GRU的输出向量矩阵H则作为多头注意力机制的keys和values输入,即:
B=Multi_Head_Attention(quries=H′,keys=H,values=H)。
S6、采用softmax函数建立关系以及实体类型的预测模型,将所述句子的表示向量B作为预测模型的输入,由此训练得到预测概率最大的关系作为抽取结果。
具体地,步骤S6的过程为:
将句子的向量表示B和实体类型type进行拼接,得到B′=[B;type],请参考图1,实体类型包括主语typesub(“/person”)和宾语typeobj(“/company”),为了让句子的预测关系与关系类型“/person/company”逼近,添加一个L2约束:
losstype=||B-type||,其中type=(typesub+typeobj)/2;
然后通过softmax函数得到关系预测概率P:
P((Bn;rn)|θ)=softmax(WB′+b),
式中,W和b表示待学习的参数,Bn为数据集中第n个句子,n=1,…,N,N表示数据集中所有句子的个数;rn表示句子对应的关系标签,θ表示模型中的所有参数;利用交叉熵定义关系预测概率P的损失函数:
由此,得到预测模型最终的目标函数为:
式中,λ表示超参数,训练所述预测模型,取概率最大的关系作为抽取结果。
本实施还提供传统有监督学习的关系抽取方法以及增加图卷积神经网络后的关系抽取方法的对比实验,常用的关系抽取方法包括SDP-LSTM、Tree-LSTM和PA-LSTM,在所述PA-LSTM上加入图卷积神经网络的关系抽取方法,即GCN+PA-LSTM。在公共数据集TACRED上对比上述关系抽取方法的抽取结果,评价指标包括准确率P、召回率R以及F1值,对比结果如下:
表1 SDP-LSTM、Tree-LSTM、PA-LSTM以及GCN+PA-LSTM的抽取结果对比
从上表可知,所述GCN+PA-LSTM关系抽取模型在准确率P和F1值上均有较大提升,而召回率R也接近最好结果,说明加入图卷积神经网络能提升现有的非远程监督的关系抽取模型。
在本文中,所涉及的前、后、上、下等方位词是以附图中零部件位于图中以及零部件相互之间的位置来定义的,只是为了表达技术方案的清楚及方便。应当理解,所述方位词的使用不应限制本申请请求保护的范围。
在不冲突的情况下,本文中上述实施例及实施例中的特征可以相互结合。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.基于依赖解析和关键词的图卷积网络的关系抽取方法,其特征在于,包括以下步骤:
S1、利用Stanford NLP工具对非结构化文本进行句子依赖解析,生成句子的依赖解析图;将所述依赖解析图中连接最多依赖边的词作为句子中的关键词,并通过所述关键词对句子进行修剪;
S2、利用word2vec对非结构化文本中的句子进行处理,得到句子的词嵌入向量和位置嵌入向量,并将所述词嵌入向量和位置嵌入向量进行拼接,得到词向量序列s={x1,x2,…,xm},m表示句子中词的数量;
S3、采用双向GRU神经网络处理词向量序列s={x1,x2,…,xm},得到输出向量矩阵H={h1,h2,…,hm},其中,hi=[GRUf(hi-1,xi);GRUb(hi+1,xi)],i=1,2,…,m,f、b分别表示词向量序列的正向遍历和反向遍历;
S4、采用图卷积网络处理所述输出向量矩阵H={h1,h2,…,hm},得到句子的依赖表示H′={h′1,h′2,…,h′m};
S5、将双向GRU的输出向量矩阵H与句子的依赖表示H′通过多头注意力机制进行结合得到句子的表示向量B;
S6、采用softmax函数建立关系以及实体类型的预测模型,将所述句子的表示向量B作为预测模型的输入,由此训练得到预测概率最大的关系作为抽取结果。
2.根据权利要求1所述的基于依赖解析和关键词的图卷积网络的关系抽取方法,其特征在于,所述步骤S1中,采用Stanford NLP工具对非结构化文本进行句子依赖解析时,还利用FIGER定义句子中的实体类型,解析完成后每个实体都具有确定的唯一类型。
3.根据权利要求1所述的基于依赖解析和关键词的图卷积网络的关系抽取方法,其特征在于,所述步骤S1中,进行依赖解析后的每个句子构成一个有向依赖解析图G=(V,E),其中,V、E分别表示节点和依赖边的集合,一条从节点u到节点v的依赖边表示成Luv,所述依赖边Luv包括正向、反向、自环三种类型。
4.根据权利要求1所述的基于依赖解析和关键词的图卷积网络的关系抽取方法,其特征在于,所述步骤S1中,将生成的依赖解析图通过PageRank算法得到句子中每个词的PageRank值,将PageRank值超过设定阈值的所有词作为关键词,仅保留与所述关键词有依赖边的词和边,完成对句子的修剪。
5.根据权利要求1所述的基于依赖解析和关键词的图卷积网络的关系抽取方法,其特征在于,所述步骤S2中,所述词嵌入向量是指采用word2vec将输入词转化为一个低维的稠密实数向量,每一个字符对应一个词嵌入向量;
所述位置嵌入向量是指将一个词对于头实体和尾实体的两个相对位置信息放在同一个向量中,作为这个词的位置嵌入,所述相对位置表示字符与目标实体的距离。
7.根据权利要求1所述的基于依赖解析和关键词的图卷积网络的关系抽取方法,其特征在于,所述步骤S5中,将句子的依赖表示H′作为所述多头注意力机制的quiries输入,将双向GRU的输出向量矩阵H作为所述多头注意力机制的keys和values输入,即:
B=Multi_Head_Attention(quries=H′,keys=H,values=H)。
8.根据权利要求1或2所述的基于依赖解析和关键词的图卷积网络的关系抽取方法,其特征在于,所述步骤S6的具体过程为:
将句子的向量表示B和步骤S1中定义的实体类型进行拼接,得到B′=[B;type],其中,type表示实体类型,建立实体类型的损失函数:
losstype=||B-type||;
然后通过softmax函数得到关系预测概率P:
P((Bn;rn)|θ)=softmax(WB′+b),
式中,W和b表示待学习的参数,Bn为数据集中第n个句子,n=1,…,N,N表示数据集中所有句子的个数;rn表示句子对应的关系标签,θ表示模型中的所有参数;利用交叉熵定义关系预测概率P的损失函数:
由此,得到预测模型的目标函数为:
式中,λ表示超参数,训练所述预测模型,取概率最大的关系作为抽取结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911424470.XA CN111241294B (zh) | 2019-12-31 | 2019-12-31 | 基于依赖解析和关键词的图卷积网络的关系抽取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911424470.XA CN111241294B (zh) | 2019-12-31 | 2019-12-31 | 基于依赖解析和关键词的图卷积网络的关系抽取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111241294A true CN111241294A (zh) | 2020-06-05 |
CN111241294B CN111241294B (zh) | 2023-05-26 |
Family
ID=70877654
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911424470.XA Active CN111241294B (zh) | 2019-12-31 | 2019-12-31 | 基于依赖解析和关键词的图卷积网络的关系抽取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111241294B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111710428A (zh) * | 2020-06-19 | 2020-09-25 | 华中师范大学 | 一种建模全局和局部上下文交互的生物医学文本表示方法 |
CN111985245A (zh) * | 2020-08-21 | 2020-11-24 | 江南大学 | 基于注意力循环门控图卷积网络的关系提取方法及系统 |
CN112016312A (zh) * | 2020-09-08 | 2020-12-01 | 平安科技(深圳)有限公司 | 数据关系抽取方法、装置、电子设备及存储介质 |
CN112069825A (zh) * | 2020-11-12 | 2020-12-11 | 湖南数定智能科技有限公司 | 面向警情笔录数据的实体关系联合抽取方法 |
CN112380874A (zh) * | 2020-10-10 | 2021-02-19 | 华南理工大学 | 一种基于图卷积网络的多人对话语篇分析方法 |
CN112487189A (zh) * | 2020-12-08 | 2021-03-12 | 武汉大学 | 一种图卷积网络增强的隐式篇章文本关系分类方法 |
CN113010683A (zh) * | 2020-08-26 | 2021-06-22 | 齐鲁工业大学 | 基于改进图注意力网络的实体关系识别方法及系统 |
CN113297838A (zh) * | 2021-05-21 | 2021-08-24 | 华中科技大学鄂州工业技术研究院 | 一种基于图神经网络的关系抽取方法 |
CN113536795A (zh) * | 2021-07-05 | 2021-10-22 | 杭州远传新业科技有限公司 | 实体关系抽取的方法、系统、电子装置和存储介质 |
CN113807079A (zh) * | 2020-06-11 | 2021-12-17 | 四川大学 | 一种基于序列到序列的端到端实体和关系联合抽取方法 |
CN113901818A (zh) * | 2021-09-26 | 2022-01-07 | 四川大学 | 一种面向威胁情报的实体识别及关系抽取方法 |
CN114238524A (zh) * | 2021-12-21 | 2022-03-25 | 军事科学院系统工程研究院网络信息研究所 | 基于增强样本模型的卫星频轨数据信息抽取方法 |
WO2022121165A1 (zh) * | 2020-12-10 | 2022-06-16 | 平安科技(深圳)有限公司 | 长文本生成方法、装置、设备及存储介质 |
CN114692613A (zh) * | 2020-12-29 | 2022-07-01 | 阿里巴巴集团控股有限公司 | 一种关键词抽取方法及装置和编码器和解码器 |
WO2023056808A1 (zh) * | 2021-10-08 | 2023-04-13 | 中兴通讯股份有限公司 | 加密恶意流量检测方法、装置、存储介质及电子装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170127016A1 (en) * | 2015-10-29 | 2017-05-04 | Baidu Usa Llc | Systems and methods for video paragraph captioning using hierarchical recurrent neural networks |
CN107526785A (zh) * | 2017-07-31 | 2017-12-29 | 广州市香港科大霍英东研究院 | 文本分类方法及装置 |
CN109284370A (zh) * | 2018-08-20 | 2019-01-29 | 中山大学 | 一种基于深度学习的移动应用描述与权限保真性判定方法及装置 |
CN109840287A (zh) * | 2019-01-31 | 2019-06-04 | 中科人工智能创新技术研究院(青岛)有限公司 | 一种基于神经网络的跨模态信息检索方法和装置 |
CN110162593A (zh) * | 2018-11-29 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 一种搜索结果处理、相似度模型训练方法及装置 |
CN110263174A (zh) * | 2019-06-27 | 2019-09-20 | 成都冰鉴信息科技有限公司 | —基于焦点关注的主题类别分析方法 |
-
2019
- 2019-12-31 CN CN201911424470.XA patent/CN111241294B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170127016A1 (en) * | 2015-10-29 | 2017-05-04 | Baidu Usa Llc | Systems and methods for video paragraph captioning using hierarchical recurrent neural networks |
CN107526785A (zh) * | 2017-07-31 | 2017-12-29 | 广州市香港科大霍英东研究院 | 文本分类方法及装置 |
CN109284370A (zh) * | 2018-08-20 | 2019-01-29 | 中山大学 | 一种基于深度学习的移动应用描述与权限保真性判定方法及装置 |
CN110162593A (zh) * | 2018-11-29 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 一种搜索结果处理、相似度模型训练方法及装置 |
CN109840287A (zh) * | 2019-01-31 | 2019-06-04 | 中科人工智能创新技术研究院(青岛)有限公司 | 一种基于神经网络的跨模态信息检索方法和装置 |
CN110263174A (zh) * | 2019-06-27 | 2019-09-20 | 成都冰鉴信息科技有限公司 | —基于焦点关注的主题类别分析方法 |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113807079A (zh) * | 2020-06-11 | 2021-12-17 | 四川大学 | 一种基于序列到序列的端到端实体和关系联合抽取方法 |
CN113807079B (zh) * | 2020-06-11 | 2023-06-23 | 四川大学 | 一种基于序列到序列的端到端实体和关系联合抽取方法 |
CN111710428A (zh) * | 2020-06-19 | 2020-09-25 | 华中师范大学 | 一种建模全局和局部上下文交互的生物医学文本表示方法 |
CN111710428B (zh) * | 2020-06-19 | 2022-05-31 | 华中师范大学 | 一种建模全局和局部上下文交互的生物医学文本表示方法 |
CN111985245A (zh) * | 2020-08-21 | 2020-11-24 | 江南大学 | 基于注意力循环门控图卷积网络的关系提取方法及系统 |
CN111985245B (zh) * | 2020-08-21 | 2024-03-12 | 江南大学 | 基于注意力循环门控图卷积网络的关系提取方法及系统 |
CN113010683B (zh) * | 2020-08-26 | 2022-11-29 | 齐鲁工业大学 | 基于改进图注意力网络的实体关系识别方法及系统 |
CN113010683A (zh) * | 2020-08-26 | 2021-06-22 | 齐鲁工业大学 | 基于改进图注意力网络的实体关系识别方法及系统 |
CN112016312A (zh) * | 2020-09-08 | 2020-12-01 | 平安科技(深圳)有限公司 | 数据关系抽取方法、装置、电子设备及存储介质 |
CN112016312B (zh) * | 2020-09-08 | 2023-08-29 | 平安科技(深圳)有限公司 | 数据关系抽取方法、装置、电子设备及存储介质 |
CN112380874A (zh) * | 2020-10-10 | 2021-02-19 | 华南理工大学 | 一种基于图卷积网络的多人对话语篇分析方法 |
CN112380874B (zh) * | 2020-10-10 | 2023-07-18 | 华南理工大学 | 一种基于图卷积网络的多人对话语篇分析方法 |
CN112069825A (zh) * | 2020-11-12 | 2020-12-11 | 湖南数定智能科技有限公司 | 面向警情笔录数据的实体关系联合抽取方法 |
CN112487189A (zh) * | 2020-12-08 | 2021-03-12 | 武汉大学 | 一种图卷积网络增强的隐式篇章文本关系分类方法 |
CN112487189B (zh) * | 2020-12-08 | 2022-07-05 | 武汉大学 | 一种图卷积网络增强的隐式篇章文本关系分类方法 |
WO2022121165A1 (zh) * | 2020-12-10 | 2022-06-16 | 平安科技(深圳)有限公司 | 长文本生成方法、装置、设备及存储介质 |
CN114692613A (zh) * | 2020-12-29 | 2022-07-01 | 阿里巴巴集团控股有限公司 | 一种关键词抽取方法及装置和编码器和解码器 |
CN113297838A (zh) * | 2021-05-21 | 2021-08-24 | 华中科技大学鄂州工业技术研究院 | 一种基于图神经网络的关系抽取方法 |
CN113536795B (zh) * | 2021-07-05 | 2022-02-15 | 杭州远传新业科技有限公司 | 实体关系抽取的方法、系统、电子装置和存储介质 |
CN113536795A (zh) * | 2021-07-05 | 2021-10-22 | 杭州远传新业科技有限公司 | 实体关系抽取的方法、系统、电子装置和存储介质 |
CN113901818A (zh) * | 2021-09-26 | 2022-01-07 | 四川大学 | 一种面向威胁情报的实体识别及关系抽取方法 |
WO2023056808A1 (zh) * | 2021-10-08 | 2023-04-13 | 中兴通讯股份有限公司 | 加密恶意流量检测方法、装置、存储介质及电子装置 |
CN114238524B (zh) * | 2021-12-21 | 2022-05-31 | 军事科学院系统工程研究院网络信息研究所 | 基于增强样本模型的卫星频轨数据信息抽取方法 |
CN114238524A (zh) * | 2021-12-21 | 2022-03-25 | 军事科学院系统工程研究院网络信息研究所 | 基于增强样本模型的卫星频轨数据信息抽取方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111241294B (zh) | 2023-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111241294B (zh) | 基于依赖解析和关键词的图卷积网络的关系抽取方法 | |
CN111444726B (zh) | 基于双向格子结构的长短时记忆网络的中文语义信息提取方法和装置 | |
CN105095204B (zh) | 同义词的获取方法及装置 | |
TWI662425B (zh) | 一種自動生成語義相近句子樣本的方法 | |
CN111931506B (zh) | 一种基于图信息增强的实体关系抽取方法 | |
CN106599032B (zh) | 一种结合稀疏编码和结构感知机的文本事件抽取方法 | |
CN108255813B (zh) | 一种基于词频-逆文档与crf的文本匹配方法 | |
CN108519890A (zh) | 一种基于自注意力机制的鲁棒性代码摘要生成方法 | |
CN110321563B (zh) | 基于混合监督模型的文本情感分析方法 | |
CN107818141B (zh) | 融入结构化要素识别的生物医学事件抽取方法 | |
CN111353306B (zh) | 基于实体关系和依存Tree-LSTM的联合事件抽取的方法 | |
CN111222318B (zh) | 基于双通道双向lstm-crf网络的触发词识别方法 | |
CN107180026B (zh) | 一种基于词嵌入语义映射的事件短语学习方法及装置 | |
CN108681557A (zh) | 基于自扩充表示和相似双向约束的短文本主题发现方法及系统 | |
CN111027595A (zh) | 双阶段语义词向量生成方法 | |
CN113505209A (zh) | 一种面向汽车领域的智能问答系统 | |
Zhang et al. | Effective subword segmentation for text comprehension | |
CN111274790A (zh) | 基于句法依存图的篇章级事件嵌入方法及装置 | |
CN112328800A (zh) | 自动生成编程规范问题答案的系统及方法 | |
CN113360582B (zh) | 基于bert模型融合多元实体信息的关系分类方法及系统 | |
CN112364132A (zh) | 基于依存句法的相似度计算模型和系统及搭建系统的方法 | |
CN113761893A (zh) | 一种基于模式预训练的关系抽取方法 | |
CN113723103A (zh) | 融合多源知识的中文医学命名实体和词性联合学习方法 | |
CN113535897A (zh) | 一种基于句法关系和意见词分布的细粒度情感分析方法 | |
CN112818698A (zh) | 一种基于双通道模型的细粒度的用户评论情感分析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |