CN112183023A - 一种多关系抽取方法和终端 - Google Patents

一种多关系抽取方法和终端 Download PDF

Info

Publication number
CN112183023A
CN112183023A CN202011045802.6A CN202011045802A CN112183023A CN 112183023 A CN112183023 A CN 112183023A CN 202011045802 A CN202011045802 A CN 202011045802A CN 112183023 A CN112183023 A CN 112183023A
Authority
CN
China
Prior art keywords
entity
word
sentence
output data
logit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011045802.6A
Other languages
English (en)
Inventor
曾祥荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Unisound Intelligent Technology Co Ltd
Xiamen Yunzhixin Intelligent Technology Co Ltd
Original Assignee
Unisound Intelligent Technology Co Ltd
Xiamen Yunzhixin Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Unisound Intelligent Technology Co Ltd, Xiamen Yunzhixin Intelligent Technology Co Ltd filed Critical Unisound Intelligent Technology Co Ltd
Priority to CN202011045802.6A priority Critical patent/CN112183023A/zh
Publication of CN112183023A publication Critical patent/CN112183023A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本发明提出了一种多关系抽取方法和终端,该方法包括:将待处理句子中的每个词进行向量变换后输入Transformer模型的解码器进行编码,得到编码向量;将预设句子中的每个词进行向量变换,得到预设向量;将所述编码向量与所述预设向量同时输入所述Transformer模型的解码器进行解码,得到输出数据集;所述输出数据集由多个按序排列的子数据集组成,每个所述子数据集由5个按序排列的输出数据组成;依次基于每个所述子数据集中按序先后排列的5个输出数据确定所有的关系及其实体对。本方案中通过Transformer的编码和解码,利用本方案中的生成方式同时生成了多个关系及其实体对,对关系和实体的出现次数并无约束,由此可以同时抽取多个关系实体对。

Description

一种多关系抽取方法和终端
技术领域
本发明涉及数据关系抽取技术领域,特别涉及一种多关系抽取方法和终端。
背景技术
现有的基于神经网络的实体关系抽取方法主要由以下步骤构成:首先是对文本进行标注,给其中的每个词标记上一个预先定义好的标签;然后构建神经网络模型,使其对输入的每个词预测一个标签,使用标注好的数据对模型进行训练;最后使用训练好的神经网络对输入句子的每个词进行标签预测,并根据每个词的标签来搜集关系及对应的实体对。
现有的方法是基于序列标注的方法,每个词只能被标记一个标签,因而不能参与多个关系中
发明内容
针对现有技术中的缺陷,本发明提出了一种多关系抽取方法和终端,本方案中通过Transformer的编码和解码,利用本方案中的生成方式同时生成了多个关系及其实体对,对关系和实体的出现次数并无约束,由此可以同时抽取多个关系实体对。
具体的,本发明提出了以下具体的实施例:
本发明实施例提出了一种多关系抽取方法,包括:
将待处理句子中的每个词进行向量变换后输入Transformer模型的解码器进行编码,得到编码向量;
将预设句子中的每个词进行向量变换,得到预设向量;
将所述编码向量与所述预设向量同时输入所述Transformer模型的解码器进行解码,得到输出数据集;所述输出数据集由多个按序排列的子数据集组成,每个所述子数据集由5个按序排列的输出数据组成;
依次基于每个所述子数据集中按序先后排列的5个输出数据确定所有的关系及其实体对。
在一个具体的实施例中,所述预设句子中词的数量与所述输出数据集中输出数据的数量一致;所述预设向量均为可学习的参数;
所述预设句子中词的数量为m,且m=5×k;k为句子中关系及其实体对的最大数量。
在一个具体的实施例中,所述关系及其实体对为:
T=(r,es1,ee1,es2,ee2);其中,T为关系及其实体对;r为关系;es1为实体1的开始位置;ee1为实体1的结束位置,es2为实体2的开始位置;ee2为实体2的结束位置。
在一个具体的实施例中,所述“依次基于每个所述子数据集中按序先后排列的5个输出数据确定所有的关系及其实体对”,包括:
根据概率分布依次基于每个所述子数据集中按序先后排列的5个输出数据确定关系、实体1的开始词、实体1的结束词、实体2的开始词、实体2的结束词;
分别基于实体1的开始词、实体1的结束词、实体2的开始词、实体2的结束词确定实体1的开始位置、实体1的结束位置、实体2的开始位置、实体2的结束位置;
基于所有所述输出数据的关系、实体1的开始位置、实体1的结束位置、实体2的开始位置、实体2的结束位置确定所有的关系及其实体对。
在一个具体的实施例中,所述关系是基于下列公式确定的:
r=argmax(pr);其中,r为关系;
pr=softmax(logitr);pr为各个关系的概率分布;
logitr=Wr*o5(i-1)+1+br;Wr和br均为可以学习的参数;
o5(i-1)+1为每个所述子数据集中按序先后排列的第1个输出数据;
i依次取值为0、1、2、…、k;k为句子中关系及其实体对的最大数量。
在一个具体的实施例中,所述实体1的开始词是基于下列公式确定的:
j=argmax(pe);其中,j为概率分布中的最大概率,最大概率对应的位置对应的词为实体1的开始词;
pe=softmax(logite);pe为实体1开始位置在待处理句子中各个词的概率分布;
logite=We*o5(i-1)+2+be;We和be均为可以学习的参数;
o5(i-1)+2为每个所述子数据集中按序先后排列的第2个输出数据;i依次取值为0、1、2、…、k;k为句子中关系及其实体对的最大数量。
在一个具体的实施例中,所述实体1的结束词是基于下列公式确定的:
j=argmax(pe);其中,j为概率分布中的最大概率,最大概率对应的位置对应的词为实体1的开始词;
pe=softmax(logite);pe为实体1开始位置在待处理句子中各个词的概率分布;
logite=We*o5(i-1)+3+be;We和be均为可以学习的参数;
o5(i-1)+3为每个所述子数据集中按序先后排列的第3个输出数据;
i依次取值为0、1、2、…、k;k为句子中关系及其实体对的最大数量。
在一个具体的实施例中,所述实体2的开始词是基于下列公式确定的:
j=argmax(pe);其中,j为概率分布中的最大概率,最大概率对应的位置对应的词为实体1的开始词;
pe=softmax(logite);pe为实体1开始位置在待处理句子中各个词的概率分布;
logite=We*o5(i-1)+4+be;We和be均为可以学习的参数;
o5(i-1)+4为每个所述子数据集中按序先后排列的第4个输出数据;
i依次取值为0、1、2、…、k;k为句子中关系及其实体对的最大数量。
在一个具体的实施例中,所述实体2的结束词是基于下列公式确定的:
j=argmax(pe);其中,j为概率分布中的最大概率,最大概率对应的位置对应的词为实体1的开始词;
pe=softmax(logite);pe为实体1开始位置在待处理句子中各个词的概率分布;
logite=We*o5(i-1)+5+be;We和be均为可以学习的参数;
o5(i-1)+5为每个所述子数据集中按序先后排列的第5个输出数据;
i依次取值为0、1、2、…、k;k为句子中关系及其实体对的最大数量。
本发明实施例还提出了一种终端,包括存储器与处理器,所述处理器在执行所述存储器中的程序时执行上述的方法。
以此,本发明实施例提出了一种多关系抽取方法和终端,该方法包括:将待处理句子中的每个词进行向量变换后输入Transformer模型的解码器进行编码,得到编码向量;将预设句子中的每个词进行向量变换,得到预设向量;将所述编码向量与所述预设向量同时输入所述Transformer模型的解码器进行解码,得到输出数据集;所述输出数据集由多个按序排列的子数据集组成,每个所述子数据集由5个按序排列的输出数据组成;依次基于每个所述子数据集中按序先后排列的5个输出数据确定所有的关系及其实体对。本方案中通过Transformer的编码和解码,利用本方案中的生成方式同时生成了多个关系及其实体对,对关系和实体的出现次数并无约束,由此可以同时抽取多个关系实体对。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例提出的一种多关系抽取方法的流程示意图;
图2为本发明实施例提出的一种多关系抽取方法中所有的关系及其实体对的流程示意图;
图3为本发明实施例提出的一种终端的结构示意图。
具体实施方式
在下文中,将更全面地描述本公开的各种实施例。本公开可具有各种实施例,并且可在其中做出调整和改变。然而,应理解:不存在将本公开的各种实施例限于在此公开的特定实施例的意图,而是应将本公开理解为涵盖落入本公开的各种实施例的精神和范围内的所有调整、等同物和/或可选方案。
在本公开的各种实施例中使用的术语仅用于描述特定实施例的目的并且并非意在限制本公开的各种实施例。如在此所使用,单数形式意在也包括复数形式,除非上下文清楚地另有指示。除非另有限定,否则在这里使用的所有术语(包括技术术语和科学术语)具有与本公开的各种实施例所属领域普通技术人员通常理解的含义相同的含义。所述术语(诸如在一般使用的词典中限定的术语)将被解释为具有与在相关技术领域中的语境含义相同的含义并且将不被解释为具有理想化的含义或过于正式的含义,除非在本公开的各种实施例中被清楚地限定。
实施例1
本发明实施例1公开了一种多关系抽取方法,如图1所示,包括以下步骤:
步骤101、将待处理句子中的每个词进行向量变换后输入Transformer模型的解码器进行编码,得到编码向量;
具体的待处理句子也即待抽取其多个关系及实体对的句子,例如为句子s=(w1,…,wn),其中wn表示句子中的第n个词。
具体的,Transformer模型为Google的团队在2017年提出的一种NLP(NaturalLanguage Processing,自然语言处理)经典模型。
步骤102、将预设句子中的每个词进行向量变换,得到预设向量;
预设句子为固定的句子,用于得到预设向量输入后续的解码器中。
步骤103、将所述编码向量与所述预设向量同时输入所述Transformer模型的解码器进行解码,得到输出数据集;所述输出数据集由多个按序排列的子数据集组成,每个所述子数据集由5个按序排列的输出数据组成;
例如,假设一个句子中关系及其实体对的个数最大为k,解码器的输入为d=(d1,…,dm),其中dm是d的第m个词,其中m=5×k。d中的每个词经过向量变换输入解码器。d中的每个词对应的向量都是可学习的参数;
在此情况下,解码器同时读入步骤101和步骤102中的向量,进行解码,得到输出数据集为:O=(o1,…,om)。o1,…,om为各个按序输出数据;且各个输出数据均自带有序号,从1到m。
由于m=5×k,将输出数据集从前到后按照每5个输出数据划分为一个子数据集,;例如o1、o2、o3、o4、o5为第一子数据集;o6、o7、o8、o9、o10为第二个子数据集,以此类推。
步骤104、依次基于每个所述子数据集中按序先后排列的5个输出数据确定所有的关系及其实体对。
后续在得到输出数据集后,根据每个子数据集中的5个数据依次确定关系及实体对。
在一个具体的实施例中,所述预设句子中词的数量与所述输出数据集中输出数据的数量一致;所述预设向量均为可学习的参数;
所述预设句子中词的数量为m,且m=5×k;k为句子中关系及其实体对的最大数量。
在一个具体的实施例中,所述关系及其实体对为:
T=(r,es1,ee1,es2,ee2);其中,T为关系及其实体对;r为关系;es1为实体1的开始位置;ee1为实体1的结束位置,es2为实体2的开始位置;ee2为实体2的结束位置。
具体的,实体的开始、结束位置分别指该实体开始词是句子中的第几个词以及实体最后一个词是句子中的第几个词,基于此,如图2所示,步骤104中的所述“依次基于每个所述子数据集中按序先后排列的5个输出数据确定所有的关系及其实体对”,包括:
步骤1041、根据概率分布依次基于每个所述子数据集中按序先后排列的5个输出数据确定关系、实体1的开始词、实体1的结束词、实体2的开始词、实体2的结束词;
步骤1042、分别基于实体1的开始词、实体1的结束词、实体2的开始词、实体2的结束词确定实体1的开始位置、实体1的结束位置、实体2的开始位置、实体2的结束位置;
步骤1043、基于所有所述输出数据的关系、实体1的开始位置、实体1的结束位置、实体2的开始位置、实体2的结束位置确定所有的关系及其实体对。
具体的,关系及其实体对的过程为如下过程:
1、所述关系是基于下列公式确定的:
r=argmax(pr);其中,r为关系;
pr=softmax(logitr);pr为各个关系的概率分布;
logitr=Wr*o5(i-1)+1+br;Wr和br均为可以学习的参数;
o5(i-1)+1为每个所述子数据集中按序先后排列的第1个输出数据;
i依次取值为0、1、2、…、k;k为句子中关系及其实体对的最大数量。
2、所述实体1的开始词是基于下列公式确定的:
j=argmax(pe);其中,j为概率分布中的最大概率,最大概率对应的位置对应的词为实体1的开始词;
pe=softmax(logite);pe为实体1开始位置在待处理句子中各个词的概率分布;
logite=We*o5(i-1)+2+be;We和be均为可以学习的参数;
o5(i-1)+2为每个所述子数据集中按序先后排列的第2个输出数据;i依次取值为0、1、2、…、k;k为句子中关系及其实体对的最大数量。
3、所述实体1的结束词是基于下列公式确定的:
j=argmax(pe);其中,j为概率分布中的最大概率,最大概率对应的位置对应的词为实体1的开始词;
pe=softmax(logite);pe为实体1开始位置在待处理句子中各个词的概率分布;
logite=We*o5(i-1)+3+be;We和be均为可以学习的参数;
o5(i-1)+3为每个所述子数据集中按序先后排列的第3个输出数据;
i依次取值为0、1、2、…、k;k为句子中关系及其实体对的最大数量。
4、所述实体2的开始词是基于下列公式确定的:
j=argmax(pe);其中,j为概率分布中的最大概率,最大概率对应的位置对应的词为实体1的开始词;
pe=softmax(logite);pe为实体1开始位置在待处理句子中各个词的概率分布;
logite=We*o5(i-1)+4+be;We和be均为可以学习的参数;
o5(i-1)+4为每个所述子数据集中按序先后排列的第4个输出数据;
i依次取值为0、1、2、…、k;k为句子中关系及其实体对的最大数量。
5、所述实体2的结束词是基于下列公式确定的:
j=argmax(pe);其中,j为概率分布中的最大概率,最大概率对应的位置对应的词为实体1的开始词;
pe=softmax(logite);pe为实体1开始位置在待处理句子中各个词的概率分布;
logite=We*o5(i-1)+5+be;We和be均为可以学习的参数;
o5(i-1)+5为每个所述子数据集中按序先后排列的第5个输出数据;
i依次取值为0、1、2、…、k;k为句子中关系及其实体对的最大数量。
基于上述5个步骤,确定了所有关系及其实体对。由此,本方案中通过Transformer的编码和解码,利用本方案中的生成方式同时生成了多个关系及其实体对,对关系和实体的出现次数并无约束,由此可以同时抽取多个关系实体对。
实施例2
本发明实施例2还公开了一种终端,如图3所示,包括存储器201与处理器202,所述处理器202在执行所述存储器201中的程序时执行实施例1中所述的方法。
具体的,本发明实施例2还公开有其他相关的特征,具体的其他相关的特征请参见实施例1中的记载。
以此,本发明实施例提出了一种多关系抽取方法和终端,该方法包括:将待处理句子中的每个词进行向量变换后输入Transformer模型的解码器进行编码,得到编码向量;将预设句子中的每个词进行向量变换,得到预设向量;将所述编码向量与所述预设向量同时输入所述Transformer模型的解码器进行解码,得到输出数据集;所述输出数据集由多个按序排列的子数据集组成,每个所述子数据集由5个按序排列的输出数据组成;依次基于每个所述子数据集中按序先后排列的5个输出数据确定所有的关系及其实体对。本方案中通过Transformer的编码和解码,利用本方案中的生成方式同时生成了多个关系及其实体对,对关系和实体的出现次数并无约束,由此可以同时抽取多个关系实体对。
本领域技术人员可以理解附图只是一个优选实施场景的示意图,附图中的模块或流程并不一定是实施本发明所必须的。
本领域技术人员可以理解实施场景中的装置中的模块可以按照实施场景描述进行分布于实施场景的装置中,也可以进行相应变化位于不同于本实施场景的一个或多个装置中。上述实施场景的模块可以合并为一个模块,也可以进一步拆分成多个子模块。
上述本发明序号仅仅为了描述,不代表实施场景的优劣。
以上公开的仅为本发明的几个具体实施场景,但是,本发明并非局限于此,任何本领域的技术人员能思之的变化都应落入本发明的保护范围。

Claims (10)

1.一种多关系抽取方法,其特征在于,包括:
将待处理句子中的每个词进行向量变换后输入Transformer模型的解码器进行编码,得到编码向量;
将预设句子中的每个词进行向量变换,得到预设向量;
将所述编码向量与所述预设向量同时输入所述Transformer模型的解码器进行解码,得到输出数据集;所述输出数据集由多个按序排列的子数据集组成,每个所述子数据集由5个按序排列的输出数据组成;
依次基于每个所述子数据集中按序先后排列的5个输出数据确定所有的关系及其实体对。
2.如权利要求1所述的方法,其特征在于,所述预设句子中词的数量与所述输出数据集中输出数据的数量一致;所述预设向量均为可学习的参数;
所述预设句子中词的数量为m,且m=5×k;k为句子中关系及其实体对的最大数量。
3.如权利要求1所述的方法,其特征在于,所述关系及其实体对为:
T=(r,es1,ee1,es2,ee2);其中,T为关系及其实体对;r为关系;es1为实体1的开始位置;ee1为实体1的结束位置,es2为实体2的开始位置;ee2为实体2的结束位置。
4.如权利要求1-3中任意一项所述的方法,其特征在于,所述“依次基于每个所述子数据集中按序先后排列的5个输出数据确定所有的关系及其实体对”,包括:
根据概率分布依次基于每个所述子数据集中按序先后排列的5个输出数据确定关系、实体1的开始词、实体1的结束词、实体2的开始词、实体2的结束词;
分别基于实体1的开始词、实体1的结束词、实体2的开始词、实体2的结束词确定实体1的开始位置、实体1的结束位置、实体2的开始位置、实体2的结束位置;
基于所有所述输出数据的关系、实体1的开始位置、实体1的结束位置、实体2的开始位置、实体2的结束位置确定所有的关系及其实体对。
5.如权利要求4所述的方法,其特征在于,所述关系是基于下列公式确定的:
r=argmax(pr);其中,r为关系;
pr=softmax(logitr);pr为各个关系的概率分布;
logitr=Wr*o5(i-1)+1+br;Wr和br均为可以学习的参数;
o5(i-1)+1为每个所述子数据集中按序先后排列的第1个输出数据;
i依次取值为0、1、2、…、k;k为句子中关系及其实体对的最大数量。
6.如权利要求4或5所述的方法,其特征在于,所述实体1的开始词是基于下列公式确定的:
j=argmax(pe);其中,j为概率分布中的最大概率,最大概率对应的位置对应的词为实体1的开始词;
pe=softmax(logite);pe为实体1开始位置在待处理句子中各个词的概率分布;
logite=We*o5(i-1)+2+be;We和be均为可以学习的参数;
o5(i-1)+2为每个所述子数据集中按序先后排列的第2个输出数据;i依次取值为0、1、2、…、k;k为句子中关系及其实体对的最大数量。
7.如权利要求4或5所述的方法,其特征在于,所述实体1的结束词是基于下列公式确定的:
j=argmax(pe);其中,j为概率分布中的最大概率,最大概率对应的位置对应的词为实体1的开始词;
pe=softmax(logite);pe为实体1开始位置在待处理句子中各个词的概率分布;
logite=We*o5(i-1)+3+be;We和be均为可以学习的参数;
o5(i-1)+3为每个所述子数据集中按序先后排列的第3个输出数据;
i依次取值为0、1、2、…、k;k为句子中关系及其实体对的最大数量。
8.如权利要求4或5所述的方法,其特征在于,所述实体2的开始词是基于下列公式确定的:
j=argmax(pe);其中,j为概率分布中的最大概率,最大概率对应的位置对应的词为实体1的开始词;
pe=softmax(logite);pe为实体1开始位置在待处理句子中各个词的概率分布;
logite=We*o5(i-1)+4+be;We和be均为可以学习的参数;
o5(i-1)+4为每个所述子数据集中按序先后排列的第4个输出数据;
i依次取值为0、1、2、…、k;k为句子中关系及其实体对的最大数量。
9.如权利要求4或5所述的方法,其特征在于,所述实体2的结束词是基于下列公式确定的:
j=argmax(pe);其中,j为概率分布中的最大概率,最大概率对应的位置对应的词为实体1的开始词;
pe=softmax(logite);pe为实体1开始位置在待处理句子中各个词的概率分布;
logite=We*o5(i-1)+5+be;We和be均为可以学习的参数;
o5(i-1)+5为每个所述子数据集中按序先后排列的第5个输出数据;
i依次取值为0、1、2、…、k;k为句子中关系及其实体对的最大数量。
10.一种终端,其特征在于,包括存储器与处理器,所述处理器在执行所述存储器中的程序时执行权利要求1-9中任意一项所述的方法。
CN202011045802.6A 2020-09-28 2020-09-28 一种多关系抽取方法和终端 Pending CN112183023A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011045802.6A CN112183023A (zh) 2020-09-28 2020-09-28 一种多关系抽取方法和终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011045802.6A CN112183023A (zh) 2020-09-28 2020-09-28 一种多关系抽取方法和终端

Publications (1)

Publication Number Publication Date
CN112183023A true CN112183023A (zh) 2021-01-05

Family

ID=73945695

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011045802.6A Pending CN112183023A (zh) 2020-09-28 2020-09-28 一种多关系抽取方法和终端

Country Status (1)

Country Link
CN (1) CN112183023A (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110196913A (zh) * 2019-05-23 2019-09-03 北京邮电大学 基于文本生成式的多实体关系联合抽取方法和装置
CN111008279A (zh) * 2019-11-27 2020-04-14 云知声智能科技股份有限公司 一种实体关系抽取方法及装置
CN111159407A (zh) * 2019-12-30 2020-05-15 北京明朝万达科技股份有限公司 训练实体识别和关系分类模型的方法、装置、设备及介质
CN111444305A (zh) * 2020-03-19 2020-07-24 浙江大学 一种基于知识图谱嵌入的多三元组联合抽取方法
CN111476023A (zh) * 2020-05-22 2020-07-31 北京明朝万达科技股份有限公司 识别实体关系的方法及装置
US20200250139A1 (en) * 2018-12-31 2020-08-06 Dathena Science Pte Ltd Methods, personal data analysis system for sensitive personal information detection, linking and purposes of personal data usage prediction
CN111639185A (zh) * 2020-06-04 2020-09-08 虎博网络技术(上海)有限公司 关系信息抽取方法、装置、电子设备和可读存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200250139A1 (en) * 2018-12-31 2020-08-06 Dathena Science Pte Ltd Methods, personal data analysis system for sensitive personal information detection, linking and purposes of personal data usage prediction
CN110196913A (zh) * 2019-05-23 2019-09-03 北京邮电大学 基于文本生成式的多实体关系联合抽取方法和装置
CN111008279A (zh) * 2019-11-27 2020-04-14 云知声智能科技股份有限公司 一种实体关系抽取方法及装置
CN111159407A (zh) * 2019-12-30 2020-05-15 北京明朝万达科技股份有限公司 训练实体识别和关系分类模型的方法、装置、设备及介质
CN111444305A (zh) * 2020-03-19 2020-07-24 浙江大学 一种基于知识图谱嵌入的多三元组联合抽取方法
CN111476023A (zh) * 2020-05-22 2020-07-31 北京明朝万达科技股份有限公司 识别实体关系的方法及装置
CN111639185A (zh) * 2020-06-04 2020-09-08 虎博网络技术(上海)有限公司 关系信息抽取方法、装置、电子设备和可读存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DIANBO SUI: "Joint Entity and Relation Extraction With Set Prediction Networks", 《IEEE TRANSACTIONS ON NEURAL NETWORKS AND LEARNING SYSTEMS》, pages 1 - 12 *
刘勇杰: "基于注意力机制的开放域实体关系抽取", 中国优秀硕士学位论文全文数据库(信息科技辑), no. 2020, pages 1 - 64 *

Similar Documents

Publication Publication Date Title
Chan et al. Kermit: Generative insertion-based modeling for sequences
CN107705784B (zh) 文本正则化模型训练方法和装置、文本正则化方法和装置
CN108287820B (zh) 一种文本表示的生成方法及装置
Wang et al. Morphological segmentation with window LSTM neural networks
KR102133825B1 (ko) 단어자질을 강화한 음성 대화 방법 및 시스템
CN109492215A (zh) 新闻实体识别方法、装置、计算机设备和存储介质
CN109858046B (zh) 利用辅助损失来学习神经网络中的长期依赖性
CN110263147B (zh) 推送信息的生成方法及装置
CN108959388B (zh) 信息生成方法及装置
CN107832300A (zh) 面向微创医疗领域文本摘要生成方法及装置
CN113299282B (zh) 一种语音识别方法、装置、设备及存储介质
CN112669215A (zh) 一种训练文本图像生成模型、文本图像生成的方法和装置
CN117121015A (zh) 利用冻结语言模型的多模态少发式学习
CN113190675A (zh) 文本摘要生成方法、装置、计算机设备和存储介质
US20230034414A1 (en) Dialogue processing apparatus, learning apparatus, dialogue processing method, learning method and program
CN111241843B (zh) 基于复合神经网络的语义关系推断系统和方法
CN117150026B (zh) 文本内容多标签分类方法与装置
CN111126059B (zh) 一种短文文本的生成方法、生成装置及可读存储介质
CN112329466A (zh) 命名实体识别模型的构建方法、装置、设备以及存储介质
CN112784022A (zh) 一种政务faq知识库自动构建方法、装置和电子设备
CN112183023A (zh) 一种多关系抽取方法和终端
CN113743315B (zh) 一种基于结构增强的手写体初等数学公式识别方法
CN112364602B (zh) 一种多风格文本生成方法、装置、设备及可读存储介质
CN113160793A (zh) 基于低资源语言的语音合成方法、装置、设备及存储介质
CN113312448A (zh) 一种诗歌生成方法、系统及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination