CN111539211A - 实体及语义关系识别方法、装置、电子设备及存储介质 - Google Patents
实体及语义关系识别方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111539211A CN111539211A CN202010308069.6A CN202010308069A CN111539211A CN 111539211 A CN111539211 A CN 111539211A CN 202010308069 A CN202010308069 A CN 202010308069A CN 111539211 A CN111539211 A CN 111539211A
- Authority
- CN
- China
- Prior art keywords
- vector set
- word vector
- entity
- coding
- semantic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000003860 storage Methods 0.000 title claims abstract description 14
- 239000013598 vector Substances 0.000 claims abstract description 267
- 238000012549 training Methods 0.000 claims abstract description 80
- 238000004364 calculation method Methods 0.000 claims abstract description 23
- 238000005315 distribution function Methods 0.000 claims abstract description 11
- 230000006870 function Effects 0.000 claims description 58
- 239000011159 matrix material Substances 0.000 claims description 35
- 238000006243 chemical reaction Methods 0.000 claims description 17
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000009826 distribution Methods 0.000 claims description 8
- 230000010354 integration Effects 0.000 claims description 8
- 238000004140 cleaning Methods 0.000 claims description 7
- 238000005457 optimization Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 5
- 230000001105 regulatory effect Effects 0.000 claims description 2
- 238000003058 natural language processing Methods 0.000 abstract description 3
- 238000012216 screening Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000011426 transformation method Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本发明实施例涉及自然语言处理领域,公开了一种实体及语义关系识别方法,该方法将待识别语料转化为词向量,得到待识别词向量集,利用预训练完成的编码层将所述待识别词向量集进行原始编码,得到原始编码词向量集,计算所述原始编码词向量集的注意力值,根据所述注意力值和所述原始编码词向量集求得编码词向量集,利用预训练完成的解码层,识别所述编码词向量集的实体序列得到实体集和解码词向量集,将所述解码词向量集输入至概率分布函数,得到语义关系集。本发明还提出一种实体及语义关系识别装置、电子设备以及存储介质。本发明能够解决语义关系识别时参数众多导致训练时占用计算资源,且文本特征构造不精细,进而影响识别准确率的问题。
Description
技术领域
本发明实施例涉及自然语言处理领域,特别涉及一种实体及语义关系识别的方法、电子设备、装置及计算机可读存储介质。
背景技术
在自然语言处理领域,通过分析文本从而实现有价值信息抽取的过程,被称为信息抽取,进一步地,通过对结构不统一的非结构化文本进行实体及语义关系识别,能够得到简单明确的结构化数据,便于人们对数据进行高效检索及管理,因此快速的对实体及语义关系进行识别具有重要意义。
目前常用的实体及语义关系识别主要有基于神经网络法和基于注意力机制的序列标注法,但是发明人发现,两种方法都可实现实体及语义关系的识别,但两种方法依然具有待完善的地方,如参数众多导致训练时占用计算资源,且对于文本特征的构造不够精细,进而影响识别准确率。
发明内容
本发明实施方式的目的在于提供一种实体及语义关系识别方法、电子设备、装置及计算机可读存储介质,从而有效的解决实体及语义关系识别过程中,参数众多导致训练时占用计算资源的问题和对于文本特征的构造不够精细,影响识别准确率的问题。
为解决上述技术问题,本发明的实施方式提供了一种实体及语义关系识别方法,所述方法包括:
将待识别语料进行词向量转化,得到待识别词向量集;
利用预训练完成的编码层将所述待识别词向量集进行原始编码,得到原始编码词向量集,计算所述原始编码词向量集的多组注意力值,根据所述多组注意力值和所述原始编码词向量集求得编码词向量集;
利用预训练完成的解码层识别所述编码词向量集的实体序列得到实体集,并对所述编码词向量集进行解码操作得到解码词向量集;
将所述解码词向量集输入至预设的概率分布函数,得到语义关系集。
为了解决上述问题,本发明还提供一种实体及语义关系识别装置,所述装置包括:
词向量转化模块,用于将待识别语料进行词向量转化,得到待识别词向量集;
编码模块,用于利用预训练完成的解码层将所述待识别词向量集进行原始编码,得到原始编码词向量集,计算所述原始编码词向量集的多组注意力值,根据所述多组注意力值和所述原始编码词向量集求得编码词向量集;
实体识别模块,用于利用预训练完成的解码层,识别所述编码词向量集的实体序列得到实体集,并对所述编码词向量集进行解码操作得到解码词向量集;
语义关系识别模块,将所述解码词向量集输入至预设的概率分布函数,得到语义关系集。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现上述所述的实体及语义关系识别方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现上述所述的实体及语义关系识别方法。
本发明实施例通过先使用预训练完成的编码层进行原始编码得到原始编码词向量,并结合注意力值方法进一步计算出原始编码词向量之间的特征联系,因此对于有效解决特征表达缺陷,使得文本特征构造更精细,提高后续识别准确率;另外使用预训练完成的解码层进行解码操作,通过预设的概率分布函数直接计算语义关系,避免了语义关系之间冗余信息的产生,减少计算资源开支。
优选地,该方法还包括构建包括所述编码层以及所述解码层的实体及语义关系识别模型,并训练所述编码层以及所述解码层,其中,所述训练包括:
步骤A:获取训练语料集和训练标签集,将所述训练标签集分为实体标签集和语义关系标签集;
步骤B:将所述训练语料集、所述实体标签集及所述语义关系标签集分别转化为训练向量集、实体向量集和语义关系向量集;
步骤C:将所述训练向量集输入至所述编码层进行编码操作,得到编码训练集;
步骤D:将所述编码训练集输入至所述解码层进行所述解码操作,得到预测实体集及预测语义关系集;
步骤E:计算所述预测实体集与所述实体向量集的第一损失值,计算所述预测语义关系集与所述语义关系向量集的第二损失值;
步骤F:根据所述第一损失值及所述第二损失值计算总损失值;
步骤G:在所述总损失值大于预设损失值的情况下,根据预构建的优化函数优化所述编码层及所述解码层的内部参数,并返回步骤C;
步骤H:在所述总损失值小于所述预设损失值的情况下,得到所述训练完成的编码层及解码层。
优选地,所述根据所述多组注意力值和所述原始编码词向量集求得编码词向量集,包括:
将多组所述注意力值进行维度拼接,得到编码调节词向量集;
对所述原始编码词向量集和所述编码调节词向量集执行整合操作,得到所述编码词向量集。
优选地,所述根据所述原始编码词向量集的向量维度,计算得到所述原始编码词向量集的多组注意力值,包括:
初始化多组注意力矩阵;
根据预构建的投影方程,计算多组所述注意力矩阵的投影矩阵;
将多组所述投影矩阵和所述原始编码词向量集的向量维度输入至预构建的注意力计算函数,得到所述多组注意力值。
优选地,所述注意力计算函数为:
其中,headi为所述注意力值,dbilstm表示所述原始编码词向量集的向量维度,softmax表示归一化指数函数,Q′i、K′i、V′i表示投影矩阵。
本发明实施例利用BiLSTM完成对文本词向量时序特征的抽取外,还使用注意力值构建文本特征,由于注意力值依赖于自注意力模型,可学习文本内部结构,可更优异的提高编码能力。
优选地,所述利用预训练完成的解码层识别所述编码词向量集的实体序列得到实体集,并对所述编码词向量集进行解码操作,得到解码词向量集,包括:
根据预构建的条件随机场模型识别所述编码词向量集中所包括的实体向量,得到实体向量集;
根据预构建的全连接神经网络,计算所述编码词向量集内各编码词向量之间的语义关系得分集,根据预先构建的阈值函数清理所述语义关系得分集得到所述解码词向量集。
优选地,根据预先构建的阈值函数清理所述语义关系得分集得到所述解码词向量集,包括:
将所述语义关系得分集作为所述阈值函数的输入参数;
计算所述阈值函数得到所述语义关系得分集的概率分布;
根据所述概率分布清理所述语义关系得分集得到所述解码词向量集。
本发明实施例将通过概率分布函数确定强注意力的部分词向量赋予较大的权重,需要忽略的部分赋予较小的权重,进而能够通过对子句进行注意力权重加权的方式来体现句子中各单词重要程度,帮助完成语义关系抽取任务,提高识别准确率。
附图说明
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1为本发明实施例提供的实体及语义关系的举例示意图;
图2为本发明实施例提供的实体及语义关系识别方法中训练编码层和解码层的流程示意图;
图3为本发明实施例图2提供的训练编码层和解码层中S2的详细实施流程示意图;
图4为本发明实施例图2提供的训练编码层和解码层中S3的详细实施流程示意图;
图5为本发明实施例提供的利用图2得到的训练完成的编码层和解码层执行实体及语义关系识别的方法的流程示意图;
图6为本发明实施例提供的实体及语义关系识别装置的模块示意图;
图7为本发明实施例提供的实现实体及语义关系识别方法的电子设备的内部结构示意图;
本发明目的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的各实施方式进行详细的阐述。然而,本领域的普通技术人员可以理解,在本发明各实施方式中,为了使读者更好地理解本申请而提出了许多技术细节。但是,即使没有这些技术细节和基于以下各实施方式的种种变化和修改,也可以实现本申请所要求保护的技术方案。
本发明的实施方式涉及一种实体及语义关系识别方法,本实施方式的核心在于使用预先构建并训练完成的实体及语义关系识别模型对待识别语料进行实体及语义关系识别,从而有效的解决传统的实体及语义关系的识别模型中参数众多,导致训练时占用计算资源的问题和对于文本特征的构造不够精细,进而影响识别准确率的问题。
下面对本实施方式的实体及语义关系识别实现细节进行具体的说明,以下内容仅为方便理解提供的实现细节,并非实施本方案的必须。
为了更好的理解本发明,先将本发明实施例涉及的术语解释如下:
实体是由有意义的单个单词或者多个单词构成的用于表示具体对象的名词,实体语义关系用于表征实体间存在的语义联系,而实体及语义关系识别是先将实体信息与实体关系信息判别出来,并对实体信息与实体关系信息之间进行整合的过程。例如,以句子“小明在中国上海购置了一套房产。”为例,该句子中存在三个实体单词,分别为“小明”、“中国”、“上海”,其对应的实体类型分别为“人名”、“地名”、“地名”,且存在三对实体关系信息,通过关系三元组表示为(小明,中国,居住于)、(小明,上海,居住于)、(上海,中国,位于),进一步地,实体及语义关系识别可以参阅说明书附图1所示,展现出三个实体单词与关系信息之间的联系,如小明是人名实体、中国和上海是地名、语义关系是人名为小明居住于地名为中国和上海。
本发明实施例使用预先构建并训练完成的实体及语义关系识别模型对待识别语料进行实体及语义关系识别,其中,所述实体及语义关系识别模型包括编码层和解码层,本发明实施例利用所述实体及语义关系识别模型执行待识别语料中的实体集及语义关系集的识别之前,需要对所述编码层和所述解码层进行训练,参阅图2所示,训练所述编码层和所述解码层包括:
S1、获取训练语料集和训练标签集,将所述训练标签集分为实体标签集和语义关系标签集。
其中,所述训练语料集和训练标签集是一一对应的关系,包括了多种不同语料和训练标签,如训练语料a:“冬天太美了”,训练语料a的训练标签为包括:实体:“冬天”、语义关系:“冬天美”。关于实体标签,本发明实施例可提前将每个实体标签转换为序列标注BIO的形式,即如果该单词仅由一个单词构成,则该单词标注为“B-实体类别”;如果该实体由多个单词构成,则将实体的第一个单词标注为“B-实体类别”,剩下的单词标注为“I-实体类别”;其他非实体单词全部标注为“O”。
关于语义关系标签,本发明实施例可分为以下几种,一、如果某个单词与句中任意单词都不存在语义关系,则该单词的语义关系标签为该单词本身,对应为“None”;二、如果某单词与其他单词间存在依存关系,则该单词的语义关系标签为有关系单词,及对应着两单词间的关系类别。
优选地,为了计算方便,可将所述训练语料集内所有的实体及语义关系表示为矩阵表征形式,如对长度为n的一句话,设总共有M种实体类别,N种语义关系类别,则实体与语义关系的混合表征矩阵维度为n*n,第(i,j)个元素m表示第i个单词与第j个单词存在序号为m的语义关系,其中i,j∈n,m∈M。
S2、根据预构建的词向量转化方法,将所述训练语料集、所述实体标签集及所述语义关系标签集分别转化为训练向量集、实体向量集和语义关系向量集。
本发明较佳实施例中,所述预构建的词向量转化方法可使用当前开源的ELMo模型(Embedding from Language Model)。本发明实施例将所述训练语料集、所述实体标签集及所述语义关系标签集分别输入至所述ELMo模型中可得到所述训练向量集、实体向量集和语义关系向量集。
S3、将所述训练向量集输入至预构建的编码层进行编码操作得到编码训练集。
所述编码层主要是对输入的词向量进行信息表征。本发明实施例中,所述编码层包括BiLSTM编码网络编码阶段、注意力计算阶段、维度拼接阶段及整合阶段。
详细地,参阅图3所示,所述步骤S3的详细实施流程包括:
S31、将所述训练向量集输入至BiLSTM编码网络中进行原始编码,得到原始编码词向量集。
其中,本发明较佳实施例中,所述BiLSTM编码网络为已知技术,可从网络或公开论坛中获取当前已公开且训练完成的BiLSTM编码网络,利用训练完成的BiLSTM编码网络编码所述训练向量集,进而得到原始编码词向量集。
S32、根据所述原始编码词向量集的向量维度,计算所述原始编码词向量集的多组注意力值。
进一步地,所述S32包括:初始化多组注意力矩阵;根据预构建的投影方程计算多组所述注意力矩阵的投影矩阵;将多组所述投影矩阵和所述原始编码词向量集的向量维度作为预构建的注意力计算函数的输入值,并计算所述注意力计算函数得到多组所述注意力值。
详细地,所述注意力矩阵为Q、K、V,且预构建的投影方程如下:
Q′i=QWi Q
K′i=KWi K
V′i=VWi K
其中,K为键值,可预先设定,i=1,2,...,h,h为预设的注意力头数,Wi Q表示注意力矩阵W相对于注意力矩阵Q的第i次转化矩阵,Wi K表示注意力矩阵W相对于键值K的第i次转化矩阵,Q′i、K′i、V′i表示投影矩阵。进一步地,Q又称为与所述原始编码词向量集相关的查询矩阵,K为所述查询矩阵的键值矩阵,V为与所述查询矩阵与所述键值矩阵相关的附加矩阵。
进一步地,本发明较佳实施例中,所述注意力计算函数如下所示:
其中,headi为所述注意力值,Attention表示所述注意力计算函数,dbilstm表示所述原始编码词向量集的向量维度。
S33、将多组所述注意力值进行维度拼接,得到编码调节词向量集。
维度拼接的方法多种多样,如本发明实施例可通过将所有的注意力值按照规定的几行几列进行随机分配得到编码调节词向量集。
S34、对所述原始编码词向量集和所述编码调节词向量集执行整合操作,得到所述编码训练集。
本发明实施例可以对所述原始编码词向量集和所述编码调节词向量集执行相加的整合操作,得到所述编码词训练集,详细地,所述整合操作的数学表示如下:
hself=hmul+hBiLSTM
其中,hBiLSTM表示所述原始编码词向量集,hself表示所述编码词训练集,hmul表示所述编码词向量集。
S4、将所述编码训练集输入至预构建的解码层进行解码操作,得到预测实体集及预测语义关系集。
所述解码层主要是对编码训练集进行信息提取。本发明实施例中,所述解码层包括条件随机场模型、全连接神经网络、阈值函数清理阶段及筛选阶段。
详细地,参阅图4所示,所述步骤S4的详细实施流程包括:
S41、根据条件随机场模型识别所述编码训练集所包括的实体向量得到实体向量集。
详细地,所述条件随机场模型(Conditional Random Field,简称CRF)是当前已公开的可自动识别实体的模型。
S42、根据预构建的全连接神经网络计算所述编码词向量集内各编码词向量之间的语义关系得分得到语义关系得分集。
详细地,假设若有一段句子A由n个w1,w2,…,wn单词组成,则任意单词wk与单词wi对应的编码词向量若为hk与hi,则所述计算所述编码词向量集内各编码词向量之间的语义关系得分集可采用如下计算方法:
其中,s(r)(hk,hi)表示hk与hi的语义关系得分,表示组成句子A的子句,V(r)、W(r)、U(r)、G(r)、b(r)为所述全连接神经网络的内部参数,f表示激活函数。更进一步地,所述的组成方式如下:
其中:
详细地,hcut=[hst+1,hst+2,…,hend-1],mean(hcut)表示求解平均值,st=min(k,i),end=max(k,i),表示预设参数值,dencoder表示所述编码词向量。
S43、根据预先构建的阈值函数清理所述语义关系得分集得到解码词向量集。
详细地,所述根据预先构建的阈值函数清理所述语义关系得分集得到解码词向量,包括:将所述语义关系得分集作为所述阈值函数的输入参数,计算所述阈值函数得到所述语义关系得分集的概率分布,根据所述概率分布清理所述语义关系得分集得到所述解码词向量集。
本发明较佳实施例中,所述阈值函数采用当前已公开的sigmoid函数。
S44、根据所述解码词向量集从所述编码词向量集内筛选得到语义关系集。
本发明较佳实施例中,由S43可知阈值函数采用sigmoid函数,而sigmoid函数的值域为[-1,1]之间,本发明实施例的筛选规则可采用解码词向量集中值域大于0所对应的编码词向量,进而得到所述语义关系集。
S5、计算所述预测实体集与所述实体向量集的第一损失值,计算所述预测语义关系集与所述语义关系向量集的第二损失值,根据所述第一损失值及所述第二损失值计算总损失值。
详细地,所述第一损失值的计算可采用当前已公开的对数似然函数求解,所述第二损失值可采用交叉熵函数求解,所述总损失值可采用所述第一损失值与所述第二损失值相加的计算方法。
S6、判断所述总损失值是否大于预设损失值。
S7、若所述总损失值大于所述预设损失值,根据预构建的优化函数优化所述编码层及所述解码层的内部参数,并返回S3。
其中,所述预构建的优化函数可采用当前已公开的Adam算法、随机梯度下降法等。
S8、若所述总损失值小于所述预设损失值,输出训练完成的编码层及训练完成的解码层。
参阅图5所示,是本发明实施例提供的利用图2得到编码层和解码层执行实体及语义关系识别的方法的流程示意图,本发明实施例利用上述图2中训练完成的编码层及解码层进行实体及语义关系识别,包括:
S10、获取待识别语料,根据预构建的词向量转化方法,将所述待识别语料进行词向量转化,得到待识别词向量集。
所述待识别语料可以以多种形式呈现,如一段语音、一段文字,如小东输入了自己的一段语音:我喜欢广东及福建,不喜欢黑龙江,因为黑龙江太寒冷了。
本发明实施例中,此处所述预构建的词向量转化方法与上述S2中所述的预构建的词向量转化方法相同。
S20、利用预训练完成的编码层将所述待识别词向量集进行原始编码,得到原始编码词向量集,计算所述原始编码词向量集的多组注意力值,根据所述多组注意力值和所述原始编码词向量集求得编码词向量集。
本发明实施例中,所述S20的详细执行方法可以参阅上述S3中的编码操作方法。
S30、利用预训练完成的解码层识别所述编码词向量集的实体序列得到实体集,并对所述编码词向量集进行解码操作,得到解码词向量集。
S40、将所述解码词向量集输入至预设的概率分布函数,得到语义关系集。
本发明实施例中,所述S30及S40的详细执行方法可以参阅上述S4中的描述。
通过本发明实施例提供的方案,在S10中输入语音:我喜欢广东及福建,不喜欢黑龙江,因为黑龙江太寒冷了,最后可以得到:我喜欢广东、我喜欢福建、我不喜欢黑龙江、黑龙江寒冷共四组语义关系集。
如图6所示,是本发明实体及语义关系识别装置的功能模块图。
本发明所述实体及语义关系识别装置100可以安装于电子设备中。根据实现的功能,所述实体及语义关系识别装置可以包括模型训练模块101、词向量转化模块102、编码模块103、实体识别模块104及语义关系识别模块105。本发所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
模型训练模块101,用于构建包括所述编码层以及所述解码层的实体及语义关系识别模型,并训练所述编码层以及所述解码层。
词向量转化模块102,用于将待识别语料进行词向量转化,得到待识别词向量集。
编码模块103,用于利用预训练完成的编码层将所述待识别词向量集进行原始编码,得到原始编码词向量集,计算所述原始编码词向量集的多组注意力值,根据所述多组注意力值和所述原始编码词向量集求得编码词向量集。
实体识别模块104,用于利用预训练完成的解码层识别所述编码词向量集的实体序列得到实体集,并对所述编码词向量集进行解码操作得到解码词向量集。
语义关系识别模块105,用于将所述解码词向量集输入至预设的概率分布函数,得到语义关系集。
本申请所提供的装置中的模块在使用时能够基于与上述的实体及语义关系识别方法相同,使用预先训练完成的实体及语义关系识别模型对待识别语料进行实体及语义关系识别,其在具体运行时可以取得上述的方法实施例一样的技术效果,即有效的解决参数众多,导致训练时占用计算资源的问题和对于文本特征的构造不够精细,进而影响识别准确率的问题。
如图7所示,是本发明实现实体及语义关系识别方法的电子设备的结构示意图。
所述电子设备1可以包括处理器12、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器12上运行的计算机程序,如实体及语义关系识别程序。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如实体及语义关系识别程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器12在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器12是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行实体及语义关系识别程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器12等之间的连接通信。
图7仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图7示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器12逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的请求实体及语义关系识别程序是多个指令的组合,在所述处理器12中运行时,可以实现如下:
步骤一、构建包括编码层以及解码层的实体及语义关系识别模型,并训练所述编码层以及所述解码层,其中,所述训练包括:
步骤a、获取训练语料集和训练标签集,将所述训练标签集分为实体标签集和语义关系标签集。
其中,所述训练语料集和训练标签集是一一对应的关系,包括了多种不同语料和训练标签,如训练语料a:“冬天太美了”,训练语料a的训练标签为包括:实体:“冬天”、语义关系:“冬天美”。关于实体标签,本发明实施例可提前将每个实体标签转换为序列标注BIO的形式,即如果该单词仅由一个单词构成,则该单词标注为“B-实体类别”;如果该实体由多个单词构成,则将实体的第一个单词标注为“B-实体类别”,剩下的单词标注为“I-实体类别”;其他非实体单词全部标注为“O”。
关于语义关系标签,本发明实施例可分为以下几种,一、如果某个单词与句中任意单词都不存在语义关系,则该单词的语义关系标签为该单词本身,对应为“None”;二、如果某单词与其他单词间存在依存关系,则该单词的语义关系标签为有关系单词,及对应着两单词间的关系类别。
优选地,为了计算方便,可将所述训练语料集内所有的实体及语义关系表示为矩阵表征形式,如对长度为n的一句话,设总共有M种实体类别,N种语义关系类别,则实体与语义关系的混合表征矩阵维度为n*n,第(i,j)个元素m表示第i个单词与第j个单词存在序号为m的语义关系,其中i,j∈n,m∈M。
步骤b、根据预构建的词向量转化方法,将所述训练语料集、所述实体标签集及所述语义关系标签集分别转化为训练向量集、实体向量集和语义关系向量集。
本发明较佳实施例中,所述预构建的词向量转化方法可使用当前开源的ELMo模型(Embedding from Language Model)。本发明实施例将所述训练语料集、所述实体标签集及所述语义关系标签集分别输入至所述ELMo模型中可得到所述训练向量集、实体向量集和语义关系向量集。
步骤c、将所述训练向量集输入至预构建的编码层进行编码操作得到编码训练集。
所述编码层主要是对输入的词向量进行信息表征。本发明实施例中,所述编码层包括BiLSTM编码网络编码阶段、注意力计算阶段、维度拼接阶段及整合阶段。
详细地,所述步骤c的详细实施流程包括:
步骤c1、将所述训练向量集输入至BiLSTM编码网络中,得到原始编码词向量集。
其中,本发明较佳实施例中,所述BiLSTM编码网络为已知技术,可从网络或公开论坛中获取当前已公开且训练完成的BiLSTM编码网络,利用训练完成的BiLSTM编码网络编码所述训练向量集,进而得到原始编码词向量集。
步骤c2、根据所述原始编码词向量集的向量维度,计算所述原始编码词向量集的多组注意力值。
进一步地,所述根据所述原始编码词向量集的向量维度,计算所述原始编码词向量集的多组注意力值包括:初始化多组注意力矩阵;根据预构建的投影方程计算多组所述注意力矩阵的投影矩阵;将多组所述投影矩阵和所述原始编码词向量集的向量维度作为预构建的注意力计算函数的输入值,并计算所述注意力计算函数得到多组所述注意力值。
详细地,所述注意力矩阵为Q、K、V,且预构建的投影方程如下:
Q′i=QWi Q
K′i=KWi K
V′i=VWi K
其中,K为键值,可预先设定,i=1,2,...,h,h为预设的注意力头数,Wi Q表示注意力矩阵W相对于注意力矩阵Q的第i次转化矩阵,Wi K表示注意力矩阵W相对于键值K的第i次转化矩阵,Q′i、K′i、V′i表示投影矩阵。进一步地,Q又称为与所述原始编码词向量集相关的查询矩阵,K为所述查询矩阵的键值矩阵,V为与所述查询矩阵与所述键值矩阵相关的附加矩阵。
进一步地,本发明较佳实施例中,所述注意力计算函数如下所示:
其中,headi为所述注意力值,Attention表示所述注意力计算函数,dbilstm表示所述原始编码词向量集的向量维度。
步骤c3、将多组所述注意力值进行维度拼接,得到编码调节词向量集。
维度拼接的方法多种多样,如本发明实施例可通过将所有的注意力值按照规定的几行几列进行随机分配得到编码调节词向量集。
步骤c4、对所述原始编码词向量集和所述编码调节词向量集执行整合操作,得到所述编码训练集。
本发明实施例可以对所述原始编码词向量集和所述编码调节词向量集执行相加的整合操作,得到所述编码词训练集,详细地,所述整合操作的数学表示如下:
hself=hmul+hBiLSTM
其中,hBiLSTM表示所述原始编码词向量集,hself表示所述编码词训练集,hmul表示所述编码词向量集。
步骤d、将所述编码训练集输入至预构建的解码层进行解码操作,得到预测实体集及预测语义关系集。
所述解码层主要是对编码训练集进行信息提取,本发明实施例中,所述解码层包括条件随机场模型、全连接神经网络、阈值函数清理阶段及筛选阶段。
详细地,所述步骤d、的详细实施流程包括:
步骤d1、根据条件随机场模型识别所述编码训练集所包括的实体向量得到实体向量集。
详细地,所述条件随机场模型(Conditional Random Field,简称CRF)是当前已公开的可自动识别实体的模型。
步骤d2、根据预构建的全连接神经网络计算所述编码词向量集内各编码词向量之间的语义关系得分得到语义关系得分集;
进一步地,假设若有一段句子A由n个w1,w2,…,wn单词组成,则任意单词wk与单词wi对应的编码词向量若为hk与hi,则所述计算所述编码词向量集内各编码词向量之间的语义关系得分可采用如下计算方法:
其中:
详细地,hcut=[hst+1,hst+2,…,hend-1],mean(hcut)表示求解平均值,st=min(k,i),end=max(k,i),表示预设参数值,dencoder表示所述编码词向量。步骤d3、根据预先构建的阈值函数清理所述语义关系得分集,得到解码词向量集。
详细地,所述根据预先构建的阈值函数清理所述语义关系得分集得到解码词向量,包括:将所述语义关系得分集作为所述阈值函数的输入参数,计算所述阈值函数得到所述语义关系得分集的概率分布,根据所述概率分布清理所述语义关系得分集得到所述解码词向量集。
步骤d4、根据所述解码词向量集从所述编码词向量集内筛选得到语义关系集。
本发明较佳实施例中,由步骤d3可知阈值函数采用sigmoid函数,而sigmoid函数的值域为[-1,1]之间,因此本发明实施例的筛选规则可采用解码词向量集中值域大于0所对应的编码词向量,进而得到所述语义关系集。
步骤e、计算所述预测实体集与所述实体向量集的第一损失值,计算所述预测语义关系集与所述语义关系向量集的第二损失值,根据所述第一损失值及所述第二损失值计算总损失值。
详细地,所述第一损失值的计算可采用当前已公开的对数似然函数求解,所述第二损失值可采用交叉熵函数求解,所述总损失值可采用所述第一损失值与所述第二损失值相加的计算方法。
步骤f、判断所述总损失值是否大于预设损失值;
步骤g、若所述总损失值大于所述预设损失值,根据预构建的优化函数优化所述编码层及所述解码层的内部参数,并返回步骤c。
其中,所述预构建的优化函数可采用当前已公开的Adam算法、随机梯度下降法等。
步骤h、若所述总损失值小于所述预设损失值,输出训练完成的编码层及训练完成的解码层。
步骤二、获取待识别语料,根据预构建的词向量转化方法,将所述待识别语料进行词向量转化,得到待识别词向量集。
所述待识别语料可以以多种形式呈现,如一段语音、一段文字,如小东输入了自己的一段语音:我喜欢广东及福建,不喜欢黑龙江,因为黑龙江太寒冷了。
本发明实施例中,此处所述预构建的词向量转化方法与上述步骤b中所述的预构建的词向量转化方法相同。
步骤三、利用预训练完成的编码层将所述待识别词向量集进行原始编码,得到原始编码词向量集,计算所述原始编码词向量集的多组注意力值,根据所述多组注意力值和所述原始编码词向量集求得编码词向量集。
本发明实施例中,所述编码操作可以参阅上述步骤c中编码操作方法。
步骤四、利用预训练完成的解码层识别所述编码词向量集的实体序列得到实体集,并对所述编码词向量集进行解码操作,得到解码词向量集。
步骤五、将所述解码词向量集输入至预设的概率分布函数,得到语义关系集。
本发明实施例中,所述步骤四及步骤五的详细执行方法可以参阅上述步骤d中的描述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
所述计算机可读存储介质上存储有权限控制程序,所述权限控制程序可被一个或多个处理器执行,以实现如下操作:
构建一个实体及语义关系识别模型,并对所述实体及语义关系识别模型中包括的编码层和解码层进行训练;
将待识别语料进行词向量转化,得到待识别词向量集;
利用预训练完成的编码层将所述待识别词向量集进行原始编码,得到原始编码词向量集,计算所述原始编码词向量集的多组注意力值,根据所述多组注意力值和所述原始编码词向量集求得编码词向量集;
利用预训练完成的解码层,识别所述编码词向量集的实体序列得到实体集,并对所述编码词向量集进行解码操作,得到解码词向量集;
将所述解码词向量集输入至预设的概率分布函数,得到语义关系集。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种实体及语义关系识别方法,其特征在于,所述方法包括:
将待识别语料进行词向量转化,得到待识别词向量集;
利用预训练完成的编码层将所述待识别词向量集进行原始编码,得到原始编码词向量集,计算所述原始编码词向量集的多组注意力值,根据所述多组注意力值和所述原始编码词向量集求得编码词向量集;
利用预训练完成的解码层识别所述编码词向量集的实体序列得到实体集,并对所述编码词向量集进行解码操作,得到解码词向量集;
将所述解码词向量集输入至预设的概率分布函数,得到语义关系集。
2.根据权利要求1所述的实体及语义关系识别方法,其特征在于,该方法还包括构建包括所述编码层以及所述解码层的实体及语义关系识别模型,并训练所述编码层以及所述解码层,其中,所述训练包括:
步骤A:获取训练语料集和训练标签集,将所述训练标签集分为实体标签集和语义关系标签集;
步骤B:将所述训练语料集、所述实体标签集及所述语义关系标签集分别转化为训练向量集、实体向量集和语义关系向量集;
步骤C:将所述训练向量集输入至所述编码层进行编码操作,得到编码训练集;
步骤D:将所述编码训练集输入至所述解码层进行所述解码操作,得到预测实体集及预测语义关系集;
步骤E:计算所述预测实体集与所述实体向量集的第一损失值,计算所述预测语义关系集与所述语义关系向量集的第二损失值;步骤F:根据所述第一损失值及所述第二损失值计算总损失值;
步骤G:在所述总损失值大于预设损失值的情况下,根据预构建的优化函数优化所述编码层及所述解码层的内部参数,并返回步骤C;
步骤H:在所述总损失值小于所述预设损失值的情况下,得到所述训练完成的编码层及解码层。
3.根据权利要求1或2所述的实体及语义关系识别方法,其特征在于,所述根据所述多组注意力值和所述原始编码词向量集求得编码词向量集,包括:
将多组所述注意力值进行维度拼接,得到编码调节词向量集;
对所述原始编码词向量集和所述编码调节词向量集执行整合操作,得到所述编码词向量集。
4.根据权利要求3所述的实体及语义关系识别方法,其特征在于,所述计算所述原始编码词向量集的多组注意力值,包括:
初始化多组注意力矩阵;
根据预构建的投影方程,计算多组所述注意力矩阵的投影矩阵;
将多组所述投影矩阵和所述原始编码词向量集的向量维度输入至预构建的注意力计算函数,得到所述多组注意力值。
6.根据权利要求1或2所述的实体及语义关系识别方法,其特征在于,所述利用预训练完成的解码层识别所述编码词向量集的实体序列得到实体集,并对所述编码词向量集进行解码操作,得到解码词向量集,包括:
根据预构建的条件随机场模型识别所述编码词向量集中所包括的实体向量,得到实体向量集;
根据预构建的全连接神经网络,计算所述编码词向量集内各编码词向量之间的语义关系得分集,根据预先构建的阈值函数清理所述语义关系得分集得到所述解码词向量集。
7.根据权利要求6所述的实体及语义关系识别方法,其特征在于,所述根据预先构建的阈值函数清理所述语义关系得分集得到所述解码词向量集,包括:
将所述语义关系得分集作为所述阈值函数的输入参数;
计算所述阈值函数得到所述语义关系得分集的概率分布;
根据所述概率分布清理所述语义关系得分集得到所述解码词向量集。
8.一种实体及语义关系识别装置,其特征在于,所述装置包括:
词向量转化模块,用于将待识别语料进行词向量转化,得到待识别词向量集;
编码模块,用于利用预训练完成的编码层将所述待识别词向量集进行原始编码,得到原始编码词向量集,计算所述原始编码词向量集的多组注意力值,根据所述多组注意力值和所述原始编码词向量集求得编码词向量集;
实体识别模块,用于利用预训练完成的解码层识别所述编码词向量集的实体序列得到实体集,并对所述编码词向量集进行解码操作得到解码词向量集;
语义关系识别模块,将所述解码词向量集输入至预设的概率分布函数,得到语义关系集。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任一项所述的实体及语义关系识别方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的实体及语义关系识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010308069.6A CN111539211A (zh) | 2020-04-17 | 2020-04-17 | 实体及语义关系识别方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010308069.6A CN111539211A (zh) | 2020-04-17 | 2020-04-17 | 实体及语义关系识别方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111539211A true CN111539211A (zh) | 2020-08-14 |
Family
ID=71952274
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010308069.6A Pending CN111539211A (zh) | 2020-04-17 | 2020-04-17 | 实体及语义关系识别方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111539211A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111985491A (zh) * | 2020-09-03 | 2020-11-24 | 深圳壹账通智能科技有限公司 | 基于深度学习的相似信息合并方法、装置、设备及介质 |
CN112017638A (zh) * | 2020-09-08 | 2020-12-01 | 北京奇艺世纪科技有限公司 | 语音语义识别模型构建方法、语义识别方法、装置及设备 |
CN112069397A (zh) * | 2020-08-21 | 2020-12-11 | 三峡大学 | 自注意力机制与生成对抗网络相结合的谣言检测方法 |
CN112328960A (zh) * | 2020-11-02 | 2021-02-05 | 中国平安财产保险股份有限公司 | 数据运算的优化方法、装置、电子设备及存储介质 |
CN112820269A (zh) * | 2020-12-31 | 2021-05-18 | 平安科技(深圳)有限公司 | 文本转语音方法、装置、电子设备及存储介质 |
CN113204618A (zh) * | 2021-04-30 | 2021-08-03 | 平安科技(深圳)有限公司 | 基于语义增强的信息识别方法、装置、设备及存储介质 |
CN113901151A (zh) * | 2021-09-30 | 2022-01-07 | 北京有竹居网络技术有限公司 | 用于关系抽取的方法、装置、设备和介质 |
WO2022134759A1 (zh) * | 2020-12-21 | 2022-06-30 | 深圳壹账通智能科技有限公司 | 关键词生成方法、装置、电子设备及计算机存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109902145A (zh) * | 2019-01-18 | 2019-06-18 | 中国科学院信息工程研究所 | 一种基于注意力机制的实体关系联合抽取方法和系统 |
CN110196913A (zh) * | 2019-05-23 | 2019-09-03 | 北京邮电大学 | 基于文本生成式的多实体关系联合抽取方法和装置 |
CN110705299A (zh) * | 2019-09-26 | 2020-01-17 | 北京明略软件系统有限公司 | 实体和关系的联合抽取方法、模型、电子设备及存储介质 |
CN110781683A (zh) * | 2019-11-04 | 2020-02-11 | 河海大学 | 一种实体关系联合抽取方法 |
US20200073933A1 (en) * | 2018-08-29 | 2020-03-05 | National University Of Defense Technology | Multi-triplet extraction method based on entity-relation joint extraction model |
-
2020
- 2020-04-17 CN CN202010308069.6A patent/CN111539211A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200073933A1 (en) * | 2018-08-29 | 2020-03-05 | National University Of Defense Technology | Multi-triplet extraction method based on entity-relation joint extraction model |
CN109902145A (zh) * | 2019-01-18 | 2019-06-18 | 中国科学院信息工程研究所 | 一种基于注意力机制的实体关系联合抽取方法和系统 |
CN110196913A (zh) * | 2019-05-23 | 2019-09-03 | 北京邮电大学 | 基于文本生成式的多实体关系联合抽取方法和装置 |
CN110705299A (zh) * | 2019-09-26 | 2020-01-17 | 北京明略软件系统有限公司 | 实体和关系的联合抽取方法、模型、电子设备及存储介质 |
CN110781683A (zh) * | 2019-11-04 | 2020-02-11 | 河海大学 | 一种实体关系联合抽取方法 |
Non-Patent Citations (2)
Title |
---|
程名: "融合注意力机制和BiLSTM+CRF的渔业标准命名实体识别", 《大连海洋大学学报 》 * |
邹晶: "基于深度学习的实体与关系联合提取方法研究", 《中国优秀硕士学问论文电子期刊》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112069397A (zh) * | 2020-08-21 | 2020-12-11 | 三峡大学 | 自注意力机制与生成对抗网络相结合的谣言检测方法 |
CN112069397B (zh) * | 2020-08-21 | 2023-08-04 | 三峡大学 | 自注意力机制与生成对抗网络相结合的谣言检测方法 |
CN111985491A (zh) * | 2020-09-03 | 2020-11-24 | 深圳壹账通智能科技有限公司 | 基于深度学习的相似信息合并方法、装置、设备及介质 |
CN112017638A (zh) * | 2020-09-08 | 2020-12-01 | 北京奇艺世纪科技有限公司 | 语音语义识别模型构建方法、语义识别方法、装置及设备 |
CN112328960A (zh) * | 2020-11-02 | 2021-02-05 | 中国平安财产保险股份有限公司 | 数据运算的优化方法、装置、电子设备及存储介质 |
CN112328960B (zh) * | 2020-11-02 | 2023-09-19 | 中国平安财产保险股份有限公司 | 数据运算的优化方法、装置、电子设备及存储介质 |
WO2022134759A1 (zh) * | 2020-12-21 | 2022-06-30 | 深圳壹账通智能科技有限公司 | 关键词生成方法、装置、电子设备及计算机存储介质 |
CN112820269A (zh) * | 2020-12-31 | 2021-05-18 | 平安科技(深圳)有限公司 | 文本转语音方法、装置、电子设备及存储介质 |
CN112820269B (zh) * | 2020-12-31 | 2024-05-28 | 平安科技(深圳)有限公司 | 文本转语音方法、装置、电子设备及存储介质 |
CN113204618A (zh) * | 2021-04-30 | 2021-08-03 | 平安科技(深圳)有限公司 | 基于语义增强的信息识别方法、装置、设备及存储介质 |
CN113901151A (zh) * | 2021-09-30 | 2022-01-07 | 北京有竹居网络技术有限公司 | 用于关系抽取的方法、装置、设备和介质 |
WO2023051142A1 (zh) * | 2021-09-30 | 2023-04-06 | 北京有竹居网络技术有限公司 | 用于关系抽取的方法、装置、设备和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111539211A (zh) | 实体及语义关系识别方法、装置、电子设备及存储介质 | |
CN111985239B (zh) | 实体识别方法、装置、电子设备及存储介质 | |
CN112597312A (zh) | 文本分类方法、装置、电子设备及可读存储介质 | |
CN111626047A (zh) | 智能化文本纠错方法、装置、电子设备及可读存储介质 | |
CN114822812B (zh) | 角色对话模拟方法、装置、设备及存储介质 | |
CN111783399A (zh) | 一种法律裁判文书信息抽取方法 | |
CN111695354A (zh) | 基于命名实体的文本问答方法、装置及可读存储介质 | |
CN112380870A (zh) | 用户意图分析方法、装置、电子设备及计算机存储介质 | |
CN113360654B (zh) | 文本分类方法、装置、电子设备及可读存储介质 | |
CN113515938B (zh) | 语言模型训练方法、装置、设备及计算机可读存储介质 | |
CN113807973B (zh) | 文本纠错方法、装置、电子设备及计算机可读存储介质 | |
CN113722483A (zh) | 话题分类方法、装置、设备及存储介质 | |
CN112507663A (zh) | 基于文本的判断题生成方法、装置、电子设备及存储介质 | |
CN112988963A (zh) | 基于多流程节点的用户意图预测方法、装置、设备及介质 | |
CN112559687A (zh) | 问题识别及查询方法、装置、电子设备及存储介质 | |
CN113205814A (zh) | 语音数据标注方法、装置、电子设备及存储介质 | |
CN113158676A (zh) | 专业实体与关系联合抽取方法、系统及电子设备 | |
CN114880449B (zh) | 智能问答的答复生成方法、装置、电子设备及存储介质 | |
CN112951233A (zh) | 语音问答方法、装置、电子设备及可读存储介质 | |
CN116821373A (zh) | 基于图谱的prompt推荐方法、装置、设备及介质 | |
CN114610855A (zh) | 对话回复生成方法、装置、电子设备及存储介质 | |
CN113807512B (zh) | 机器阅读理解模型的训练方法、装置及可读存储介质 | |
CN117290515A (zh) | 文本标注模型的训练方法、文生图方法及装置 | |
CN116702761A (zh) | 文本纠错方法、装置、设备及存储介质 | |
CN114548114B (zh) | 文本情绪识别方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200814 |