CN112329465A - 一种命名实体识别方法、装置及计算机可读存储介质 - Google Patents
一种命名实体识别方法、装置及计算机可读存储介质 Download PDFInfo
- Publication number
- CN112329465A CN112329465A CN201910650142.5A CN201910650142A CN112329465A CN 112329465 A CN112329465 A CN 112329465A CN 201910650142 A CN201910650142 A CN 201910650142A CN 112329465 A CN112329465 A CN 112329465A
- Authority
- CN
- China
- Prior art keywords
- word
- vector
- training
- head
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Machine Translation (AREA)
Abstract
本发明提供了一种命名实体识别方法、装置及计算机可读存储介质。本发明提供的命名实体识别方法,在多头注意力训练中,将词向量中的某个头部的内部特征和该头部的上下文特征结合,作为该头部的新表示,从而可以更好的表达单词的特征信息,由于在命名实体识别中充分利用了单词内部的上下文信息,本发明实施例能够提高命名实体识别的准确性。
Description
技术领域
本发明涉及自然语言处理(NLP,Natural Language Processing)技术领域,具体涉及一种命名实体识别方法、装置及计算机可读存储介质。
背景技术
在人工智能领域,信息提取技术是一项不可或缺的重要技术。目前,信息提取技术主要包括三种算法。第一种是基于知识图谱的抽取算法。该抽取算法需要知识库图谱的数据与规则支持。建立知识图谱需要耗费大量人力资源,而最终获得的数据量却并不理想。第二种是基于传统统计机器学习算法的抽取算法,该算法可以使用手动标记的训练数据,应用不同的学习模型,以应对不同的场景,该算法存在人工成本高和推广性差的缺点,使得其在广泛应用时遇到瓶颈。最后一种算法是近年来流行的使用神经网络模型的算法。与传统的机器学习算法相比,使用了大规模的训练数据集的基于神经网络的模型,在自然语言处理任务中展现了优异的性能。
命名实体识别(NER,Named Entity Recognition)是自然语言处理中常见的一项任务,命名实体在很多应用中被作为语义表示的基本单元,其使用的范围非常广,因此命名实体识别技术具有重要作用。命名实体通常指的是文本中具有特别意义或者指代性非常强的实体,通常包括人名、地名、机构名、时间和专有名词等。命名实体识别技术起着重要作用,因为命名实体在很多任务中被作为语义表示的基本单元。可见,高精度的命名实体识别方法,在开发高性能翻译,对话,舆情监测,主题跟踪以及语义理解等系统中具有重要意义。
发明内容
本发明实施例要解决的技术问题是提供一种命名实体识别方法及装置,提高命名实体识别的准确性。
根据本发明实施例的一个方面,提供了一种命名实体识别方法,包括:
针对训练语句中的每个单词,获取所述单词的位置编码向量和词向量并合并,得到所述单词的第一特征向量,以及,根据包括所述单词在内的上下文是否存在于预设实体字典中,生成所述单词的第二特征向量;
将所述单词的第一特征向量输入神经网络模型中的多头注意力模型,训练得到所述单词的语义信息特征,以及,将所述单词的第二特征向量输入神经网络模型中的注意力模型,训练得到所述单词的实体边界特征,其中,所述多头注意力模型用于将所述第一特征向量分割为多个头,训练并合并每个头的注意力表示,每个头的注意力表示是对该头的自注意力表示以及除该头以外的剩余头的自注意力表示合并后得到的;
合并所述单词的语义信息特征和实体边界特征,得到所述单词的输出特征,并根据所述训练语句中各个单词的输出特征进行命名实体识别。
此外,根据本发明至少一个实施例,获取所述单词的位置编码特征向量,包括:
按照第一公式生成所述位置编码向量的偶数位元素,以及,按照第二公式生成所述位置编码向量的奇数位元素,其中,pos表示所述单词在所述训练语句中的位置,i表示偶数位元素或奇数位元素所对应的维度,dmodel表示所述词向量的维度。
此外,根据本发明至少一个实施例,所述单词的词向量是根据词到向量word2vec算法、卷积神经网络CNN、递归神经网络RNN、双向编码器表示BERT算法或随机初始化算法训练得到的。
此外,根据本发明至少一个实施例,根据包括所述单词在内的上下文是否存在于预设实体字典中,生成所述单词的第二特征向量,包括:
根据所述训练语句中预设长度的上下文,是否存在于所述实体字典中,得到所述单词的独热编码,其中,所述实体字典包括有多个参考实体,所述上下文中包括有所述单词,且以所述单词为边界;
获得不同长度的上下文下方所述单词的独热编码并进行拼接,得到所述单词的第二特征向量。
此外,根据本发明至少一个实施例,合并所述单词的语义信息特征和实体边界特征,得到所述单词的输出特征,包括:
将所述语义信息特征的隐藏层状态与所述实体边界特征的隐藏层状态合并,得到所述单词的隐藏层状态。
此外,根据本发明至少一个实施例,根据所述训练语句中各个单词的输出特征进行命名实体识别,包括:
基于所述训练语句各个单词的隐藏层状态,生成所述训练语句的分段序列,并将所述分段序列输入至所述神经网络模型的输出层softmax层,对所述神经网络模型进行训练,并基于最大似然估计算法,获得所述softmax层输出的具有最高条件概率的结果,作为所述训练语句的各个分段序列所属的命名实体及其概率。
此外,根据本发明至少一个实施例,在训练所述神经网络模型之后,所述方法还包括:
利用训练得到的所述神经网络模型,对待识别语句进行命名实体的识别和标注。
本发明实施例还提供了一种命名实体识别装置,包括:
第一向量生成单元,用于针对训练语句中的每个单词,获取所述单词的位置编码向量和词向量并合并,得到所述单词的第一特征向量;
第二向量生成单元,用于根据包括所述单词在内的上下文是否存在于预设实体字典中,生成所述单词的第二特征向量;
第一特征训练单元,用于将所述单词的第一特征向量输入神经网络模型中的多头注意力模型,训练得到所述单词的语义信息特征,其中,所述多头注意力模型用于将所述第一特征向量分割为多个头,训练并合并每个头的注意力表示,每个头的注意力表示是对该头的自注意力表示以及除该头以外的剩余头的自注意力表示合并后得到的;
第二特征训练单元,用于将所述单词的第二特征向量输入神经网络模型中的注意力模型,训练得到所述单词的实体边界特征;
识别单元,用于合并所述单词的语义信息特征和实体边界特征,得到所述单词的输出特征,并根据所述训练语句中各个单词的输出特征进行命名实体识别。
此外,根据本发明至少一个实施例,所述第二向量生成单元,还用于根据所述训练语句中预设长度的上下文,是否存在于所述实体字典中,得到所述单词的独热编码,其中,所述实体字典包括有多个参考实体,所述上下文中包括有所述单词,且以所述单词为边界;获得不同长度的上下文下方所述单词的独热编码并进行拼接,得到所述单词的第二特征向量。
此外,根据本发明至少一个实施例,所述识别单元,还用于将所述语义信息特征的隐藏层状态与所述实体边界特征的隐藏层状态合并,得到所述单词的隐藏层状态。
本发明实施例还提供了一种命名实体识别装置,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上所述的命名实体识别方法的步骤。
本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的命名实体识别方法的步骤。
与现有技术相比,本发明实施例提供的命名实体识别方法、装置及计算机可读存储介质,在多头注意力训练中,将词向量中的某个头部的内部特征和该头部的上下文特征结合,作为该头部的新表示,从而可以更好的表达单词的特征信息,由于在命名实体识别中充分利用了单词内部的上下文信息,本发明实施例能够提高命名实体识别的准确性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的命名实体识别方法的一种流程示意图;
图2为本发明实施例中生成第二特征向量的一个示例图;
图3为本发明实施例中对第一特征向量进行分割的示例图;
图4为本发明实施例中基于第一、第二特征向量进行训练的示例图;
图5为本发明实施例的命名实体识别装置的一种结构示意图;
图6为本发明实施例的命名实体识别装置的另一结构示意图。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。在下面的描述中,提供诸如具体的配置和组件的特定细节仅仅是为了帮助全面理解本发明的实施例。因此,本领域技术人员应该清楚,可以对这里描述的实施例进行各种改变和修改而不脱离本发明的范围和精神。另外,为了清楚和简洁,省略了对已知功能和构造的描述。
应理解,说明书通篇中提到的“一个实施例”或“一实施例”意味着与实施例有关的特定特征、结构或特性包括在本发明的至少一个实施例中。因此,在整个说明书各处出现的“在一个实施例中”或“在一实施例中”未必一定指相同的实施例。此外,这些特定的特征、结构或特性可以任意适合的方式结合在一个或多个实施例中。
在本发明的各种实施例中,应理解,下述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
请参照图1,给出了本发明实施例提供的命名实体识别方法的一种流程示意图,该命名实体识别方法能够提高命名实体识别的准确性。如图1所示,本发明实施例提供的命名实体识别方法包括:
步骤11,针对训练语句中的每个单词,获取所述单词的位置编码向量和词向量并合并,得到所述单词的第一特征向量,以及,根据包括所述单词在内的上下文是否存在于预设实体字典中,生成所述单词的第二特征向量。
这里,训练语句为预先收集的训练数据中的句子,所述训练数据通常包括多个训练语句。利用所述训练语句对神经网络模型进行训练,从而在获得训练好的神经网络模型之后,可以利用该神经网络模型对待识别语句进行命名实体的识别。
在本发明实施例的步骤11中,针对训练语句中的每个单词,需要获取所述单词的位置编码向量和词向量。为了提高处理效率,步骤11中可以直接利用预先训练好的词向量(Word Embedding)。具体的,词向量通常可以采用诸如词到向量(word2vec)算法、卷积神经网络(CNN)、递归神经网络RNN、双向编码器表示(BERT,Bidirectional EncoderRepresentation from Transformers)算法或随机初始化等算法训练得到的。位置编码向量包含有所述单词在所述训练语句中的位置特征信息。作为一种实现方式,位置编码向量可以参考transformer模型中的生成算法,如,按照第一公式生成所述位置编码向量的偶数位元素,按照第二公式生成所述位置编码向量的奇数位元素,其中,pos表示所述单词在所述训练语句中的位置,i表示偶数位元素或奇数位元素所对应的维度,dmodel表示所述词向量的维度。此时,位置编码向量是一个与词向量相同维度的向量,且其中的每个元素的取值范围均为-1~1。
另外,需要说明的是,以上提供的位置编码的生成算法,仅为本发明实施例生成位置编码的一种方式,其他更多的算法可以参考Jonas Gehring等在卷积序列到序列训练(Convolutionalsequence to sequence learning.arXiv preprint arXiv:1705.03122v2,2017)一文,本发明实施例不再赘述。
在本发明实施例中,获得所述单词的位置编码向量和词向量之后,对所述单词的位置编码向量和词向量进行合并,具体的合并方式包括但不限于向量相加和向量拼接,其中,所述向量拼接是指把两个向量的首尾相连以得到一个更高维度的向量,例如,在两个特征向量均为20维时,在进行向量拼接后可以得到一个40维的向量。本发明实施例在此采用向量相加的方式,将所述单词的位置编码向量和词向量相加,得到同一维度的第一特征向量,此时,该第一特征向量既包括有词向量的特征信息,还包括有所述单词在训练语句中的位置特征信息。
在步骤11中,还生成了所述单词的第二特征向量。具体的,根据所述训练语句中的预设长度的上下文,是否存在于所述实体字典中,得到所述单词的独热编码,即,基于该上下文的所述单词的独热编码。其中,所述实体字典包括有多个参考实体,所述上下文中包括有所述单词,且以所述单词为边界。所述预设长度可以是1~N,这里,N可以根据所述实体字典内的参考实体的最大长度N'以及对运算量的要求等因素进行设置,例如设置成N'或接近于N'的一个整数。然后,对获得的不同长度的上下文下方所述单词的独热编码并进行拼接,得到所述单词的第二特征向量。即,对基于不同长度的上下文的所述单词的独热编码进行拼接,将拼接所得到的向量,作为所述单词的第二特征向量。
例如,对于一个给定的句子X=(x1,x2,…,xn)和一个实体词典,其中,x1,x2,…,xn分别表示句子中顺序排序的单词。首先使用预先定义的上下文模板,基于包含有单词xi的N元组(N-gram)构造上下文模板。表1中给出了上下文模板的一个示例。
N元组 | 上下文模板 |
1元组 | x<sub>i</sub> |
2元组 | x<sub>i-1</sub>x<sub>i</sub>,x<sub>i</sub>x<sub>i+1</sub> |
3元组 | x<sub>i-2</sub>x<sub>i-1</sub>x<sub>i</sub>,x<sub>i</sub>x<sub>i+1</sub>x<sub>i+2</sub> |
… | … |
N元组 | x<sub>i-n+1</sub>x<sub>i-n+2</sub>…x<sub>i</sub>,x<sub>i</sub>x<sub>i+1</sub>…x<sub>i+n-1</sub> |
表1
对于各个上下文模板的文本段,可以生成一个二进制值来指示该文本段是否是实体字典中的参考实体。然后,将基于所有的上下文模板所生成的二进制值进行拼接,可以生成一个(2N-1)维的向量(即本文所述的第二特征向量),该第二特征向量包含有从实体字典中提取的实体边界信息。
图2给出了生成第二特征向量的一个具体示例,其中,以句子“This statementwas issued by the Federal Government of the United States”中的单词“Federal”为例进行说明。按照不同长度的上下文模板,可以获得包括该单词“Federal”在内,且以该单词为边界的多种不同长度的上下文:
1元组的上下文:“Federal”;
2元组的上下文:“the Federal”和“Federal Government”;
3元组的上下文:“by the Federal”和“Federal Government of”;
……
6元组的上下文:“statement was issued by the Federal”和“FederalGovernment of the United States”。
通过分别判断以上各个上下文是否存在于一个预先获得的实体字典中,生成在每个上下文下该单词所对应的编码,例如,若存在于实体字典中,则编码为1,否则编码为0,从而可以获得如图2所示的一个11维的第二特征向量。
步骤12,将所述单词的第一特征向量输入神经网络模型中的多头注意力模型,训练得到所述单词的语义信息特征,以及,将所述单词的第二特征向量输入神经网络模型中的注意力模型,训练得到所述单词的实体边界特征。其中,所述多头注意力模型用于将所述单词的第一特征向量分割为多个头,训练并合并每个头的注意力表示,每个头的注意力表示是对该头的自注意力表示以及除该头以外的剩余头的自注意力表示合并后得到的。
也就是说,本发明实施例在训练某个头的注意力表示时,除了计算该头的自注意力表示外,还会将第一特征向量中除该头外的剩余头的自注意力表示,并将该头的注意力表示和剩余头的子注意力表示进行合并,并将合并结果作为该头的注意力表示,然后,将第一特征向量的各个头的注意力表示合并,从而得到所述单词的语义信息特征,该语义信息特征可以通过隐藏层状态表示。具体的,上述合并方式包括向量拼接或向量相加。
图3给出了上述多头注意力模型训练的一个示例,将维度为dmodel的第一特征向量Vec分割为h个头,每个头表示为Si,即Vec=Concat(S1,S2,…,Sh),每个头的维度然后,针对每个头,分别从第一特征向量中移除该头,得到维度的剩余头S′i,每个剩余头为第一特征向量中除该头以外的头拼接而成的向量,即S′i=Concat(S1,S2,…,Si-1,Si+1,…,Sh)。分别对Si和S′i进行自注意力计算,并将计算结果做拼接,将拼接结果作为输入向量第i个头的注意力结果。然后,将第一特征向量的每个头的注意力结果做拼接,作为当前输入的注意力表示。
自注意力计算是基于编码器的输入向量(如第一特征向量)生成3个向量,分别为查询向量Q、键向量K和值向量V,代表了query、key-value对。Q、K、V通常是由输入向量乘以不同维度的权重矩阵生成。根据query和key相似度计算注意力权重,然后根据注意力权重对value进行加权即得到注意力。注意力的计算公式为:
关于注意力计算的更多细节可以参考现有技术的介绍,本文不再详细说明。
通过以上对多头的处理,本发明实施例将每个头的内部特征(该头的自注意力表示)和上下文特征(剩余头的自注意力表示)结合起来,作为每个头的新表示,该新表示可以更为准确的表达单词的特征信息,有利于提高命名实体的识别准确性。
另外,步骤12中,还将所述单词的第二特征向量输入神经网络模型中的注意力模型,训练得到所述单词的实体边界特征,该实体边界特征可以通过隐藏层状态表示。这里,由于第二特征向量的长度通常较小,因此可以直接采用自注意力模型进行训练。
步骤13,合并所述单词的语义信息特征和实体边界特征,得到所述单词的输出特征,并根据所述训练语句中各个单词的输出特征进行命名实体识别。
这里,可以将所述语义信息特征的隐藏层状态与所述实体边界特征的隐藏层状态合并(具体可以是向量拼接或向量相加),得到所述单词的隐藏层状态,作为所述单词的输出特征。图4给出了以上训练过程的一个示例,将单词的词向量与位置编码向量相加,然后输入多头注意力模型进行训练,得到输出结果将第二特征向量输入注意力模型进行训练,得到输出结果将和结合,结合的结果hi作为训练语句第i个单词的最终隐藏层状态表示,从而可以获得所述训练语句输入模型后输出的隐藏层状态序列表示,即所述训练语句中各个单词的隐藏层状态所组成的序列(h0,h1,…,hn)。
然后,根据所述训练语句中各个单词的隐藏层状态所组成的序列,生成所述训练语句的分段序列,并将所述分段序列输入至所述神经网络模型的输出层(softmax)层,对所述神经网络模型进行训练,并基于最大似然估计算法,选择使似然率最大的参数,从而获得所述softmax层输出的具有最高条件概率的结果,作为所述训练语句的各个分段序列所属的命名实体及其概率。
例如,对于具有预测标记序列y=(y1,y2,…,yn)的训练语句x=(x1,x2,…,xn),其预测分数可定义为公式其中表示将xi分类到第yi个标签的打分值。Pi可定义为公式Pi=Wshi+bs,其中Ws和bs是模型的可训练参数。
通过以上步骤,本发明实施例在多头注意力训练中,将词向量中的某个头部的内部特征和该头部的上下文特征结合,作为该头部的新表示,从而可以更好的表达单词的特征信息,由于在命名实体识别中充分利用了单词内部的上下文信息,本发明实施例能够提高命名实体识别的准确性。
在上述步骤13之后,本发明实施例还可以将训练得到的所述神经网络模型应用于具体的命名实体识别任务中,例如,对待处理语句中的命名实体进行识别和标注。由于本发明实施例在训练生成神经网络模型时引入了词向量内部的上下文信息,其所训练得到的神经网络模型具有较好的实体识别效果,可以提高实体识别的准确性。
基于以上方法,本发明实施例还提供了实施上述方法的装置,请参考图5,本发明实施例提供的命名实体识别装置50,该命名实体识别装置50可以应用于各种命名实体识别场景中,能够提高命名实体识别的准确性。如图5所示,该命名实体识别装置50具体包括:
第一向量生成单元51,用于针对训练语句中的每个单词,获取所述单词的位置编码向量和词向量并合并,得到所述单词的第一特征向量;
第二向量生成单元52,用于根据包括所述单词在内的上下文是否存在于预设实体字典中,生成所述单词的第二特征向量;
第一特征训练单元53,用于将所述单词的第一特征向量输入神经网络模型中的多头注意力模型,训练得到所述单词的语义信息特征,其中,所述多头注意力模型用于将所述第一特征向量分割为多个头,训练并合并每个头的注意力表示,每个头的注意力表示是对该头的自注意力表示以及除该头以外的剩余头的自注意力表示合并后得到的;
第二特征训练单元54,用于将所述单词的第二特征向量输入神经网络模型中的注意力模型,训练得到所述单词的实体边界特征;
识别单元55,用于合并所述单词的语义信息特征和实体边界特征,得到所述单词的输出特征,并根据所述训练语句中各个单词的输出特征进行命名实体识别。
此外,根据本发明至少一个实施例,所述第一向量生成单元51,还用于按照第一公式生成所述位置编码向量的偶数位元素,以及,按照第二公式生成所述位置编码向量的奇数位元素,其中,pos表示所述单词在所述训练语句中的位置,i表示偶数位元素或奇数位元素所对应的维度,dmodel表示所述词向量的维度。
可选的,所述单词的词向量是根据词到向量word2vec算法、卷积神经网络CNN、递归神经网络RNN、双向编码器表示BERT算法或随机初始化算法训练得到的。
此外,根据本发明至少一个实施例,所述第二向量生成单元52,还用于根据所述训练语句中预设长度的上下文,是否存在于所述实体字典中,得到所述单词的独热编码,其中,所述实体字典包括有多个参考实体,所述上下文中包括有所述单词,且以所述单词为边界;获得不同长度的上下文下方所述单词的独热编码并进行拼接,得到所述单词的第二特征向量。
此外,根据本发明至少一个实施例,所述识别单元55,还用于将所述语义信息特征的隐藏层状态与所述实体边界特征的隐藏层状态合并,得到所述单词的隐藏层状态。
此外,根据本发明至少一个实施例,所述识别单元55,还用于基于所述训练语句各个单词的隐藏层状态,生成所述训练语句的分段序列,并将所述分段序列输入至所述神经网络模型的输出层softmax层,对所述神经网络模型进行训练,并基于最大似然估计算法,获得所述softmax层输出的具有最高条件概率的结果,作为所述训练语句的各个分段序列所属的命名实体及其概率。
此外,根据本发明至少一个实施例,所述命名实体识别装置50还可以包括以下单元(图5中未示出):
标注单元,用于利用训练得到的所述神经网络模型,对待识别语句进行命名实体的识别和标注。
通过以上单元,本发明实施例的命名实体识别装置可以将词向量内部的上下文特征引入到命名实体识别中,从而提高了命名实体识别的准确性。
请参考图6,本发明实施例还提供了命名实体识别装置的一种硬件结构框图,如图6所示,该命名实体识别装置600包括:
处理器602;和
存储器604,在所述存储器604中存储有计算机程序指令,
其中,在所述计算机程序指令被所述处理器运行时,使得所述处理器602执行以下步骤:
针对训练语句中的每个单词,获取所述单词的位置编码向量和词向量并合并,得到所述单词的第一特征向量,以及,根据包括所述单词在内的上下文是否存在于预设实体字典中,生成所述单词的第二特征向量;
将所述单词的第一特征向量输入神经网络模型中的多头注意力模型,训练得到所述单词的语义信息特征,以及,将所述单词的第二特征向量输入神经网络模型中的注意力模型,训练得到所述单词的实体边界特征,其中,所述多头注意力模型用于将所述第一特征向量分割为多个头,训练并合并每个头的注意力表示,每个头的注意力表示是对该头的自注意力表示以及除该头以外的剩余头的自注意力表示合并后得到的;
合并所述单词的语义信息特征和实体边界特征,得到所述单词的输出特征,并根据所述训练语句中各个单词的输出特征进行命名实体识别。
进一步地,如图6所示,该命名实体识别装置600还可以包括网络接口601、输入设备603、硬盘605、和显示设备606。
上述各个接口和设备之间可以通过总线架构互连。总线架构可以是包括任意数量的互联的总线和桥。具体由处理器602代表的一个或者多个中央处理器(CPU),以及由存储器604代表的一个或者多个存储器的各种电路连接在一起。总线架构还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其它电路连接在一起。可以理解,总线架构用于实现这些组件之间的连接通信。总线架构除包括数据总线之外,还包括电源总线、控制总线和状态信号总线,这些都是本领域所公知的,因此本文不再对其进行详细描述。
所述网络接口601,可以连接至网络(如因特网、局域网等),从网络中接收数据(如训练语句),并可以将接收到的数据保存在硬盘605中。
所述输入设备603,可以接收操作人员输入的各种指令,并发送给处理器602以供执行。所述输入设备603可以包括键盘或者点击设备(例如,鼠标,轨迹球(trackball)、触感板或者触摸屏等)。
所述显示设备606,可以将处理器602执行指令获得的结果进行显示,例如显示命名实体识别的结果等。
所述存储器604,用于存储操作系统运行所必须的程序和数据,以及处理器602计算过程中的中间结果等数据。
可以理解,本发明实施例中的存储器604可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(ROM)、可编程只读存储器(PROM)、可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)或闪存。易失性存储器可以是随机存取存储器(RAM),其用作外部高速缓存。本文描述的装置和方法的存储器604旨在包括但不限于这些和任意其它适合类型的存储器。
在一些实施方式中,存储器604存储了如下的元素,可执行模块或者数据结构,或者他们的子集,或者他们的扩展集:操作系统6041和应用程序6042。
其中,操作系统6041,包含各种系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务。应用程序6042,包含各种应用程序,例如浏览器(Browser)等,用于实现各种应用业务。实现本发明实施例方法的程序可以包含在应用程序6042中。
本发明上述实施例揭示的命名实体识别方法可以应用于处理器602中,或者由处理器602实现。处理器602可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述命名实体识别方法的各步骤可以通过处理器602中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器602可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件,可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器604,处理器602读取存储器604中的信息,结合其硬件完成上述方法的步骤。
可以理解的是,本文描述的这些实施例可以用硬件、软件、固件、中间件、微码或其组合来实现。对于硬件实现,处理单元可以实现在一个或多个专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑设备(PLD)、现场可编程门阵列(FPGA)、通用处理器、控制器、微控制器、微处理器、用于执行本申请所述功能的其它电子单元或其组合中。
对于软件实现,可通过执行本文所述功能的模块(例如过程、函数等)来实现本文所述的技术。软件代码可存储在存储器中并通过处理器执行。存储器可以在处理器中或在处理器外部实现。
具体地,所述计算机程序被处理器602执行时还可实现如下步骤:
按照第一公式生成所述位置编码向量的偶数位元素,以及,按照第二公式生成所述位置编码向量的奇数位元素,其中,pos表示所述单词在所述训练语句中的位置,i表示偶数位元素或奇数位元素所对应的维度,dmodel表示所述词向量的维度。
可选的,所述单词的词向量是根据词到向量word2vec算法、卷积神经网络CNN、递归神经网络RNN、双向编码器表示BERT算法或随机初始化算法训练得到的。
具体地,所述计算机程序被处理器602执行时还可实现如下步骤:
根据所述训练语句中预设长度的上下文,是否存在于所述实体字典中,得到所述单词的独热编码,其中,所述实体字典包括有多个参考实体,所述上下文中包括有所述单词,且以所述单词为边界;获得不同长度的上下文下方所述单词的独热编码并进行拼接,得到所述单词的第二特征向量。
具体地,所述计算机程序被处理器602执行时还可实现如下步骤:
将所述语义信息特征的隐藏层状态与所述实体边界特征的隐藏层状态合并,得到所述单词的隐藏层状态。
具体地,所述计算机程序被处理器602执行时还可实现如下步骤:
基于所述训练语句各个单词的隐藏层状态,生成所述训练语句的分段序列,并将所述分段序列输入至所述神经网络模型的输出层softmax层,对所述神经网络模型进行训练,并基于最大似然估计算法,获得所述softmax层输出的具有最高条件概率的结果,作为所述训练语句的各个分段序列所属的命名实体及其概率。
具体地,所述计算机程序被处理器602执行时还可实现如下步骤:
利用训练得到的所述神经网络模型,对待识别语句进行命名实体的识别和标注。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的命名实体识别方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁盘或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (11)
1.一种命名实体识别方法,其特征在于,包括:
针对训练语句中的每个单词,获取所述单词的位置编码向量和词向量并合并,得到所述单词的第一特征向量,以及,根据包括所述单词在内的上下文是否存在于预设实体字典中,生成所述单词的第二特征向量;
将所述单词的第一特征向量输入神经网络模型中的多头注意力模型,训练得到所述单词的语义信息特征,以及,将所述单词的第二特征向量输入神经网络模型中的注意力模型,训练得到所述单词的实体边界特征,其中,所述多头注意力模型用于将所述第一特征向量分割为多个头,训练并合并每个头的注意力表示,每个头的注意力表示是对该头的自注意力表示以及除该头以外的剩余头的自注意力表示合并后得到的;
合并所述单词的语义信息特征和实体边界特征,得到所述单词的输出特征,并根据所述训练语句中各个单词的输出特征进行命名实体识别。
3.如权利要求1所述的方法,其特征在于,所述单词的词向量是根据词到向量word2vec算法、卷积神经网络CNN、递归神经网络RNN、双向编码器表示BERT算法或随机初始化算法训练得到的。
4.如权利要求1所述的方法,其特征在于,根据包括所述单词在内的上下文是否存在于预设实体字典中,生成所述单词的第二特征向量,包括:
根据所述训练语句中预设长度的上下文,是否存在于所述实体字典中,得到所述单词的独热编码,其中,所述实体字典包括有多个参考实体,所述上下文中包括有所述单词,且以所述单词为边界;
获得不同长度的上下文下方所述单词的独热编码并进行拼接,得到所述单词的第二特征向量。
5.如权利要求1所述的方法,其特征在于,合并所述单词的语义信息特征和实体边界特征,得到所述单词的输出特征,包括:
将所述语义信息特征的隐藏层状态与所述实体边界特征的隐藏层状态合并,得到所述单词的隐藏层状态。
6.如权利要求5所述的方法,其特征在于,根据所述训练语句中各个单词的输出特征进行命名实体识别,包括:
基于所述训练语句各个单词的隐藏层状态,生成所述训练语句的分段序列,并将所述分段序列输入至所述神经网络模型的输出层softmax层,对所述神经网络模型进行训练,并基于最大似然估计算法,获得所述softmax层输出的具有最高条件概率的结果,作为所述训练语句的各个分段序列所属的命名实体及其概率。
7.如权利要求6所述的方法,其特征在于,在训练所述神经网络模型之后,所述方法还包括:
利用训练得到的所述神经网络模型,对待识别语句进行命名实体的识别和标注。
8.一种命名实体识别装置,其特征在于,包括:
第一向量生成单元,用于针对训练语句中的每个单词,获取所述单词的位置编码向量和词向量并合并,得到所述单词的第一特征向量;
第二向量生成单元,用于根据包括所述单词在内的上下文是否存在于预设实体字典中,生成所述单词的第二特征向量;
第一特征训练单元,用于将所述单词的第一特征向量输入神经网络模型中的多头注意力模型,训练得到所述单词的语义信息特征,其中,所述多头注意力模型用于将所述第一特征向量分割为多个头,训练并合并每个头的注意力表示,每个头的注意力表示是对该头的自注意力表示以及除该头以外的剩余头的自注意力表示合并后得到的;
第二特征训练单元,用于将所述单词的第二特征向量输入神经网络模型中的注意力模型,训练得到所述单词的实体边界特征;
识别单元,用于合并所述单词的语义信息特征和实体边界特征,得到所述单词的输出特征,并根据所述训练语句中各个单词的输出特征进行命名实体识别。
9.如权利要求8所述的命名实体识别装置,其特征在于,
所述第二向量生成单元,还用于根据所述训练语句中预设长度的上下文,是否存在于所述实体字典中,得到所述单词的独热编码,其中,所述实体字典包括有多个参考实体,所述上下文中包括有所述单词,且以所述单词为边界;获得不同长度的上下文下方所述单词的独热编码并进行拼接,得到所述单词的第二特征向量。
10.如权利要求8所述的命名实体识别装置,其特征在于,
所述识别单元,还用于将所述语义信息特征的隐藏层状态与所述实体边界特征的隐藏层状态合并,得到所述单词的隐藏层状态。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的命名实体识别方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910650142.5A CN112329465A (zh) | 2019-07-18 | 2019-07-18 | 一种命名实体识别方法、装置及计算机可读存储介质 |
EP20185774.5A EP3767516A1 (en) | 2019-07-18 | 2020-07-14 | Named entity recognition method, apparatus, and computer-readable recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910650142.5A CN112329465A (zh) | 2019-07-18 | 2019-07-18 | 一种命名实体识别方法、装置及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112329465A true CN112329465A (zh) | 2021-02-05 |
Family
ID=71620185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910650142.5A Pending CN112329465A (zh) | 2019-07-18 | 2019-07-18 | 一种命名实体识别方法、装置及计算机可读存储介质 |
Country Status (2)
Country | Link |
---|---|
EP (1) | EP3767516A1 (zh) |
CN (1) | CN112329465A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113076127A (zh) * | 2021-04-25 | 2021-07-06 | 南京大学 | 编程环境下问答内容的提取方法、系统、电子设备及介质 |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111145914B (zh) * | 2019-12-30 | 2023-08-04 | 四川大学华西医院 | 一种确定肺癌临床病种库文本实体的方法及装置 |
CN111680159B (zh) * | 2020-06-11 | 2023-08-29 | 华东交通大学 | 数据处理方法、装置及电子设备 |
CN112818701B (zh) * | 2021-02-01 | 2023-07-04 | 上海明略人工智能(集团)有限公司 | 用于确定对话实体识别模型的方法、装置及设备 |
CN113807095B (zh) * | 2021-03-03 | 2024-05-17 | 京东科技控股股份有限公司 | 实体词提取模型的训练方法、装置、设备和存储介质 |
CN113157883A (zh) * | 2021-04-07 | 2021-07-23 | 浙江工贸职业技术学院 | 一种基于双模型结构的中文意见目标边界预测方法 |
CN113158624B (zh) * | 2021-04-09 | 2023-12-08 | 中国人民解放军国防科技大学 | 事件抽取中融合语言信息微调预训练语言模型的方法及系统 |
CN113158679B (zh) * | 2021-05-20 | 2023-07-04 | 广东工业大学 | 基于多特征叠加胶囊网络的海洋产业实体识别方法及装置 |
CN113191150B (zh) * | 2021-05-21 | 2022-02-25 | 山东省人工智能研究院 | 一种多特征融合的中文医疗文本命名实体识别方法 |
CN113345574B (zh) * | 2021-05-26 | 2022-03-22 | 复旦大学 | 基于bert语言模型与cnn模型的中医胃痛养生方案获取装置 |
CN113239694B (zh) * | 2021-06-04 | 2022-06-14 | 北京理工大学 | 一种基于论元短语的论元角色识别的方法 |
CN113553052B (zh) * | 2021-06-09 | 2022-07-08 | 麒麟软件有限公司 | 使用Attention编码表示自动识别与安全相关的代码提交的方法 |
CN113420559A (zh) * | 2021-06-22 | 2021-09-21 | 苏州智汇谷科技服务有限公司 | 一种警情信息分层要素识别方法和计算机 |
CN113297394A (zh) * | 2021-06-29 | 2021-08-24 | 中国人民解放军国防科技大学 | 基于知识图谱的数据链网络保障方案智能推荐方法及应用 |
CN113343701B (zh) * | 2021-06-30 | 2022-08-02 | 广东电网有限责任公司 | 一种电力设备故障缺陷文本命名实体的抽取方法及装置 |
CN113743448B (zh) * | 2021-07-15 | 2024-04-30 | 上海朋熙半导体有限公司 | 模型训练数据获取方法、模型训练方法和装置 |
CN113591480B (zh) * | 2021-07-23 | 2023-07-25 | 深圳供电局有限公司 | 电力计量的命名实体识别方法、装置和计算机设备 |
CN113609861B (zh) * | 2021-08-10 | 2024-02-23 | 北京工商大学 | 基于食品文献数据的多维度特征命名实体识别方法及系统 |
CN113724819B (zh) * | 2021-08-31 | 2024-04-26 | 平安国际智慧城市科技股份有限公司 | 医疗命名实体识别模型的训练方法、装置、设备及介质 |
CN113935324B (zh) * | 2021-09-13 | 2022-10-28 | 昆明理工大学 | 基于词集合特征加权的跨境民族文化实体识别方法及装置 |
CN113919350A (zh) * | 2021-09-22 | 2022-01-11 | 上海明略人工智能(集团)有限公司 | 一种实体识别方法、系统、电子设备及存储介质 |
CN114048730A (zh) * | 2021-11-05 | 2022-02-15 | 光大科技有限公司 | 一种分词和实体联合识别模型训练方法及装置 |
CN114139541B (zh) * | 2021-11-22 | 2022-08-02 | 北京中科闻歌科技股份有限公司 | 命名实体识别方法、装置、设备及介质 |
CN113901827B (zh) * | 2021-12-10 | 2022-03-18 | 北京邮电大学 | 实体识别和关系抽取方法、装置、电子设备及存储介质 |
CN114564958B (zh) * | 2022-01-11 | 2023-08-04 | 平安科技(深圳)有限公司 | 文本识别方法、装置、设备及介质 |
CN114580424B (zh) * | 2022-04-24 | 2022-08-05 | 之江实验室 | 一种用于法律文书的命名实体识别的标注方法和装置 |
CN115204176B (zh) * | 2022-07-28 | 2023-06-06 | 平安科技(深圳)有限公司 | 命名实体识别方法、系统及存储介质 |
CN115358231A (zh) * | 2022-08-30 | 2022-11-18 | 北京龙智数科科技服务有限公司 | 自然语言预训练模型训练方法、装置、设备及存储介质 |
CN115994539B (zh) * | 2023-02-17 | 2024-05-10 | 成都信息工程大学 | 一种基于卷积门控和实体边界预测的实体抽取方法及系统 |
CN116011456B (zh) * | 2023-03-17 | 2023-06-06 | 北京建筑大学 | 基于提示学习的中文建筑规范文本实体识别方法及系统 |
CN116384515B (zh) * | 2023-06-06 | 2023-09-01 | 之江实验室 | 一种模型训练的方法、装置、存储介质及电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160350653A1 (en) * | 2015-06-01 | 2016-12-01 | Salesforce.Com, Inc. | Dynamic Memory Network |
CN108984683A (zh) * | 2018-06-29 | 2018-12-11 | 北京百度网讯科技有限公司 | 结构化数据的提取方法、系统、设备及存储介质 |
CN109388807A (zh) * | 2018-10-30 | 2019-02-26 | 中山大学 | 电子病历命名实体识别的方法、装置及存储介质 |
CN109408812A (zh) * | 2018-09-30 | 2019-03-01 | 北京工业大学 | 一种基于注意力机制的序列标注联合抽取实体关系的方法 |
CN109657226A (zh) * | 2018-09-20 | 2019-04-19 | 北京信息科技大学 | 多联结注意力的阅读理解模型、系统及方法 |
CN109800437A (zh) * | 2019-01-31 | 2019-05-24 | 北京工业大学 | 一种基于特征融合的命名实体识别方法 |
CN109902296A (zh) * | 2019-01-18 | 2019-06-18 | 华为技术有限公司 | 自然语言处理方法、训练方法及数据处理设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108829678A (zh) * | 2018-06-20 | 2018-11-16 | 广东外语外贸大学 | 一种汉语国际教育领域命名实体识别方法 |
-
2019
- 2019-07-18 CN CN201910650142.5A patent/CN112329465A/zh active Pending
-
2020
- 2020-07-14 EP EP20185774.5A patent/EP3767516A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160350653A1 (en) * | 2015-06-01 | 2016-12-01 | Salesforce.Com, Inc. | Dynamic Memory Network |
CN108984683A (zh) * | 2018-06-29 | 2018-12-11 | 北京百度网讯科技有限公司 | 结构化数据的提取方法、系统、设备及存储介质 |
CN109657226A (zh) * | 2018-09-20 | 2019-04-19 | 北京信息科技大学 | 多联结注意力的阅读理解模型、系统及方法 |
CN109408812A (zh) * | 2018-09-30 | 2019-03-01 | 北京工业大学 | 一种基于注意力机制的序列标注联合抽取实体关系的方法 |
CN109388807A (zh) * | 2018-10-30 | 2019-02-26 | 中山大学 | 电子病历命名实体识别的方法、装置及存储介质 |
CN109902296A (zh) * | 2019-01-18 | 2019-06-18 | 华为技术有限公司 | 自然语言处理方法、训练方法及数据处理设备 |
CN109800437A (zh) * | 2019-01-31 | 2019-05-24 | 北京工业大学 | 一种基于特征融合的命名实体识别方法 |
Non-Patent Citations (2)
Title |
---|
ASHISH VASWANI 等: "Attention Is All You Need", 《31ST CONFERENCE ON NEURAL INFORMATION PROCESSING SYSTEMS (NIPS 2017)》, pages 1 - 11 * |
YIHAN LI 等: "SRCB Neural Machine Translation Systems in WAT 2018", 《PACLIC 32 - WAT 2018》, pages 1 - 5 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113076127A (zh) * | 2021-04-25 | 2021-07-06 | 南京大学 | 编程环境下问答内容的提取方法、系统、电子设备及介质 |
WO2022226714A1 (zh) * | 2021-04-25 | 2022-11-03 | 南京大学 | 编程环境下问答内容的提取方法、系统、电子设备及介质 |
CN113076127B (zh) * | 2021-04-25 | 2023-08-29 | 南京大学 | 编程环境下问答内容的提取方法、系统、电子设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
EP3767516A1 (en) | 2021-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112329465A (zh) | 一种命名实体识别方法、装置及计算机可读存储介质 | |
CN109033068B (zh) | 基于注意力机制的用于阅读理解的方法、装置和电子设备 | |
CN108959246B (zh) | 基于改进的注意力机制的答案选择方法、装置和电子设备 | |
US20200242302A1 (en) | Intention identification method, intention identification apparatus, and computer-readable recording medium | |
CN113656581B (zh) | 文本分类及模型训练的方法、装置、设备以及存储介质 | |
CN112395385B (zh) | 基于人工智能的文本生成方法、装置、计算机设备及介质 | |
JP7286810B2 (ja) | テキスト知能化洗浄方法、装置及びコンピュータ読み取り可能な記憶媒体 | |
CN110309511B (zh) | 基于共享表示的多任务语言分析系统及方法 | |
CN110990555B (zh) | 端到端检索式对话方法与系统及计算机设备 | |
WO2021015936A1 (en) | Word-overlap-based clustering cross-modal retrieval | |
WO2022174496A1 (zh) | 基于生成模型的数据标注方法、装置、设备及存储介质 | |
CN116304748B (zh) | 一种文本相似度计算方法、系统、设备及介质 | |
RU2712101C2 (ru) | Предсказание вероятности появления строки с использованием последовательности векторов | |
CN110795935A (zh) | 文字词向量模型的训练方法、装置、终端及存储介质 | |
CN111459977A (zh) | 自然语言查询的转换 | |
CN110738059A (zh) | 一种文本相似度计算方法及系统 | |
CN114445832A (zh) | 基于全局语义的文字图像识别方法、装置及计算机设备 | |
CN111353295A (zh) | 序列标注方法、装置、存储介质及计算机设备 | |
CN111639500A (zh) | 语义角色标注方法、装置、计算机设备及存储介质 | |
CN113468883A (zh) | 位置信息的融合方法、装置及计算机可读存储介质 | |
CN111783435A (zh) | 共享词汇的选择方法、装置及存储介质 | |
CN113033192B (zh) | 一种序列标注的训练方法、装置及计算机可读存储介质 | |
CN117371447A (zh) | 命名实体识别模型的训练方法、装置及存储介质 | |
CN113807512B (zh) | 机器阅读理解模型的训练方法、装置及可读存储介质 | |
CN115270792A (zh) | 一种医疗实体识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |