CN110298019B - 命名实体识别方法、装置、设备及计算机可读存储介质 - Google Patents
命名实体识别方法、装置、设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN110298019B CN110298019B CN201910420794.XA CN201910420794A CN110298019B CN 110298019 B CN110298019 B CN 110298019B CN 201910420794 A CN201910420794 A CN 201910420794A CN 110298019 B CN110298019 B CN 110298019B
- Authority
- CN
- China
- Prior art keywords
- word
- named entity
- target
- vector
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Character Discrimination (AREA)
Abstract
本申请提供一种命名实体识别方法、装置、设备及计算机可读存储介质,该方法包括:根据监测到的命名实体识别请求,确定待识别的目标语句,并获取命名实体识别模型;将目标语句输入至所述词编码层,得到目标语句中的每个词分别对应的第一词向量;将目标语句输入字编码层,得到目标语句中的每个字分别对应的目标字向量;以词为单位,将每个词中的各个字的目标字向量依次输入至双向长短期记忆网络层,得到每个词分别对应的第二词向量;将每个词分别对应的第一词向量和第二词向量输入至命名实体识别层,得到目标语句中的命名实体。本申请采用深度学习和自然语言处理技术表征语义信息,减少语义信息的丢失,可以提高命名实体的识别精确性。
Description
技术领域
本申请涉及语义解析的技术领域,尤其涉及一种命名实体识别方法、装置、设备及计算机可读存储介质。
背景技术
命名实体识别(Named Entity Recognition,NER)是自然语言处理中的一项基础的任务,是指从文本中识别出命名性指称项,为关系抽取等任务做铺垫。狭义上是识别出人名、地名和组织机构名等专有名词。在智能面试场景中,需要对面试者的回答文本进行分析,从该回答文本中识别出命名实体,如人名、地名和机构名等,便于自动化的对面试者信息进行结构化处理,如将面试者的姓名、毕业院校和毕业院校所在地从回答文本中识别出来存放在数据库中。
对于中文命名实体识别,目前包括基于词的命名实体识别和基于字的命名实体识别,然而基于词的命名实体识别和基于字的命名实体识别,均存在语义信息缺失的情况,而缺失语义信息,则会导致命名实体的识别精确性不高的问题,因此,如何提高命名实体的识别精确性是目前亟待解决的问题。
发明内容
本申请的主要目的在于提供一种命名实体识别方法、装置、设备及计算机可读存储介质,旨在提高命名实体的识别精确性。
第一方面,本申请提供一种命名实体识别方法,所述命名实体识别方法包括以下步骤:
当监测到命名实体识别请求时,根据所述命名实体识别请求,确定待识别的目标语句,并获取命名实体识别模型,其中,所述命名实体识别模型至少包括词编码层、字编码层、双向长短期记忆网络层和命名实体识别层;
将所述目标语句输入至所述词编码层,得到所述目标语句中的每个词分别对应的第一词向量;
将所述目标语句输入所述字编码层,得到所述目标语句中的每个字分别对应的目标字向量;
以词为单位,将每个词中的各个字的目标字向量依次输入至所述双向长短期记忆网络层,得到每个词分别对应的第二词向量;
将每个词分别对应的第一词向量和第二词向量输入至所述命名实体识别层,得到所述目标语句中的命名实体。
第二方面,本申请还提供一种命名实体识别装置,所述命名实体识别装置包括:
确定模块,用于当监测到命名实体识别请求时,根据所述命名实体识别请求,确定待识别的目标语句;
获取模块,用于获取命名实体识别模型,其中,所述命名实体识别模型至少包括词编码层、字编码层、双向长短期记忆网络层和命名实体识别层;
第一词向量确定模块,用于将所述目标语句输入至所述词编码层,得到所述目标语句中的每个词分别对应的第一词向量;
字向量确定模块,用于将所述目标语句输入所述字编码层,得到所述目标语句中的每个字分别对应的目标字向量;
第二词向量确定模块,用于以词为单位,将每个词中的各个字的目标字向量依次输入至所述双向长短期记忆网络层,得到每个词分别对应的第二词向量;
命名实体识别模块,用于将每个词分别对应的第一词向量和第二词向量输入至所述命名实体识别层,得到所述目标语句中的命名实体。
第三方面,本申请还提供一种计算机设备,所述计算机设备包括处理器、存储器、以及存储在所述存储器上并可被所述处理器执行的计算机程序,其中所述计算机程序被所述处理器执行时,实现如上述的命名实体识别方法的步骤。
第四方面,本申请还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其中所述计算机程序被处理器执行时,实现如上述的命名实体识别方法的步骤。
本申请提供一种命名实体识别方法、装置、设备及计算机可读存储介质,本申请通过命名实体识别模型的词编码层,可以得到目标语句中的每个词在词粒度下的向量表示,而通过命名实体识别模型的字编码层和双向长短期记忆网络层,可以得到目标语句中的每个词在字粒度下的向量表示,可以减少字粒度下的信息丢失,然后结合每个词在字粒度和词粒度下的向量表示以及命名实体识别模型,可以精确的识别出语句中的命名实体,有效的提高了命名实体的识别精确性。
附图说明
为了更清楚地说明本申请实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种命名实体识别方法的流程示意图;
图2为本申请实施例提供的命名实体识别模型的一层级示意图;
图3为图1中的命名实体识别方法的子步骤流程示意图;
图4为本申请实施例提供的另一种命名实体识别方法的流程示意图;
图5为本申请实施例提供的一种命名实体识别装置的示意性框图;
图6为图5中的命名实体识别装置的子模块的示意性框图;
图7为本申请实施例提供的另一种命名实体识别装置的示意性框图;
图8为本申请一实施例涉及的计算机设备的结构示意框图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
附图中所示的流程图仅是示例说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解、组合或部分合并,因此实际执行的顺序有可能根据实际情况改变。
本申请实施例提供一种命名实体识别方法、装置、计算机设备及计算机可读存储介质。其中,该命名实体识别方法可应用于服务器中,该服务器可以为单台的服务器,也可以为服务器集群。
下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
请参照图1,图1为申请的实施例提供的一种命名实体识别方法的流程示意图。
如图1所示,该命名实体识别方法,用于精确的向用户推荐理财产品,其中该命名实体识别方法包括步骤S101至步骤S105。
步骤S101、当监测到命名实体识别请求时,根据所述命名实体识别请求,确定待识别的目标语句,并获取命名实体识别模型。
其中,该命名实体识别模型为经过训练得到的,具体地,由于命名实体识别为有监督问题,为此,对样本数据集进行标注,设标注后的样本数据集为[X,Y],则输入为X=x_1,x_2,x_3,……,x_n,输出是Y=y_1,y_2,y_3,……,y_n,x_1表示句子序列中的第一个词,X表示由词构成的句子,y_1表示x_1对应的标注,Y表示标注构成的序列,在得到标注后的样本数据集[X,Y]之后,基于标注后的样本数据集对待训练的命名实体识别模型进行训练,直到待训练的命名实体识别模型收敛,从而得到命名实体识别模型。
其中,该命名实体识别模型至少包括词编码层、字编码层、双向长短期记忆网络层和命名实体识别层,且命名实体识别层包括单向长短期记忆网络层和条件随机场(Conditional Random Field algorithm,CRF)层,需要说明的是,待训练的命名实体识别模型的损失函数可选为:
其中,es(X,y)为语句X的序列分数,为所有语句的序列分数之和,Zi,x为句子X中第i个词在LSTM模型层的隐含层输出,yi为句子X中第i个词对应的标注,yi-1为句子X中第i-1个词对应的标注,n为句子X中词的个数,矩阵W和b,表示实体标签之间的转移概率,W中的元素为向量,而b中的元素为数值。由于损失函数中,单向长短期记忆网络层的隐含层输出与CRF层的概率转移矩阵之间的关系为相乘,则可以增大模型的假设空间,进一步地提高命名实体识别模型的识别精确性。
图2为本申请实施例提供的命名实体识别模型的一层级示意图,如图2所示,该命名实体识别模型包括词编码层、字编码层、双向长短期记忆网络层和命名实体识别层,且目标语句分别输入词编码层和字编码层。
通过终端设备采集面试者的语音数据,并生成携带有该语音数据的命名实体识别请求,且将该命名实体识别请求发送至服务器,当服务器监测到该命名实体识别请求时,根据该命名实体识别请求,确定待识别的目标语句,并获取命名实体识别模型。其中,待识别的目标语句的确定方式具体为:从该命名实体请求中获取语音数据,并对该语音数据进行语音识别,以将该语音数据转换为文本语句,然后将该文本语句确定为待识别的目标语句。
步骤S102、将所述目标语句输入至所述词编码层,得到所述目标语句中的每个词分别对应的第一词向量。
在确定目标语句之后,该服务器将该目标语句输入至命名实体识别模型的词编码层,得到该目标语句中每个词分别对应的第一词向量,具体为:词编码层中预存一词向量矩阵,当目标语句输入到词编码层之后,对该目标语句执行拆分处理,以将目标语句拆分为若干词语,并根据该词向量矩阵,将若干词语中的每个词表示为对应的第一词向量,即从若干词中依次获取一个词,记为目标词,然后从该词向量矩阵中获取与该目标词对应的词向量,并将该词向量确定为该目标词的第一词向量,直至若干词中的每个词均获取一遍,从而可以得到该目标语句中每个词分别对应的第一词向量。
需要说明的是,词向量矩阵的一行表示一个词的词向量,且词向量矩阵可基于实际情况进行设置,本方案对此不作具体限定。
例如,词向量矩阵为:其中,词向量矩阵的第一行对应的词语为“苹果”,第二行对应的词语为“手机”,最后一行对应的词语为“模型”,因此,词语“苹果”的第一词向量为[0.1,0.34,......,0.89],词语“手机”的第一词向量为[0.98,0.3,......,0.76],词语“模型”的第二词向量为[0.77,0.3,......,0.22]。
步骤S103、将所述目标语句输入所述字编码层,得到所述目标语句中的每个字分别对应的目标字向量。
在将目标语句输入词编码层的同时,将该目标语句输入至命名实体识别模型的字编码层,得到该目标语句中的每个字分别对应的目标字向量,具体为该字编码层中预存有一字向量矩阵,当目标语句输入至该字编码层之后,将该目标语句拆分为若干单字,并根据该字向量矩阵,确定目标语句中的每个字分别对应的目标字向量,即从若干单字中依次获取一个单字,记为目标单字,然后从该字向量矩阵中获取与该目标单字对应的字向量,并将该字向量确定为该目标单字的目标字向量,直至若干单字中的每个单字均获取一遍,从而可以得到该目标语句中每个字分别对应的目标字向量。需要说明的是,字向量矩阵的一行表示一个单字的字向量,且字向量矩阵可基于实际情况进行设置,本方案对此不作具体限定。
步骤S104、以词为单位,将每个词中的各个字的目标字向量依次输入至所述双向长短期记忆网络层,得到每个词分别对应的第二词向量。
在得到该目标语句中每个字的目标字向量之后,该服务器以词为单位,将每个词中的各个字的目标字向量依次输入至该命名实体识别模型的双向长短期记忆网络层,得到每个词分别对应的第二词向量。
在一实施例中,为了避免字粒度下的语义信息丢失,需要通过双向长短期记忆网络层表征字粒度下的语义信息,具体地,参照图3,步骤S104包括:子步骤S1041至子步骤S1042。
子步骤S1041、以词为单位,将每个词中各个字的目标字向量依次输入至所述双向长短期记忆网络层,得到每个词中的各个字的正向隐含层输出和逆向隐含层输出。
在得到该目标语句中每个字的目标字向量之后,该服务器以词为单位,将每个词中各个字的目标字向量依次输入至双向长短期记忆网络层,得到每个词中的各个字的正向隐含层输出和逆向隐含层输出。其中,该双向长短期记忆网络层由一个正向循环神经网络(Recurrent Neural Network,RNN)和一个逆向RNN组成,双向长短期记忆网络为传统长短期记忆网络的扩展,可以提高序列分类问题的模型性能。
子步骤S1042、根据每个词中的各个字的正向隐含层输出和逆向隐含层输出,确定每个词分别对应的第二词向量。
在得到每个词中的各个字的正向隐含层输出和逆向隐含层输出之后,根据每个词中的各个字的正向隐含层输出和逆向隐含层输出,确定每个词分别对应的第二词向量,具体为:获取每个词的词首字对应的逆向隐含层输出以及词尾字对应的正向隐含层输出,并将每个词的词首字对应的逆向隐含层输出与词尾字对应的正向隐含层输出进行拼接,得到每个词分别对应的第二词向量。
需要说明的是,词首字对应的逆向隐含层输出与每个词的词尾字对应的正向隐含层输出的拼接方式为顺序拼接,例如,某个词语的词首字对应的逆向隐含层输出为[0.2,0.3,……,0.9],且词尾字对应的正向隐层输出为[0.8,0.7,……,0.4],则拼接得到的第二词向量为[0.2,0.3,……,0.9,0.8,0.7,……,0.4]。
步骤S105、将每个词分别对应的第一词向量和第二词向量输入至所述命名实体识别层,得到所述目标语句中的命名实体。
在得到每个词分别对应的第一词向量和第二词向量之后,该服务器将每个词分别对应的第一词向量和第二词向量输入至该命名实体识别模型的命名实体识别层,得到该目标语句中的命名实体,即以词为单位,将每个词对应的第一词向量和第二词向量输入至该命名实体识别层中的单向长短期网络,得到每个词对应的隐含层输出,并将每个词对应的隐含层输出输入到该命名实体识别层中的CRF网络,得到每个词的实体标签,从而完成待识别语句中命名实体的识别。
在一实施例中,第一词向量为词粒度下的语义信息表征,而第二词向量为字粒度下的语义信息表征,为提高命名实体准确性,需要融合词粒度和字粒度下的语义信息表征,具体地,以词为单位,将每个词对应的第一词向量和第二词向量依次输入至该命名实体识别层中的向量拼接子层,得到每个词对应的拼接词向量,然后将每个词对应的拼接词向量输入至该命名实体识别层中的命名实体识别子层,得到该目标语句中的命名实体,即以词为单位,将每个词对应的拼接词向量输入至命名实体识别子层中的单向长短期网络,得到每个词对应的隐含层输出,并将每个词对应的隐含层输出输入到该命名实体识别子层中的CRF网络,得到每个词的实体标签,从而完成待识别语句中命名实体的识别。其中,该命名实体识别层包括向量拼接子层和命名实体识别子层,且命名实体识别子层由单向长短期网络和CRF网络组成。
上述实施例提供的命名实体识别方法,通过命名实体识别模型的词编码层,可以得到目标语句中的每个词在词粒度下的向量表示,而通过命名实体识别模型的字编码层和双向长短期记忆网络层,可以得到目标语句中的每个词在字粒度下的向量表示,可以减少字粒度下的信息丢失,然后结合每个词在字粒度和词粒度下的向量表示以及命名实体识别模型,可以精确的识别出语句中的命名实体,有效的提高了命名实体的识别精确性。
请参照图4,图4为本申请实施例提供的另一种命名实体识别方法的流程示意图。
如图4所示,该命名实体识别方法包括步骤S201至205。
步骤S201、当监测到命名实体识别请求时,根据所述命名实体识别请求,确定待识别的目标语句,并获取命名实体识别模型。
其中,该命名实体识别模型至少包括词编码层、字编码层、双向长短期记忆网络层和命名实体识别层,且命名实体识别层包括单向长短期记忆网络层和CRF层。
通过终端设备采集面试者的语音数据,并生成携带有该语音数据的命名实体识别请求,且将该命名实体识别请求发送至服务器,当服务器监测到该命名实体识别请求时,根据该命名实体识别请求,确定待识别的目标语句,并获取命名实体识别模型。其中,待识别的目标语句的确定方式具体为:从该命名实体请求中获取语音数据,并对该语音数据进行语音识别,以将该语音数据转换为文本语句,然后将该文本语句确定为待识别的目标语句。
步骤S202、将所述目标语句输入至所述词编码层,得到所述目标语句中的每个词分别对应的第一词向量。
在确定目标语句之后,该服务器将该目标语句输入至命名实体识别模型的词编码层,得到该目标语句中每个词分别对应的第一词向量,具体为:词编码层中预存一词向量矩阵,当目标语句输入到词编码层之后,对该目标语句执行拆分处理,以将目标语句拆分为若干词语,并根据该词向量矩阵,将若干词语中的每个词表示为对应的第一词向量,即从若干词中依次获取一个词,记为目标词,然后从该词向量矩阵中获取与该目标词对应的词向量,并将该词向量确定为该目标词的第一词向量,直至若干词中的每个词均获取一遍,从而可以得到该目标语句中每个词分别对应的第一词向量。
步骤S203、将所述目标语句输入所述字编码层,得到所述目标语句中的每个字分别对应的目标字向量。
在将目标语句输入词编码层的同时,将该目标语句输入至命名实体识别模型的字编码层,得到该目标语句中的每个字分别对应的目标字向量。为更准确的表征字粒度下的语义信息,通过融合字向量和拼音向量,可以得到各字对应的目标字向量,具体地,参照图4,步骤S203包括子步骤S2031至S2033。
子步骤S2031、将所述目标语句输入至所述字编码层中的字向量编码子层,得到所述目标语句中每个字分别对应的字向量。
其中,该字编码层包括字向量编码子层、拼音向量编码子层和向量拼接子层。将该目标语句输入至该字编码层中的字向量编码子层,得到该目标语句中每个字分别对应的字向量,具体地,该字向量编码子层中预设有一字向量矩阵,将目标语句输入至字编码层中的字向量编码子层之后,通过该字向量编码子层中的字向量矩阵,获取目标语句中每个字分别对应的字向量,即将该目标语句拆分为若干单字,并从若干单字中依次获取一个单字,记为目标单字,然后从该字向量矩阵中获取与该目标单字对应的字向量,直至若干单字中的每个单字均获取一遍,从而可以得到该目标语句中每个字分别对应的字向量。需要说明的是,上述字向量矩阵可基于实际情况进行设置,本实施例对此不作具体限定。
子步骤S2032、将所述目标语句输入至所述字编码层中的拼音向量编码子层,得到所述目标语句中每个字分别对应的拼音向量。
在将目标语句输入至字向量编码子层的同时,将该目标语句输入至该字编码层中的拼音向量编码子层,得到该目标语句中每个字分别对应的拼音向量,具体地,将该目标语句输入至字编码层中的拼音向量编码子层,并通过该拼音向量编码子层中的字符向量矩阵,获取该目标语句中的每个字包含的各拼音字符对应的字符向量,然后按照拼音字符的自然顺序,将每个字包含的各拼音字符对应的字符向量进行拼接,得到该目标语句中每个字分别对应的拼音向量。
例如,“朗”字包含的拼音字符分别为“l”、“a”、“n”和“g”,且自然顺序为l-a-n-g,设拼音字符“l”、“a”、“n”和“g”的字符向量分别为[0.1,0.36,......,0.89]、[0.9,0.3,......,0.76]、[0.88,0.4,......,0.46]和[0.6,0.3,......,0.36],则拼音字符“l”、“a”、“n”和“g”的字符向量进行拼接之后,得到的拼音向量为[0.1,0.36,......,0.89,0.9,0.3,......,0.76,0.88,0.4,......,0.46,0.6,0.3,......,0.36]。
子步骤S2033、以字为单位,将所述目标语句中每个字分别对应的字向量以及拼音向量依次输入至所述字编码层中的向量拼接子层,得到所述目标语句中每个字分别对应的目标字向量。
在确定每个字的字向量以及拼音向量之后,以字为单位,将目标语句中每个字分别对应的字向量以及拼音向量依次输入至该字编码层中的向量拼接子层,得到目标语句中每个字分别对应的目标字向量。其中,拼接方式包括字向量拼接在拼音向量之前和字向量拼接在拼音向量之后。例如,“国”的字向量和拼音向量分别为[0.2,0.36,......,0.86]和[0.3,0.56,......,0.89],则“国”的目标字向量可以为[0.2,0.36,......,0.86,0.3,0.56,......,0.89],“国”的目标字向量还可以为[0.3,0.56,......,0.89,0.2,0.36,......,0.86]。
步骤S204、以词为单位,将每个词中的各个字的目标字向量依次输入至所述双向长短期记忆网络层,得到每个词分别对应的第二词向量。
在得到该目标语句中每个字的目标字向量之后,该服务器以词为单位,将每个词中的各个字的目标字向量依次输入至该命名实体识别模型的双向长短期记忆网络层,得到每个词分别对应的第二词向量。
步骤S205、将每个词分别对应的第一词向量和第二词向量输入至所述命名实体识别层,得到所述目标语句中的命名实体。
在得到每个词分别对应的第一词向量和第二词向量之后,该服务器将每个词分别对应的第一词向量和第二词向量输入至该命名实体识别模型的命名实体识别层,得到该目标语句中的命名实体,即以词为单位,将每个词对应的第一词向量和第二词向量输入至该命名实体识别层中的单向长短期网络,得到每个词对应的隐含层输出,并将每个词对应的隐含层输出输入到该命名实体识别层中的CRF网络,得到每个词的实体标签,从而完成待识别语句中命名实体的识别。
上述实施例提供的命名实体识别方法,通过命名实体识别模型的词编码层,可以得到目标语句中的每个词在词粒度下的向量表示,通过字的字向量、拼音向量和双向长短期记忆网络层,可以进一步地准确表征字粒度下的语义信息,可以减少字粒度下的信息丢失,然后结合每个词在字粒度和词粒度下的向量表示以及命名实体识别模型,可以精确的识别出语句中的命名实体,有效的提高了命名实体的识别精确性。
请参照图5,图5为本申请实施例提供的一种命名实体识别装置的示意性框图。
如图5所示,该命名实体识别装置300,包括:确定模块301、获取模块302、第一词向量确定模块303、字向量确定模块304、第二词向量确定模块305和命名实体识别模块306。
确定模块301,用于当监测到命名实体识别请求时,根据所述命名实体识别请求,确定待识别的目标语句。
获取模块302,用于获取命名实体识别模型,其中,所述命名实体识别模型至少包括词编码层、字编码层、双向长短期记忆网络层和命名实体识别层;
第一词向量确定模块303,用于将所述目标语句输入至所述词编码层,得到所述目标语句中的每个词分别对应的第一词向量。
字向量确定模块304,用于将所述目标语句输入所述字编码层,得到所述目标语句中的每个字分别对应的目标字向量。
第二词向量确定模块305,用于以词为单位,将每个词中的各个字的目标字向量依次输入至所述双向长短期记忆网络层,得到每个词分别对应的第二词向量。
在一个实施例中,如图6所示,所述第二词向量确定模块305包括:
隐含层输出确定子模块3051,用于以词为单位,将每个词中各个字的目标字向量依次输入至所述双向长短期记忆网络层,得到每个词中的各个字的正向隐含层输出和逆向隐含层输出;
词向量确定子模块3052,用于根据每个词中的各个字的正向隐含层输出和逆向隐含层输出,确定每个词分别对应的第二词向量。
在一个实施例中,所述词向量确定子模块3052,还用于获取每个词的词首字对应的逆向隐含层输出以及词尾字对应的正向隐含层输出;将每个词的词首字对应的逆向隐含层输出与词尾字对应的正向隐含层输出进行拼接,得到每个词分别对应的第二词向量。
命名实体识别模块306,用于将每个词分别对应的第一词向量和第二词向量输入至所述命名实体识别层,得到所述目标语句中的命名实体。
在一个实施例中,所述命名实体识别模块306,还用于以词为单位,将每个词对应的第一词向量和第二词向量依次输入至所述命名实体识别层中的向量拼接子层,得到每个词对应的拼接词向量;将每个词对应的拼接词向量输入至所述命名实体识别层中的命名实体识别子层,得到所述目标语句中的命名实体。
请参照图7,图7为本申请实施例提供的另一种命名实体识别装置的示意性框图。
如图7所示,该命名实体识别装置400,包括:确定模块401、获取模块402、第一词向量确定模块403、字向量确定模块404、第二词向量确定模块405和命名实体识别模块406。
确定模块401,用于当监测到命名实体识别请求时,根据所述命名实体识别请求,确定待识别的目标语句。
获取模块402,用于获取命名实体识别模型,其中,所述命名实体识别模型至少包括词编码层、字编码层、双向长短期记忆网络层和命名实体识别层;
第一词向量确定模块403,用于将所述目标语句输入至所述词编码层,得到所述目标语句中的每个词分别对应的第一词向量。
字向量确定模块404,用于将所述目标语句输入所述字编码层,得到所述目标语句中的每个字分别对应的目标字向量。
在一个实施例中,如图7所示,所述字向量确定模块404包括:
字向量确定子模块4041,用于将所述目标语句输入至所述字编码层中的字向量编码子层,得到所述目标语句中每个字分别对应的字向量;
拼音向量确定子模块4042,用于将所述目标语句输入至所述字编码层中的拼音向量编码子层,得到所述目标语句中每个字分别对应的拼音向量;
目标字向量确定子模块4043,用于以字为单位,将所述目标语句中每个字分别对应的字向量以及拼音向量依次输入至所述字编码层中的向量拼接子层,得到所述目标语句中每个字分别对应的目标字向量。
在一个实施例中,所述字向量确定子模块4041,还用于将所述目标语句输入至所述字编码层中的字向量编码子层;通过所述字向量编码子层中的字向量矩阵,获取所述目标语句中每个字分别对应的字向量。
在一个实施例中,所述拼音向量确定子模块4042,还用于将所述目标语句输入至所述字编码层中的拼音向量编码子层;通过所述拼音向量编码子层中的字符向量矩阵,获取所述目标语句中的每个字包含的各拼音字符对应的字符向量;将每个字包含的各拼音字符对应的字符向量进行拼接,得到所述目标语句中每个字分别对应的拼音向量。
第二词向量确定模块405,用于以词为单位,将每个词中的各个字的目标字向量依次输入至所述双向长短期记忆网络层,得到每个词分别对应的第二词向量。
命名实体识别模块406,用于将每个词分别对应的第一词向量和第二词向量输入至所述命名实体识别层,得到所述目标语句中的命名实体。
在一个实施例中,所述命名实体识别模块406,还用于以词为单位,将每个词对应的第一词向量和第二词向量依次输入至所述命名实体识别层中的向量拼接子层,得到每个词对应的拼接词向量;将每个词对应的拼接词向量输入至所述命名实体识别层中的命名实体识别子层,得到所述目标语句中的命名实体。
需要说明的是,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的装置和各模块及单元的具体工作过程,可以参考前述命名实体识别方法实施例中的对应过程,在此不再赘述。
上述实施例提供的装置可以实现为一种计算机程序的形式,该计算机程序可以在如图8所示的计算机设备上运行。
请参阅图8,图8为本申请实施例提供的一种计算机设备的结构示意性框图。该计算机设备可以为服务器。
如图8所示,该计算机设备包括通过系统总线连接的处理器、存储器和网络接口,其中,存储器可以包括非易失性存储介质和内存储器。
非易失性存储介质可存储操作系统和计算机程序。该计算机程序包括程序指令,该程序指令被执行时,可使得处理器执行任意一种命名实体识别方法。
处理器用于提供计算和控制能力,支撑整个计算机设备的运行。
内存储器为非易失性存储介质中的计算机程序的运行提供环境,该计算机程序被处理器执行时,可使得处理器执行任意一种命名实体识别方法。
该网络接口用于进行网络通信,如发送分配的任务等。本领域技术人员可以理解,图8中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
应当理解的是,处理器可以是中央处理单元(Central Processing Unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
其中,在一个实施例中,所述处理器用于运行存储在存储器中的计算机程序,以实现如下步骤:
当监测到命名实体识别请求时,根据所述命名实体识别请求,确定待识别的目标语句,并获取命名实体识别模型,其中,所述命名实体识别模型至少包括词编码层、字编码层、双向长短期记忆网络层和命名实体识别层;
将所述目标语句输入至所述词编码层,得到所述目标语句中的每个词分别对应的第一词向量;
将所述目标语句输入所述字编码层,得到所述目标语句中的每个字分别对应的目标字向量;
以词为单位,将每个词中的各个字的目标字向量依次输入至所述双向长短期记忆网络层,得到每个词分别对应的第二词向量;
将每个词分别对应的第一词向量和第二词向量输入至所述命名实体识别层,得到所述目标语句中的命名实体。
在一个实施例中,所述处理器在实现以词为单位,将每个词中的各个字的目标字向量依次输入至所述双向长短期记忆网络层,得到每个词分别对应的第二词向量时,用于实现:
以词为单位,将每个词中各个字的目标字向量依次输入至所述双向长短期记忆网络层,得到每个词中的各个字的正向隐含层输出和逆向隐含层输出;
根据每个词中的各个字的正向隐含层输出和逆向隐含层输出,确定每个词分别对应的第二词向量。
在一个实施例中,所述处理器在实现根据每个词中各个字的正向隐含层输出和逆向隐含层输出,确定每个词分别对应的第二词向量时,用于实现:
获取每个词的词首字对应的逆向隐含层输出以及词尾字对应的正向隐含层输出;
将每个词的词首字对应的逆向隐含层输出与词尾字对应的正向隐含层输出进行拼接,得到每个词分别对应的第二词向量。
在一个实施例中,所述处理器在实现将每个词分别对应的第一词向量和第二词向量输入至所述命名实体识别层,得到所述目标语句中的命名实体时,用于实现:
以词为单位,将每个词对应的第一词向量和第二词向量依次输入至所述命名实体识别层中的向量拼接子层,得到每个词对应的拼接词向量;
将每个词对应的拼接词向量输入至所述命名实体识别层中的命名实体识别子层,得到所述目标语句中的命名实体。
其中,在另一实施例中,所述处理器用于运行存储在存储器中的计算机程序,以实现将所述目标语句输入所述字编码层,得到所述目标语句中的每个字分别对应的目标字向量的步骤包括:
将所述目标语句输入至所述字编码层中的字向量编码子层,得到所述目标语句中每个字分别对应的字向量;
将所述目标语句输入至所述字编码层中的拼音向量编码子层,得到所述目标语句中每个字分别对应的拼音向量;
以字为单位,将所述目标语句中每个字分别对应的字向量以及拼音向量依次输入至所述字编码层中的向量拼接子层,得到所述目标语句中每个字分别对应的目标字向量。
在一个实施例中,所述处理器在实现将所述目标语句输入至所述字编码层中的字向量编码子层,得到所述目标语句中每个字分别对应的字向量时,用于实现:
将所述目标语句输入至所述字编码层中的字向量编码子层;
通过所述字向量编码子层中的字向量矩阵,获取所述目标语句中每个字分别对应的字向量。
在一个实施例中,所述处理器在实现将所述目标语句输入至所述字编码层中的拼音向量编码子层,得到所述目标语句中每个字分别对应的拼音向量时,用于实现:
将所述目标语句输入至所述字编码层中的拼音向量编码子层;
通过所述拼音向量编码子层中的字符向量矩阵,获取所述目标语句中的每个字包含的各拼音字符对应的字符向量;
将每个字包含的各拼音字符对应的字符向量进行拼接,得到所述目标语句中每个字分别对应的拼音向量。
本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序中包括程序指令,所述程序指令被执行时所实现的方法可参照本申请命名实体识别方法的各个实施例。
其中,所述计算机可读存储介质可以是前述实施例所述的计算机设备的内部存储单元,例如所述计算机设备的硬盘或内存。所述计算机可读存储介质也可以是所述计算机设备的外部存储设备,例如所述计算机设备上配备的插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (8)
1.一种命名实体识别方法,其特征在于,包括:
当监测到命名实体识别请求时,根据所述命名实体识别请求,确定待识别的目标语句,并获取命名实体识别模型,其中,所述命名实体识别模型至少包括词编码层、字编码层、双向长短期记忆网络层和命名实体识别层;
将所述目标语句输入至所述词编码层,得到所述目标语句中的每个词分别对应的第一词向量;
将所述目标语句输入所述字编码层,得到所述目标语句中的每个字分别对应的目标字向量;
以词为单位,将每个词中的各个字的目标字向量依次输入至所述双向长短期记忆网络层,得到每个词分别对应的第二词向量;
将每个词分别对应的第一词向量和第二词向量输入至所述命名实体识别层,得到所述目标语句中的命名实体;
其中,所述以词为单位,将每个词中的各个字的目标字向量依次输入至所述双向长短期记忆网络层,得到每个词分别对应的第二词向量的步骤包括:
以词为单位,将每个词中各个字的目标字向量依次输入至所述双向长短期记忆网络层,得到每个词中的各个字的正向隐含层输出和逆向隐含层输出;
获取每个词的词首字对应的逆向隐含层输出以及词尾字对应的正向隐含层输出;
将每个词的词首字对应的逆向隐含层输出与词尾字对应的正向隐含层输出进行拼接,得到每个词分别对应的第二词向量。
2.如权利要求1所述的命名实体识别方法,其特征在于,所述将每个词分别对应的第一词向量和第二词向量输入至所述命名实体识别层,得到所述目标语句中的命名实体的步骤包括:
以词为单位,将每个词对应的第一词向量和第二词向量依次输入至所述命名实体识别层中的向量拼接子层,得到每个词对应的拼接词向量;
将每个词对应的拼接词向量输入至所述命名实体识别层中的命名实体识别子层,得到所述目标语句中的命名实体。
3.如权利要求1或2所述的命名实体识别方法,其特征在于,将所述目标语句输入所述字编码层,得到所述目标语句中的每个字分别对应的目标字向量的步骤包括:
将所述目标语句输入至所述字编码层中的字向量编码子层,得到所述目标语句中每个字分别对应的字向量;
将所述目标语句输入至所述字编码层中的拼音向量编码子层,得到所述目标语句中每个字分别对应的拼音向量;
以字为单位,将所述目标语句中每个字分别对应的字向量以及拼音向量依次输入至所述字编码层中的向量拼接子层,得到所述目标语句中每个字分别对应的目标字向量。
4.如权利要求3所述的命名实体识别方法,其特征在于,将所述目标语句输入至所述字编码层中的字向量编码子层,得到所述目标语句中每个字分别对应的字向量的步骤包括:
将所述目标语句输入至所述字编码层中的字向量编码子层;
通过所述字向量编码子层中的字向量矩阵,获取所述目标语句中每个字分别对应的字向量。
5.如权利要求3所述的命名实体识别方法,其特征在于,将所述目标语句输入至所述字编码层中的拼音向量编码子层,得到所述目标语句中每个字分别对应的拼音向量的步骤包括:
将所述目标语句输入至所述字编码层中的拼音向量编码子层;
通过所述拼音向量编码子层中的字符向量矩阵,获取所述目标语句中的每个字包含的各拼音字符对应的字符向量;
将每个字包含的各拼音字符对应的字符向量进行拼接,得到所述目标语句中每个字分别对应的拼音向量。
6.一种命名实体识别装置,其特征在于,所述命名实体识别装置包括:
确定模块,用于当监测到命名实体识别请求时,根据所述命名实体识别请求,确定待识别的目标语句;
获取模块,用于获取命名实体识别模型,其中,所述命名实体识别模型至少包括词编码层、字编码层、双向长短期记忆网络层和命名实体识别层;
第一词向量确定模块,用于将所述目标语句输入至所述词编码层,得到所述目标语句中的每个词分别对应的第一词向量;
字向量确定模块,用于将所述目标语句输入所述字编码层,得到所述目标语句中的每个字分别对应的目标字向量;
第二词向量确定模块,用于以词为单位,将每个词中的各个字的目标字向量依次输入至所述双向长短期记忆网络层,得到每个词分别对应的第二词向量;
命名实体识别模块,用于将每个词分别对应的第一词向量和第二词向量输入至所述命名实体识别层,得到所述目标语句中的命名实体;
其中,所述第二词向量确定模块包括:
隐含层输出确定子模块,用于以词为单位,将每个词中各个字的目标字向量依次输入至所述双向长短期记忆网络层,得到每个词中的各个字的正向隐含层输出和逆向隐含层输出;
词向量确定子模块,用于获取每个词的词首字对应的逆向隐含层输出以及词尾字对应的正向隐含层输出;以及将每个词的词首字对应的逆向隐含层输出与词尾字对应的正向隐含层输出进行拼接,得到每个词分别对应的第二词向量。
7.一种计算机设备,其特征在于,所述计算机设备包括处理器、存储器、以及存储在所述存储器上并可被所述处理器执行的计算机程序,其中所述计算机程序被所述处理器执行时,实现如权利要求1至5中任一项所述的命名实体识别方法的步骤。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,其中所述计算机程序被处理器执行时,实现如权利要求1至5中任一项所述的命名实体识别方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910420794.XA CN110298019B (zh) | 2019-05-20 | 2019-05-20 | 命名实体识别方法、装置、设备及计算机可读存储介质 |
PCT/CN2019/103141 WO2020232882A1 (zh) | 2019-05-20 | 2019-08-28 | 命名实体识别方法、装置、设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910420794.XA CN110298019B (zh) | 2019-05-20 | 2019-05-20 | 命名实体识别方法、装置、设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110298019A CN110298019A (zh) | 2019-10-01 |
CN110298019B true CN110298019B (zh) | 2023-04-18 |
Family
ID=68026983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910420794.XA Active CN110298019B (zh) | 2019-05-20 | 2019-05-20 | 命名实体识别方法、装置、设备及计算机可读存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110298019B (zh) |
WO (1) | WO2020232882A1 (zh) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110837737A (zh) * | 2019-11-11 | 2020-02-25 | 中国电子科技集团公司信息科学研究院 | 能力词实体识别方法 |
CN111160033B (zh) * | 2019-12-18 | 2024-02-27 | 车智互联(北京)科技有限公司 | 一种基于神经网络的命名实体识别方法、计算设备及存储介质 |
CN111124350B (zh) * | 2019-12-20 | 2023-10-27 | 科大讯飞股份有限公司 | 技能确定方法及相关设备 |
CN111079854B (zh) * | 2019-12-27 | 2024-04-23 | 联想(北京)有限公司 | 信息识别方法、设备及存储介质 |
CN113343693A (zh) * | 2020-03-03 | 2021-09-03 | 阿里巴巴集团控股有限公司 | 一种命名实体识别方法、装置、设备和机器可读介质 |
CN111444719B (zh) * | 2020-03-17 | 2023-10-20 | 车智互联(北京)科技有限公司 | 一种实体识别方法、装置和计算设备 |
CN113761922A (zh) * | 2020-06-05 | 2021-12-07 | 北京金山数字娱乐科技有限公司 | 一种基于多任务模型的词语处理方法及装置 |
CN111897929B (zh) * | 2020-08-04 | 2021-05-14 | 腾讯科技(深圳)有限公司 | 多轮问句的处理方法和装置、存储介质及电子设备 |
CN113011186B (zh) * | 2021-01-25 | 2024-04-26 | 腾讯科技(深圳)有限公司 | 命名实体识别方法、装置、设备及计算机可读存储介质 |
CN112800769B (zh) * | 2021-02-20 | 2024-06-14 | 深圳追一科技有限公司 | 命名实体识别方法、装置、计算机设备和存储介质 |
CN113011141A (zh) * | 2021-03-17 | 2021-06-22 | 平安科技(深圳)有限公司 | 佛经注解模型训练方法、佛经注解生成方法及相关设备 |
CN113139385B (zh) * | 2021-05-12 | 2024-05-14 | 北京化工大学 | 基于字词读音融合特征模型的电子病历命名实体识别方法 |
CN113673247A (zh) * | 2021-05-13 | 2021-11-19 | 江苏曼荼罗软件股份有限公司 | 基于深度学习的实体识别方法、装置、介质及电子设备 |
CN113392648B (zh) * | 2021-06-02 | 2022-10-18 | 北京三快在线科技有限公司 | 实体关系获取方法及装置 |
CN113283240B (zh) * | 2021-06-18 | 2023-07-07 | 竹间智能科技(上海)有限公司 | 共指消解方法及电子设备 |
CN113673245A (zh) * | 2021-07-15 | 2021-11-19 | 北京三快在线科技有限公司 | 实体识别方法、装置、电子设备及可读存储介质 |
CN113743120B (zh) * | 2021-09-07 | 2023-07-11 | 亿咖通(湖北)技术有限公司 | 语句处理方法及装置 |
CN114357177A (zh) * | 2021-12-08 | 2022-04-15 | 中国长城科技集团股份有限公司 | 知识超图的生成方法、装置、终端设备及存储介质 |
CN114943229B (zh) * | 2022-04-15 | 2024-03-12 | 西北工业大学 | 一种基于多级别特征融合的软件缺陷命名实体识别方法 |
CN114969359A (zh) * | 2022-05-10 | 2022-08-30 | 国网上海市电力公司 | 基于机器阅读理解的实体关系联合抽取方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108536679A (zh) * | 2018-04-13 | 2018-09-14 | 腾讯科技(成都)有限公司 | 命名实体识别方法、装置、设备及计算机可读存储介质 |
CN109117472A (zh) * | 2018-11-12 | 2019-01-01 | 新疆大学 | 一种基于深度学习的维吾尔文命名实体识别方法 |
CN109165384A (zh) * | 2018-08-23 | 2019-01-08 | 成都四方伟业软件股份有限公司 | 一种命名实体识别方法及装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10679011B2 (en) * | 2017-05-10 | 2020-06-09 | Oracle International Corporation | Enabling chatbots by detecting and supporting argumentation |
US11593558B2 (en) * | 2017-08-31 | 2023-02-28 | Ebay Inc. | Deep hybrid neural network for named entity recognition |
CN107908614A (zh) * | 2017-10-12 | 2018-04-13 | 北京知道未来信息技术有限公司 | 一种基于Bi‑LSTM的命名实体识别方法 |
CN108768824B (zh) * | 2018-05-15 | 2023-03-31 | 腾讯科技(深圳)有限公司 | 信息处理方法及装置 |
CN108763542A (zh) * | 2018-05-31 | 2018-11-06 | 中国华戎科技集团有限公司 | 一种基于联合学习的文本情报分类方法、装置及计算机设备 |
CN109190120B (zh) * | 2018-08-31 | 2020-01-21 | 第四范式(北京)技术有限公司 | 神经网络训练方法和装置及命名实体识别方法和装置 |
-
2019
- 2019-05-20 CN CN201910420794.XA patent/CN110298019B/zh active Active
- 2019-08-28 WO PCT/CN2019/103141 patent/WO2020232882A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108536679A (zh) * | 2018-04-13 | 2018-09-14 | 腾讯科技(成都)有限公司 | 命名实体识别方法、装置、设备及计算机可读存储介质 |
CN109165384A (zh) * | 2018-08-23 | 2019-01-08 | 成都四方伟业软件股份有限公司 | 一种命名实体识别方法及装置 |
CN109117472A (zh) * | 2018-11-12 | 2019-01-01 | 新疆大学 | 一种基于深度学习的维吾尔文命名实体识别方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2020232882A1 (zh) | 2020-11-26 |
CN110298019A (zh) | 2019-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110298019B (zh) | 命名实体识别方法、装置、设备及计算机可读存储介质 | |
US11948058B2 (en) | Utilizing recurrent neural networks to recognize and extract open intent from text inputs | |
CN112685565B (zh) | 基于多模态信息融合的文本分类方法、及其相关设备 | |
CN110444198B (zh) | 检索方法、装置、计算机设备和存储介质 | |
US10650311B2 (en) | Suggesting resources using context hashing | |
JP6909832B2 (ja) | オーディオにおける重要語句を認識するための方法、装置、機器及び媒体 | |
CN107341143B (zh) | 一种句子连贯性判断方法及装置和电子设备 | |
CN110019742B (zh) | 用于处理信息的方法和装置 | |
CN111223476B (zh) | 语音特征向量的提取方法、装置、计算机设备和存储介质 | |
CN110597965B (zh) | 文章的情感极性分析方法、装置、电子设备及存储介质 | |
CN111859916B (zh) | 古诗关键词提取、诗句生成方法、装置、设备及介质 | |
CN110765733A (zh) | 一种文本规整方法、装置、设备及存储介质 | |
CN114757176A (zh) | 一种获取目标意图识别模型的方法以及意图识别方法 | |
CN111967264A (zh) | 一种命名实体识别方法 | |
CN111368551A (zh) | 一种确定事件主体的方法和装置 | |
CN115099233A (zh) | 一种语义解析模型的构建方法、装置、电子设备及存储介质 | |
CN111400340A (zh) | 一种自然语言处理方法、装置、计算机设备和存储介质 | |
CN112417875B (zh) | 配置信息的更新方法、装置、计算机设备及介质 | |
CN113761923A (zh) | 命名实体识别方法、装置、电子设备及存储介质 | |
CN112395880A (zh) | 结构化三元组的纠错方法、装置、计算机设备及存储介质 | |
CN115620726A (zh) | 语音文本生成方法、语音文本生成模型的训练方法、装置 | |
CN115033683A (zh) | 摘要生成方法、装置、设备及存储介质 | |
CN114691716A (zh) | Sql语句转换方法、装置、设备及计算机可读存储介质 | |
CN114239601A (zh) | 语句的处理方法、装置及电子设备 | |
CN110276001B (zh) | 盘点页识别方法、装置、计算设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |