CN110633470A - 命名实体识别方法、装置及存储介质 - Google Patents
命名实体识别方法、装置及存储介质 Download PDFInfo
- Publication number
- CN110633470A CN110633470A CN201910878202.9A CN201910878202A CN110633470A CN 110633470 A CN110633470 A CN 110633470A CN 201910878202 A CN201910878202 A CN 201910878202A CN 110633470 A CN110633470 A CN 110633470A
- Authority
- CN
- China
- Prior art keywords
- vector
- character
- named entity
- vector representation
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Character Discrimination (AREA)
Abstract
本公开是关于一种命名实体识别方法、装置及存储介质。在该命名实体识别方法中,对训练语料中每一字符进行初始化,并通过双向卷积网络和注意力机制,对训练语料中随机初始化后的字符进行转换,得到所述训练语料中每个字符的字符向量表征;确定训练语料中每一句子的词向量表征;将所述词向量表征和所述字符向量表征进行拼接,生成第一向量表征;通过双向卷积网络对第一向量表征进行特征增强,并通过注意力机制对特征增强后的向量表征进行转换,得到第二向量表征;基于所述第二向量表征,进行命名实体的识别。通过本公开提高泛化能力,提高命名实体识别的识别能力。
Description
技术领域
本公开涉及自然语言处理领域,尤其涉及一种命名实体识别方法、装置及存储介质。
背景技术
命名实体识别(Named Entity Recognition,NER)是自然语言处理(NaturalLanguage Processing,NLP)领域研究的热点,也是NLP领域一项非常重要的基础工作。命名实体识别的目标是从自然语言中抽取出人名、地名、机构名等实体。
相关技术中,依靠规则并基于词典的方法进行命名实体识别,或者基于机器学习的方法进行命名实体识别。依靠规则并基于词典的方法,泛化能力比较差,迁移能力较差,并且需要大量的专家介入参与,成本较高。机器学习方法,利用一些人工提取的特征,采用隐马尔科夫、最大熵以及条件随机场等模型,对特征进行建模,也是需要大量的人工特征。
为此,引入了基于深度学习的方法,进行命名实体识别。基于深度学习的方法可以自动学习到更高层次的特征,从而减少人工构建对技术要求以及标注本身带来的主观性,从而减少成本以及获取更有效的特征。但是目前基于深度学习方法进行命名实体识别的方式仍存在有效特征信息捕获能力差,泛化能力差,识别能力较弱的情形,有待进一步完善。
发明内容
为克服相关技术中存在的问题,本公开提供一种命名实体识别方法、装置及存储介质。
根据本公开实施例的第一方面,提供一种命名实体识别方法,包括:
对训练语料中每一字符进行初始化,并通过双向卷积网络和注意力机制,对训练语料中随机初始化后的字符进行转换,得到所述训练语料中每个字符的字符向量表征;确定训练语料中每一句子的词向量表征;将所述词向量表征和所述字符向量表征进行拼接,生成第一向量表征;通过双向卷积网络对第一向量表征进行特征增强,并通过注意力机制对特征增强后的向量表征进行转换,得到第二向量表征;基于所述第二向量表征,进行命名实体的识别。
一示例中,将生成的所述第一向量表征通过双向卷积网络进行特征增强之前,所述方法还包括:对生成的第一向量表征进行随机失活处理。
通过双向卷积网络对第一向量表征进行特征增强,包括:通过双向卷积网络对随机失活处理后剩余的第一向量表征进行特征增强。
另一示例中,对训练语料中每一字符进行初始化包括:对训练语料中每一字符随机生成符合高斯分布的高斯分布向量值;
通过双向卷积网络和注意力机制,对训练语料中随机初始化后的字符进行转换,得到所述训练语料中每个字符的字符向量表征,包括:
将所述高斯分布向量值输入至双向卷积,并对从左往右以及从右往左分别产生的输出向量值进行连接操作,得到隐藏层输出向量;通过注意力机制对所述隐藏层输出向量进行转换得到字符向量表征。
又一示例中,通过注意力机制对所述隐藏层输出向量进行转换得到字符向量表征,包括:
根据预期命名实体词语的最大长度预设sigmoid激活函数中注意力窗口大小;利用具有所述注意力窗口大小的sigmoid激活函数对所述隐藏层输出向量进行转换得到字符向量表征。
又一示例中,确定训练语料中每一句子的词向量表征,包括:
使用分词工具对所述训练语料中的句子进行分词,其中,所述分词工具中导入有符合所述分词工具设定形式的词典;使用词嵌入文件或者随机初始化方式,将分词结果转化为词向量表征。
又一示例中,所述基于所述第二向量表征,进行命名实体的识别,包括:
通过条件随机场CRF模型或者软件最大化SOFT-MAX模型,对所述第二向量进行预测并识别出命名实体信息。
根据本公开实施例第二方面,提供一种命名实体识别装置,包括:
训练单元,被配置为对训练语料中每一字符进行初始化,并通过双向卷积网络和注意力机制,对训练语料中随机初始化后的字符进行转换,得到所述训练语料中每个字符的字符向量表征;确定训练语料中每一句子的词向量表征;将所述词向量表征和所述字符向量表征进行拼接,生成第一向量表征;通过双向卷积网络对第一向量表征进行特征增强,并通过注意力机制对特征增强后的向量表征进行转换,得到第二向量表征;
识别单元,被配置为基于所述第二向量表征,进行命名实体的识别。
一示例中,所述训练单元,还被配置为:将生成的所述第一向量表征通过双向卷积网络进行特征增强之前,对生成的第一向量表征进行随机失活处理;
所述训练单元被配置为采用如下方式通过双向卷积网络对第一向量表征进行特征增强:
通过双向卷积网络对随机失活处理后剩余的第一向量表征进行特征增强。
另一示例中,所述训练单元被配置为采用如下方式对训练语料中每一字符进行初始化:对训练语料中每一字符随机生成符合高斯分布的高斯分布向量值;
所述训练单元被配置为采用如下方式通过双向卷积网络和注意力机制,对训练语料中随机初始化后的字符进行转换,得到所述训练语料中每个字符的字符向量表征:
将所述高斯分布向量值输入至双向卷积,并对从左往右以及从右往左分别产生的输出向量值进行连接操作,得到隐藏层输出向量;通过注意力机制对所述隐藏层输出向量进行转换得到字符向量表征。
又一示例中,所述训练单元被配置为采用如下方式通过注意力机制对所述隐藏层输出向量进行转换得到字符向量表征:
根据预期命名实体词语的最大长度预设sigmoid激活函数中注意力窗口大小;利用具有所述注意力窗口大小的sigmoid激活函数对所述隐藏层输出向量进行转换得到字符向量表征。
又一示例中,所述训练单元被配置为采用如下方式确定训练语料中每一句子的词向量表征:
使用分词工具对所述训练语料中的句子进行分词,其中,所述分词工具中导入有符合所述分词工具设定形式的词典;使用词嵌入文件或者随机初始化方式,将分词结果转化为词向量表征。
又一示例中,所述识别单元被配置为采用如下方式基于所述第二向量表征,进行命名实体的识别:
通过条件随机场CRF模型或者软件最大化SOFT-MAX模型,对所述第二向量进行预测并识别出命名实体信息。
根据本公开实施例的第三方面提供一种命名实体识别装置,包括:
处理器;用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行上述第一方面或第一方面中任意一示例中所述的命名实体识别方法。
根据本公开实施例的第四方面提供一种非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行上述第一方面或第一方面中任意一示例中所述的命名实体识别方法。
本公开的实施例提供的技术方案可以包括以下有益效果:通过双向卷积网络和注意力机制,对训练语料中随机初始化后的字符进行转换,能够有效的确定边界。通过对词向量表征和字符向量表征拼接后得到向量表征再次经过双向卷积网络和注意力机制进行训练转换,实现多层次注意力机制的构建,进而能够捕获更有效的特征信息,从而提高泛化能力,提高命名实体识别的识别能力。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的一种命名实体识别方法的流程图。
图2是根据一示例性实施例示出的一种确定字符向量表征的流程图。
图3是根据一示例性实施例示出的一种确定词向量表征的流程图。
图4是根据一示例性实施例示出的一种命名实体识别方法的流程图。
图5是根据一示例性实施例示出的一种命名实体识别装置的框图。
图6是根据一示例性实施例示出的一种装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
本公开提供的命名实体识别方法主要应用于基于深度学习的中文命名实体识别场景中。在该命名实体识别方法中,基于字词联合以充分利用字词信息,并构建多重注意力机制以捕获更有效的特征信息,进而提高泛化能力,提高命名实体的识别能力。
图1是根据一示例性实施例示出的一种命名实体识别方法的流程图,如图1所示,命名实体识别方法用于终端中,包括以下步骤。
在步骤S11中,对训练语料中每一字符进行初始化。
在步骤S12中,通过双向卷积网络和注意力机制,对训练语料中随机初始化后的字符进行转换,得到训练语料中每个字符的字符向量表征。
本公开中,双向卷积网络例如可以是双向长短期记忆(Long Short-Term Memory,LSTM)网络,也可以是循环神经网络(Recurrent Neural Network,RNN),还可以是门控循环单元(Gated Recurrent Unit,GRU)。
在步骤S13中,确定训练语料中每一句子的词向量表征。
在步骤S14中,将词向量表征和字符向量表征进行拼接,生成向量表征。
本公开中,将词向量表征和字符向量表征进行拼接,可以将词和单字的特征进行综合,从而将特征信息的空间进行扩大,增加特征的丰富程度,便于模型的拟合。
本公开中为描述方便,将词向量表征和字符向量表征进行拼接后得到的向量表征称为第一向量表征。
在步骤S15中,通过双向卷积网络和注意力机制对第一向量表征进行转换得到新的向量表征。
本公开中,通过双向卷积网络对第一向量表征进行特征增强,并通过注意力机制对特征增强后的向量表征进行转换,得到新的向量表征。
本公开中通过双向卷积网络对第一向量表征进行特征组合,可得到一个隐藏的向量表示。对该隐藏的向量表示通过注意力机制进行转换,可以更好的学习到实体定义的边界,从而提升识别效果。
其中,对隐藏的向量表示通过注意力机制进行转换后得到新的向量,为描述方便,将对第一向量表征进行特征增强并通过注意力机制转换后得到的新的向量表征称为第二向量表征。
在步骤S16中,基于第二向量表征,进行命名实体的识别。
本公开实施例提供的命名实体识别方法,通过双向卷积网络和注意力机制,对训练语料中随机初始化后的字符进行转换,能够有效的确定边界。通过对词向量表征和字符向量表征拼接后得到向量表征再次经过双向卷积网络和注意力机制进行训练转换,实现多层次注意力机制的构建,进而能够捕获更有效的特征信息,从而提高泛化能力,提高命名实体识别的识别能力。
本公开以下将结合实际应用对上述实施例中涉及的命名实体识别方法进行说明。
本公开中,对训练语料中每一字符进行初始化时,可以采用随机初始化方法。在随机初始化时,例如可采用如下方式:对每个字符随机生成符合高斯分布的高斯分布向量值。
进一步的,本公开针对初始化后的字符,通过双向卷积网络进行特征增强,并对特征增强后的向量通过注意力机制进行转换,得到训练语料中每个字符的字符向量表征,以更好的确定特征边界。
图2是根据一示例性实施例示出的一种确定字符向量表征的示意图。参阅图2所示,包括如下步骤。
在步骤S110中,对训练语料中每一字符随机生成符合高斯分布的高斯分布向量值。
在步骤S120中,通过双向卷积网络对高斯分布向量值进行特征增强,得到隐藏层输出向量。
本公开中,对高斯分布向量值进行特征增强时,可将高斯分布向量值输入至双向卷积,并从左往右以及从右往左分别产生输出向量值,将从左往右以及从右往左分别产生的输出向量值进行连接操作,得到隐藏层输出向量。
在步骤S121中,通过注意力机制对隐藏层输出向量进行转换得到字符向量表征。
本公开中,通过注意力机制对隐藏层输出向量进行转换得到字符向量表征时,可根据预期命名实体词语的最大长度预设sigmoid激活函数中注意力窗口大小,然后利用具有盖注意力窗口大小的sigmoid激活函数对隐藏层输出向量进行转换得到新的向量。将该新的向量作为字符向量表征。
例如,本公开中可根据预期命名实体词语的长度调节sigmoid激活函数中注意力窗口的大小。其中,可根据预期命名实体词语的最大长度确定注意力窗口的大小。例如,本公开中可将注意力窗口大小设置为15。
本公开中,确定训练语料中每一句子的词向量表征时,可采用图3所示的方法。
图3是根据一示例性实施例示出的一种确定词向量表征的流程示意图。参阅图3所示,包括如下步骤。
在步骤S130中,采用分词工具对训练语料中的句子进行分词。
本公开中涉及的分词工具是能够导入自定义词典的分词工具。例如,可以使用jieba分词工具。
一种实施方式中,本公开中可使用结巴分词工具、自然语言处理工具(NaturalLanguage Toolkit,NLTK)等分词工具对训练语料中的句子进行分词。
进一步的,本公开中可将领域内的词典按照分词工具设定的形式导入至分词工具中,然后结合词典和分词工具进行分词,从而提高分词效果。
在步骤S131中,使用词嵌入文件或者随机初始化方式,将分词结果转化为词向量表征。
本公开中,可以使用训练好的词嵌入文件或者随机初始化方式将分词结果转化为词向量表征。其中,在使用训练好的词嵌入文件时,对分词得到的每个词语查找对应的向量值,进而将分词结果转化为词向量表征。在使用随机初始化方式时,可以对每个维度的值采用高斯分布生成向量值,基于该生成的向量值确定分词后得到的每个词语的词向量表征。
进一步的,本公开上述基于第二向量表征进行命名实体识别时,可将第二向量表征输入至条件随机场(Conditional Random Fields,CRF)模型或者SOFT-MAX模型进行预测并识别出命名实体信息。其中,利用CRF模型或者SOFT-MAX模型进行预测时,可采用通用的实现方式。例如,CRF中给定x计算输出y的定义为:
其中,上述公式中,x表示观察序列,y表示标注结果序列,Fk(y,x)为给定x和y的特征函数,λk为参数Fk的权重并通过训练得到,Z(x)为归一化函数。其中,
Z(x)=∑yexp(∑kλkFk(y,x))。
条件概率p(y|x,λ)的对数似然函数形式为:
根据对数似然函数对参数λk求一阶偏导数,从而得到CRF的参数方式估计为:
其中,上述公式中,其中~p(y,x)表示训练数据的经验分布,Ep[]表示分布p的期望。
Soft-max的定义为:
其中,上述公式中,在多分类任务中,Zi为第i个类的输出概率,K为全部的类的个数,指数函数ez为自然对数e的z次幂。σ(z)i—表示的是当前元素的指数与所有元素指数和的比值,这样可以实现将多分类的输出数值转化为相对概率,更容易理解和比较。
进一步的,本公开上述实施例涉及的命名实施识别方法中,为防止模型过拟合,可在将生成的第一向量表征通过双向卷积网络进行特征增强之前,对生成的第一向量表征进行随机失活(Dropout)处理。然后通过双向卷积网络对随机失活处理后剩余的第一向量表征进行特征增强。
图4是根据一示例性实施例示出的一种命名实体识别方法流程图。图4所示的命名实体识别方法中,步骤S21,步骤S22,步骤S23,步骤S24,步骤S27分别与步骤S11,步骤S12,步骤S13,步骤14,步骤S16相同,本公开在此不再赘述。以下仅就不同之处进行说明。
在步骤S25中,对生成的第一向量表征进行随机失活处理。
本公开中对第一向量表征进行Dropout处理时,可按照一定的概率丢弃一部分数据,从而保证在每个训练周期内的数据不是完全一样的,从而增加了模型的多样性,增强模型的健壮性。例如,本公开中可按照0.5的概率对第一向量表征进行Dropout处理。
在步骤S26中,通过双向卷积网络对随机失活处理后剩余的第一向量表征进行特征增强,并通过注意力机制对特征增强后的向量表征进行转换,得到第二向量表征。
本公开提供的命名实体识别方法,通过将字符向量表征和词向量表征进行拼接,建立了字词联合,可以充分利用多个粒度的语义信息。并在基于字符的处理中,首先使用双向卷积进行特征增强,然后使用注意力机制确认字符构成实体的边界,可以更有效的确定边界。进一步的,本公开中对字符向量表征和词向量表征拼接后再次通过双向卷积进行特征增强,然后使用注意力机制确认字符构成实体的边界,实现多级注意力机制的构建,建立起实体识别更稳定的特征注意力点,从而有助于效果的提升。
基于相同的构思,本公开实施例还提供一种命名实体识别装置。
可以理解的是,本公开实施例提供的命名实体识别装置为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。结合本公开实施例中所公开的各示例的单元及算法步骤,本公开实施例能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以对每个特定的应用来使用不同的方法来实现所描述的功能,但是这种实现不应认为超出本公开实施例的技术方案的范围。
图5是根据一示例性实施例提供的一种命名实体识别装置的框图。参阅图5所示,命名实体识别装置100包括训练单元101和识别单元102。其中,
训练单元101,被配置为对训练语料中每一字符进行初始化,并通过双向卷积网络和注意力机制,对训练语料中随机初始化后的字符进行转换,得到训练语料中每个字符的字符向量表征;确定训练语料中每一句子的词向量表征;将词向量表征和字符向量表征进行拼接,生成第一向量表征;通过双向卷积网络对第一向量表征进行特征增强,并通过注意力机制对特征增强后的向量表征进行转换,得到第二向量表征。
识别单元102,被配置为基于第二向量表征,进行命名实体的识别。
一示例中,训练单元101,还被配置为:将生成的第一向量表征通过双向卷积网络进行特征增强之前,对生成的第一向量表征进行随机失活处理;
训练单元101被配置为通过双向卷积网络对随机失活处理后剩余的第一向量表征进行特征增强。
另一示例中,训练单元101被配置为对训练语料中每一字符随机生成符合高斯分布的高斯分布向量值;
训练单元101被配置为将高斯分布向量值输入至双向卷积,并对从左往右以及从右往左分别产生的输出向量值进行连接操作,得到隐藏层输出向量;通过注意力机制对隐藏层输出向量进行转换得到字符向量表征。
又一示例中,训练单元101被配置为采用如下方式通过注意力机制对隐藏层输出向量进行转换得到字符向量表征:
根据预期命名实体词语的最大长度预设sigmoid激活函数中注意力窗口大小;利用具有注意力窗口大小的sigmoid激活函数对隐藏层输出向量进行转换得到字符向量表征。
又一示例中,训练单元101被配置为采用如下方式确定训练语料中每一句子的词向量表征:
使用分词工具对训练语料中的句子进行分词,其中,分词工具中导入有符合分词工具设定形式的词典;使用词嵌入文件或者随机初始化方式,将分词结果转化为词向量表征。
又一示例中,识别单元102被配置为通过条件随机场CRF模型或者软件最大化SOFT-MAX模型,对第二向量进行预测并识别出命名实体信息。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图6是根据一示例性实施例示出的一种用于命名实体识别的装置200的框图。例如,装置200可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图6,装置200可以包括以下一个或多个组件:处理组件202,存储器204,电力组件206,多媒体组件208,音频组件210,输入/输出(I/O)的接口212,传感器组件214,以及通信组件216。
处理组件202通常控制装置200的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件202可以包括一个或多个处理器220来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件202可以包括一个或多个模块,便于处理组件202和其他组件之间的交互。例如,处理组件202可以包括多媒体模块,以方便多媒体组件208和处理组件202之间的交互。
存储器204被配置为存储各种类型的数据以支持在设备200的操作。这些数据的示例包括用于在装置200上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器204可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电力组件206为装置200的各种组件提供电力。电力组件206可以包括电源管理系统,一个或多个电源,及其他与为装置200生成、管理和分配电力相关联的组件。
多媒体组件208包括在所述装置200和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件208包括一个前置摄像头和/或后置摄像头。当设备200处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件210被配置为输出和/或输入音频信号。例如,音频组件210包括一个麦克风(MIC),当装置200处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器204或经由通信组件216发送。在一些实施例中,音频组件210还包括一个扬声器,用于输出音频信号。
I/O接口212为处理组件202和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件214包括一个或多个传感器,用于为装置200提供各个方面的状态评估。例如,传感器组件214可以检测到设备200的打开/关闭状态,组件的相对定位,例如所述组件为装置200的显示器和小键盘,传感器组件214还可以检测装置200或装置200一个组件的位置改变,用户与装置200接触的存在或不存在,装置200方位或加速/减速和装置200的温度变化。传感器组件214可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件214还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件214还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件216被配置为便于装置200和其他设备之间有线或无线方式的通信。装置200可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件216经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件216还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置200可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器204,上述指令可由装置200的处理器220执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
可以理解的是,本公开实施例中尽管在附图中以特定的顺序描述操作,但是不应将其理解为要求按照所示的特定顺序或是串行顺序来执行这些操作,或是要求执行全部所示的操作以得到期望的结果。在特定环境中,多任务和并行处理可能是有利的。
进一步可以理解的是,术语“第一”、“第二”等用于描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开,并不表示特定的顺序或者重要程度。实际上,“第一”、“第二”等表述完全可以互换使用。例如,在不脱离本公开范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (14)
1.一种命名实体识别方法,其特征在于,包括:
对训练语料中每一字符进行初始化,并通过双向卷积网络和注意力机制,对训练语料中随机初始化后的字符进行转换,得到所述训练语料中每个字符的字符向量表征;
确定训练语料中每一句子的词向量表征;
将所述词向量表征和所述字符向量表征进行拼接,生成第一向量表征;
通过双向卷积网络和注意力机制对所述第一向量表征进行转换,得到第二向量表征;
基于所述第二向量表征,进行命名实体的识别。
2.根据权利要求1所述的命名实体识别方法,其特征在于,通过双向卷积网络和注意力机制对所述第一向量表征进行转换,得到第二向量表征之前,所述方法还包括:
对生成的第一向量表征进行随机失活处理;
通过双向卷积网络和注意力机制对所述第一向量表征进行转换,得到第二向量表征,包括:
通过双向卷积网络对随机失活处理后剩余的第一向量表征进行特征增强,并通过注意力机制对特征增强后的第一向量表征进行转换,得到第二向量表征。
3.根据权利要求1或2所述的命名实体识别方法,其特征在于,所述对训练语料中每一字符进行初始化,包括:对训练语料中每一字符随机生成符合高斯分布的高斯分布向量值;
通过双向卷积网络和注意力机制,对训练语料中随机初始化后的字符进行转换,得到所述训练语料中每个字符的字符向量表征,包括:
将所述高斯分布向量值输入至双向卷积,并对从左往右以及从右往左分别产生的输出向量值进行连接操作,得到隐藏层输出向量;
通过注意力机制对所述隐藏层输出向量进行转换得到字符向量表征。
4.根据权利要求3所述的命名实体识别方法,其特征在于,通过注意力机制对所述隐藏层输出向量进行转换得到字符向量表征,包括:
根据预期命名实体词语的最大长度预设sigmoid激活函数中注意力窗口大小;
利用具有所述注意力窗口大小的sigmoid激活函数对所述隐藏层输出向量进行转换得到字符向量表征。
5.根据权利要求1或2所述的命名实体识别方法,其特征在于,确定训练语料中每一句子的词向量表征,包括:
使用分词工具对所述训练语料中的句子进行分词,其中,所述分词工具中导入有符合所述分词工具设定形式的词典;
使用词嵌入文件或者随机初始化方式,将分词结果转化为词向量表征。
6.根据权利要求1所述的命名实体识别方法,其特征在于,所述基于所述第二向量表征,进行命名实体的识别,包括:
通过条件随机场CRF模型或者软件最大化SOFT-MAX模型,对所述第二向量进行预测并识别出命名实体信息。
7.一种命名实体识别装置,其特征在于,包括:
训练单元,被配置为对训练语料中每一字符进行初始化,并通过双向卷积网络和注意力机制,对训练语料中随机初始化后的字符进行转换,得到所述训练语料中每个字符的字符向量表征;确定训练语料中每一句子的词向量表征;将所述词向量表征和所述字符向量表征进行拼接,生成第一向量表征;通过双向卷积网络对第一向量表征进行特征增强,并通过注意力机制对特征增强后的向量表征进行转换,得到第二向量表征;
识别单元,被配置为基于所述第二向量表征,进行命名实体的识别。
8.根据权利要求7所述的命名实体识别装置,其特征在于,所述训练单元,还被配置为:将生成的所述第一向量表征通过双向卷积网络进行特征增强之前,对生成的第一向量表征进行随机失活处理;
所述训练单元被配置为采用如下方式通过双向卷积网络对第一向量表征进行特征增强:
通过双向卷积网络对随机失活处理后剩余的第一向量表征进行特征增强。
9.根据权利要求7或8所述的命名实体识别装置,其特征在于,所述训练单元被配置为采用如下方式对训练语料中每一字符进行初始化:
对训练语料中每一字符随机生成符合高斯分布的高斯分布向量值;
所述训练单元被配置为采用如下方式通过双向卷积网络和注意力机制,对训练语料中随机初始化后的字符进行转换,得到所述训练语料中每个字符的字符向量表征:
将所述高斯分布向量值输入至双向卷积,并对从左往右以及从右往左分别产生的输出向量值进行连接操作,得到隐藏层输出向量;
通过注意力机制对所述隐藏层输出向量进行转换得到字符向量表征。
10.根据权利要求9所述的命名实体识别装置,其特征在于,所述训练单元被配置为采用如下方式通过注意力机制对所述隐藏层输出向量进行转换得到字符向量表征:
根据预期命名实体词语的最大长度预设sigmoid激活函数中注意力窗口大小;
利用具有所述注意力窗口大小的sigmoid激活函数对所述隐藏层输出向量进行转换得到字符向量表征。
11.根据权利要求7或8所述的命名实体识别装置,其特征在于,所述训练单元被配置为采用如下方式确定训练语料中每一句子的词向量表征:
使用分词工具对所述训练语料中的句子进行分词,其中,所述分词工具中导入有符合所述分词工具设定形式的词典;
使用词嵌入文件或者随机初始化方式,将分词结果转化为词向量表征。
12.根据权利要求7所述的命名实体识别装置,其特征在于,所述识别单元被配置为采用如下方式基于所述第二向量表征,进行命名实体的识别:
通过条件随机场CRF模型或者软件最大化SOFT-MAX模型,对所述第二向量进行预测并识别出命名实体信息。
13.一种命名实体识别装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行权利要求1至6中任意一项所述的命名实体识别方法。
14.一种非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行权利要求1至6中任意一项所述的命名实体识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910878202.9A CN110633470A (zh) | 2019-09-17 | 2019-09-17 | 命名实体识别方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910878202.9A CN110633470A (zh) | 2019-09-17 | 2019-09-17 | 命名实体识别方法、装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110633470A true CN110633470A (zh) | 2019-12-31 |
Family
ID=68971063
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910878202.9A Pending CN110633470A (zh) | 2019-09-17 | 2019-09-17 | 命名实体识别方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110633470A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112199953A (zh) * | 2020-08-24 | 2021-01-08 | 广州九四智能科技有限公司 | 一种电话通话中信息提取方法、装置及计算机设备 |
CN112711948A (zh) * | 2020-12-22 | 2021-04-27 | 北京邮电大学 | 一种中文句子的命名实体识别方法及装置 |
CN113190602A (zh) * | 2021-04-09 | 2021-07-30 | 桂林电子科技大学 | 融合字词特征与深度学习的事件联合抽取方法 |
CN113205817A (zh) * | 2021-07-06 | 2021-08-03 | 明品云(北京)数据科技有限公司 | 语音语义识别方法、系统、设备及介质 |
CN113408287A (zh) * | 2021-06-23 | 2021-09-17 | 北京达佳互联信息技术有限公司 | 实体识别方法、装置、电子设备及存储介质 |
CN113591479A (zh) * | 2021-07-23 | 2021-11-02 | 深圳供电局有限公司 | 电力计量的命名实体识别方法、装置和计算机设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180137855A1 (en) * | 2016-11-16 | 2018-05-17 | Samsung Electronics Co., Ltd. | Method and apparatus for processing natural language, method and apparatus for training natural language processing model |
CN108628823A (zh) * | 2018-03-14 | 2018-10-09 | 中山大学 | 结合注意力机制和多任务协同训练的命名实体识别方法 |
CN108897989A (zh) * | 2018-06-06 | 2018-11-27 | 大连理工大学 | 一种基于候选事件元素注意力机制的生物事件抽取方法 |
CN109582794A (zh) * | 2018-11-29 | 2019-04-05 | 南京信息工程大学 | 基于深度学习的长文分类方法 |
CN109697285A (zh) * | 2018-12-13 | 2019-04-30 | 中南大学 | 增强语义表示的层次BiLSTM中文电子病历疾病编码标注方法 |
CN110162751A (zh) * | 2019-05-13 | 2019-08-23 | 百度在线网络技术(北京)有限公司 | 文本生成器训练方法和文本生成器训练系统 |
-
2019
- 2019-09-17 CN CN201910878202.9A patent/CN110633470A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180137855A1 (en) * | 2016-11-16 | 2018-05-17 | Samsung Electronics Co., Ltd. | Method and apparatus for processing natural language, method and apparatus for training natural language processing model |
CN108628823A (zh) * | 2018-03-14 | 2018-10-09 | 中山大学 | 结合注意力机制和多任务协同训练的命名实体识别方法 |
CN108897989A (zh) * | 2018-06-06 | 2018-11-27 | 大连理工大学 | 一种基于候选事件元素注意力机制的生物事件抽取方法 |
CN109582794A (zh) * | 2018-11-29 | 2019-04-05 | 南京信息工程大学 | 基于深度学习的长文分类方法 |
CN109697285A (zh) * | 2018-12-13 | 2019-04-30 | 中南大学 | 增强语义表示的层次BiLSTM中文电子病历疾病编码标注方法 |
CN110162751A (zh) * | 2019-05-13 | 2019-08-23 | 百度在线网络技术(北京)有限公司 | 文本生成器训练方法和文本生成器训练系统 |
Non-Patent Citations (1)
Title |
---|
朱频频 等: "《智能客户服务技术与应用》", 中国铁道出版社有限公司, pages: 132 - 133 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112199953A (zh) * | 2020-08-24 | 2021-01-08 | 广州九四智能科技有限公司 | 一种电话通话中信息提取方法、装置及计算机设备 |
CN112711948A (zh) * | 2020-12-22 | 2021-04-27 | 北京邮电大学 | 一种中文句子的命名实体识别方法及装置 |
CN112711948B (zh) * | 2020-12-22 | 2022-11-11 | 北京邮电大学 | 一种中文句子的命名实体识别方法及装置 |
CN113190602A (zh) * | 2021-04-09 | 2021-07-30 | 桂林电子科技大学 | 融合字词特征与深度学习的事件联合抽取方法 |
CN113408287A (zh) * | 2021-06-23 | 2021-09-17 | 北京达佳互联信息技术有限公司 | 实体识别方法、装置、电子设备及存储介质 |
CN113408287B (zh) * | 2021-06-23 | 2022-07-29 | 北京达佳互联信息技术有限公司 | 实体识别方法、装置、电子设备及存储介质 |
CN113205817A (zh) * | 2021-07-06 | 2021-08-03 | 明品云(北京)数据科技有限公司 | 语音语义识别方法、系统、设备及介质 |
CN113205817B (zh) * | 2021-07-06 | 2021-12-07 | 明品云(北京)数据科技有限公司 | 语音语义识别方法、系统、设备及介质 |
CN113591479A (zh) * | 2021-07-23 | 2021-11-02 | 深圳供电局有限公司 | 电力计量的命名实体识别方法、装置和计算机设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109871896B (zh) | 数据分类方法、装置、电子设备及存储介质 | |
CN110633470A (zh) | 命名实体识别方法、装置及存储介质 | |
CN111524521B (zh) | 声纹提取模型训练方法和声纹识别方法、及其装置和介质 | |
CN111612070B (zh) | 基于场景图的图像描述生成方法及装置 | |
CN110909815B (zh) | 神经网络训练、图像处理方法、装置及电子设备 | |
CN107944447B (zh) | 图像分类方法及装置 | |
CN109165738B (zh) | 神经网络模型的优化方法及装置、电子设备和存储介质 | |
CN109615006B (zh) | 文字识别方法及装置、电子设备和存储介质 | |
CN109360197B (zh) | 图像的处理方法、装置、电子设备及存储介质 | |
CN111539410B (zh) | 字符识别方法及装置、电子设备和存储介质 | |
CN111259967B (zh) | 图像分类及神经网络训练方法、装置、设备及存储介质 | |
CN111242303B (zh) | 网络训练方法及装置、图像处理方法及装置 | |
CN111210844B (zh) | 语音情感识别模型的确定方法、装置、设备及存储介质 | |
CN109685041B (zh) | 图像分析方法及装置、电子设备和存储介质 | |
CN110781813A (zh) | 图像识别方法及装置、电子设备和存储介质 | |
CN111582383A (zh) | 属性识别方法及装置、电子设备和存储介质 | |
CN114332503A (zh) | 对象重识别方法及装置、电子设备和存储介质 | |
CN109447258B (zh) | 神经网络模型的优化方法及装置、电子设备和存储介质 | |
CN112035651B (zh) | 语句补全方法、装置及计算机可读存储介质 | |
CN107135494B (zh) | 垃圾短信识别方法及装置 | |
CN111984765B (zh) | 知识库问答过程关系检测方法及装置 | |
CN111507131B (zh) | 活体检测方法及装置、电子设备和存储介质 | |
CN111538998A (zh) | 文本定密方法和装置、电子设备及计算机可读存储介质 | |
CN111860552A (zh) | 基于核自编码器的模型训练方法、装置及存储介质 | |
CN110659625A (zh) | 物体识别网络的训练方法及装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |