CN110321566A - 中文命名实体识别方法、装置、计算机设备和存储介质 - Google Patents

中文命名实体识别方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN110321566A
CN110321566A CN201910619945.4A CN201910619945A CN110321566A CN 110321566 A CN110321566 A CN 110321566A CN 201910619945 A CN201910619945 A CN 201910619945A CN 110321566 A CN110321566 A CN 110321566A
Authority
CN
China
Prior art keywords
output
identified
sentence
word vector
preset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910619945.4A
Other languages
English (en)
Other versions
CN110321566B (zh
Inventor
傅湘玲
刘少辉
吴及
周学思
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Beijing University of Posts and Telecommunications
Original Assignee
Tsinghua University
Beijing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University, Beijing University of Posts and Telecommunications filed Critical Tsinghua University
Priority to CN201910619945.4A priority Critical patent/CN110321566B/zh
Publication of CN110321566A publication Critical patent/CN110321566A/zh
Application granted granted Critical
Publication of CN110321566B publication Critical patent/CN110321566B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Character Discrimination (AREA)
  • Machine Translation (AREA)

Abstract

本申请涉及一种中文命名实体识别方法,包括:获取待识别语句,将所述待识别语句输入预设神经网络的嵌入层,输出所述待识别语句的输出字向量;将所述输出字向量分别同步输入预设的双向长短期记忆网络和预设的空洞卷积网络得到输出矩阵;将所述输出矩阵输入预设的分段长短期记忆网络,得到多个预测序列;采用条件随机场算法从所述预测序列中选取最优序列,根据所述最优序列获取识别出的实体。本申请通过同步采用双向长短期记忆网络和预设的空洞卷积网络进行特征变换,可以有效提取特征,无需赖于实体词典,提高识别效率。

Description

中文命名实体识别方法、装置、计算机设备和存储介质
技术领域
本申请涉及信息处理领域,特别是涉及一种中文命名实体识别方法、装置、计算机设备和存储介质。
背景技术
命名实体识别(Named Entity Recognition,简称NER),又称作“专名识别”,是指识别文本中具有特定意义的实体,主要包括人名、地名、机构名、专有名词等。命名实体识别作为自然语言处理任务中的基础任务,它的效果会直接影响实体链接、机器翻译、关系抽取等任务。
由于中文没有天然的分割符来分割每个单词,因此基于字的中文命名实体识别相比于基于词的方法是一个更好的选择。常用的命名实体识别方法有BiLSTM(Bi-directional Long Short-Term Memory,双向长短期记忆)结合CRF(Conditional randomfields,条件随机场)等方法,通过训练,识别出每个字的标签,然后将相同类型的标签结合组成一个实体,这种方法依赖于较大的实体词典,然而,当添加较大的实体词典时,识别效率较低。
发明内容
本申请的目的在于提供一种中文命名实体识别方法、装置、计算机设备和可读存储介质,可以无需依赖实体字典,有效提高识别效率。
本申请的目的通过如下技术方案实现:
一种中文命名实体识别方法,所述方法包括:
获取待识别语句,将所述待识别语句输入预设神经网络的嵌入层,输出所述待识别语句的输出字向量;
将所述输出字向量分别同步输入预设的双向长短期记忆网络和预设的空洞卷积网络得到输出矩阵;
将所述输出矩阵输入预设的分段长短期记忆网络,得到多个预测序列;
采用条件随机场算法从所述预测序列中选取最优序列,根据所述最优序列获取识别出的实体。
在一个实施例中,所述预设神经网络的嵌入层包括word2vec工具、分词器和Bichar特征。
在一个实施例中,所述将所述待识别语句输入预设神经网络的嵌入层,输出所述待识别语句的输出字向量的步骤,包括:
采用word2vec工具获取所述待识别语句的word2vec字向量;
采用所述分词器对所述待识别语句进行分词得到分词向量;
根据所述Bichar特征获取所述待识别语句的Bichar向量;
将所述word2vec字向量、所述分词向量和所述Bichar向量组合得到所述输出字向量。
在一个实施例中,所述word2vec工具包括固定的word2vec和微调的word2vec。
在一个实施例中,所述采用word2vec工具获取所述待识别语句的word2vec字向量的步骤,包括:
采用固定的word2vec获取所述待识别语句的第一字向量;
采用微调的word2vec获取所述待识别语句的第二字向量;
将所述第一字向量和所述第二字向量利用加权平均的方法结合得到所述word2vec字向量。
在一个实施例中,所述将所述输出字向量分别同步输入预设的双向长短期记忆网络和预设的空洞卷积网络得到输出矩阵的步骤,包括:
将所述输出字向量输入预设的长短期记忆网络进行特征变换得到第一输出序列;
同步将所述输出字向量输入预设的空洞卷积网络进行特征变换得到第二输出序列;
根据所述第一输出序列和所述第二输出序列计算所述输出矩阵。
在一个实施例中,所述根据所述第一输出序列和所述第二输出序列计算所述输出矩阵的步骤,包括:
采用如下公式计算所述输出矩阵:
duali=αi*hi+(1-αi)*di
式中:WdT和b是固定参数;αi表示第i个字的权重;hi表示所述第一输出序列;di表示所述第二输出序列。
一种中文命名实体识别装置,所述装置包括:
嵌入模块,用于获取待识别语句,将所述待识别语句输入预设神经网络的嵌入层,输出所述待识别语句的输出字向量;
双通道模块,用于将所述输出字向量分别同步输入预设的双向长短期记忆网络和预设的空洞卷积网络得到输出矩阵;
分段模块,用于将所述输出矩阵输入预设的分段长短期记忆网络,得到多个预测序列;
识别模块,用于采用条件随机场算法从所述预测序列中选取最优序列,根据所述最优序列获取识别出的实体。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述任一实施例所述的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一实施例所述的步骤。
本申请提供的中文命名实体识别方法,其获取待识别语句,将所述待识别语句输入预设神经网络的嵌入层,输出所述待识别语句的输出字向量;将所述输出字向量分别同步输入预设的双向长短期记忆网络和预设的空洞卷积网络得到输出矩阵;将所述输出矩阵输入预设的分段长短期记忆网络,得到多个预测序列;采用条件随机场算法从所述预测序列中选取最优序列,根据所述最优序列获取识别出的实体。同步采用双向长短期记忆网络和预设的空洞卷积网络进行特征变换,可以有效提取特征,无需赖于实体词典,提高识别效率。
附图说明
图1为一个实施例中中文命名实体识别方法的应用环境图;
图2为一个实施例中中文命名实体识别系统结构示意图;
图3为一个实施例中中文命名实体识别方法的流程示意图;
图4为一个示例中标注数据示意图;
图5为另一个实施例中中文命名实体识别装置的结构框图;
图6为一个实施例中计算机设备的内部结构图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
本申请提供的中文命名实体识别方法,可以应用于如图1所示的应用环境中。具体的,服务器获取待识别语句,将所述待识别语句输入预设神经网络的嵌入层,输出所述待识别语句的输出字向量;服务器将所述输出字向量分别同步输入预设的双向长短期记忆网络和预设的空洞卷积网络得到输出矩阵;服务器将所述输出矩阵输入预设的分段长短期记忆网络,得到多个预测序列;服务器采用条件随机场算法从所述预测序列中选取最优序列,根据所述最优序列获取识别出的实体。
本技术领域技术人员可以理解,这里所使用的“服务器”可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,本申请的中文命名实体识别方法,可以采用一种定制的中文命名实体识别系统形式在图1所示的服务器上实现,如图2所示,该中文命名实体识别系统包括embedding(嵌入)层、dual channel(双通道)层、分段LSTM(Segment Long Short-termMemory,分段长短期记忆)层和CRF(conditional random field,条件随机场)层,各层功能如下:
(1)Embedding层综合考虑了字向量特征、分词特征、bichar特征;
(2)双通道结构:双通道结构指将同时使用BiLSTM(Bi-Long Short-term Memory,双向长短期记忆)结构和IDCNN(Iterated Dilated Convolutional Neural Networks,空洞卷积网络)结构进行特征变换并将BiLSTM的输出与IDCNN输出进行加权求和,采用双通道结构可以显著提高NER模型表现。
(3)分段LSTM(Segment LSTM):Segment LSTM的输入是dual channel层的输出序列,在Segment LSTM结构中,将输入序列分为多个Segment;而在Segment内,采用Self-Attention模型(自注意力模型)输出这一段对应的输出结果。在Segment(段)之间,使用LSTM(Long Short-term Memory,长短期记忆)模型传递信息。
(4)CRF层:从分段LSTM输出的序列中选取最优序列,得到识别出的实体。
在一个实施例中,如图3所示,提供了一种中文命名实体识别方法,以该方法应用于图1中的服务器为例进行说明,包括以下步骤:
步骤S202,获取待识别语句,将所述待识别语句输入预设神经网络的嵌入层,输出所述待识别语句的输出字向量。
本步骤中,预设神经网络的嵌入层包括word2vec工具、分词器和Bichar特征;其中,分词器采用的是jieba分词器。
在一个实施例中,步骤S202的将所述待识别语句输入预设神经网络的嵌入层,输出所述待识别语句的输出字向量的步骤,包括:
(1)采用word2vec工具获取所述待识别语句的word2vec字向量。
具体的,word2vec工具包括固定的word2vec和fine-tune字向量(微调的word2vec),同时采用固定的word2vec和fine-tune字向量,可以防止过拟合,并且可以保留最后得到的word2vec字向量中本身的语义信息。
具体的,采用word2vec工具获取所述待识别语句的word2vec字向量包括:
a、采用固定的word2vec获取所述待识别语句的第一字向量;
b、采用微调的word2vec获取所述待识别语句的第二字向量;
c、将所述第一字向量和所述第二字向量利用加权平均的方法结合得到所述word2vec字向量。
固定向量和fine-tune字向量的结合方式如下:
ec i=αi*ec(cj)+(1-αi)*ef(cj) (2)
ec和ef表示固定字向量和fine-tune字向量对应的字向量lookup表,ec(cj)表示第i个字对应的固定字向量,ef(cj)表示第i个字对应的fine-tune字向量,WeT和b表示参数。αi表示权重,通过公式(1)计算,最终第i个字对应的字向量ec i通过公式(2)计算。
(2)采用所述分词器对所述待识别语句进行分词得到分词向量。
具体的,采用jieba分词作为分词器,将分词结果分为4类:开始(B)、中间(I)、结尾(E)、单字(S),通过可fine-tune的向量lookup表转换为向量。
es i=es(seg(cj)) (3)
公式(3)中,es表示分词标记向量lookup表,es i表示第i个字的分词向量。
(3)根据所述Bichar特征获取所述待识别语句的Bichar向量。
具体的,Bichar特征:通过使模型看到下一个字来提高模型能力。
eb i=eb(cj,cj+1) (4)
公式(4)中,eb表示可fine-tune的bichar向量lookup表,eb i表示bichar向量。
(4)将所述word2vec字向量、所述分词向量和所述Bichar向量组合得到所述输出字向量。
本步骤中,最终的字向量表示为:
ei=[ec i;es i;eb i] (5)
公式(5)中,ei表示第i个字的向量。
步骤S204,将所述输出字向量分别同步输入预设的双向长短期记忆网络和预设的空洞卷积网络得到输出矩阵。
在具体实施过程中,同时使用BiLSTM结构和IDCNN结构进行特征变换并将BiLSTM的输出与IDCNN输出进行加权求和,采用双通道模型可以让LSTM与IDCNN互补,更加有效的提取特征。
具体的,步骤S204的将所述输出字向量分别同步输入预设的双向长短期记忆网络和预设的空洞卷积网络得到输出矩阵的步骤,包括:
(1)将所述输出字向量输入预设的BiLSTM进行特征变换得到第一输出序列;
(2)同步将所述输出字向量输入预设的空洞卷积网络进行特征变换得到第二输出序列;
(3)根据所述第一输出序列和所述第二输出序列计算所述输出矩阵。
具体的,双通道结构计算方式如下:
duali=αi*hi+(1-αi)*di (7)
公式(6)和(7)中WdT和b是参数,αi表示第i个字的权重,hi和di分别是BiLSTM和IDCNN结构的输出。
步骤S206,将所述输出矩阵输入预设的分段长短期记忆网络,得到多个预测序列。
在本步骤中,Segment LSTM的输入是dual channel层的输出序列c_1,c_2,c_3,…,c_n,在Segment LSTM结构中,将输入序列分为多个Segment(段);而在Segment内,采用Self-Attention模型输出这一段对应的输出结果;在Segment之间,使用LSTM模型传递信息。
具体的,本步骤中的Segment LSTM的每个段的大小是固定的。
具体计算过程如下:
在Segment内部,使用Self-Attention机制(自注意力机制)来学习Segment内任意两个字符之间的依赖关系并输出预测结果。Self-Attention的Multi-head Attention(多头注意力)机制计算方式如下:
其中,Q为query matrix(查询矩阵);K为keys matrix(键矩阵);V为value matrix(值矩阵)。Q,K,V均由输入矩阵进行不同的线性变换多次得到。d是Segment LSTM层输入矩阵的维度。计算Multi-head Attention的方法是:首先对输入矩阵H进行分别进行h次不同的线性变换得到Qi,Ki,Vi i=1,2,...,h。然后分别对h个Q,K,V进行Attention(注意力)计算。最后的输出结果H′来自于h个Attention结果拼接得到。计算方式如下:
H′=[head1;head2;...;headh]Wo (10)
在得到Multi-head Attention的输出H′后,在经过一个前馈神经网络后即得到Self-Attention最终的输出,公式如下:
output=Relu(LayerNorm(H+H′)Wd+bd) (11)
Segment LSTM结构计算方式:
公式(12)和(13)中duali为双通道输出结果序列中属于第i个Segment的部分。hi为第i步LSTM单元的输出结果。对于第i个Segment,使用Self-Attention结构进行模型预测,输入为拼接上一步LSTM的输出与双通道层的输出的拼接输出为Segment LSTM中第i个Segment预测结果序列si。将si作为第i步LSTM单元的输入,利用LSTM结构来传递每一段输出结果si包含的信息,LSTM的每步输出就保留了前面所有片段的输出结果信息。利用Self-Attention结构强大的特征提取能力来判断每个字符的可能输出。利用LSTM控制信息传递的记忆能力,Segment LSTM可以在Segment之间传递输出结果信息。
步骤S208,采用条件随机场算法从所述预测序列中选取最优序列,根据所述最优序列获取识别出的实体。
本步骤中,损失函数采用CRF层损失函数,预测时采用viterbi解码算法(维特比算法)来发现最优序列。
上述的中文命名实体识别方法,通过获取待识别语句,将所述待识别语句输入预设神经网络的嵌入层,输出所述待识别语句的输出字向量;将所述输出字向量分别同步输入预设的双向长短期记忆网络和预设的空洞卷积网络得到输出矩阵;将所述输出矩阵输入预设的分段长短期记忆网络,得到多个预测序列;采用条件随机场算法从所述预测序列中选取最优序列,根据所述最优序列获取识别出的实体。同步采用双向长短期记忆网络和预设的空洞卷积网络进行特征变换,可以有效提取特征,无需赖于实体词典,提高识别效率。
下面将结合具体示例和实验数据来阐述本申请中的中文命名实体识别方法的效果。
(1)构建标注数据集:将中文文本按字标注,以图4为例;
(2)将标注数据集按8:1:1的比例划分训练集、验证集、测试集并训练模型,参数设置见Table 1;
(3)选取在测试集和验证集中表现最好的模型保存。
Table 1参数设置
MSRA数据集(Levow,2006)是中文命名实体识别领域影响力最广的数据集,以下是本申请的识别结果与目前业界的多个模型结果对比:
相比于传统的BiLSTM-CRF模型,本申请的双通道Segment LSTM模型有更强的能力。对于Zhang at al.(2018)的模型来说,通过Lattice结构来添加实体词典提高模型的能力,而对于Meng at al.(2019)在Zhang at al.(2018)基础上添加了汉字字形信息,他们的实验证明添加词典和汉字字形都对NER任务有显著的帮助。在使用了dual channel层与changing Segment LSTM层后,本申请的结果达到了92.93的成绩。本申请只通过模型结构的改变,没有添加额外的特征,获得有竞争力的结果(F1指标低于Zhang at al.(2018)0.24,低于Meng at al.(2019)0.95)。
如图5所示,图5为一个实施例中中文命名实体识别装置的结构示意图,本实施例中提供一种中文命名实体识别装置,包括嵌入模块501、双通道模块502、分段模块503和识别模块504,其中:
嵌入模块501,用于获取待识别语句,将所述待识别语句输入预设神经网络的嵌入层,输出所述待识别语句的输出字向量;
双通道模块502,用于将所述输出字向量分别同步输入预设的双向长短期记忆网络和预设的空洞卷积网络得到输出矩阵;
分段模块503,用于将所述输出矩阵输入预设的分段长短期记忆网络,得到多个预测序列;
识别模块504,用于采用条件随机场算法从所述预测序列中选取最优序列,根据所述最优序列获取识别出的实体。
关于中文命名实体识别装置的具体限定可以参见上文中对于中文命名实体识别方法的限定,在此不再赘述。上述中文命名实体识别装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
如图6所示,图6为一个实施例中计算机设备的内部结构示意图。该计算机设备包括通过装置总线连接的处理器、非易失性存储介质、存储器和网络接口。其中,该计算机设备的非易失性存储介质存储有操作装置、数据库和计算机可读指令,数据库中可存储有控件信息序列,该计算机可读指令被处理器执行时,可使得处理器实现一种中文命名实体识别方法。该计算机设备的处理器用于提供计算和控制能力,支撑整个计算机设备的运行。该计算机设备的存储器中可存储有计算机可读指令,该计算机可读指令被处理器执行时,可使得处理器执行一种中文命名实体识别方法。该计算机设备的网络接口用于与终端连接通信。本领域技术人员可以理解,图6中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提出了一种计算机设备,计算机设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现如下步骤:获取待识别语句,将所述待识别语句输入预设神经网络的嵌入层,输出所述待识别语句的输出字向量;将所述输出字向量分别同步输入预设的双向长短期记忆网络和预设的空洞卷积网络得到输出矩阵;将所述输出矩阵输入预设的分段长短期记忆网络,得到多个预测序列;采用条件随机场算法从所述预测序列中选取最优序列,根据所述最优序列获取识别出的实体。
在其中一个实施例中,处理器执行计算机程序时所述预设神经网络的嵌入层包括word2vec工具、分词器和Bichar特征。
在其中一个实施例中,处理器执行计算机程序时所述将所述待识别语句输入预设神经网络的嵌入层,输出所述待识别语句的输出字向量的步骤,包括:采用word2vec工具获取所述待识别语句的word2vec字向量;采用所述分词器对所述待识别语句进行分词得到分词向量;根据所述Bichar特征获取所述待识别语句的Bichar向量;将所述word2vec字向量、所述分词向量和所述Bichar向量组合得到所述输出字向量。
在其中一个实施例中,处理器执行计算机程序时所述word2vec工具包括固定的word2vec和微调的word2vec。
在其中一个实施例中,处理器执行计算机程序时所述采用word2vec工具获取所述待识别语句的word2vec字向量的步骤,包括:采用固定的word2vec获取所述待识别语句的第一字向量;采用微调的word2vec获取所述待识别语句的第二字向量;将所述第一字向量和所述第二字向量利用加权平均的方法结合得到所述word2vec字向量。
在其中一个实施例中,处理器执行计算机程序时所述将所述输出字向量分别同步输入预设的双向长短期记忆网络和预设的空洞卷积网络得到输出矩阵的步骤,包括:将所述输出字向量输入预设的长短期记忆网络进行特征变换得到第一输出序列;同步将所述输出字向量输入预设的空洞卷积网络进行特征变换得到第二输出序列;根据所述第一输出序列和所述第二输出序列计算所述输出矩阵。
在其中一个实施例中,处理器执行计算机程序时所述根据所述第一输出序列和所述第二输出序列计算所述输出矩阵的步骤,包括:采用如下公式计算所述输出矩阵:duali=αi*hi+(1-αi)*di;式中:WdT和b是固定参数;αi表示第i个字的权重;hi表示所述第一输出序列;di表示所述第二输出序列。
在一个实施例中,提出了一种存储有计算机可读指令的存储介质,该计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行如下步骤:获取待识别语句,将所述待识别语句输入预设神经网络的嵌入层,输出所述待识别语句的输出字向量;将所述输出字向量分别同步输入预设的双向长短期记忆网络和预设的空洞卷积网络得到输出矩阵;将所述输出矩阵输入预设的分段长短期记忆网络,得到多个预测序列;采用条件随机场算法从所述预测序列中选取最优序列,根据所述最优序列获取识别出的实体。
在其中一个实施例中,计算机可读指令被处理器执行时所述预设神经网络的嵌入层包括word2vec工具、分词器和Bichar特征。
在其中一个实施例中,计算机可读指令被处理器执行时所述将所述待识别语句输入预设神经网络的嵌入层,输出所述待识别语句的输出字向量的步骤,包括:采用word2vec工具获取所述待识别语句的word2vec字向量;采用所述分词器对所述待识别语句进行分词得到分词向量;根据所述Bichar特征获取所述待识别语句的Bichar向量;将所述word2vec字向量、所述分词向量和所述Bichar向量组合得到所述输出字向量。
在其中一个实施例中,计算机可读指令被处理器执行时所述word2vec工具包括固定的word2vec和微调的word2vec。
在其中一个实施例中,计算机可读指令被处理器执行时所述采用word2vec工具获取所述待识别语句的word2vec字向量的步骤,包括:采用固定的word2vec获取所述待识别语句的第一字向量;采用微调的word2vec获取所述待识别语句的第二字向量;将所述第一字向量和所述第二字向量利用加权平均的方法结合得到所述word2vec字向量。
在其中一个实施例中,计算机可读指令被处理器执行时所述将所述输出字向量分别同步输入预设的双向长短期记忆网络和预设的空洞卷积网络得到输出矩阵的步骤,包括:将所述输出字向量输入预设的长短期记忆网络进行特征变换得到第一输出序列;同步将所述输出字向量输入预设的空洞卷积网络进行特征变换得到第二输出序列;根据所述第一输出序列和所述第二输出序列计算所述输出矩阵。
在其中一个实施例中,计算机可读指令被处理器执行时所述根据所述第一输出序列和所述第二输出序列计算所述输出矩阵的步骤,包括:采用如下公式计算所述输出矩阵:duali=αi*hi+(1-αi)*di;式中:WdT和b是固定参数;αi表示第i个字的权重;hi表示所述第一输出序列;di表示所述第二输出序列。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
以上所述仅是本申请的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。

Claims (10)

1.一种中文命名实体识别方法,其特征在于,所述方法包括:
获取待识别语句,将所述待识别语句输入预设神经网络的嵌入层,输出所述待识别语句的输出字向量;
将所述输出字向量分别同步输入预设的双向长短期记忆网络和预设的空洞卷积网络得到输出矩阵;
将所述输出矩阵输入预设的分段长短期记忆网络,得到多个预测序列;
采用条件随机场算法从所述预测序列中选取最优序列,根据所述最优序列获取识别出的实体。
2.根据权利要求1所述的方法,其特征在于,所述预设神经网络的嵌入层包括word2vec工具、分词器和Bichar特征。
3.根据权利要求2所述的方法,其特征在于,所述将所述待识别语句输入预设神经网络的嵌入层,输出所述待识别语句的输出字向量的步骤,包括:
采用word2vec工具获取所述待识别语句的word2vec字向量;
采用所述分词器对所述待识别语句进行分词得到分词向量;
根据所述Bichar特征获取所述待识别语句的Bichar向量;
将所述word2vec字向量、所述分词向量和所述Bichar向量组合得到所述输出字向量。
4.根据权利要求3所述的方法,其特征在于,所述word2vec工具包括固定的word2vec和微调的word2vec。
5.根据权利要求4所述的方法,其特征在于,所述采用word2vec工具获取所述待识别语句的word2vec字向量的步骤,包括:
采用固定的word2vec获取所述待识别语句的第一字向量;
采用微调的word2vec获取所述待识别语句的第二字向量;
将所述第一字向量和所述第二字向量利用加权平均的方法结合得到所述word2vec字向量。
6.根据权利要求1所述的方法,其特征在于,所述将所述输出字向量分别同步输入预设的双向长短期记忆网络和预设的空洞卷积网络得到输出矩阵的步骤,包括:
将所述输出字向量输入预设的长短期记忆网络进行特征变换得到第一输出序列;
同步将所述输出字向量输入预设的空洞卷积网络进行特征变换得到第二输出序列;
根据所述第一输出序列和所述第二输出序列计算所述输出矩阵。
7.根据权利要求6所述的方法,其特征在于,所述根据所述第一输出序列和所述第二输出序列计算所述输出矩阵的步骤,包括:
采用如下公式计算所述输出矩阵:
duali=αi*hi+(1-αi)*di
式中:WdT和b是固定参数;αi表示第i个字的权重;hi表示所述第一输出序列;di表示所述第二输出序列。
8.一种中文命名实体识别装置,其特征在于,所述装置包括:
嵌入模块,用于获取待识别语句,将所述待识别语句输入预设神经网络的嵌入层,输出所述待识别语句的输出字向量;
双通道模块,用于将所述输出字向量分别同步输入预设的双向长短期记忆网络和预设的空洞卷积网络得到输出矩阵;
分段模块,用于将所述输出矩阵输入预设的分段长短期记忆网络,得到多个预测序列;
识别模块,用于采用条件随机场算法从所述预测序列中选取最优序列,根据所述最优序列获取识别出的实体。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
CN201910619945.4A 2019-07-10 2019-07-10 中文命名实体识别方法、装置、计算机设备和存储介质 Active CN110321566B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910619945.4A CN110321566B (zh) 2019-07-10 2019-07-10 中文命名实体识别方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910619945.4A CN110321566B (zh) 2019-07-10 2019-07-10 中文命名实体识别方法、装置、计算机设备和存储介质

Publications (2)

Publication Number Publication Date
CN110321566A true CN110321566A (zh) 2019-10-11
CN110321566B CN110321566B (zh) 2020-11-13

Family

ID=68123334

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910619945.4A Active CN110321566B (zh) 2019-07-10 2019-07-10 中文命名实体识别方法、装置、计算机设备和存储介质

Country Status (1)

Country Link
CN (1) CN110321566B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111199152A (zh) * 2019-12-20 2020-05-26 西安交通大学 一种基于标签注意力机制的命名实体识别方法
CN111222338A (zh) * 2020-01-08 2020-06-02 大连理工大学 基于预训练模型和自注意力机制的生物医学关系抽取方法
CN111370084A (zh) * 2020-02-07 2020-07-03 山东师范大学 基于BiLSTM的电子健康记录表示学习方法及系统
CN111881262A (zh) * 2020-08-06 2020-11-03 重庆邮电大学 基于多通道神经网络的文本情感分析方法
CN112084336A (zh) * 2020-09-09 2020-12-15 浙江综合交通大数据中心有限公司 一种高速公路突发事件的实体提取和事件分类方法及装置
CN112185520A (zh) * 2020-09-27 2021-01-05 志诺维思(北京)基因科技有限公司 一种医疗病理报告图片的文本结构化处理系统和方法
CN112199953A (zh) * 2020-08-24 2021-01-08 广州九四智能科技有限公司 一种电话通话中信息提取方法、装置及计算机设备
CN112699684A (zh) * 2020-12-30 2021-04-23 北京明朝万达科技股份有限公司 命名实体识别方法和装置、计算机可读存储介质及处理器
CN113366511A (zh) * 2020-01-07 2021-09-07 支付宝(杭州)信息技术有限公司 利用遗传编程的命名实体识别和提取
CN112185520B (zh) * 2020-09-27 2024-06-07 志诺维思(北京)基因科技有限公司 一种医疗病理报告图片的文本结构化处理系统和方法

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106569998A (zh) * 2016-10-27 2017-04-19 浙江大学 一种基于Bi‑LSTM、CNN和CRF的文本命名实体识别方法
CN108062303A (zh) * 2017-12-06 2018-05-22 北京奇虎科技有限公司 垃圾短信的识别方法及装置
CN109285562A (zh) * 2018-09-28 2019-01-29 东南大学 基于注意力机制的语音情感识别方法
US20190043486A1 (en) * 2017-08-04 2019-02-07 EMR.AI Inc. Method to aid transcribing a dictated to written structured report
CN109471895A (zh) * 2018-10-29 2019-03-15 清华大学 电子病历表型抽取、表型名称规范化方法及系统
CN109614614A (zh) * 2018-12-03 2019-04-12 焦点科技股份有限公司 一种基于自注意力的bilstm-crf产品名称识别方法
CN109635621A (zh) * 2017-10-07 2019-04-16 塔塔顾问服务有限公司 用于第一人称视角中基于深度学习识别手势的系统和方法
CN109670179A (zh) * 2018-12-20 2019-04-23 中山大学 基于迭代膨胀卷积神经网络的病历文本命名实体识别方法
CN109710925A (zh) * 2018-12-12 2019-05-03 新华三大数据技术有限公司 命名实体识别方法及装置
CN109766427A (zh) * 2019-01-15 2019-05-17 重庆邮电大学 一种基于堆叠Bi-LSTM网络和协同注意力的虚拟学习环境智能问答方法
CN109800349A (zh) * 2018-12-17 2019-05-24 北京邮电大学 基于用户发布内容量化新闻价值的数据处理方法和装置
CN109992770A (zh) * 2019-03-04 2019-07-09 昆明理工大学 一种基于组合神经网络的老挝语命名实体识别方法
WO2019137562A9 (en) * 2019-04-25 2020-02-13 Alibaba Group Holding Limited Identifying entities in electronic medical records

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106569998A (zh) * 2016-10-27 2017-04-19 浙江大学 一种基于Bi‑LSTM、CNN和CRF的文本命名实体识别方法
US20190043486A1 (en) * 2017-08-04 2019-02-07 EMR.AI Inc. Method to aid transcribing a dictated to written structured report
CN109635621A (zh) * 2017-10-07 2019-04-16 塔塔顾问服务有限公司 用于第一人称视角中基于深度学习识别手势的系统和方法
CN108062303A (zh) * 2017-12-06 2018-05-22 北京奇虎科技有限公司 垃圾短信的识别方法及装置
CN109285562A (zh) * 2018-09-28 2019-01-29 东南大学 基于注意力机制的语音情感识别方法
CN109471895A (zh) * 2018-10-29 2019-03-15 清华大学 电子病历表型抽取、表型名称规范化方法及系统
CN109614614A (zh) * 2018-12-03 2019-04-12 焦点科技股份有限公司 一种基于自注意力的bilstm-crf产品名称识别方法
CN109710925A (zh) * 2018-12-12 2019-05-03 新华三大数据技术有限公司 命名实体识别方法及装置
CN109800349A (zh) * 2018-12-17 2019-05-24 北京邮电大学 基于用户发布内容量化新闻价值的数据处理方法和装置
CN109670179A (zh) * 2018-12-20 2019-04-23 中山大学 基于迭代膨胀卷积神经网络的病历文本命名实体识别方法
CN109766427A (zh) * 2019-01-15 2019-05-17 重庆邮电大学 一种基于堆叠Bi-LSTM网络和协同注意力的虚拟学习环境智能问答方法
CN109992770A (zh) * 2019-03-04 2019-07-09 昆明理工大学 一种基于组合神经网络的老挝语命名实体识别方法
WO2019137562A9 (en) * 2019-04-25 2020-02-13 Alibaba Group Holding Limited Identifying entities in electronic medical records

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
TENG ZHANG,KAILAI ZHANG,JI WU: "Multi-modal attention mechanisms in LSTM and its application to acoustic", 《INTERSPEECH 2018》 *
YUE ZHANG,JIE YANG: "Chinese NER Using Lattice LSTM", 《ARXIV:1805.02023V4》 *
杨文明,褚伟杰: "在线医疗问答文本的命名实体识别", 《计算机系统应用》 *
王奕磊: "深度学习模型在序列标注任务中的应用", 《HTTPS://WWW.JIQIZHIXIN.COM/ARTICLES/2018-10-30-7》 *
王祺,邱家辉等: "基于循环胶囊网络的临床语义关系识别研究", 《广西师范大学学报(自然科学版)》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111199152A (zh) * 2019-12-20 2020-05-26 西安交通大学 一种基于标签注意力机制的命名实体识别方法
CN113366511A (zh) * 2020-01-07 2021-09-07 支付宝(杭州)信息技术有限公司 利用遗传编程的命名实体识别和提取
CN113366511B (zh) * 2020-01-07 2022-03-25 支付宝(杭州)信息技术有限公司 利用遗传编程的命名实体识别和提取
CN111222338A (zh) * 2020-01-08 2020-06-02 大连理工大学 基于预训练模型和自注意力机制的生物医学关系抽取方法
CN111370084A (zh) * 2020-02-07 2020-07-03 山东师范大学 基于BiLSTM的电子健康记录表示学习方法及系统
CN111370084B (zh) * 2020-02-07 2023-10-03 山东师范大学 基于BiLSTM的电子健康记录表示学习方法及系统
CN111881262A (zh) * 2020-08-06 2020-11-03 重庆邮电大学 基于多通道神经网络的文本情感分析方法
CN111881262B (zh) * 2020-08-06 2022-05-20 重庆邮电大学 基于多通道神经网络的文本情感分析方法
CN112199953A (zh) * 2020-08-24 2021-01-08 广州九四智能科技有限公司 一种电话通话中信息提取方法、装置及计算机设备
CN112084336A (zh) * 2020-09-09 2020-12-15 浙江综合交通大数据中心有限公司 一种高速公路突发事件的实体提取和事件分类方法及装置
CN112185520A (zh) * 2020-09-27 2021-01-05 志诺维思(北京)基因科技有限公司 一种医疗病理报告图片的文本结构化处理系统和方法
CN112185520B (zh) * 2020-09-27 2024-06-07 志诺维思(北京)基因科技有限公司 一种医疗病理报告图片的文本结构化处理系统和方法
CN112699684A (zh) * 2020-12-30 2021-04-23 北京明朝万达科技股份有限公司 命名实体识别方法和装置、计算机可读存储介质及处理器

Also Published As

Publication number Publication date
CN110321566B (zh) 2020-11-13

Similar Documents

Publication Publication Date Title
CN110321566A (zh) 中文命名实体识别方法、装置、计算机设备和存储介质
CN110209801B (zh) 一种基于自注意力网络的文本摘要自动生成方法
CN103198149B (zh) 一种查询纠错方法和系统
CN110134946B (zh) 一种针对复杂数据的机器阅读理解方法
CN110475129A (zh) 视频处理方法、介质及服务器
CN109492215A (zh) 新闻实体识别方法、装置、计算机设备和存储介质
CN107609356A (zh) 基于标签模型的文本无载体信息隐藏方法
CN105893354A (zh) 一种基于双向递归神经网络的分词方法
CN110597998A (zh) 一种结合句法分析的军事想定实体关系抽取方法及装置
CN112749253B (zh) 一种基于文本关系图的多文本摘要生成方法
CN105955953A (zh) 一种分词系统
CN112732864B (zh) 一种基于稠密伪查询向量表示的文档检索方法
CN110046348A (zh) 一种基于规则和词典的地铁设计规范中主体识别方法
CN111178093A (zh) 一种基于堆叠算法的神经机器翻译系统训练加速方法
CN109086865A (zh) 一种基于切分循环神经网络的序列模型建立方法
CN110472248A (zh) 一种中文文本命名实体的识别方法
CN110442741A (zh) 一种基于张量融合和重排序的跨模态图文互搜方法
CN110348012B (zh) 确定目标字符的方法、装置、存储介质及电子装置
Huang et al. Rem-net: Recursive erasure memory network for commonsense evidence refinement
CN107220333A (zh) 一种基于Sunday算法的字符搜索方法
CN114595698A (zh) 一种基于ccsk和深度学习的语义通信方法
CN116226357B (zh) 一种输入中包含错误信息场景下的文档检索方法
CN112417089B (zh) 一种基于深度学习的高并行性阅读理解的方法
CN109508371B (zh) 一种结合集束搜索间隔最大化约束的文本摘要生成方法
CN112733556B (zh) 同步交互式翻译方法及装置、存储介质、计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant