CN110502755B - 基于融合模型的字符串识别方法及计算机存储介质 - Google Patents

基于融合模型的字符串识别方法及计算机存储介质 Download PDF

Info

Publication number
CN110502755B
CN110502755B CN201910798183.9A CN201910798183A CN110502755B CN 110502755 B CN110502755 B CN 110502755B CN 201910798183 A CN201910798183 A CN 201910798183A CN 110502755 B CN110502755 B CN 110502755B
Authority
CN
China
Prior art keywords
character
layer
character string
memory network
named entity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910798183.9A
Other languages
English (en)
Other versions
CN110502755A (zh
Inventor
李林峰
黄海荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ecarx Hubei Tech Co Ltd
Original Assignee
Hubei Ecarx Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hubei Ecarx Technology Co Ltd filed Critical Hubei Ecarx Technology Co Ltd
Priority to CN201910798183.9A priority Critical patent/CN110502755B/zh
Publication of CN110502755A publication Critical patent/CN110502755A/zh
Application granted granted Critical
Publication of CN110502755B publication Critical patent/CN110502755B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs

Abstract

本发明提供了一种基于融合模型的字符串识别方法及计算机存储介质,该方法包括将用户输入的字符串依次经双向长短记忆网络结构的输入层、字嵌入层、双向长短记忆网络层进行处理,将正向长短记忆网络处理后得到的字符串中最后一字符的特征值、或反向长短记忆网络处理后得到的字符串中第一字符的特征值输出至分类全连接层,将正向长短记忆网络处理和反向长短记忆网络处理得到的字符串中各字符的特征值输出至命名实体全连接层,由分类全连接层和输出层完成字符串的语言类别识别,由命名实体全连接层和维特比解码层完成字符串的命名实体识别。本发明省去了独立的分类模型和命名实体识别模型,不仅减小了模型的大小,而且也减少了字符串识别过程中的计算量。

Description

基于融合模型的字符串识别方法及计算机存储介质
技术领域
本发明涉及文本识别技术领域,特别是涉及一种基于融合模型的字符串识别方法及计算机存储介质。
背景技术
在车机NLP(Natural Language Processing,自然语言处理)中,通常采用神经网络分类模型和NER((Named Entity Recognition,命名实体识别模型)对文本做意图识别和词槽提取,一般的分类模型和NER模型是两个独立的模型,分别用于完成用户意图识别和词槽的提取,不仅使得字符串在识别过程中容易造成计算延迟的问题,而且还不利于节约车机成本。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的基于融合模型的字符串识别方法及计算机存储介质。
依据本发明一方面,提供了一种基于融合模型的字符串识别方法,所述融合模型包括输入层、字嵌入层、双向长短记忆网络层、分类全连接层、输出层、命名实体全连接层、维特比解码层,所述方法包括:
利用所述输入层将待识别的字符串转换化为字索引数组后输出至字嵌入层,字索引数组的各元素为所述字符串中各字符的索引号;
所述字嵌入层将所述字索引数组中的各元素分别转化为多维字向量,将各元素的多维字向量依次输出至双向长短记忆网络层;
所述双向长短记忆网络层基于所述多维字向量在正向长短记忆网络处理后得到的字符串中各字符的特征值中提取最后一字符的特征值、或在反向长短记忆网络处理后得到的各字符的特征值中提取第一字符的特征值,并输出至分类全连接层;
所述双向长短记忆网络层将基于所述多维字向量在正向长短记忆网络处理和反向长短记忆网络处理后得到的字符串中各字符的特征值输出至命名实体全连接层;
所述分类全连接层将所述第一字符或最后一字符的特征值按照第一预设映射方式映射至预置的多个分类标签,所述预置的多个分类标签所映射的特征值作为字符串的多个分类标签概率值并输出至输出层,所述输出层选取最大的分类标签概率值对应的分类标签作为所述字符串的语言类别;
所述命名实体全连接层将各字符的特征值按照第二预设映射方式映射至预置的多个命名实体标签,所述预置的多个命名实体标签映射的特征值作为相应字符的命名实体标签概率值并输出至维特比解码层,所述维特比解码层对各字符的命名实体标签概率值进行维特比解码得到各字符对应的一个命名实体标签。
可选地,所述分类全连接层将所述第一字符或最后一字符的特征值按照第一预设映射方式映射至预置的多个分类标签,所述预置的多个分类标签所映射的特征值作为字符串的多个分类标签概率值并输出至输出层,包括:
所述分类全连接层依据所述第一字符或最后一字符的特征值按照公式Y1=X1*W1+B1计算得到字符串的多个分类标签概率值Y1,并输出至输出层;
其中,X1表示所述第一字符或最后一字符的特征值,所述第一字符或最后一字符的特征值的数量依据双向长短记忆网络层的隐藏单元数量hiddenNum确定;W1表示所述融合模型预先训练出的权重矩阵,所述权重矩阵的维度为[hiddenNum,classNum];B1表示偏置项,所述偏置项为一维数组[classNum];classNum表示分类标签的数量。
可选地,所述双向长短记忆网络层将基于所述多维字向量在正向长短记忆网络处理和反向长短记忆网络处理后得到的字符串中各字符的特征值,并输出至命名实体全连接层,包括:
所述双向长短记忆网络层将基于所述多维字向量在正向长短记忆网络处理和反向长短记忆网络处理得到的字符串中各个字的特征值以二维矩阵[step,hiddenNum]的数据格式输出至命名实体全连接层;其中,
Step表示一个字符串包含的最大预设字符数;
hiddenNum表示双向长短记忆网络层的隐藏单元数量。
可选地,所述命名实体全连接层将各字符的特征值按照第二预设映射方式映射至预置的多个命名实体标签,所述预置的多个命名实体标签映射的特征值作为相应字符的命名实体标签概率值并输出至维特比解码层,包括:
所述命名实体全连接层基于公式Y2=X2*W2+B2计算得到字符串的多个分类标签概率值Y2,并输出至维特比解码层;
其中,X2表示二维矩阵[step,2*hiddenNum],W2表示所述融合模型预先训练出的权重矩阵,所述权重矩阵的维度为[2*hiddenNum,tagNum];B2表示偏置项,所述偏置项为一维数组[tagNum];tagNum表示命名实体标签的数量。
依据本发明再一方面,还提供了一种计算机存储介质,所述计算机存储介质存储有计算机程序代码,当所述计算机程序代码在计算设备上运行时,导致所述计算设备执行上文任意实施例中的基于融合模型的字符串识别方法。
依据本发明再一方面,还提供了一种计算设备,包括:处理器;存储有计算机程序代码的存储器;当所述计算机程序代码被所述处理器运行时,导致所述计算设备执行上文任意实施例中的基于融合模型的字符串识别方法。
在本发明实施例中,将用户输入的字符串依次双向长短记忆网络结构的输入层、字嵌入层、双向长短记忆网络层进行处理,并将正向长短记忆网络处理后得到的字符串中最后一字符的特征值、或反向长短记忆网络处理后得到的字符串中第一字符的特征值输出至分类全连接层,将正向长短记忆网络处理和反向长短记忆网络处理得到的字符串中各字符的特征值输出至命名实体全连接层,由分类全连接层和输出层完成字符串的语言类别识别,且由命名实体全连接层和维特比解码层完成字符串的命名实体识别。由此,通过采用一个双向长短记忆网络结构来同时实现字符串的语言类别识别和命名实体识别,从而省去了独立的分类模型和命名实体识别模型,不仅减小了模型的大小,而且也减少了字符串识别过程中的计算量。进一步地,采用同时实现语言类别识别和命名实体识别的融合模型还可以有效地减少计算延迟,节省了车机产品的成本,并大大提高了用户体验。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
根据下文结合附图对本发明具体实施例的详细描述,本领域技术人员将会更加明了本发明的上述以及其他目的、优点和特征。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了根据本发明一个实施例的基于融合模型的字符串识别方法的流程示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
为解决上述技术问题,本发明实施例提供了一种基于融合模型的字符串识别方法,融合模型主要包括三部分,分别为公共部分、分类部分、命名实体识别部分,公共部分包括输入层、字嵌入层和双向长短记忆网络层,分类部分包括分类全连接层和输出层,命名实体识别部分包括命名实体全连接层和维特比解码层。
图1示出了根据本发明一个实施例的基于融合模型的字符串识别方法的流程示意图。参见图1,该方法至少包括步骤S102至步骤S112。
步骤S102,利用输入层将待识别的字符串转换化为字索引数组后输出至字嵌入层,字索引数组的各元素为字符串中各字符的索引号。
步骤S104,字嵌入层将字索引数组中的各元素分别转化为多维字向量,将各元素的多维字向量依次输出至双向长短记忆网络层。
步骤S106,双向长短记忆网络层基于多维字向量在正向长短记忆网络处理后得到的字符串中各字符的特征值中提取最后一字符的特征值、或在反向长短记忆网络处理后得到的各字符的特征值中提取第一字符的特征值,并输出至分类全连接层。
步骤S108,双向长短记忆网络层将基于多维字向量在正向长短记忆网络处理和反向长短记忆网络处理后得到的字符串中各字符的特征值输出至命名实体全连接层。
步骤S110,分类全连接层将第一字符或最后一字符的特征值按照第一预设映射方式映射至预置的多个分类标签,预置的多个分类标签所映射的特征值作为字符串的多个分类标签概率值并输出至输出层,输出层选取最大的分类标签概率值对应的分类标签作为字符串的语言类别。
该步骤中,字符串的语言类别实际上体现的是用户意图,例如,输出层选取的分类标签为歌手,那么字符串的语言类别为歌手,即用户意图为歌手查询。又例如,输出层选取的分类标签为歌手歌名,那么字符串的语言类别为歌手歌名,即用户意图为歌手歌名查询。
步骤S112,命名实体全连接层将各字符的特征值按照第二预设映射方式映射至预置的多个命名实体标签,预置的多个命名实体标签映射的特征值作为相应字符的命名实体标签概率值并输出至维特比解码层,维特比解码层对各字符的命名实体标签概率值进行维特比解码得到各字符对应的一个命名实体标签。
该步骤中,预置的多个命名实体标签是在融合模型进行字符串识别之前预先设置的,例如预先设置了128个命名实体标签,那么命名实体全连接层可以将每个字符的特征值映射到这128个命名实体标签上,从而每个字符对应128个命名实体标签,进而针对每个字符再从这128个命名实体标签中选取对应概率值最大的作为其唯一的命名实体标签。
该实施例中,维特比解码层得到字符串中各字符对应的一个命名实体标签,那么字符串中所有字符的命名实体标签的组合便是字符串对应的命名实体标签,字符串对应的命名实体标签即字符串的命名实体识别结果。
本发明实施例通过采用一个双向长短记忆网络结构来同时实现字符串的语言类别识别和命名实体识别,从而省去了独立的分类模型和命名实体识别模型,不仅减小了模型的大小,而且也减少了字符串识别过程中的计算量。进一步地,采用同时实现语言类别识别和命名实体识别的融合模型还可以有效地减少计算延迟,节约了车机产品的成本,并大大提高了用户体验。
参见上文步骤S102,在本发明实施例中,输入层也可以称为one-hot转换层,用户向命名实体模型输入字符串之后,先经输入层将字符串转换化为字索引数组,字索引数组的元素为字符串中各字符的索引号,即将字符串转换为各字符的索引号,一个字符串输入输入层后,输入层输出一组索引号的数组。由于通常人一次讲话一般是少于70个字的,因此,可以约定输入层最长接收70个字,超过部分截断丢弃,此时输入层的输出就是一个最长70个元素的数组,数组元素的值是整型数值,代表这个字的索引号。
参见上文步骤S104,在本发明实施例中,字嵌入就是用一个多维的浮点数据表示每个字符的意思,比如每个字用128个元素的一维数组表示。输入层输出的一个字索引数组经过字嵌入层变成一个多维字向量,70个字符的索引就变成一个[70,128]的矩阵,并且矩阵的每一个元素是一个浮点数。
参见上文步骤S106和步骤S108,在本发明实施例中,双向长短记忆网络(LongShort-Term Memory,LSTM)层是一个广泛应用的神经网络模型,它在处理一个字符串时会考虑各字符之间的相互关联,而不是只考虑最近的一个字符或者几个字符。比如,双向长短记忆网络在命名实体识别时,处理“我要听刘德华的忘情水”这个字符串,最后一个词是“忘情水”,前面有“我要听”和“刘德华”,双向长短记忆网络在识别“忘情水”时,考虑了前面的“我要听”、“刘德华”等,结合了上下文,所以能更准确的判断出“忘情水”可能是一首歌名。如果只用一个方向双向长短记忆网络层就会丢失字符串中字、词顺序的信息,比如可能存在“我爱你”和“你爱我”的意思区分不出来,因此,采用双向长短记忆网络层,在正向LSTM处理“我爱你”,反向LSTM处理“你爱我”,进而将2个LSTM处理的结果合并起来,从而得到字符串中每个字符、词的顺序关系。双向长短记忆网络层既可以作为命名实体识别模型的组成部分,也可以作为分类模型的组成部分。
参见步骤S106,本发明实施例中,通常一个字符串最多可以有70个字符,而语言类别的识别是针对整个字符串来判定,且双向长短记忆网络层在正向LSTM处理时得到字符串中的最后一个字符的特征值中除了包含最后一个字符的特征外还包含了字符串中其他字符的特征,在反向LSTM处理时得到字符串中的第一个字符的特征值中除了包含第一个字符的特征外还包含了字符串中其他字符的特征,因此,无需将字符串的各个字符的特征值都输出至分类全连接层,而是将正向LSTM处理中的最后一个字符的特征值和最后一个字符的特征中的第一个字符的特征值输出至分类全连接层即可,此时,双向长短记忆网络层输出一维数组[hiddenNum],hiddenNum是双向LSTM的隐藏单元数量,可以预设为128。
在一可选实施例中,本发明实施例的融合模型还可以对批量的字符串进行识别处理,假设一次输入至融合模型多个字符串,且字符串的数量不超过64个,那么双向长短记忆网络层输出的数据格式为[batchSize,hiddenNum],batchSize为字符串预设的数量,例如为64。
参见上文步骤S110,在本发明一实施例中,分类全连接层将第一字符或最后一字符的特征值按照第一预设映射方式映射至预置的多个分类标签,以利用预置的多个分类标签所映射的特征值作为字符串的多个分类标签概率值时,可以由分类全连接层依据第一字符或最后一字符的特征值按照公式Y1=X1*W1+B1计算得到字符串的多个分类标签概率值Y1。其中,X1表示第一字符或最后一字符的特征值。W1表示融合模型预先训练出的权重矩阵,权重矩阵的维度为[hiddenNum,classNum]。B1表示偏置项,偏置项为一维数组[classNum],classNum表示分类标签的数量。分类全连接层输出classNum个分类标签概率值(可采用浮点值表示),例如,C0、C1、C2、…Cclass_num-1,且每一个分类标签概率值对应一个分类标签。
进而,将字符串的多个分类标签概率值输出至输出层(即argMax层),输出层选取最大的分类标签概率值对应的分类标签作为字符串的语言类别,具体的,输出层比较classNum个分类标签概率值的大小,并选取概率值最大的一个作为对应字符串语言类别,比如分类标签Cn最大,那么字符串属于第n+1个语言类别。这里介绍的输出层确定字符串的语言类别的过程是识别字符串过程的一部分,若是在训练融合模型阶段输出层还可以结合softmax函数对classNum个分类标签概率值进行归一化处理,另classNum个分类标签概率值的和为1,以便于做概率统计,此处不再具体介绍。
参见上文步骤S108,在本发明实施例中,若双向长短记忆网络层的输入是前面字嵌入层的输出的多维字向量的70*128的矩阵,那么,双向长短记忆网络层将基于在正向长短记忆网络处理和反向长短记忆网络处理得到的字符串中各个字的特征值以二维矩阵[step,2*hiddenNum]的数据格式输出至命名实体全连接层,其中,step表示一个字符串包含的最大预设字符数,这个也是预设的,比如字符串最大70个字符,在对一个字符串的70个字符进行处理时,正向LSTM处理加反向LSTM就是140,hiddenNum是双向LSTM的隐藏单元数量,可以预设为128,输出的矩阵中每个元素同样是一个浮点数。
在一可选实施例中,若一次输入至融合模型多个字符串,且字符串的数量不超过64,那么双向长短记忆网络层输出的数据格式为[batchSize,step,2*hiddenNum],batchSize为字符串预设的长度,例如64。
参见上文步骤S112,在本发明一实施例中,命名实体全连接层将各字符的特征值按照第二预设映射方式映射至预置的多个命名实体标签,以利用预置的多个命名实体标签映射的特征值作为相应字符的命名实体标签概率值并输出至维特比解码层的过程如下:由命名实体全连接层基于公式Y2=X2*W2+B2计算得到字符串的多个分类标签概率值Y2,并输出至维特比解码层,其中,X2表示二维矩阵[step,2*hiddenNum],W2表示融合模型预先训练出的权重矩阵,权重矩阵的维度为[2*hiddenNum,tagNum]。B2表示偏置项,偏置项为一维数组[tagNum]。tagNum表示命名实体标签的数量。命名实体全连接层输出tagNum个实体标签概率值(采用浮点值表示),一个命名实体标签概率值对应一个实体标签。
从命名实体全连接层输出的字符串中字符的命名实体标签概率值的数据格式为[step,tagNum]的矩阵。其中,step表示字符串最大有step个字符,如step为70,表示字符串最大有70个字符。tagNum代表命名实体模型的标签总数量,比如237个标签。每个字符对应tagNum数量个可能的命名实体标签,每个命名实体标签用一个浮点数表示,数值越大表示可能性越大。
由于命名实体识别后的字符串的每个字符只能有一个命名实体标签,比如字符串有70个字符,应该是70个命名实体标签(step=70),即70个元素的一维数组。而将[step,tagNum]矩阵到一维数组的转换就是维特比解码的功能。维特比解码会利用预先训练出的转移矩阵[tagNum,tagNum]进行维比特解码,进而得到与输入一一对应的输出,也是一个[step,tagNum]的矩阵。
在维比特解码的过程中,若字符串中第i个字符的第j个命名实体标签节点为Bi,j,对应的输出值为Oi,k(k=0,1,…,tagNum-1)是该节点Bi,j的输入、对应转移矩阵的值、以及前一层节点的输出的最大值的累加和。每一个节点Bi,j对应的输出Oi,k包含tagNum个,选择最大的一个作为节点Bi,j的输出(maxOi-1,j),其他的丢弃。累加过程可以参见公式maxOi,j=argMax(Oi-1,k+Ti,j+Ii,j),其中,k=0,1,…,tagNum-1。在字符串中从第1个字符到第step个字符依次计算出每个字符的每个节点的输出,并选出输出的概率值中的最大值作为相应节点的输出参与下一字符的计算,当计算到最后一个字符时,在tagNum个节点的输出中选择输出的概率值最大的标签作为最终的结果。进而通过最后一个字符的最大值的标签进行回溯,最后获得一个tagNum长度的标签路径,并作为字符串的命名实体标签。
本发明实施例,融合模型在训练时会利用目标函数进行训练,融合模型的目标函数也同样是分类模型的分类目标函数和命名实体识别模型的命名实体识别目标函数的融合。通常情况下,分类目标函数采用分类模型损失函数,例如cost分类函数,这里的cost分类函数指的是softmax交叉熵损失函数(英文为softmax_cross_entropy_with_logits)。命名实体识别目标函数采用最大似然估计损失函数costner(英文为crf_log_likelihood)。分类目标函数和命名实体识别目标函数的融合可以采用公式Target function=a*average(cost分类)+b*average(costner)计算得的融合函数,其中,a和b是2个目标函数的权重,通常取值都为1。
本发明实施例还提供了一种计算机存储介质,计算机存储介质存储有计算机程序代码,当计算机程序代码在计算设备上运行时,导致计算设备执行上文任意实施例中的基于融合模型的字符串识别方法。
本发明实施例还提供了一种计算设备,包括处理器、存储有计算机程序代码的存储器。当计算机程序代码被处理器运行时,导致计算设备执行上文任意实施例中的基于融合模型的字符串识别方法。
根据上述任意一个优选实施例或多个优选实施例的组合,本发明实施例能够达到如下有益效果:
在本发明实施例中,将用户输入的字符串依次经双向长短记忆网络结构的输入层、字嵌入层、双向长短记忆网络层进行处理,并将正向长短记忆网络处理后得到的字符串中最后一字符的特征值、或反向长短记忆网络处理后得到的字符串中第一字符的特征值输出至分类全连接层,将正向长短记忆网络处理和反向长短记忆网络处理得到的字符串中各字符的特征值输出至命名实体全连接层,由分类全连接层和输出层完成字符串的语言类别识别,且由命名实体全连接层和维特比解码层完成字符串的命名实体识别。由此,通过采用一个双向长短记忆网络结构来同时实现字符串的语言类别识别和命名实体识别,从而省去了独立的分类模型和命名实体识别模型,不仅减小了模型的大小,而且也减少了字符串识别过程中的计算量。进一步地,采用同时实现语言类别识别和命名实体识别的融合模型还可以有效地减少计算延迟,节省了车机(也称为车载多媒体系统主机或者车载导航系统主机或者车载娱乐信息系统主机等)产品的成本,并大大提高了用户体验。
所属领域的技术人员可以清楚地了解到,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,为简洁起见,在此不另赘述。
另外,在本发明各个实施例中的各功能单元可以物理上相互独立,也可以两个或两个以上功能单元集成在一起,还可以全部功能单元都集成在一个处理单元中。上述集成的功能单元既可以采用硬件的形式实现,也可以采用软件或者固件的形式实现。
本领域普通技术人员可以理解:所述集成的功能单元如果以软件的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,其包括若干指令,用以使得一台计算设备(例如个人计算机,服务器,或者网络设备等)在运行所述指令时执行本发明各实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM)、随机存取存储器(RAM),磁碟或者光盘等各种可以存储程序代码的介质。
或者,实现前述方法实施例的全部或部分步骤可以通过程序指令相关的硬件(诸如个人计算机,服务器,或者网络设备等的计算设备)来完成,所述程序指令可以存储于一计算机可读取存储介质中,当所述程序指令被计算设备的处理器执行时,所述计算设备执行本发明各实施例所述方法的全部或部分步骤。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:在本发明的精神和原则之内,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案脱离本发明的保护范围。

Claims (4)

1.一种基于融合模型的字符串识别方法,所述融合模型包括输入层、字嵌入层、双向长短记忆网络层、分类全连接层、输出层、命名实体全连接层、维特比解码层,所述方法包括:
利用所述输入层将待识别的字符串转换化为字索引数组后输出至字嵌入层,字索引数组的各元素为所述字符串中各字符的索引号;
所述字嵌入层将所述字索引数组中的各元素分别转化为多维字向量,将各元素的多维字向量依次输出至双向长短记忆网络层;
所述双向长短记忆网络层基于所述多维字向量在正向长短记忆网络处理后得到的字符串中各字符的特征值中提取最后一字符的特征值、或在反向长短记忆网络处理后得到的各字符的特征值中提取第一字符的特征值,并输出至分类全连接层;
所述双向长短记忆网络层将基于所述多维字向量在正向长短记忆网络处理和反向长短记忆网络处理后得到的字符串中各字符的特征值输出至命名实体全连接层;
所述分类全连接层将所述第一字符或最后一字符的特征值按照第一预设映射方式映射至预置的多个分类标签,所述预置的多个分类标签所映射的特征值作为字符串的多个分类标签概率值并输出至输出层,所述输出层选取最大的分类标签概率值对应的分类标签作为所述字符串的语言类别;
所述命名实体全连接层将各字符的特征值按照第二预设映射方式映射至预置的多个命名实体标签,所述预置的多个命名实体标签映射的特征值作为相应字符的命名实体标签概率值并输出至维特比解码层,所述维特比解码层对各字符的命名实体标签概率值进行维特比解码得到各字符对应的一个命名实体标签其中,所述分类全连接层将所述第一字符或最后一字符的特征值按照第一预设映射方式映射至预置的多个分类标签,所述预置的多个分类标签所映射的特征值作为字符串的多个分类标签概率值并输出至输出层,包括:
所述分类全连接层依据所述第一字符或最后一字符的特征值按照公式Y1=X1*W1+B1计算得到字符串的多个分类标签概率值Y1,并输出至输出层;
其中,X1表示所述第一字符或最后一字符的特征值,所述第一字符或最后一字符的特征值的数量依据双向长短记忆网络层的隐藏单元数量hiddenNum确定;W1表示所述融合模型预先训练出的权重矩阵,所述权重矩阵的维度为[hiddenNum,classNum];B1表示偏置项,所述偏置项为一维数组[classNum];classNum表示分类标签的数量;
其中,所述双向长短记忆网络层将基于所述多维字向量在正向长短记忆网络处理和反向长短记忆网络处理后得到的字符串中各字符的特征值,并输出至命名实体全连接层,包括:
所述双向长短记忆网络层将基于所述多维字向量在正向长短记忆网络处理和反向长短记忆网络处理得到的字符串中各个字的特征值以二维矩阵[2*step,hiddenNum]的数据格式输出至命名实体全连接层;其中,
Step表示一个字符串包含的最大预设字符数;
hiddenNum表示双向长短记忆网络层的隐藏单元数量。
2.根据权利要求1所述的方法,其中,所述命名实体全连接层将各字符的特征值按照第二预设映射方式映射至预置的多个命名实体标签,所述预置的多个命名实体标签映射的特征值作为相应字符的命名实体标签概率值并输出至维特比解码层,包括:
所述命名实体全连接层基于公式Y2=X2*W2+B2计算得到字符串的多个分类标签概率值Y2,并输出至维特比解码层;
其中,X2表示二维矩阵[step,2*hiddenNum],W2表示所述融合模型预先训练出的权重矩阵,所述权重矩阵的维度为[2*hiddenNum,tagNum];B2表示偏置项,所述偏置项为一维数组[tagNum];tagNum表示命名实体标签的数量。
3.一种计算机存储介质,所述计算机存储介质存储有计算机程序代码,当所述计算机程序代码在计算设备上运行时,导致所述计算设备执行权利要求1或2所述的基于融合模型的字符串识别方法。
4.一种计算设备,包括:处理器;存储有计算机程序代码的存储器;当所述计算机程序代码被所述处理器运行时,导致所述计算设备执行权利要求1或2所述的基于融合模型的字符串识别方法。
CN201910798183.9A 2019-08-27 2019-08-27 基于融合模型的字符串识别方法及计算机存储介质 Active CN110502755B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910798183.9A CN110502755B (zh) 2019-08-27 2019-08-27 基于融合模型的字符串识别方法及计算机存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910798183.9A CN110502755B (zh) 2019-08-27 2019-08-27 基于融合模型的字符串识别方法及计算机存储介质

Publications (2)

Publication Number Publication Date
CN110502755A CN110502755A (zh) 2019-11-26
CN110502755B true CN110502755B (zh) 2021-05-18

Family

ID=68589770

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910798183.9A Active CN110502755B (zh) 2019-08-27 2019-08-27 基于融合模型的字符串识别方法及计算机存储介质

Country Status (1)

Country Link
CN (1) CN110502755B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111967264B (zh) * 2020-08-26 2021-09-24 湖北亿咖通科技有限公司 一种命名实体识别方法
CN112561499A (zh) * 2021-02-01 2021-03-26 开封大学 一种基于低碳经济的新能源数据管理系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107133202A (zh) * 2017-06-01 2017-09-05 北京百度网讯科技有限公司 基于人工智能的文本校验方法和装置
CN109471946B (zh) * 2018-11-16 2021-10-01 中国科学技术大学 一种中文文本的分类方法及系统
CN109446333A (zh) * 2019-01-16 2019-03-08 深兰人工智能芯片研究院(江苏)有限公司 一种实现中文文本分类的方法及相关设备

Also Published As

Publication number Publication date
CN110502755A (zh) 2019-11-26

Similar Documents

Publication Publication Date Title
CN110516247B (zh) 基于神经网络的命名实体识别方法及计算机存储介质
CN107818781B (zh) 智能交互方法、设备及存储介质
Mao et al. Explain images with multimodal recurrent neural networks
CN108009148B (zh) 基于深度学习的文本情感分类表示方法
US10504010B2 (en) Systems and methods for fast novel visual concept learning from sentence descriptions of images
CN108875074B (zh) 基于交叉注意力神经网络的答案选择方法、装置和电子设备
US10423874B2 (en) Intelligent image captioning
CN112015940A (zh) 文本到视觉机器学习嵌入技术
CN109933686B (zh) 歌曲标签预测方法、装置、服务器及存储介质
US20220284321A1 (en) Visual-semantic representation learning via multi-modal contrastive training
CN110347857B (zh) 基于强化学习的遥感影像的语义标注方法
CN111708888A (zh) 基于人工智能的分类方法、装置、终端和存储介质
CN110263325A (zh) 中文分词系统
CN110096572B (zh) 一种样本生成方法、装置及计算机可读介质
CN114548101B (zh) 基于可回溯序列生成方法的事件检测方法和系统
WO2022141875A1 (zh) 用户意图识别方法、装置、设备及计算机可读存储介质
CN110502755B (zh) 基于融合模型的字符串识别方法及计算机存储介质
CN110489551B (zh) 一种基于写作习惯的作者识别方法
CN113255320A (zh) 基于句法树和图注意力机制的实体关系抽取方法及装置
CN113128203A (zh) 基于注意力机制的关系抽取方法、系统、设备及存储介质
CN114780690A (zh) 基于多模态矩阵向量表示的专利文本检索方法及装置
CN113065349A (zh) 基于条件随机场的命名实体识别方法
CN114281982B (zh) 一种多模态融合技术的图书宣传摘要生成方法和系统
CN115269768A (zh) 要素文本处理方法、装置、电子设备和存储介质
CN112182167B (zh) 一种文本匹配方法、装置、终端设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20220418

Address after: 430000 No. b1336, chuanggu startup area, taizihu cultural Digital Creative Industry Park, No. 18, Shenlong Avenue, Wuhan Economic and Technological Development Zone, Wuhan, Hubei Province

Patentee after: Yikatong (Hubei) Technology Co.,Ltd.

Address before: No.c101, chuanggu start up area, taizihu cultural Digital Industrial Park, No.18 Shenlong Avenue, Wuhan Economic Development Zone, Hubei Province

Patentee before: HUBEI ECARX TECHNOLOGY Co.,Ltd.

TR01 Transfer of patent right