CN113012685B - 音频识别方法、装置、电子设备及存储介质 - Google Patents
音频识别方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN113012685B CN113012685B CN201911330221.4A CN201911330221A CN113012685B CN 113012685 B CN113012685 B CN 113012685B CN 201911330221 A CN201911330221 A CN 201911330221A CN 113012685 B CN113012685 B CN 113012685B
- Authority
- CN
- China
- Prior art keywords
- language model
- personal
- corpus
- audio
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0631—Creating reference templates; Clustering
Abstract
本申请提出一种音频识别方法、装置、电子设备及存储介质。具体实现方案为:确定与待识别音频对应的主题语言模型,主题语言模型是利用与主题类别对应的主题语料训练得到的;将主题语言模型与基础语言模型进行融合;利用融合后的模型对待识别音频进行识别。本申请实施例中,在具有多个说话主题的音频识别的过程中引入主题语言模型,将主题语言模型与基础语言模型进行融合,使得融合后的模型区分了待识别音频的主题,提升了音频识别系统的识别能力。
Description
技术领域
本申请涉及信息技术领域,尤其涉及一种音频识别方法、装置、电子设备及存储介质。
背景技术
语言模型是音频识别的基础,且语言模型对于数据具有很强的依赖性。一般来说,要训练的语言模型必须针对特定的音频识别系统所在的领域搜集大量的语料。然而,在实际开发音频识别系统时特定领域的语料搜集费时费力,而且成本也很大。如果直接使用其他领域的语料训练而成的模型,则性能会急剧下降。因此,在这种情况下语言模型在线增量自适应显得尤为重要。语言模型自适应技术一般是将一个通用的、训练充分的模型和一个特定场景的、训练不充分的模型通过某种方法组合成一个新的模型。这种方式的语言模型自适应是以离线的方式进行的。离线语言模型自适应具有更新时间长、性能差等缺点。在线增量自适应是在语音识别过程中利用初步识别的文本实时的对语言模型进行重新训练、融合,从而进一步提升语音识别的性能。在线增量语言模型自适应是以实时的方式进行模型的自适应,优点是模型更新快、性能高。
针对特定领域语言模型训练数据不匹配及数据稀疏问题,传统的语言模型在线增量自适应直接将初步识别结果作为训练语料重新训练说话人语言模型,然后和基础语言模型进行融合。这种实现方式的缺点主要在于:重新训练说话人语言模型并没有区分待识别音频的主题,不同的主题对于音频识别性能影响很大,从而会造成语音识别系统的识别性能下降。
发明内容
本申请实施例提供一种音频识别方法、装置、电子设备及存储介质,以解决相关技术存在的问题,技术方案如下:
第一方面,本申请实施例提供了一种音频识别方法,包括:
确定与待识别音频对应的主题语言模型,主题语言模型是利用与主题类别对应的主题语料训练得到的;
将主题语言模型与基础语言模型进行融合;
利用融合后的模型对待识别音频进行识别。
第二方面,本申请实施例提供了一种音频识别方法,包括:
确定与待识别音频对应的主题语言模型,主题语言模型是利用与主题类别对应的主题语料训练得到的;
从待识别音频中提取身份标识信息;
确定与身份标识信息对应的个人语言模型,个人语言模型是利用与身份标识信息对应的个人语料训练得到的;
将个人语言模型、主题语言模型与基础语言模型进行融合;
利用融合后的模型对待识别音频进行识别。
在一种实施方式中,上述方法还包括:
对预设语料库中的待分类语料进行分词处理;
将待分类语料的分词处理的结果映射为待分类语料的句子向量;
对待分类语料的句子向量进行聚类分析,将待分类语料归属为与主题类别对应的主题语料。
在一种实施方式中,对待分类语料的句子向量进行聚类分析,将待分类语料归属为与主题类别对应的主题语料,包括:
将项待分类语料的句子向量作为种子向量,创建与种子向量对应的主题类别;
将第N项待分类语料的句子向量与种子向量进行余弦相似度计算;
在余弦相似度大于等于预设相似度阈值的情况下,将第N项待分类语料归属为与种子向量对应的主题类别;在余弦相似度小于预设相似度阈值的情况下,将第N项待分类语料的句子向量作为种子向量,创建与种子向量对应的主题类别;
其中,N为大于1的正整数。
在一种实施方式中,上述方法还包括:
针对每个主题类别,将与主题类别对应的主题语料输入预设主题模型,训练得到与主题类别对应的主题语言模型。
在一种实施方式中,上述方法还包括:采用N-Gram语言模型作为预设主题模型。
在一种实施方式中,确定与待识别音频对应的主题语言模型,包括:
从待识别音频的音频名中提取主题关键词;
将主题关键词与上述与主题类别对应的主题语料进行文本正则匹配;
将匹配成功的主题类别对应的主题语言模型确定为与待识别音频对应的主题语言模型。
在一种实施方式中,上述方法还包括:
训练通用领域语言模型和专用领域语言模型;
将训练好的通用领域语言模型和专用领域语言模型分别进行测试,得到困惑度结果;
根据困惑度结果,使用最大期望算法计算融合插值比例;
根据融合插值比例将通用领域语言模型和专用领域语言模型进行融合,得到基础语言模型。
在一种实施方式中,上述方法还包括:
获取与身份标识信息对应的个人语料;
根据个人语料训练得到与身份标识信息对应的个人语言模型。
在一种实施方式中,根据个人语料训练得到与身份标识信息对应的个人语言模型,包括:
从个人语料中提取出词向量;
将词向量输入到预设个人模型,通过预设个人模型得到个人语料的识别结果;
根据个人语料的识别结果,利用损失函数对预设个人模型进行训练,得到与身份标识信息对应的个人语言模型。
在一种实施方式中,将词向量输入到预设个人模型,通过预设个人模型得到个人语料的识别结果,包括:
将词向量分别输入到预设个人模型的卷积层和合并层;
通过卷积层提取词向量对应的词的位置信息;
通过合并层将词向量和词向量对应的词的位置信息进行合并操作,得到合并信息;
将合并信息输入到预设个人模型的长短期记忆网络中,通过长短期记忆网络提取个人语料的语义特征;
对个人语料的语义特征进行映射操作和归一化操作,得到个人语料的识别结果。
在一种实施方式中,卷积层采用跳跃卷积网络,通过跳跃卷积网络使得卷积层中的每一层接收该层之前的所有卷积层的输出信息。
在一种实施方式中,通过合并层将词向量和词向量对应的词的位置信息进行合并操作,得到合并信息,包括:
将词向量对应的词的位置信息进行重塑操作,以对齐词向量和词向量对应的词的位置信息的数据维度;
将数据维度对齐的词向量和词向量对应的词的位置信息进行合并操作。
在一种实施方式中,损失函数的惩罚项包括L1正则和L2正则。
在一种实施方式中,损失函数采用如下公式:
其中,loss表示损失函数,N表示训练集中语料的数量,T+1表示句子词序列长度,表示句子的似然概率,表示增量自适应之后的长短期记忆网络的的权重参数,ww表示增量自适应之前的长短期记忆网络的权重参数,表示L2正则,表示L1正则,β表示平衡L1正则与L2正则程度的系数,α是L1正则和L2正则的系数。
在一种实施方式中,上述方法还包括:
将待识别音频的识别结果存储到与身份标识信息对应的个人语料库;
利用与身份标识信息对应的个人语料库中的个人语料更新个人语言模型。
在一种实施方式中,上述方法还包括:在无法确定与身份标识信息对应的个人语言模型的情况下,根据身份标识信息和待识别音频创建与身份标识信息对应的个人语言模型。
在一种实施方式中,根据身份标识信息和待识别音频创建与身份标识信息对应的个人语言模型,包括:
利用基础语言模型和主题语言模型对待识别音频进行识别;
根据识别的结果和身份标识信息,得到与身份标识信息对应的个人语料;
根据个人语料训练得到与身份标识信息对应的个人语言模型。
第三方面,本申请实施例提供了一种音频识别装置,包括:
第一确定单元,用于确定与待识别音频对应的主题语言模型,主题语言模型是利用与主题类别对应的主题语料训练得到的;
第一融合单元,用于将主题语言模型与基础语言模型进行融合;
识别单元,用于利用融合后的模型对待识别音频进行识别。
第四方面,本申请实施例提供了一种音频识别装置,包括:
第一确定单元,用于确定与待识别音频对应的主题语言模型,主题语言模型是利用与主题类别对应的主题语料训练得到的;
提取单元,用于从待识别音频中提取身份标识信息;
第二确定单元,用于确定与身份标识信息对应的个人语言模型,个人语言模型是利用与身份标识信息对应的个人语料训练得到的;
第二融合单元,用于将个人语言模型、主题语言模型与基础语言模型进行融合;
识别单元,用于利用融合后的模型对待识别音频进行识别。
在一种实施方式中,上述装置还包括:
分词单元,用于对预设语料库中的待分类语料进行分词处理;
映射单元,用于将待分类语料的分词处理的结果映射为待分类语料的句子向量;
聚类单元,用于对待分类语料的句子向量进行聚类分析,将待分类语料归属为与主题类别对应的主题语料。
在一种实施方式中,聚类单元用于:
将项待分类语料的句子向量作为种子向量,创建与种子向量对应的主题类别;
将第N项待分类语料的句子向量与种子向量进行余弦相似度计算;
在余弦相似度大于等于预设相似度阈值的情况下,将第N项待分类语料归属为与种子向量对应的主题类别;在余弦相似度小于预设相似度阈值的情况下,将第N项待分类语料的句子向量作为种子向量,创建与种子向量对应的主题类别;
其中,N为大于1的正整数。
在一种实施方式中,上述装置还包括主题语言模型训练单元,主题语言模型训练单元用于:
针对每个主题类别,将与主题类别对应的主题语料输入预设主题模型,训练得到与主题类别对应的主题语言模型。
在一种实施方式中,还包括:采用N-Gram语言模型作为预设主题模型。
在一种实施方式中,第一确定单元用于:
从待识别音频的音频名中提取主题关键词;
将主题关键词与与主题类别对应的主题语料进行文本正则匹配;
将匹配成功的主题类别对应的主题语言模型确定为与待识别音频对应的主题语言模型。
在一种实施方式中,上述装置还包括基础语言模型训练单元,基础语言模型训练单元用于:
训练通用领域语言模型和专用领域语言模型;
将训练好的通用领域语言模型和专用领域语言模型分别进行测试,得到困惑度结果;
根据困惑度结果,使用最大期望算法计算融合插值比例;
根据融合插值比例将通用领域语言模型和专用领域语言模型进行融合,得到基础语言模型。
在一种实施方式中,上述装置还包括个人语言模型训练单元,个人语言模型训练单元包括:
获取子单元,用于获取与身份标识信息对应的个人语料;
第一训练子单元,用于根据个人语料训练得到与身份标识信息对应的个人语言模型。
在一种实施方式中,第一训练子单元包括:
第一提取子单元,用于从个人语料中提取出词向量;
识别子单元,用于将词向量输入到预设个人模型,通过预设个人模型得到个人语料的识别结果;
第二训练子单元,用于根据个人语料的识别结果,利用损失函数对预设个人模型进行训练,得到与身份标识信息对应的个人语言模型。
在一种实施方式中,识别子单元包括:
输入子单元,用于将词向量分别输入到预设个人模型的卷积层和合并层;
第二提取子单元,用于通过卷积层提取词向量对应的词的位置信息;
合并子单元,用于通过合并层将词向量和词向量对应的词的位置信息进行合并操作,得到合并信息;
第三提取子单元,用于将合并信息输入到预设个人模型的长短期记忆网络中,通过长短期记忆网络提取个人语料的语义特征;
归一化单元,用于对个人语料的语义特征进行映射操作和归一化操作,得到个人语料的识别结果。
在一种实施方式中,卷积层采用跳跃卷积网络,通过跳跃卷积网络使得卷积层中的每一层接收该层之前的所有卷积层的输出信息。
在一种实施方式中,合并子单元用于:
将词向量对应的词的位置信息进行重塑操作,以对齐词向量和词向量对应的词的位置信息的数据维度;
将数据维度对齐的词向量和词向量对应的词的位置信息进行合并操作。
在一种实施方式中,损失函数的惩罚项包括L1正则和L2正则。
在一种实施方式中,损失函数采用如下公式:
其中,loss表示损失函数,N表示训练集中语料的数量,T+1表示句子词序列长度,表示句子的似然概率,表示增量自适应之后的长短期记忆网络的的权重参数,ww表示增量自适应之前的长短期记忆网络的权重参数,表示L2正则,表示L1正则,β表示平衡L1正则与L2正则程度的系数,α是L1正则和L2正则的系数。
在一种实施方式中,个人语言模型训练单元还用于:
将待识别音频的识别结果存储到与身份标识信息对应的个人语料库;
利用与身份标识信息对应的个人语料库中的个人语料更新个人语言模型。
在一种实施方式中,个人语言模型训练单元还用于:
在无法确定与身份标识信息对应的个人语言模型的情况下,根据身份标识信息和待识别音频创建与身份标识信息对应的个人语言模型。
在一种实施方式中,个人语言模型训练单元还用于:
在无法确定与身份标识信息对应的个人语言模型的情况下,利用基础语言模型和主题语言模型对待识别音频进行识别;
根据识别的结果和身份标识信息,得到与身份标识信息对应的个人语料;
根据个人语料训练得到与身份标识信息对应的个人语言模型。
第五方面,本申请实施例提供了一种电子设备,该设备包括:存储器和处理器。其中,该存储器和该处理器通过内部连接通路互相通信,该存储器用于存储指令,该处理器用于执行该存储器存储的指令,并且当该处理器执行该存储器存储的指令时,使得该处理器执行上述各方面任一种实施方式中的方法。
第六方面,本申请实施例提供了一种计算机可读存储介质,计算机可读存储介质存储计算机程序,当计算机程序在计算机上运行时,上述各方面任一种实施方式中的方法被执行。
上述技术方案中的优点或有益效果至少包括:在具有多个说话主题的音频识别的过程中引入主题语言模型,将主题语言模型与基础语言模型进行融合,使得融合后的模型区分了待识别音频的主题,提升了音频识别系统的识别能力。
上述概述仅仅是为了说明书的目的,并不意图以任何方式进行限制。除上述描述的示意性的方面、实施方式和特征之外,通过参考附图和以下的详细描述,本申请进一步的方面、实施方式和特征将会是容易明白的。
附图说明
在附图中,除非另外规定,否则贯穿多个附图相同的附图标记表示相同或相似的部件或元素。这些附图不一定是按照比例绘制的。应该理解,这些附图仅描绘了根据本申请公开的一些实施方式,而不应将其视为是对本申请范围的限制。
图1为根据本申请实施例的音频识别方法的流程图;
图2为根据本申请实施例的音频识别方法的主题类别归属的流程图;
图3为根据本申请实施例的音频识别方法的主题文本聚类的流程图;
图4为根据本申请实施例的音频识别方法的确定主题语言模型的流程图;
图5为根据本申请实施例的音频识别方法的流程图;
图6为根据本申请实施例的音频识别方法的个人语言模型的识别流程图;
图7为根据本申请实施例的音频识别方法的个人语言模型的总体结构图;
图8为根据本申请实施例的音频识别方法的个人语言模型的计算流程图;
图9为根据本申请实施例的音频识别方法的增量自适应示意图;
图10是根据本申请实施例的音频识别装置的结构示意图;
图11是根据本申请实施例的音频识别装置的结构示意图;
图12是根据本申请实施例的音频识别装置的结构示意图;
图13是根据本申请实施例的音频识别装置的结构示意图;
图14是根据本申请实施例的音频识别装置的个人语言模型训练单元的结构示意图;
图15是根据本申请实施例的音频识别装置的第一训练子单元的结构示意图;
图16是根据本申请实施例的音频识别装置的识别子单元的结构示意图;
图17是用来实现本申请实施例的电子设备的框图。
具体实施方式
在下文中,仅简单地描述了某些示例性实施例。正如本领域技术人员可认识到的那样,在不脱离本申请的精神或范围的情况下,可通过各种不同方式修改所描述的实施例。因此,附图和描述被认为本质上是示例性的而非限制性的。
图1为根据本申请实施例的音频识别方法的流程图。如图1所示,该音频识别方法可以包括:
步骤S110,确定与待识别音频对应的主题语言模型,主题语言模型是利用与主题类别对应的主题语料训练得到的;
步骤S120,将主题语言模型与基础语言模型进行融合;
步骤S130,利用融合后的模型对待识别音频进行识别。
语言模型是描述自然语言内在固有规律的数学模型,可以用来计算一个句子的概率,利用语言模型可以判断哪个单词序列出现的可能性更大、更加符合人说话的可能性。特定领域中的语言模型的识别性能通常情况下会与每个说话人的说话风格有关。例如,教学场景下的语言模型在线增量自适应的性能对于说话主题背景十分敏感,传统的语言模型在线增量自适应的方法无法解决上述问题。
本申请实施例首先训练与主题类别对应的主题语言模型。例如,的教学场景下可将学生要回答或者复述的题目信息通过文本聚类算法进行主题类别的划分。在一个示例中,教学场景下对应的主题类别可包括:三角形、三角函数、因式分解等。可针对每个主题类别中的题目信息进行语言模型训练,得到与K个主题类别对应的主题语言模型。
在步骤S110中,可从待识别音频中提取题目的文本,然后将该题目的文本与K个主题类别所对应的语义分别进行语义相似度匹配。取相似度最高的值所对应的主题类别作为该题目归属的主题类别,也就是待识别音频中归属的主题类别。再将该主题类别对应的主题语言模型确定为与待识别音频对应的主题语言模型。
在步骤S120中,将步骤S110中确定的主题语言模型与基础语言模型(baseline语言模型)进行融合。在一种实施方式中,基础语言模型可采用现有的音频识别模型。可将主题语言模型与基础语言模型的参数进行融合。参数融合的方式可包括将参数加权求和等。
在步骤S130中,利用融合后的模型对待识别音频进行识别,可以区分待识别音频的主题,使得识别性能得到提升。在一个示例中,可首先利用基础语言模型对待识别音频进行识别,包括对待识别音频中的每个句子进行打分。其中,可对待识别音频中的每个句子对应的不同的文字串进行打分,识别的目的是找出与该对待识别音频对应的概率最大的文字串。例如,在音频识别过程中,可得到与待识别音频对应的词序列,有的词序列听起来很像识别结果的文字串,但实际上这些词序列并不都是正确的句子。利用语言模型可以判断哪个单词序列出现的可能性更大、更加符合人说话的可能性。比如一个待识别音频中的句子对应的词序列可以是词序列一:“你现在在干什么?”也可以是词序列二:“你西安载感什么?”显然,词序列一是正确的句子,其相应的打分也较高。在利用基础语言模型对待识别音频中的每个句子进行打分的基础上,还可针对该待识别音频选择主题语言模型,与基础语言模型融合后,利用融合后的模型对待识别音频中的每个句子进行重打分,从而对待识别音频进行进一步地识别。最后输出最终的识别结果。可针对每个说话人创建个人语料库,将上述最终的识别结果保存到对应的个人语料库中。
上述技术方案中的优点或有益效果至少包括:在具有多个说话主题的音频识别的过程中引入主题语言模型,将主题语言模型与基础语言模型进行融合,使得融合后的模型区分了待识别音频的主题,提升了音频识别系统的识别能力。
图2为根据本申请实施例的音频识别方法的主题类别归属的流程图。如图2所示,在一种实施方式中,上述方法还包括:
步骤S210,对预设语料库中的待分类语料进行分词处理;
步骤S220,将待分类语料的分词处理的结果映射为待分类语料的句子向量;
步骤S230,对待分类语料的句子向量进行聚类分析,将待分类语料归属为与主题类别对应的主题语料。
在这种实施方式中,可针对特定领域的语料进行主题类别的划分。为了进行主题类别的划分,可首先创建特定领域的预设语料库。在步骤S210中,可对预设语料库中的语料进行分词处理。例如,在教学场景下,可对预设语料库中的题目等相关文本进行分词处理。
以教育领域中的应用为例,在一种实施方式中,可直接使用开源分词工具对预设语料库中的待分类语料进行分词处理。在另一种实施方式中,考虑到针对教育领域语料的特殊性,直接使用开源分词工具分词可能效果并不理想。因此,可搜集教学场景的专有名词词典,并结合例如jieba(结巴)、thulac(THU Lexical Analyzer for Chinese,清华大学词法分析器)、pkuseg等分词工具进行分词。为区分三种分词工具的分词性能,可对分词测试集做进一步标记,并使用常用的性能评价指标对各个分词工具进行性能评价。
分词作为一种序列标注任务,常用的性能评价指标包括:精准率、召回率和F值。可将这三种评价指标分别简记为P,R和F。P值表明了分词工具在测试集上分词的准确程度;R值表明了分词工具在测试集上切分正确的词有多么全;F值综合反映了分词工具在测试集上的性能。三种评价指标均是越接近1,表明分词工具性能越好。为了描述上述指标的计算方法,先定义如下数据:N是人工标注分割的单词数、e是分词工具错误标注的单词数、c是分词工具正确标注的单词数,则以上各评价指标的计算公式如下:
可使用以上常用的性能评价指标对各个分词工具进行性能评价。根据评价结果选择分词方案。在一个示例中,可根据测试集上的以上三种指标,选择jieba+词典的分词方案。例如将自定义词典加入到jieba词典中,可以使分词达到更好的效果。在特定领域中,可以指定自己自定义的词典,以便包含jieba词库里没有的词。虽然jieba有新词识别能力,但是自行添加新词可以保证更高的正确率。
在一种实施方式中,在分词处理之后可对处理结果进行文本归一化处理。例如可将文本中的日期、公式、号码等进行归一化处理。在教学领域的示例中,可将待分类语料中出现的阿拉伯数字转为中文汉字、英文字母全部统一转为大写、教学场景中出现的特殊希腊字母按照其发音转为中文汉字。
在步骤S220中,将待分类语料的分词处理的结果进行句子向量化处理。例如在教学领域中,可采用Sent2vec模型将每个题目信息映射为一个固定长度为N的句子向量V=[v1,v2,v3…,vN]。
图3为根据本申请实施例的音频识别方法的主题文本聚类的流程图。如图3所示,在一种实施方式中,步骤S230,对待分类语料的句子向量进行聚类分析,将待分类语料归属为与主题类别对应的主题语料,包括:
步骤S310,将项待分类语料的句子向量作为种子向量,创建与种子向量对应的主题类别;
步骤S320,将第N项待分类语料的句子向量与种子向量进行余弦相似度计算;
在余弦相似度大于等于预设相似度阈值的情况下执行步骤S330,将第N项待分类语料归属为与种子向量对应的主题类别;在余弦相似度小于预设相似度阈值的情况下执行步骤S340,将第N项待分类语料的句子向量作为种子向量,创建与种子向量对应的主题类别;
其中,N为大于1的正整数。
可按照顺序对预设语料库中的待分类语料进行文本处理。例如在教育领域中,每个待分类语料可以是一个题目。一个示例性的主题文本聚类流程可包括如下步骤:
1)按照顺序对预设语料库中的题目进行文本处理。以第一个题目的句子向量为种子向量X1,建立一个主题类别。
2)将预设语料库中的下一个题目的句子向量X2与X1进行余弦相似度计算cos(X1,X2)。
3)若上述计算得到的余弦相似度大于等于预设相似度阈值θ,则将X2加入到X1主题类别中,也就是将当前题目归属为与种子向量对应的主题类别。跳转到步骤5)。
4)若上述计算得到的余弦相似度小于预设相似度阈值θ,则X2不属于已有的X1主题类别,创建新的主题类别,同时将当前题目加入到新创建的主题类别中。
5)聚类结束,等带下一个题目信息进入。
应用上述方法将预设语料库中的待分类语料归属为与主题类别对应的主题语料之后,可将预设语料库中的每个语料所归属的主题类别保存在预设语料库中。
在一种实施方式中,上述方法还包括:
针对每个主题类别,将与主题类别对应的主题语料输入预设主题模型,训练得到与主题类别对应的主题语言模型。
在上述方法中通过聚类将待分类语料归属为与主题类别对应的主题语料,在此基础上,可针对每个主题语料训练对应的主题语言模型。例如在教学领域中,可针对每个主题类别中的题目信息进行主题语言模型的训练,得到与K个主题类别对应的主题语言模型。
在一种实施方式中,上述方法还包括:采用N-Gram语言模型作为预设主题模型。
N-Gram是大词汇连续语音识别中常用的一种语言模型,对中文而言,称之为汉语语言模型(CLM,Chinese Language Model)。汉语语言模型利用上下文中相邻词间的搭配信息,它基于这样一种假设,第N个词的出现只与前面N-1个词相关,而与其它任何词都不相关,整句的概率就是各个词出现概率的乘积。这些概率可以通过直接从语料中统计N个词同时出现的次数得到。常用的是二元的Bi-Gram和三元的Tri-Gram(3-gram)。例如:“我爱她”这句话中的词袋模型特征是“我”,“爱”,“她”。这些特征和句子“她爱我”的特征是一样的。如果加入Bi-Gram,第一句话的特征还有“我-爱”和“爱-她”,这两句话“我爱她”和“她爱我”就能区别开来了。
例如在教学领域中,可针对每个主题类别中的题目信息进行3-gram主题语言模型训练,得到与K个主题类别对应的主题语言模型。
图4为根据本申请实施例的音频识别方法的确定主题语言模型的流程图。如图4所示,在一种实施方式中,图1中的步骤S110,确定与待识别音频对应的主题语言模型,包括:
步骤S410,从待识别音频的音频名中提取主题关键词;
步骤S420,将主题关键词与上述与主题类别对应的主题语料进行文本正则匹配;
步骤S430,将匹配成功的主题类别对应的主题语言模型确定为与待识别音频对应的主题语言模型。
不同的主题对于音频识别性能影响很大,因此语言模型中应对待识别音频的主题类别加以区分。在前述方法中已经将预设语料库中的待分类语料归属为与主题类别对应的主题语料,并将预设语料库中的每个语料所归属的主题类别保存在预设语料库中。则在步骤S410中,可从待识别音频中提取题目的文本,例如从待识别音频的音频文件名中提取主题关键词。在步骤S420中,将主题关键词和上述预设语料库中与主题类别对应的主题语料都写成正则表达式的形式,然后利用文本正则匹配将二者进行匹配。例如,对音频文件名中的学科专有名词等关键词进行匹配。其中,正则表达式是用一个“字符串”来描述一个特征,然后去验证另一个“字符串”是否符合这个特征。比如表达式“ab+”描述的特征是“一个'a'和任意个'b'”,那么'ab','abb','abbbbbbbbbb'都符合这个特征。
在教学场景下,预设语料库中的每个待分类语料可以是一个题目,预设语料库可以是一个题库,可针对题目信息得到与K个主题类别对应的主题语言模型。在步骤S430中,若上述文本正则匹配成功,则找到了与待识别音频对应的题目。若在前述方法中已经将预设语料库中的题目归属为相应的主题类别,则可将该主题类别对应的主题语言模型确定为与待识别音频对应的主题语言模型。
在另一种情况下,对于存入题库中的一道新的题目,可能还没有关于其归属的主题类别的记录。在这种情况下,可利用图3中所示的主题文本聚类方法将新的题目归属为与主题类别对应的主题语料,然后再根据其归属的主题类别进行主题语言模型的选择,决定使用哪个主题语言模型对待识别音频进行识别。
图5为根据本申请实施例的音频识别方法的流程图。如图5所示,该音频识别方法可以包括:
步骤S510,确定与待识别音频对应的主题语言模型,主题语言模型是利用与主题类别对应的主题语料训练得到的;
步骤S520,从待识别音频中提取身份标识信息;
步骤S530,确定与身份标识信息对应的个人语言模型,个人语言模型是利用与身份标识信息对应的个人语料训练得到的;
步骤S540,将个人语言模型、主题语言模型与基础语言模型进行融合;
步骤S550,利用融合后的模型对待识别音频进行识别。
本申请实施例中,首先训练与主题类别对应的主题语言模型。在步骤S510中,将该主题类别对应的主题语言模型确定为与待识别音频对应的主题语言模型。然后再训练与每个说话人对应的个人语言模型。例如,可利用现有的音频识别模型对每个说话人的音频进行初步识别。针对每个说话人的音频初步识别结果进行个人语料库的数据回流,也就是将每个说话人的音频初步识别结果保存在对应的个人语料库中。个人语料库中的数据积累到一定规模时,可进行说话人的个人语言模型的训练。可针对每个说话人建立个人信息库,个人信息库的内容可包括个人语料库和利用个人语料库中的个人语料训练得到的个人语言模型。其中,个人信息库是与每个说话人的身份标识信息相对应的。
在步骤S520中,首先接收待识别音频,然后从待识别音频中提取身份标识信息。例如,在教学场景下,学生在登录系统时输入了账号、学生姓名等ID信息(身份标识号),然后学生录制其自身的音频文件并上传系统。系统在保存上述音频文件时,其音频文件的命名中可包括账号、学生姓名等ID信息。因此,在接收待识别音频之后,可从待识别音频文件的命名中提取学生ID信息。
在步骤S530中,根据待识别音频中的学生ID信息,可将学生ID信息与个人信息库的身份标识信息进行匹配。若匹配成功,则将个人信息库中的个人语言模型确定为与身份标识信息对应的个人语言模型。
在步骤S540中,将步骤S110中确定的主题语言模型和步骤S530中确定的个人语言模型与基础语言模型(baseline语言模型)进行融合。在一种实施方式中,基础语言模型可采用现有的音频识别模型。可将主题语言模型、个人语言模型与基础语言模型的参数进行融合。参数融合的方式可包括将参数加权求和等。
在步骤S550中,利用融合后的模型对待识别音频进行识别,可以区分待识别音频的主题和个人说话风格,使得识别性能得到提升。在一个示例中,可首先利用基础语言模型对待识别音频进行识别,包括对待识别音频中的每个句子进行打分。其中,可对待识别音频中的每个句子对应的不同的文字串进行打分,识别的目的是找出与该对待识别音频对应的概率最大的文字串。在利用基础语言模型对待识别音频中的每个句子进行打分的基础上,还可针对该待识别音频选择主题语言模型,针对该待识别音频选择个人语言模型,将主题语言模型和个人语言模型与基础语言模型融合后,利用融合后的模型对待识别音频中的每个句子进行重打分,从而对待识别音频进行进一步地识别。最后输出最终的识别结果。可针对每个说话人创建个人语料库,将上述最终的识别结果保存到对应的个人语料库中。
上述技术方案中的优点或有益效果至少包括:在具有多个说话主题的音频识别的过程中引入主题语言模型,并且利用个人语料训练得到个人语言模型,将主题语言模型、个人语言模型与基础语言模型进行融合,使得融合后的模型区分了待识别音频的主题和说话人的风格,提升了音频识别系统的识别能力。
在一种实施方式中,上述方法还包括:
训练通用领域语言模型和专用领域语言模型;
将训练好的通用领域语言模型和专用领域语言模型分别进行测试,得到困惑度结果;
根据困惑度结果,使用最大期望算法计算融合插值比例;
根据融合插值比例将通用领域语言模型和专用领域语言模型进行融合,得到基础语言模型。
通常情况下一些特定领域都具有领域综合性,例如在教学场景中的音频识别涉及到语言学、逻辑学、计算机科学、自然语言处理、认知科学、心理学等诸多领域。以教学场景为例,本申请实施例中,可搜集通用领域的语料进行通用N-gram(汉语语言模型)语言模型训练,同时对教育领域语料进行N-gram语言模型训练。
在一种实施方式中,可搜集通用领域的语料进行通用3-gram语言模型训练,得到通用领域语言模型。同时对专用领域语料进行3-gram语言模型训练,得到专用领域语言模型。例如,对教育领域语料进行3-gram语言模型训练,得到教育领域语言模型。
仍以教学领域为例,可在教育领域语料中提前定义一个测试集,并且该测试集与训练集分别采用不同的语料。也就是说,该测试与训练3-gram教育领域的语言模型的训练集无交集。
在定义测试集的基础上,再将训练好的通用领域语言模型、教育领域语言模型在该测试集上测试句子级别的困惑度,得到两个困惑度结果。其中,困惑度用来度量一个概率分布或概率模型预测样本的好坏程度。它也可以用来比较两个概率分布或概率模型在预测样本上的优劣程序。低困惑度的概率分布模型或概率模型能更好地预测样本。
根据上述两个困惑度结果使用EM算法(Expectation-Maximization algorithm,最大期望算法)计算两个语言模型融合的插值比例。其中,EM算法是一类通过迭代进行极大似然估计的优化算法。最后,根据插值比例融合通用领域语言模型和专用领域语言模型,得到基础语言模型。在一个示例中,通用领域语言模型和专用领域语言模型的模型结构是一样的,可将通用领域语言模型和专用领域语言模型的对应参数进行融合,从而得到基础语言模型。
在一种实施方式中,上述方法还包括:
获取与身份标识信息对应的个人语料;
根据个人语料训练得到与身份标识信息对应的个人语言模型。
如前述,可利用现有的音频识别模型对每个说话人的音频进行初步识别。例如,可利用基础语言模型对每个说话人的音频进行初步识别。其中,系统在保存说话人的音频文件时,其音频文件的命名中可包括账号、学生姓名等ID信息。因此,每个说话人的音频文件名中都包括对应的说话人的身份标识信息。可将每个说话人的音频初步识别结果保存在对应的个人语料库中。然后利用个人语料库中个人语料训练说话人的个人语言模型,得到与身份标识信息对应的个人语言模型。
在一种实施方式中,根据个人语料训练得到与身份标识信息对应的个人语言模型,包括:
从个人语料中提取出词向量;
将词向量输入到预设个人模型,通过预设个人模型得到个人语料的识别结果;
根据个人语料的识别结果,利用损失函数对预设个人模型进行训练,得到与身份标识信息对应的个人语言模型。
个人语言模型的输入层接受的是词序列,具体对应的是词序列的词向量。本申请实施例中,首先利用词向量提取工具从个人语料中提取出词向量。然后将词向量输入到预设个人模型中,利用预设个人模型对个人语料进行识别。其中,预设个人模型包括没有经过训练的个人语言模型或者没有训练好的个人语言模型。在预设个人模型训练过程中,通过最小化损失函数求解和评估模型。利用损失函数作为预设个人模型的学习准则,对预设个人模型进行优化。例如损失函数可被用于模型的参数估计。
图6为根据本申请实施例的音频识别方法的个人语言模型的识别流程图。如图6所示,在一种实施方式中,将词向量输入到预设个人模型,通过预设个人模型得到个人语料的识别结果,包括:
步骤S610,将词向量分别输入到预设个人模型的卷积层和合并层;
步骤S620,过卷积层提取词向量对应的词的位置信息;
步骤S630,通过合并层将词向量和词向量对应的词的位置信息进行合并操作,得到合并信息;
步骤S640,将合并信息输入到预设个人模型的长短期记忆网络中,通过长短期记忆网络提取个人语料的语义特征;
步骤S650,对个人语料的语义特征进行映射操作和归一化操作,得到个人语料的识别结果。
图7为根据本申请实施例的音频识别方法的个人语言模型的总体结构图。如图7所示,个人语言模型包括:输入层、卷积层CNN(Convolutional Neural Networks,卷积神经网络)、合并层、LSTM(Long Short-Term Memory,长短期记忆网络)层、Softmax层和输出层。其中,卷积层采用SCN(Skip Convolutional Network,跳跃卷积网络)结构。在个人语言模型的结构中,特征提取器分别使用CNN和LSTM。
参见图6和图7,在步骤S610中,通过图3中的输入层,在模型训练阶段将从个人语料中提取出的词向量分别输入到预设个人模型的卷积层和合并层。
在步骤S620中,通过卷积层提取词向量对应的词的位置信息。在图7的示例中,模型包含三个卷积层和一个LSTM层,分别提取人语料的文本特征。可利用卷积层CNN提取词向量对应的词的位置信息,利用长短期记忆网络LSTM提取个人语料的语义特征。
在一种实施方式中,卷积层采用跳跃卷积网络,通过跳跃卷积网络使得卷积层中的每一层接收该层之前的所有卷积层的输出信息。
参见图7,个人语言模型的卷积层中采用跳跃卷积网络结构SCN,并在模型中使用合并层(Merge Layer)对SCN和输入层输入的词向量进行合并操作。本申请中的个人语言模型在SCN部分与经典的CNN有所不同,本申请中的个人语言模型采用了跳跃连接。可将本申请中的个人语言模型称为SCN-LSTM语言模型。以三个卷积层为例,卷积层1的编码信息在输入到卷积层2的同时也被直接输入到卷积层3,在卷积层3进行信息编码之前先对卷积层1和卷积层2的编码信息进行合并。具体来说,就是在SCN通道中互相连接这三个卷积层,第三个卷积层会接受卷积层1的编码信息作为其额外的输入。
传统CNN在第m层的输出信息可用以下公式一表示为:
Sm=Cm(Sm-1)
其中,Cm表示卷积操作;Sm表示卷积层中第m层的编码信息,也就是第m层的输出信息。
而对于SCN,在第m层的输入信息中除了包括第m-1层的输出信息之外,还增加了来自第m-1层之前所有卷积层的输出信息。以三个卷积层为例,在卷积层3的输入信息中,增加了来自卷积层1的输出信息作为卷积层3的输入信息。SCN中三个卷积层的情况下卷积层3的输入信息可用以下公式二表示为:
Rm=Cm(Rm-1)+Rm-1
其中,Cm表示卷积操作;Rm表示卷积层中第m层的输入信息。在公式二右边的第一项中,Rm-1表示卷积层中第m-1层的输入信息,再经过m-1层的卷积处理后得到的Cm(Rm-1)为m-1层的输出信息。在公式二右边的第二项中,Rm-1表示卷积层中第m-1层的输入信息,同时也是第m-2层的输出信息。可见,在第m层的输入信息中增加了来自第m-2层的输出信息。公式二适用于三个卷积层的情况,即在卷积层3的输入信息中,除了包括卷积层2的输出信息之外,增加了来自卷积层1的输出信息作为卷积层3的输入信息。
本申请实施例中,在个人语言模型中采用SCN的计算方式保证了卷积层学习到的词的位置信息不会被过滤掉。另外,采用SCN的计算方式也加速了模型的收敛。传统的语言模型在线增量自适应中说话人语言模型的训练方法为循环神经网络语言模型,使用这种方法训练模型速度很慢,不能满足需求。本申请实施例中,在线增量自适应模型采用轻量级、训练收敛速度快的卷积结构SCN和LSTM结合的网络,可加快模型训练速度,满足用户需求。
参见图7,在通过卷积层提取词向量对应的词的位置信息后,将词的位置信息输出给合并层。另一方面,输入层也将从个人语料中提取出的词向量分别输入到合并层。在步骤S630中,在合并层中将词向量和词向量对应的词的位置信息进行合并操作。
在一种实施方式中,步骤S630,通过合并层将词向量和词向量对应的词的位置信息进行合并操作,得到合并信息,包括:
将词向量对应的词的位置信息进行重塑操作,以对齐词向量和词向量对应的词的位置信息的数据维度;
将数据维度对齐的词向量和词向量对应的词的位置信息进行合并操作。
在这种实施方式中,对SCN层的输出信息进行reshape(重塑)操作。reshape操作包括调整数组或矩阵的维度和形状,比如将2*3的矩阵调整为3*2的矩阵。其中维度和形状变化是基于数组元素不能改变的前提下进行,变成的新形状中所包含的元素个数符合原来元素个数。SCN层的输出信息也就是词的位置信息,通过reshape操作将词的位置信息的维度调整成与输入层的词向量的子序列相同的维度。
合并操作包括向量逐点相加、向量逐点相乘和向量拼接中的至少一种。例如,在个人语言模型中可选择向量逐点相加作为合并操作以生成合并信息。在一种实施方式中,可在个人语言模型中设置展开层,SCN层的输出送入展开层进行数据维度对齐,然后与输入层的词向量进行逐点相加。
在步骤S640中,将合并层操作得到的合并信息输入到LSTM层中,使用LSTM层对个人语料的文本的词向量和SCN学习到的词的位置信息进行语义级别特征提取。例如,在句子序列中包括t个词,则与句子序列中的词的个数t相对应,LSTM层中的数据计算过程可包括t个步骤。在每一步中依次向LSTM层中添加一个词进行处理,预测下一个词是什么的概率。在LSTM层中的数据计算过程可用如下公式表示:
ft=σ(Wf·[ht-1,xt]+bf)
it=σ(Wi·[ht-1,xt]+bi)
ht=ot×tanh(Ct)
ot=σ(Wo·[ht-1,xt]+bo)
其中,ft和it分别表示句子序列中第t步遗忘门和输入门。在每个句子序列上,遗忘门控制每一个单词的信息的遗忘程度,输入门会控制每一个词信息写入长时信息的程度。例如,数据计算过程已经进行到第50个步骤,当前处理单元已经记录了第50个词,则可以用句子中已经处理的部分所包括的词的个数50来表示写入长时信息的程度。σ表示Sigmoid函数,其中,ft和it两个门选用Sigmoid函数,取值范围是[0,1]。tanh函数取值是[-1,1]。Wf、bf分别表示遗忘门的权重矩阵和偏置矩阵。ht表示句子序列中第t步的输出。xt表示合并操作之后第t个词的词向量和词向量对应的词的位置信息。表示备选的用来更新的状态。Wc、bc分别表示计算的权重矩阵和偏置矩阵。Ct表示t时刻的神经元的状态。Ct-1表示t-1时刻的神经元的状态。ot表示输出门,控制写入长时信息的输出程度。Wo、bo分别表示输出门的权重矩阵和偏置矩阵。
参见图7和图6,在个人语言模型的LSTM层后接入Softmax层。在步骤S650中,对LSTM层输出的个人语料的语义特征进行映射操作和归一化操作,得到个人语料的识别结果。在一种实施方式中,在Softmax层中,可先将LSTM层的输出结果接入一个全连接层,在全连接层中将LSTM层的输出结果映射成句子下一个词的概率的预测结果。然后对句子下一个词的概率的预测结果进行Softmax操作,使得预测结果具有合理的概率分布。
图8为根据本申请实施例的音频识别方法的个人语言模型的计算流程图。图8示出了本申请实施例的SCN-LSTM语言模型的第i步和第i+1步的详细计算过程。如图4所示,在第i步的计算过程中,Wi表示第i步的输入信息,即句子中第i个词的词向量,将Wi输入给合并层。同时将该句子中所有词的词向量输入给SCN层。输入信息经SCN层处理后得到词的位置信息,再将词的位置信息输出给展开层进行reshape操作,经reshape操作后再输入给合并层。在合并层将词向量与reshape操作后的词的位置信息进行合并操作。其中,图4中的圆圈中的“+”表示合并操作,得到合并信息。再将合并信息输出给LSTM层提取语义特征,最后将LSTM层的处理结果输出给Softmax层得到第i步的输出结果也就是对于第i+1个词的预测结果。另外,在第i步的计算过程中,还将第i步的LSTM层的计算结果输入给第i+1步的LSTM层,使得在第i+1步中,LSTM层可以在前i步的处理结果的基础上做进一步地处理。最终,各个步骤的输出结果、组合成了最后的输出结果。
在一种实施方式中,损失函数的惩罚项包括L1正则和L2正则。为保证个人语言模型的在增量自适应后不会出现高偏差,可在损失函数部分引入L1正则和L2正则相结合的方式对模型自适应前后的参数进行约束,以避免由于高偏差导致的模型自适应前后的变化太大,例如模型参数可能变化太大。模型自适应前后的变化太大可能导致自适应后模型的识别效果变差。
在一个示例中,可定义句子词序列长度为T+1,在SCN-LSTM模型中,句子的似然概率可表示为:
Pscn-lstm(wt|w<t)=Pscn-lstm(wt|ht)=softmax(wwh(t)+bw)
其中,ww和bw分别表示SCN-LSTM模型的输出层的权重矩阵和偏置矩阵。ht和h(t)表示句子序列中第t步的输出。具体地,ht表示历史编码信息,历史编码信息也是SCN-LSTM模型在第t步的输出结果。h(t)表示在第t步中LSTM层输出给Softmax层的输出信息。公式中的似然概率P为条件概率,wt表示第t步的预测概率,w<t表示根据历史信息进行预测。
在一个示例中,可在不同的应用阶段使用不同的损失函数。例如教学场景中对于新学生而言,尚无足够的个人语料用来训练个人语言模型的阶段可称为未增量自适应阶段。在未增量自适应阶段,可使用如下公式三作为损失函数:
仍以教学场景为例,对于已经积累了足够的个人语料,并根据个人语料已经训练得到了对应的个人语言模型的情况,可称为增量自适应阶段。在增量自适应阶段,有了新的个人语料,可使用新的个人语料重新训练个人语言模型,以更新个人语言模型的参数。
在增量自适应阶段,可使用交叉熵(cross-entropy)优化模型的参数。交叉熵可用于度量两个概率分布间的差异性信息。语言模型的性能通常用交叉熵来衡量。例如,使用交叉熵作为损失函数,p表示增量自适应之前的概率分布,q则为增量自适应之后的模型的预测概率分布,交叉熵损失函数可以衡量p与q的相似性。在增量自适应阶,可使用如下公式四作为损失函数:
其中,公式四中的loss表示增量自适应阶段的损失函数,N表示训练集中语料的数量,T+1表示句子词序列长度,表示句子的似然概率,表示增量自适应之后的长短期记忆网络的权重参数,ww表示增量自适应之前的长短期记忆网络的权重参数,表示L2正则,表示L1正则,β表示平衡L1正则与L2正则程度的系数,α是L1正则和L2正则的系数。
仍以教学场景为例,语言模型在线增量自适应的性能对于模型自适应前后的参数的分布变化十分敏感,传统的语言模型在线增量自适应无法解决上述问题。本申请实施例中,对模型增量自适应前后的参数进行约束,以避免由于模型自适应前后出现高偏差而导致自适应后模型的识别效果变差。
在一种实施方式中,上述方法还包括:
将待识别音频的识别结果存储到与身份标识信息对应的个人语料库;
利用与身份标识信息对应的个人语料库中的个人语料更新个人语言模型。
在增量自适应阶段,有了新的个人语料,可利用个人语言模型识别新的个人语料,将识别结果存储到与身份标识信息对应的个人语料库。可使用个人语料库中新的个人语料重新训练个人语言模型,以更新个人语言模型的参数。
在一种实施方式中,上述方法还包括:在无法确定与身份标识信息对应的个人语言模型的情况下,根据身份标识信息和待识别音频创建与身份标识信息对应的个人语言模型。
在一种实施方式中,根据身份标识信息和待识别音频创建与身份标识信息对应的个人语言模型,包括:
利用基础语言模型和主题语言模型对待识别音频进行识别;
根据识别的结果和身份标识信息,得到与身份标识信息对应的个人语料;
根据个人语料训练得到与身份标识信息对应的个人语言模型。
例如,在教学场景中,对于新学生,也就是在个人信息库中没有匹配的学生ID,可使用基础语言模型和主题语言模型对新学生的待识别音频进行识别,例如对待识别音频中的每个句子进行打分。同时,为新学生创建个人语料库,并保存识别结果到个人语料库中。使用个人语料库中的个人语料进行个人语言模型的训练,创建个人语言模型。
图9为根据本申请实施例的音频识别方法的增量自适应示意图。如图9所示,一方面,针对接收到的语音信号,在个人信息库中检索,进行个人信息判断。对于个人信息库中没有检索到的学生ID,建立个人语料库并保存个人语料。对于个人信息库中已有的学生ID,则保存个人语料。保存的个人语料可用于个人语言模型的增量自适应。另一方面,针对接收到的语音信号,对语音信号中包含的题目信息进行判断。例如可从语音信号中提取题目的文本,可对文本进一步做分词处理,从而判断出语音信号中包含的题目信息。然后将该题目的文本与K个主题类别所对应的语义分别进行文本语义相似度计算。根据文本语义相似度计算的结果确定语音信号对应的主题语言模型类别。例如取相似度最高的值所对应的主题类别作为语音信号归属的主题类别,再将该主题类别对应的主题语言模型确定为与语音信号对应的主题语言模型。
参见图9,在上述步骤中针对接收到的语音信号可确定对应的个人语言模型和主题语言模型。同时,针对接收到的语音信号,进行音频特征提取。将提取的音频特征输入解码器。解码器用于将声学模型和基础语言模型对语音信号中句子的打分结果进行组合。其中,声学模型主要利用拼音对语音信号进行识别,例如,给出句子中的字的对应的各种同音字的概率。通过解码器可得到针对接收到的语音信号的初步识别结果。例如通过解码器可得到与语音信号对应的若干个不同的文字串。在初步识别结果的基础上,再利用基础语言模型和主题语言模型、个人语言模型融合后的模型对初步识别结果进行重打分,得到最后的识别结果并输出。其中,融合后的模型可对初步识别结果进行文本级别的处理,例如进行语义分析等。
在一种实施方式中,基础语言模型和主题语言模型、个人语言模型的模型结构是一样的,可将基础语言模型和主题语言模型、个人语言模型的对应参数进行融合,从而得到融合后的模型。参数融合的方式可包括将参数加权求和等。
上述技术方案中的优点或有益效果至少包括:利用个人语料训练得到个人语言模型,使得融合后的模型区分了说话人的风格,提升了音频识别系统对说话人音频的识别能力。在具有多个说话主题的音频识别的过程中引入主题语言模型,使得融合后的模型区分了待识别音频的主题,提升了音频识别系统的识别能力。同时通过卷积层的SCN结构和对于模型参数的约束,保证了自适应模型速度快、模型参数变化相对稳定。
图10是根据本申请实施例的音频识别装置的结构示意图。如图10所示,该音频识别装置可以包括:
第一确定单元100,用于确定与待识别音频对应的主题语言模型,主题语言模型是利用与主题类别对应的主题语料训练得到的;
第一融合单元200,用于将主题语言模型与基础语言模型进行融合;
识别单元300,用于利用融合后的模型对待识别音频进行识别。
图11是根据本申请实施例的音频识别装置的结构示意图。如图11所示,该音频识别装置可以包括:
第一确定单元100,用于确定与待识别音频对应的主题语言模型,主题语言模型是利用与主题类别对应的主题语料训练得到的;
提取单元400,用于从待识别音频中提取身份标识信息;
第二确定单元500,用于确定与身份标识信息对应的个人语言模型,个人语言模型是利用与身份标识信息对应的个人语料训练得到的;
第二融合单元600,用于将个人语言模型、主题语言模型与基础语言模型进行融合;
识别单元300,用于利用融合后的模型对待识别音频进行识别。
图12是根据本申请实施例的音频识别装置的结构示意图。如图12所示,在一种实施方式中,上述装置还包括:
分词单元101,用于对预设语料库中的待分类语料进行分词处理;
映射单元102,用于将待分类语料的分词处理的结果映射为待分类语料的句子向量;
聚类单元103,用于对待分类语料的句子向量进行聚类分析,将待分类语料归属为与主题类别对应的主题语料。
在一种实施方式中,聚类单元103用于:
将项待分类语料的句子向量作为种子向量,创建与种子向量对应的主题类别;
将第N项待分类语料的句子向量与种子向量进行余弦相似度计算;
在余弦相似度大于等于预设相似度阈值的情况下,将第N项待分类语料归属为与种子向量对应的主题类别;在余弦相似度小于预设相似度阈值的情况下,将第N项待分类语料的句子向量作为种子向量,创建与种子向量对应的主题类别;
其中,N为大于1的正整数。
参见图12,在一种实施方式中,上述装置还包括主题语言模型训练单元800,主题语言模型训练单元800用于:
针对每个主题类别,将与主题类别对应的主题语料输入预设主题模型,训练得到与主题类别对应的主题语言模型。
在一种实施方式中,还包括:采用N-Gram语言模型作为预设主题模型。
在一种实施方式中,第一确定单元100用于:
从待识别音频的音频名中提取主题关键词;
将主题关键词与与主题类别对应的主题语料进行文本正则匹配;
将匹配成功的主题类别对应的主题语言模型确定为与待识别音频对应的主题语言模型。
参见图12,在一种实施方式中,上述装置还包括基础语言模型训练单元700,基础语言模型训练单元700用于:
训练通用领域语言模型和专用领域语言模型;
将训练好的通用领域语言模型和专用领域语言模型分别进行测试,得到困惑度结果;
根据困惑度结果,使用最大期望算法计算融合插值比例;
根据融合插值比例将通用领域语言模型和专用领域语言模型进行融合,得到基础语言模型。
图13是根据本申请实施例的音频识别装置的结构示意图。图14是根据本申请实施例的音频识别装置的个人语言模型训练单元的结构示意图。参见图11、图13和图14,在一种实施方式中,上述装置还包括个人语言模型训练单元900,个人语言模型训练单元900包括:
获取子单元610,用于获取与身份标识信息对应的个人语料;
第一训练子单元620,用于根据个人语料训练得到与身份标识信息对应的个人语言模型。
图15是根据本申请实施例的音频识别装置的第一训练子单元的结构示意图。如图15所示,在一种实施方式中,第一训练子单元620包括:
第一提取子单元621,用于从个人语料中提取出词向量;
识别子单元622,用于将词向量输入到预设个人模型,通过预设个人模型得到个人语料的识别结果;
第二训练子单元623,用于根据个人语料的识别结果,利用损失函数对预设个人模型进行训练,得到与身份标识信息对应的个人语言模型。
图16是根据本申请实施例的音频识别装置的识别子单元的结构示意图。如图16所示,在一种实施方式中,识别子单元622包括:
输入子单元6221,用于将词向量分别输入到预设个人模型的卷积层和合并层;
第二提取子单元6222,用于通过卷积层提取词向量对应的词的位置信息;
合并子单元6223,用于通过合并层将词向量和词向量对应的词的位置信息进行合并操作,得到合并信息;
第三提取子单元6224,用于将合并信息输入到预设个人模型的长短期记忆网络中,通过长短期记忆网络提取个人语料的语义特征;
归一化单元6225,用于对个人语料的语义特征进行映射操作和归一化操作,得到个人语料的识别结果。
在一种实施方式中,卷积层采用跳跃卷积网络,通过跳跃卷积网络使得卷积层中的每一层接收该层之前的所有卷积层的输出信息。
在一种实施方式中,合并子单元6223用于:
将词向量对应的词的位置信息进行重塑操作,以对齐词向量和词向量对应的词的位置信息的数据维度;
将数据维度对齐的词向量和词向量对应的词的位置信息进行合并操作。
在一种实施方式中,损失函数的惩罚项包括L1正则和L2正则。
在一种实施方式中,损失函数采用如下公式:
其中,loss表示损失函数,N表示训练集中语料的数量,T+1表示句子词序列长度,表示句子的似然概率,表示增量自适应之后的长短期记忆网络的的权重参数,ww表示增量自适应之前的长短期记忆网络的权重参数,表示L2正则,表示L1正则,β表示平衡L1正则与L2正则程度的系数,α是L1正则和L2正则的系数。
在一种实施方式中,个人语言模型训练单元900还用于:
将待识别音频的识别结果存储到与身份标识信息对应的个人语料库;
利用与身份标识信息对应的个人语料库中的个人语料更新个人语言模型。
在一种实施方式中,个人语言模型训练单元900还用于:
在无法确定与身份标识信息对应的个人语言模型的情况下,根据身份标识信息和待识别音频创建与身份标识信息对应的个人语言模型。
在一种实施方式中,个人语言模型训练单元900还用于:
在无法确定与身份标识信息对应的个人语言模型的情况下,利用基础语言模型和主题语言模型对待识别音频进行识别;
根据识别的结果和身份标识信息,得到与身份标识信息对应的个人语料;
根据个人语料训练得到与身份标识信息对应的个人语言模型。
本发明实施例各装置中的各模块的功能可以参见上述方法中的对应描述,在此不再赘述。
图17示出根据本发明一实施例的电子设备的结构框图。如图17所示,该电子设备包括:存储器910和处理器920,存储器910内存储有可在处理器920上运行的计算机程序。处理器920执行该计算机程序时实现上述实施例中的音频识别方法。存储器910和处理器920的数量可以为一个或多个。
该电子设备还包括:
通信接口930,用于与外界设备进行通信,进行数据交互传输。
如果存储器910、处理器920和通信接口930独立实现,则存储器910、处理器920和通信接口930可以通过总线相互连接并完成相互间的通信。该总线可以是工业标准体系结构(Industry Standard Architecture,ISA)总线、外部设备互连(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准体系结构(Extended Industry StandardArchitecture,EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。为便于表示,图17中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
可选的,在具体实现上,如果存储器910、处理器920及通信接口930集成在一块芯片上,则存储器910、处理器920及通信接口930可以通过内部接口完成相互间的通信。
本发明实施例提供了一种计算机可读存储介质,其存储有计算机程序,该程序被处理器执行时实现本申请实施例中提供的方法。
本申请实施例还提供了一种芯片,该芯片包括,包括处理器,用于从存储器中调用并运行存储器中存储的指令,使得安装有芯片的通信设备执行本申请实施例提供的方法。
本申请实施例还提供了一种芯片,包括:输入接口、输出接口、处理器和存储器,输入接口、输出接口、处理器以及存储器之间通过内部连接通路相连,处理器用于执行存储器中的代码,当代码被执行时,处理器用于执行申请实施例提供的方法。
应理解的是,上述处理器可以是中央处理器(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(digital signal processing,DSP)、专用集成电路(application specific integrated circuit,ASIC)、现场可编程门阵列(fieldprogrammablegate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者是任何常规的处理器等。值得说明的是,处理器可以是支持进阶精简指令集机器(advanced RISC machines,ARM)架构的处理器。
进一步地,可选的,上述存储器可以包括只读存储器和随机存取存储器,还可以包括非易失性随机存取存储器。该存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以包括只读存储器(read-onlymemory,ROM)、可编程只读存储器(programmable ROM,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器(electrically EPROM,EEPROM)或闪存。易失性存储器可以包括随机存取存储器(random access memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用。例如,静态随机存取存储器(static RAM,SRAM)、动态随机存取存储器(dynamic random access memory,DRAM)、同步动态随机存取存储器(synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(double data date SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(enhancedSDRAM,ESDRAM)、同步连接动态随机存取存储器(synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(direct rambus RAM,DR RAM)。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行计算机程序指令时,全部或部分地产生按照本申请的流程或功能。计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包括于本申请的至少一个实施例或示例中。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分。并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。
应理解的是,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。上述实施例方法的全部或部分步骤是可以通过程序来指令相关的硬件完成,该程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。上述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读存储介质中。该存储介质可以是只读存储器,磁盘或光盘等。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到其各种变化或替换,这些都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (32)
1.一种音频识别方法,其特征在于,包括:
确定与待识别音频对应的主题语言模型,所述主题语言模型是利用与主题类别对应的主题语料训练得到的;
从待识别音频中提取身份标识信息;
确定与所述身份标识信息对应的个人语言模型,所述个人语言模型是利用与所述身份标识信息对应的个人语料训练得到的;
将所述个人语言模型、所述主题语言模型与基础语言模型进行融合;
利用融合后的模型对所述待识别音频进行识别;
所述方法还包括:
获取与所述身份标识信息对应的个人语料;
根据所述个人语料训练得到与所述身份标识信息对应的个人语言模型,
并且其中,所述根据所述个人语料训练得到与所述身份标识信息对应的个人语言模型,包括:
从所述个人语料中提取出词向量;
将所述词向量输入到预设个人模型,通过所述预设个人模型得到所述个人语料的识别结果;所述预设个人模型包括跳跃卷积网络;
根据所述个人语料的识别结果,利用损失函数对所述预设个人模型进行训练,得到与所述身份标识信息对应的所述个人语言模型。
2.根据权利要求1所述的方法,其特征在于,还包括:
对预设语料库中的待分类语料进行分词处理;
将所述待分类语料的分词处理的结果映射为所述待分类语料的句子向量;
对所述待分类语料的句子向量进行聚类分析,将所述待分类语料归属为与主题类别对应的主题语料。
3.根据权利要求2所述的方法,其特征在于,对所述待分类语料的句子向量进行聚类分析,将所述待分类语料归属为与主题类别对应的主题语料,包括:
将项所述待分类语料的句子向量作为种子向量,创建与所述种子向量对应的主题类别;
将第N项所述待分类语料的句子向量与所述种子向量进行余弦相似度计算;
在所述余弦相似度大于等于预设相似度阈值的情况下,将所述第N项所述待分类语料归属为与所述种子向量对应的主题类别;在所述余弦相似度小于预设相似度阈值的情况下,将所述第N项所述待分类语料的句子向量作为种子向量,创建与所述种子向量对应的主题类别;
其中,N为大于1的正整数。
4.根据权利要求2所述的方法,其特征在于,还包括:
针对每个主题类别,将与主题类别对应的主题语料输入预设主题模型,训练得到与主题类别对应的所述主题语言模型。
5.根据权利要求4所述的方法,其特征在于,还包括:采用N-Gram语言模型作为所述预设主题模型。
6.根据权利要求3所述的方法,其特征在于,确定与待识别音频对应的主题语言模型,包括:
从待识别音频的音频名中提取主题关键词;
将所述主题关键词与所述与主题类别对应的主题语料进行文本正则匹配;
将匹配成功的所述主题类别对应的所述主题语言模型确定为与待识别音频对应的主题语言模型。
7.根据权利要求1所述的方法,其特征在于,还包括:
训练通用领域语言模型和专用领域语言模型;
将训练好的所述通用领域语言模型和所述专用领域语言模型分别进行测试,得到困惑度结果;
根据所述困惑度结果,使用最大期望算法计算融合插值比例;
根据所述融合插值比例将所述通用领域语言模型和所述专用领域语言模型进行融合,得到所述基础语言模型。
8.根据权利要求1所述的方法,其特征在于,将所述词向量输入到预设个人模型,通过所述预设个人模型得到所述个人语料的识别结果,包括:
将所述词向量分别输入到所述预设个人模型的卷积层和合并层;
通过所述卷积层提取所述词向量对应的词的位置信息;
通过所述合并层将所述词向量和所述词向量对应的词的位置信息进行合并操作,得到合并信息;
将所述合并信息输入到所述预设个人模型的长短期记忆网络中,通过所述长短期记忆网络提取所述个人语料的语义特征;
对所述个人语料的语义特征进行映射操作和归一化操作,得到所述个人语料的识别结果。
9.根据权利要求8所述的方法,其特征在于,所述卷积层采用跳跃卷积网络,通过所述跳跃卷积网络使得所述卷积层中的每一层接收该层之前的所有卷积层的输出信息。
10.根据权利要求8所述的方法,其特征在于,通过所述合并层将所述词向量和所述词向量对应的词的位置信息进行合并操作,得到合并信息,包括:
将所述词向量对应的词的位置信息进行重塑操作,以对齐所述词向量和所述词向量对应的词的位置信息的数据维度;
将数据维度对齐的所述词向量和所述词向量对应的词的位置信息进行合并操作。
11.根据权利要求1、8至10中任一项所述的方法,其特征在于,所述损失函数的惩罚项包括L1正则和L2正则。
13.根据权利要求1所述的方法,其特征在于,还包括:
将所述待识别音频的识别结果存储到与所述身份标识信息对应的个人语料库;
利用与所述身份标识信息对应的个人语料库中的个人语料更新所述个人语言模型。
14.根据权利要求1所述的方法,其特征在于,还包括:在无法确定与所述身份标识信息对应的个人语言模型的情况下,根据所述身份标识信息和所述待识别音频创建与所述身份标识信息对应的个人语言模型。
15.根据权利要求14所述的方法,其特征在于,根据所述身份标识信息和所述待识别音频创建与所述身份标识信息对应的个人语言模型,包括:
利用所述基础语言模型和所述主题语言模型对所述待识别音频进行识别;
根据所述识别的结果和所述身份标识信息,得到与所述身份标识信息对应的个人语料;
根据所述个人语料训练得到与所述身份标识信息对应的所述个人语言模型。
16.一种音频识别装置,其特征在于,包括:
第一确定单元,用于确定与待识别音频对应的主题语言模型,所述主题语言模型是利用与主题类别对应的主题语料训练得到的;
提取单元,用于从待识别音频中提取身份标识信息;
第二确定单元,用于确定与所述身份标识信息对应的个人语言模型,所述个人语言模型是利用与所述身份标识信息对应的个人语料训练得到的;
第二融合单元,用于将所述个人语言模型、所述主题语言模型与基础语言模型进行融合;
识别单元,用于利用融合后的模型对所述待识别音频进行识别;
所述装置还包括个人语言模型训练单元,所述个人语言模型训练单元包括:
获取子单元,用于获取与所述身份标识信息对应的个人语料;
第一训练子单元,用于根据所述个人语料训练得到与所述身份标识信息对应的所述个人语言模型;
其中,所述第一训练子单元包括:
第一提取子单元,用于从所述个人语料中提取出词向量;
识别子单元,用于将所述词向量输入到预设个人模型,通过所述预设个人模型得到所述个人语料的识别结果;所述预设个人模型包括跳跃卷积网络;
第二训练子单元,用于根据所述个人语料的识别结果,利用损失函数对所述预设个人模型进行训练,得到与所述身份标识信息对应的所述个人语言模型。
17.根据权利要求16所述的装置,其特征在于,还包括:
分词单元,用于对预设语料库中的待分类语料进行分词处理;
映射单元,用于将所述待分类语料的分词处理的结果映射为所述待分类语料的句子向量;
聚类单元,用于对所述待分类语料的句子向量进行聚类分析,将所述待分类语料归属为与主题类别对应的主题语料。
18.根据权利要求17所述的装置,其特征在于,所述聚类单元用于:
将项所述待分类语料的句子向量作为种子向量,创建与所述种子向量对应的主题类别;
将第N项所述待分类语料的句子向量与所述种子向量进行余弦相似度计算;
在所述余弦相似度大于等于预设相似度阈值的情况下,将所述第N项所述待分类语料归属为与所述种子向量对应的主题类别;在所述余弦相似度小于预设相似度阈值的情况下,将所述第N项所述待分类语料的句子向量作为种子向量,创建与所述种子向量对应的主题类别;
其中,N为大于1的正整数。
19.根据权利要求17所述的装置,其特征在于,还包括主题语言模型训练单元,所述主题语言模型训练单元用于:
针对每个主题类别,将与主题类别对应的主题语料输入预设主题模型,训练得到与主题类别对应的所述主题语言模型。
20.根据权利要求19所述的装置,其特征在于,还包括:采用N-Gram语言模型作为所述预设主题模型。
21.根据权利要求18所述的装置,其特征在于,所述第一确定单元用于:
从待识别音频的音频名中提取主题关键词;
将所述主题关键词与所述与主题类别对应的主题语料进行文本正则匹配;
将匹配成功的所述主题类别对应的所述主题语言模型确定为与待识别音频对应的主题语言模型。
22.根据权利要求16所述的装置,其特征在于,还包括基础语言模型训练单元,所述基础语言模型训练单元用于:
训练通用领域语言模型和专用领域语言模型;
将训练好的所述通用领域语言模型和所述专用领域语言模型分别进行测试,得到困惑度结果;
根据所述困惑度结果,使用最大期望算法计算融合插值比例;
根据所述融合插值比例将所述通用领域语言模型和所述专用领域语言模型进行融合,得到所述基础语言模型。
23.根据权利要求16所述的装置,其特征在于,所述识别子单元包括:
输入子单元,用于将所述词向量分别输入到所述预设个人模型的卷积层和合并层;
第二提取子单元,用于通过所述卷积层提取所述词向量对应的词的位置信息;
合并子单元,用于通过所述合并层将所述词向量和所述词向量对应的词的位置信息进行合并操作,得到合并信息;
第三提取子单元,用于将所述合并信息输入到所述预设个人模型的长短期记忆网络中,通过所述长短期记忆网络提取所述个人语料的语义特征;
归一化单元,用于对所述个人语料的语义特征进行映射操作和归一化操作,得到所述个人语料的识别结果。
24.根据权利要求23所述的装置,其特征在于,所述卷积层采用跳跃卷积网络,通过所述跳跃卷积网络使得所述卷积层中的每一层接收该层之前的所有卷积层的输出信息。
25.根据权利要求23所述的装置,其特征在于,所述合并子单元用于:
将所述词向量对应的词的位置信息进行重塑操作,以对齐所述词向量和所述词向量对应的词的位置信息的数据维度;
将数据维度对齐的所述词向量和所述词向量对应的词的位置信息进行合并操作。
26.根据权利要求23至25中任一项所述的装置,其特征在于,所述损失函数的惩罚项包括L1正则和L2正则。
28.根据权利要求23所述的装置,其特征在于,所述个人语言模型训练单元还用于:
将所述待识别音频的识别结果存储到与所述身份标识信息对应的个人语料库;
利用与所述身份标识信息对应的个人语料库中的个人语料更新所述个人语言模型。
29.根据权利要求16所述的装置,其特征在于,所述个人语言模型训练单元还用于:
在无法确定与所述身份标识信息对应的个人语言模型的情况下,根据所述身份标识信息和所述待识别音频创建与所述身份标识信息对应的个人语言模型。
30.根据权利要求29所述的装置,其特征在于,所述个人语言模型训练单元还用于:
在无法确定与所述身份标识信息对应的个人语言模型的情况下,利用所述基础语言模型和所述主题语言模型对所述待识别音频进行识别;
根据所述识别的结果和所述身份标识信息,得到与所述身份标识信息对应的个人语料;
根据所述个人语料训练得到与所述身份标识信息对应的所述个人语言模型。
31.一种电子设备,其特征在于,包括:包括处理器和存储器,所述存储器中存储指令,所述指令由处理器加载并执行,以实现如权利要求1至15任一项所述的方法。
32.一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至15中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911330221.4A CN113012685B (zh) | 2019-12-20 | 2019-12-20 | 音频识别方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911330221.4A CN113012685B (zh) | 2019-12-20 | 2019-12-20 | 音频识别方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113012685A CN113012685A (zh) | 2021-06-22 |
CN113012685B true CN113012685B (zh) | 2022-06-07 |
Family
ID=76382177
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911330221.4A Active CN113012685B (zh) | 2019-12-20 | 2019-12-20 | 音频识别方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113012685B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113470652A (zh) * | 2021-06-30 | 2021-10-01 | 山东恒远智能科技有限公司 | 一种基于工业互联网的语音识别及处理方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105654945B (zh) * | 2015-10-29 | 2020-03-06 | 乐融致新电子科技(天津)有限公司 | 一种语言模型的训练方法及装置、设备 |
CN105760361B (zh) * | 2016-01-26 | 2019-06-14 | 北京云知声信息技术有限公司 | 一种语言模型建立方法及装置 |
CN106205609B (zh) * | 2016-07-05 | 2019-05-28 | 山东师范大学 | 一种基于音频事件和主题模型的音频场景识别方法及其装置 |
CN106328147B (zh) * | 2016-08-31 | 2022-02-01 | 中国科学技术大学 | 语音识别方法和装置 |
CN109243468B (zh) * | 2018-11-14 | 2022-07-12 | 出门问问创新科技有限公司 | 语音识别方法、装置、电子设备及存储介质 |
CN110120221A (zh) * | 2019-06-06 | 2019-08-13 | 上海蔚来汽车有限公司 | 用于车机系统的用户个性化离线语音识别方法及其系统 |
-
2019
- 2019-12-20 CN CN201911330221.4A patent/CN113012685B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN113012685A (zh) | 2021-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11238845B2 (en) | Multi-dialect and multilingual speech recognition | |
CN110334354B (zh) | 一种中文关系抽取方法 | |
CN112712804B (zh) | 语音识别方法、系统、介质、计算机设备、终端及应用 | |
WO2019153737A1 (zh) | 用于对评论进行评估的方法、装置、设备和存储介质 | |
CN109376222B (zh) | 问答匹配度计算方法、问答自动匹配方法及装置 | |
CN111611810B (zh) | 一种多音字读音消歧装置及方法 | |
CN111062217B (zh) | 语言信息的处理方法、装置、存储介质及电子设备 | |
CN109214006B (zh) | 图像增强的层次化语义表示的自然语言推理方法 | |
CN114580382A (zh) | 文本纠错方法以及装置 | |
CN115599901B (zh) | 基于语义提示的机器问答方法、装置、设备及存储介质 | |
CN115357719B (zh) | 基于改进bert模型的电力审计文本分类方法及装置 | |
CN111739520B (zh) | 一种语音识别模型训练方法、语音识别方法、装置 | |
US20230069935A1 (en) | Dialog system answering method based on sentence paraphrase recognition | |
CN113128203A (zh) | 基于注意力机制的关系抽取方法、系统、设备及存储介质 | |
WO2023093295A1 (zh) | 基于人工智能的音频处理方法、装置、电子设备、计算机程序产品及计算机可读存储介质 | |
CN113743099A (zh) | 基于自注意力机制方面术语提取系统、方法、介质、终端 | |
CN114818717A (zh) | 融合词汇和句法信息的中文命名实体识别方法及系统 | |
CN111145914B (zh) | 一种确定肺癌临床病种库文本实体的方法及装置 | |
CN117076653A (zh) | 基于思维链及可视化提升上下文学习知识库问答方法 | |
CN110852071A (zh) | 知识点检测方法、装置、设备及可读存储介质 | |
CN113012685B (zh) | 音频识别方法、装置、电子设备及存储介质 | |
CN113705207A (zh) | 语法错误识别方法及装置 | |
CN112883713A (zh) | 基于卷积神经网络的评价对象抽取方法及装置 | |
Göker et al. | Neural text normalization for turkish social media | |
CN113096646B (zh) | 音频识别方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |