CN108831445A - 四川方言识别方法、声学模型训练方法、装置及设备 - Google Patents

四川方言识别方法、声学模型训练方法、装置及设备 Download PDF

Info

Publication number
CN108831445A
CN108831445A CN201810491963.4A CN201810491963A CN108831445A CN 108831445 A CN108831445 A CN 108831445A CN 201810491963 A CN201810491963 A CN 201810491963A CN 108831445 A CN108831445 A CN 108831445A
Authority
CN
China
Prior art keywords
model
voice data
phonetic feature
sichuan
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810491963.4A
Other languages
English (en)
Inventor
张蕾
应汪洋
章毅
郭际香
陈媛媛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN201810491963.4A priority Critical patent/CN108831445A/zh
Publication of CN108831445A publication Critical patent/CN108831445A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • G10L15/144Training of HMMs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0631Creating reference templates; Clustering
    • G10L2015/0633Creating reference templates; Clustering using lexical or orthographic knowledge sources

Abstract

本发明提供的四川方言识别方法、声学模型训练方法、装置及设备,属于语音识别技术领域。该声学模型训练方法包括采集四川方言语音数据;对所述四川方言语音数据进行特征提取,获取语音特征;采用隐马尔可夫模型-混合高斯模型对所述语音特征进行训练,获取每一帧所述语音特征所对应的分类标签以及生成带所述分类标签的待处理语音特征;采用深度延迟LSTM模型对所述待处理语音特征进行训练,获取目标声学模型。该声学模型训练方法可有效节省声学模型训练所需时间,提高训练效率,并保证识别效率和识别准确率。

Description

四川方言识别方法、声学模型训练方法、装置及设备
技术领域
本发明涉及语音识别技术领域,具体而言,涉及四川方言识别方法、声学模型训练方法、装置及设备。
背景技术
语音识别任务是将一段包含了自然语言发音的声学信号投影到说话人的词序列上。从二十世纪八十年代到2009~2012年,最先进的语音识别系统结合了隐马尔可夫模型(hidden markov model,HMM)和混合高斯模型(gaussian mixture model,GMM),然而此期间语音识别效果并不能够达到商用水平。2009年,Hinton将深度神经网络(deep neuralnetwork,DNN)介绍给做语音识别的学者们,2010年产生了巨大突破。在Hinton团队与微软、谷歌、IBM研究团队的共同努力下,把GMM替换成DNN,相对识别错误率下降近30%。后续的语音识别研究几乎全部基于深度学习,大多是对Hinton提出的模型架构进行改进,或者是针对不同的语言特点构建相应的语音识别系统。目前中国有超过一亿人口使用四川方言,然而对四川方言识别效果很差,且当前声学模型训练后对语音识别效果较差,使得用户体验效果不好。
发明内容
本发明实施例提供的声学模型训练方法、装置、设备及介质,可以解决现有技术中的模型存在的识别错误率较高的技术问题。
本发明实施例提供的四川方言识别方法、装置、设备及介质,可以解决现有技术中的方言识别存在的识别效率低的技术问题。
第一方面,本发明实施例提供的一种声学模型训练方法,包括:采集四川方言语音数据;对所述四川方言语音数据进行特征提取,获取语音特征;采用隐马尔可夫模型-混合高斯模型对所述语音特征进行训练,获取每一帧所述语音特征所对应的分类标签以及生成带所述分类标签的待处理语音特征;采用深度延迟LSTM模型对所述待处理语音特征进行训练,获取目标声学模型。
结合第一方面,第一方面的一种实施方式,所述的对所述四川方言语音数据进行特征提取,包括:将所述四川方言语音数据以20毫秒为一帧进行切割;对每一帧所述四川方言语音数据进行特征提取。
结合第一方面,在第一方面的另一种实施方式,所述的对所述四川方言语音数据进行特征提取,获取语音特征,包括:将每条所述四川方言语音数据按照语意切割成多条预设长度的语音数据,并给出每条语音数据所对应的中文标签;提取每条语音数据的梅尔频率倒谱系数特征。
结合第一方面,在第一方面的另一种实施方式,所述的采用深度延迟LSTM模型对所述待处理语音特征进行训练,包括:采用反向传播算法对深度延迟LSTM模型进行训练,获取训练后的神经网络模型;通过所述训练后的神经网络模型对所述待处理语音特征进行训练。
结合第一方面,在第一方面的另一种实施方式,所述的采用隐马尔可夫模型-混合高斯模型对所述语音特征进行训练,获取每一帧所述语音特征所对应的分类标签以及生成带所述分类标签的待处理语音特征,包括:基于隐马尔可夫模型-混合高斯模型对所述语音特征进行训练;采用强制对齐对每一帧所述语音特征打上所对应的分类标签;生成带所述分类标签的待处理语音特征。
第二方面,本发明实施例提供的一种四川方言识别方法,包括:获取用户输入的语音数据;采用如第一方面任意一项所述的声学模型训练方法所获取到的目标声学模型以及预设的四川话词典和语言模型对所述语音数据进行识别,获取识别结果;将所述识别结果以字符文本序列输出。
第三方面,本发明实施例提供的一种声学模型训练装置,包括:获取模块,用于采集四川方言语音数据;特征提取模块,用于对所述四川方言语音数据进行特征提取,获取语音特征;第一训练模块,用于采用隐马尔可夫模型-混合高斯模型对所述语音特征进行训练,获取每一帧所述语音特征所对应的分类标签以及生成带所述分类标签的待处理语音特征;第二训练模块,用于采用深度延迟LSTM模型对所述待处理语音特征进行训练,获取目标声学模型。
第四方面,本发明实施例提供的一种四川方言识别装置,包括:获取模块,用于获取用户输入的语音数据;识别模块,用于采用如第一方面任意一项所述的声学模型训练方法所获取到的目标声学模型以及预设的四川话词典和语言模型对所述语音数据进行识别,获取识别结果;输出模块,用于将所述识别结果以字符文本序列输出。
第五方面,本发明实施例提供的一种终端设备,包括:存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面任一项所述声学模型训练方法的步骤;或者,所述处理器执行所述计算机程序时实现如第二方面所述四川方言识别方法的步骤。
第六方面,本发明实施例提供的一种存储介质,所述存储介质上存储有指令,当所述指令在计算机上运行时,使得所述计算机执行如第一方面任一项所述的声学模型训练方法;或者使得所述计算机执行如第二方面所述的四川方言识别方法的步骤。
与现有技术相比,本发明实施例提供的声学模型训练方法、装置、设备及介质有益效果是:通过采集四川方言语音数据;对所述四川方言语音数据进行特征提取,获取语音特征;采用隐马尔可夫模型-混合高斯模型对所述语音特征进行训练,获取每一帧所述语音特征所对应的分类标签以及生成带所述分类标签的待处理语音特征;采用深度延迟LSTM模型对所述待处理语音特征进行训练,获取目标声学模型。可以有效提高声学模型训练的效率并节省训练时间。采用LSTM模型对语音特征进行训练,只需进行一次训练即要实现HMM-DNN训练多次的效果,可极大降低所需的训练时间,并取得比HMM-DNN训练更好的识别效果。即该声学模型训练方法中,无需预先训练出一个隐马尔科夫模型-深度神经网络模型(即HMM-DNN声学模型)再进行序列训练;而是将序列训练融入到HMM-LSTM模型的训练过程中,通过HMM-LSTM模型进行一次训练即可,可极大降低所需的训练时间,并通过深度延迟LSTM模型能够获取更多的上下文信息,显著提升了识别效果,其相对错误率相比HMM-GMM下降23.94%,与HMM-DNN相比其相对错误率下降14.86%。。从而取得比DNN-HMM声学模型或DNN-HMM-序列训练模型训练更好的识别效果。
本发明实施例提供的四川方言识别方法、装置、设备及介质有益效果是:通过获取用户输入的语音数据;采用声学模型训练方法所获取到的目标声学模型以及预设的四川话词典和语言模型对所述语音数据进行识别,获取识别结果;将所述识别结果以字符文本序列输出。可以快速识别四川话方言,并且有效提高识别准确率。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明第一实施例提供的声学模型训练方法的流程图;
图2为图1所示的声学模型训练方法中的LSTM模型的示意图;
图3为本发明第二实施例提供的声学模型训练装置的功能模块示意图;
图4为本发明第三实施例提供的四川方言识别方法的流程图;
图5为本发明第四实施例提供的四川方言识别装置的功能模块示意图;
图6为本发明第五实施例提供的一种终端设备的示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本发明的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
下面结合附图,对本发明的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
第一实施例
请参阅图1,是本发明实施例提供的声学模型训练方法的流程图。下面将对图1所示的具体流程进行详细阐述。
步骤S101,采集四川方言语音数据。
其中,可以通过麦克风采集四川方言语音数据或者是通过软件工具采集视频中的四川方言语音数据。例如,用户通过手机的麦克风输入一段语音数据,或者是截取视频中所播放的语音数据。在此,不作具体限定。
其中,所述四川方言语音数据为针对四川的方言。
其中,所述四川方言语音数据的长度可以是多帧,也可以是一帧。优选地,所述四川方言语音数据的长度为多帧。
在本实施例中,所述四川方言语音数据可以是wav、mp3或其他格式的语音信号。
步骤S102,对所述四川方言语音数据进行特征提取,获取语音特征。
作为一种实施方式,将所述四川方言语音数据以20毫秒为一帧进行切割;对每一帧所述四川方言语音数据进行特征提取,获取语音特征。
作为另一种实施方式,将每条所述四川方言语音数据按照语意切割成多条预设长度的语音数据,并给出每条语音数据所对应的中文标签;提取每条语音数据的梅尔频率倒谱系数特征。例如,可以将每搜集到一条原始语音数据,按照语音内容将其切割成多条20毫秒长度的语音数据,并对每条语音数据给出相应说话内容的文本序列。然后再将一段切割好后的语音数据提取特征。
步骤S103,采用隐马尔可夫模型-混合高斯模型对所述语音特征进行训练,获取每一帧所述语音特征所对应的分类标签以及生成带所述分类标签的待处理语音特征。
在本实施例中,为了便于模型训练,将所采集到所有四川方言语音数据按照8:1:1分为训练集、验证集和测试集。基于训练集中的四川方言语音数据进行训练,具体地,采用隐马尔可夫模型-混合高斯模型对训练集中的所述语音特征进行训练。
在本实施例中,先通过隐马尔可夫模型对语音序列建模,再通过训练好的隐马尔可夫模型-混合高斯模型,结合所对应语音的文本序列,能够使用强制对齐方法将语音特征与隐马尔可夫模型中的状态序列相关联,即每一帧语音特征对应了隐马尔可夫模型中的某个状态,为每帧语音特征给出了分类标签。从而使得在使用深度神经网络对语音特征分类时,能够确定每一帧语音特征所对应的分类标签。
作为一种实施方式,基于隐马尔可夫模型-混合高斯模型对所述语音特征进行训练;采用强制对齐对每一帧所述语音特征打上所对应的分类标签;生成带所述分类标签的待处理语音特征。
步骤S104,采用深度延迟LSTM模型对所述待处理语音特征进行训练,获取目标声学模型。
作为一种实施方式,采用反向传播算法对深度延迟LSTM(Long-short TermMemory)模型进行训练,获取训练后的神经网络模型;通过所述训练后的神经网络模型对所述待处理语音特征进行训练。具体地,基本的神经网络由神经元以及神经元之间的连接组成。神经网络分为输入层、隐藏层和输出层。隐层神经元本质上是在逼近输入数据与其特征之间的高度非线性关系。深度神经网络与浅层神经网络相比,“深度”体现在隐层数量更多,连接方式更加灵活和复杂,能够用相比浅层网络少得多的参数获得输入数据到其特征之间的映射关系,也就是说,深度神经网络学习到输入数据特征的能力更加强大。
其中,通过LSTM回复式神经网络,从时间上展开的深度以获取更多的上下文信息,其分类时对语音这类与时间高度相关的序列数据是非常重要。LSTM后接一个softmax分类器,用于将语音特征分类到所对应的HMM状态。
其中,采用深度延迟LSTM模型对所述待处理语音特征进行训练的具体为:先在神经网络的输入层输入所述待处理语音特征之前,将深度延迟LSTM模型输出序列向后延迟多个时间以获得相应的未来信息,然后对于输入层,输入的数据是提取好的特征向量,即所述待处理语音特征。对于输出层,需要输出多个不同的类别,通过对类别进行编码,如第t帧语音属于第k类,总共有K类,其输出表示为一个第k维为1,其余维度为0的K维向量l_t。其中,通过交叉熵(CrossEntropy)函数作为性能函数,以通过求解最优化问题来获得网络的权值矩阵。然后对深度延迟LSTM模型进行前向计算。
假设,LSTM为n层,则其一条语音特征为X=(x1,x2,…,xT),其对应的标签序列为L=(l1,l2,…,lT),其中T表示语音特征的长度。用n(1≤n≤N)表示LSTM的某一层,t表示某一时间点,那么t时刻第n层的LSTM输出由以下公式迭代计算:
其中i,o,f,c分别表示LSTM中的输入门、输出门、遗忘门和cell,表示连接权值(例如表示第n层LSTM输出到输入门的连接权值),b表示对应的偏置。
从输入层到输出层,神经网络不断进行前向计算,最后一层采用softmax分类,其输出yt为:
设t时刻输出层某一神经元k的输出为网络的性能函数为:
最后对深度延迟LSTM模型进行训练,具体地,将深度延迟LSTM模型按时间展开为L层,采用反向传播算法对深度延迟LSTM模型进行训练,具体地,先由前馈计算计算出各节点的激活值,具体计算如下:
其中,所述表示第l+1层第i个神经元的输入,是第l层所有神经元的输出与对应权值的加权求和,所述表示第l+1层第i个神经元的输出,所述f为激活函数,所述表示第l层第j个神经元与第l+1层第i个神经元之间的连接权值,所述α为学习率。然后计算最后一层的残差,具体计算如下:
再从后往前计算各层的残差,具体计算如下:
接着再由残差计算出对应的梯度,具体计算如下:
接着再更新对应权值,具体计算如下:
最后通过重复执行前向计算以及采用反向传播算法对LSTM模型进行训练,直至LSTM模型收敛或达到规定的迭代次数。从而完成对LSTM模型的训练,得到目标声学模型。其中,所述规定的迭代次数的具体选取可以根据实际需求进行设置,例如,可以是18次。
在本实施例中,如图2所示,LSTM模型包括输入层,输入层有13个神经元(输入的语音特征向量每一帧为13维向量),两层隐藏层,每层隐藏层包含2000个memory cell,softmax输出层有1980个神经元。
例如,可以采用BPTT(backpropagation through time,反向传播算法)和随机梯度下降法(Stochastic Gradient Descent,简称SGD)对LSTM模型进行训练,将LSTM模型按时间展开至20层。每个时间点输入100帧数据(batch-size),并且这100帧数据是随机打乱的。权重衰减系数为0.01,冲量设置为0.9,初始权重从[-0.05,0.05]随机均匀初始化。训练阶段,学习率初始值设为1,后续迭代若验证集的交叉熵相对于上一轮没有下降,则将学习率减半重新训练一轮。最终迭代18次收敛,从而完成对LSTM模型的训练,得到目标声学模型。
可选地,在本实施例中,当获取到目标声学模型后,可以对所述目标声学模型进行测试,以得到最优模型,具体地,输入测试语音帧,通过已经训练好的所述目标声学模型的输出层神经元的激活值,并根据该激活值预测该组语音帧相应的所属类别,将目标声学模型预测的类别与语音帧的实际类别标签进行比对,统计预测正确的样本个数。当测试结果达到预期效果,则完成对LSTM模型的训练,进而得到最优的目标声学模型。例如,当预测正确的样本个数所占测试总数的98%及以上时,为最优。
本实施例所提供的声音模型训练方法,通过采集四川方言语音数据;对所述四川方言语音数据进行特征提取,获取语音特征;采用隐马尔可夫模型-混合高斯模型对所述语音特征进行训练,获取每一帧所述语音特征所对应的分类标签以及生成带所述分类标签的待处理语音特征;采用深度延迟LSTM模型对所述待处理语音特征进行训练,获取目标声学模型。可以有效提高声学模型训练的效率并节省训练时间。采用LSTM模型对语音特征进行训练,只需进行一次训练即要实现HMM-DNN训练多次的效果,可极大降低所需的训练时间,并取得比HMM-DNN训练更好的识别效果。即该声学模型训练方法中,无需预先训练出一个隐马尔科夫模型-深度神经网络模型(即HMM-DNN声学模型)再进行序列训练;而是将序列训练融入到HMM-LSTM模型的训练过程中,通过HMM-LSTM模型进行一次训练即可,可极大降低所需的训练时间,并通过深度延迟LSTM模型能够获取更多的上下文信息,显著提升了识别效果,其相对错误率相比HMM-GMM下降23.94%,与HMM-DNN相比其相对错误率下降14.86%。从而取得比DNN-HMM声学模型或DNN-HMM-序列训练模型训练更好的识别效果。
第二实施例
对应于第一实施例中的声音模型训练方法,图3示出采用第一实施例所示的声音模型训练方法一一对应的声音模型训练装置。如图3所示所述声学模型训练装置400包括获取模块410、特征提取模块420、第一训练模块430和第二训练模块440。其中,获取模块410、特征提取模块420、第一训练模块430和第二训练模块440的实现功能与第一实施例中对应的步聚一一对应,为避免赘述,本实施例不一一详述。
获取模块410,用于采集四川方言语音数据。
特征提取模块420,用于对所述四川方言语音数据进行特征提取,获取语音特征。
作为一种实施方式,所述特征提取模块420用于将所述四川方言语音数据以20毫秒为一帧进行切割;对每一帧所述四川方言语音数据进行特征提取,获取语音特征。
作为另一种实施方式,所述特征提取模块420用于将每条所述四川方言语音数据按照语意切割成多条预设长度的语音数据,并给出每条语音数据所对应的中文标签;提取每条语音数据的梅尔频率倒谱系数特征。
第一训练模块430,用于采用隐马尔可夫模型-混合高斯模型对所述语音特征进行训练,获取每一帧所述语音特征所对应的分类标签以及生成带所述分类标签的待处理语音特征。
作为一种实施方式,第一训练模块430用于基于隐马尔可夫模型-混合高斯模型对所述语音特征进行训练;采用强制对齐对每一帧所述语音特征打上所对应的分类标签;生成带所述分类标签的待处理语音特征。
第二训练模块440,用于采用深度延迟LSTM模型对所述待处理语音特征进行训练,获取目标声学模型。
作为一种实施方式,第二训练模块440用于采用反向传播算法对深度延迟LSTM模型进行训练,获取训练后的神经网络模型;通过所述训练后的神经网络模型对所述待处理语音特征进行训练,获取目标声学模型。
第三实施例
请参阅图4,是本发明实施例提供的四川方言识别方法的流程图。下面将对图4所示的具体流程进行详细阐述。
步骤S201,获取用户输入的语音数据。
其中,可以通过麦克风采集用户输入音数据。例如,用户通过手机的麦克风输入一段语音数据。
其中,所述语音数据的长度可以是多帧,也可以是一帧。
在本实施例中,所述语音数据可以是wav、mp3或其他格式的语音信号。在此,不作具体限定。
步骤S201,采用声学模型训练方法所获取到的目标声学模型以及预设的四川话词典和语言模型对所述语音数据进行识别,获取识别结。
其中,所述四川话词典为预先根据所采集的大量四川话语音数据生成的,所述四川话词典包含多数四川话日常用语的方言数据集,并罗列出了四川方言中的特殊词汇与音素之间的映射关系,使得本发明能够准确识别多数四川方言特殊词汇。所述语言模型为预先设置好安装在数据库或者是硬盘中。
步骤S201,将所述识别结果以字符文本序列输出。
其中,可以通过该识别结果查找四川话词典中对应的字符文本,从而将所查找的字符文本进行输出。
本实施例提供的四川方言识别方法,通过获取用户输入的语音数据;采用声学模型训练方法所获取到的目标声学模型以及预设的四川话词典和语言模型对所述语音数据进行识别,获取识别结果;将所述识别结果以字符文本序列输出。可以快速识别四川话方言,并且有效提高识别准确率。
第四实施例
对应于第三实施例中的四川方言识别方法,图5示出了采用第三实施例所示的四川方言识别方法一一对应的四川方言识别装置。如图5所示,所述四川方言识别装置500包括获取模块510、识别模块520和输出模块530。其中,获取模块510、识别模块520和输出模块530的实现功能与第三实施例中对应的步聚一一对应,为避免赘述,本实施例不一一详述。
获取模块510,用于获取用户输入的语音数据。
识别模块520,用于采用声学模型训练方法所获取到的目标声学模型以及预设的四川话词典和语言模型对所述语音数据进行识别,获取识别结果。
输出模块530,用于将所述识别结果以字符文本序列输出。
第五实施例
如图6所示,是终端设备300的示意图。所述终端设备300包括存储器302、处理器304以及存储在所述存储器302中并可在所述处理器304上运行的计算机程序303,所述计算机程序303被处理器304执行时实现第一实施例中的所述声学模型训练方法,为避免重复,此处不再赘述。或者,所述计算机程序303被处理器304执行时实现第三实施例所述四川方言识别方法中各步骤的功能,为避免重复,此处不再赘述。或者,所述计算机程序303被处理器304执行时实现第二实施例所述声学模型训练装置中各模型/单元的功能,为避免重复,此处不再赘述。或者,所述计算机程序303被处理器304执行时实现第四实施例所述四川方言识别装置中各模型/单元的功能,为避免重复,此处不再赘述。
示例性的,计算机程序303可以被分割成一个或多个模块/单元,一个或者多个模块/单元被存储在存储器302中,并由处理器304执行,以完成本发明。一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述计算机程序303在终端设备300中的执行过程。例如,计算机程序303可以被分割成第二实施例中的获取模块410、特征提取模块420、第一训练模块430和第二训练模块440,各模块的具体功能如第一实施例或第二实施例所述,在此不一一赘述。
终端设备300可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。
其中,存储器302可以是,但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-Only Memory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。其中,存储器302用于存储程序,所述处理器304在接收到执行指令后,执行所述程序,前述本发明实施例任一实施例揭示的流程定义的方法可以应用于处理器304中,或者由处理器304实现。
处理器304可能是一种集成电路芯片,具有信号的处理能力。上述的处理器304可以是通用处理器,包括中央处理器(Central ProcessingUnit,CPU)、网络处理器(NetworkProcessor,NP)等;还可以是数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
可以理解的是,图6所示的结构仅为终端设备300的一种结构示意图,终端设备300还可以包括比图6所示更多或更少的组件。图6中所示的各组件可以采用硬件、软件或其组合实现。
第六实施例
本发明实施例还提供一种存储介质,所述存储介质上存储有指令,当所述指令在计算机上运行时,所述计算机程序被处理器执行时实现第一实施例中的所述声学模型训练方法,为避免重复,此处不再赘述。或者,所述计算机程序被处理器执行时实现第三实施例所述四川方言识别方法中各步骤的功能,为避免重复,此处不再赘述。或者,所述计算机程序被处理器执行时实现第二实施例所述声学模型训练装置中各模型/单元的功能,为避免重复,此处不再赘述。或者,所述计算机程序被处理器执行时实现第四实施例所述四川方言识别装置中各模型/单元的功能,为避免重复,此处不再赘述。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到本发明可以通过硬件实现,也可以借助软件加必要的通用硬件平台的方式来实现,基于这样的理解,本发明的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施场景的方法。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。

Claims (10)

1.一种声学模型训练方法,其特征在于,包括:
采集四川方言语音数据;
对所述四川方言语音数据进行特征提取,获取语音特征;
采用隐马尔可夫模型-混合高斯模型对所述语音特征进行训练,获取每一帧所述语音特征所对应的分类标签以及生成带所述分类标签的待处理语音特征;
采用深度延迟LSTM模型对所述待处理语音特征进行训练,获取目标声学模型。
2.根据权利要求1所述的方法,其特征在于,所述的对所述四川方言语音数据进行特征提取,包括:
将所述四川方言语音数据以20毫秒为一帧进行切割;
对每一帧所述四川方言语音数据进行特征提取。
3.根据权利要求1所述的方法,其特征在于,所述的对所述四川方言语音数据进行特征提取,获取语音特征,包括:
将每条所述四川方言语音数据按照语意切割成多条预设长度的语音数据,并给出每条语音数据所对应的中文标签;
提取每条语音数据的梅尔频率倒谱系数特征。
4.根据权利要求1所述的方法,其特征在于,所述的采用深度延迟LSTM模型对所述待处理语音特征进行训练,包括:
采用反向传播算法对深度延迟LSTM模型进行训练,获取训练后的神经网络模型;
通过所述训练后的神经网络模型对所述待处理语音特征进行训练。
5.根据权利要求1所述的方法,其特征在于,所述的采用隐马尔可夫模型-混合高斯模型对所述语音特征进行训练,获取每一帧所述语音特征所对应的分类标签以及生成带所述分类标签的待处理语音特征,包括:
基于隐马尔可夫模型-混合高斯模型对所述语音特征进行训练;
采用强制对齐对每一帧所述语音特征打上所对应的分类标签;
生成带所述分类标签的待处理语音特征。
6.一种四川方言识别方法,其特征在于,包括:
获取用户输入的语音数据;
采用如权利要求1-5任意一项所述的声学模型训练方法所获取到的目标声学模型以及预设的四川话词典和语言模型对所述语音数据进行识别,获取识别结果;
将所述识别结果以字符文本序列输出。
7.一种声学模型训练装置,其特征在于,包括:
获取模块,用于采集四川方言语音数据;
特征提取模块,用于对所述四川方言语音数据进行特征提取,获取语音特征;
第一训练模块,用于采用隐马尔可夫模型-混合高斯模型对所述语音特征进行训练,获取每一帧所述语音特征所对应的分类标签以及生成带所述分类标签的待处理语音特征;
第二训练模块,用于采用深度延迟LSTM模型对所述待处理语音特征进行训练,获取目标声学模型。
8.一种四川方言识别装置,其特征在于,包括:
获取模块,用于获取用户输入的语音数据;
识别模块,用于采用如权利要求1-5任意一项所述的声学模型训练方法所获取到的目标声学模型以及预设的四川话词典和语言模型对所述语音数据进行识别,获取识别结果;
输出模块,用于将所述识别结果以字符文本序列输出。
9.一种终端设备,其特征在于,包括:存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至5任一项所述声学模型训练方法的步骤;或者,所述处理器执行所述计算机程序时实现如权利要求6所述四川方言识别方法的步骤。
10.一种存储介质,其特征在于,所述存储介质上存储有指令,当所述指令在计算机上运行时,使得所述计算机执行如权利要求1-5任一项所述的声学模型训练方法;或者使得所述计算机执行如权利要求6所述的四川方言识别方法的步骤。
CN201810491963.4A 2018-05-21 2018-05-21 四川方言识别方法、声学模型训练方法、装置及设备 Pending CN108831445A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810491963.4A CN108831445A (zh) 2018-05-21 2018-05-21 四川方言识别方法、声学模型训练方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810491963.4A CN108831445A (zh) 2018-05-21 2018-05-21 四川方言识别方法、声学模型训练方法、装置及设备

Publications (1)

Publication Number Publication Date
CN108831445A true CN108831445A (zh) 2018-11-16

Family

ID=64147257

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810491963.4A Pending CN108831445A (zh) 2018-05-21 2018-05-21 四川方言识别方法、声学模型训练方法、装置及设备

Country Status (1)

Country Link
CN (1) CN108831445A (zh)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109829058A (zh) * 2019-01-17 2019-05-31 西北大学 一种基于多任务学习提高方言识别准确率的分类识别方法
CN109887497A (zh) * 2019-04-12 2019-06-14 北京百度网讯科技有限公司 语音识别的建模方法、装置及设备
CN109979439A (zh) * 2019-03-22 2019-07-05 泰康保险集团股份有限公司 基于区块链的语音识别方法、装置、介质及电子设备
CN110033760A (zh) * 2019-04-15 2019-07-19 北京百度网讯科技有限公司 语音识别的建模方法、装置及设备
CN110176228A (zh) * 2019-05-29 2019-08-27 广州伟宏智能科技有限公司 一种小语料语音识别方法及系统
CN110211565A (zh) * 2019-05-06 2019-09-06 平安科技(深圳)有限公司 方言识别方法、装置及计算机可读存储介质
CN110277088A (zh) * 2019-05-29 2019-09-24 平安科技(深圳)有限公司 智能语音识别方法、装置及计算机可读存储介质
CN110310662A (zh) * 2019-05-21 2019-10-08 平安科技(深圳)有限公司 音节自动标注方法、装置、计算机设备及存储介质
CN110415685A (zh) * 2019-08-20 2019-11-05 河海大学 一种语音识别方法
CN110648654A (zh) * 2019-10-09 2020-01-03 国家电网有限公司客户服务中心 一种引入语言向量的语音识别增强方法和装置
CN111292727A (zh) * 2020-02-03 2020-06-16 北京声智科技有限公司 一种语音识别方法及电子设备
CN111462735A (zh) * 2020-04-10 2020-07-28 网易(杭州)网络有限公司 语音检测方法、装置、电子设备及存储介质
CN111862952A (zh) * 2019-04-26 2020-10-30 华为技术有限公司 一种去混响模型训练方法及装置
CN111862942A (zh) * 2020-07-28 2020-10-30 苏州思必驰信息科技有限公司 普通话和四川话的混合语音识别模型的训练方法及系统
CN112233659A (zh) * 2020-10-14 2021-01-15 河海大学 一种基于双层声学模型的快速语音识别方法
CN112489662A (zh) * 2020-11-13 2021-03-12 北京沃东天骏信息技术有限公司 用于训练语音处理模型的方法和装置
CN112735482A (zh) * 2020-12-04 2021-04-30 珠海亿智电子科技有限公司 基于联合深度神经网络的端点检测方法及系统
CN112885336A (zh) * 2021-01-29 2021-06-01 深圳前海微众银行股份有限公司 语音识别系统的训练、识别方法、装置、电子设备
CN113192495A (zh) * 2020-01-10 2021-07-30 普天信息技术有限公司 语音识别方法及装置
CN113393830A (zh) * 2021-06-11 2021-09-14 腾讯音乐娱乐科技(深圳)有限公司 混合声学模型训练及歌词时间戳生成方法、设备、介质
CN113571045A (zh) * 2021-06-02 2021-10-29 北京它思智能科技有限公司 一种闽南语语音识别方法、系统、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9263036B1 (en) * 2012-11-29 2016-02-16 Google Inc. System and method for speech recognition using deep recurrent neural networks
CN105551483A (zh) * 2015-12-11 2016-05-04 百度在线网络技术(北京)有限公司 语音识别的建模方法和装置
CN105679317A (zh) * 2014-12-08 2016-06-15 三星电子株式会社 用于训练语言模型并识别语音的方法和设备
CN107331384A (zh) * 2017-06-12 2017-11-07 平安科技(深圳)有限公司 语音识别方法、装置、计算机设备及存储介质
CN107785015A (zh) * 2016-08-26 2018-03-09 阿里巴巴集团控股有限公司 一种语音识别方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9263036B1 (en) * 2012-11-29 2016-02-16 Google Inc. System and method for speech recognition using deep recurrent neural networks
CN105679317A (zh) * 2014-12-08 2016-06-15 三星电子株式会社 用于训练语言模型并识别语音的方法和设备
CN105551483A (zh) * 2015-12-11 2016-05-04 百度在线网络技术(北京)有限公司 语音识别的建模方法和装置
CN107785015A (zh) * 2016-08-26 2018-03-09 阿里巴巴集团控股有限公司 一种语音识别方法及装置
CN107331384A (zh) * 2017-06-12 2017-11-07 平安科技(深圳)有限公司 语音识别方法、装置、计算机设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张红: "基于深度神经网络的蒙古语语音识别系统声学模型的研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109829058B (zh) * 2019-01-17 2023-08-25 西北大学 一种基于多任务学习提高方言识别准确率的分类识别方法
CN109829058A (zh) * 2019-01-17 2019-05-31 西北大学 一种基于多任务学习提高方言识别准确率的分类识别方法
CN109979439A (zh) * 2019-03-22 2019-07-05 泰康保险集团股份有限公司 基于区块链的语音识别方法、装置、介质及电子设备
CN109979439B (zh) * 2019-03-22 2021-01-29 泰康保险集团股份有限公司 基于区块链的语音识别方法、装置、介质及电子设备
CN109887497A (zh) * 2019-04-12 2019-06-14 北京百度网讯科技有限公司 语音识别的建模方法、装置及设备
CN109887497B (zh) * 2019-04-12 2021-01-29 北京百度网讯科技有限公司 语音识别的建模方法、装置及设备
CN110033760A (zh) * 2019-04-15 2019-07-19 北京百度网讯科技有限公司 语音识别的建模方法、装置及设备
CN110033760B (zh) * 2019-04-15 2021-01-29 北京百度网讯科技有限公司 语音识别的建模方法、装置及设备
US11688391B2 (en) 2019-04-15 2023-06-27 Beijing Baidu Netcom Science And Technology Co. Mandarin and dialect mixed modeling and speech recognition
CN111862952A (zh) * 2019-04-26 2020-10-30 华为技术有限公司 一种去混响模型训练方法及装置
CN111862952B (zh) * 2019-04-26 2024-04-12 华为技术有限公司 一种去混响模型训练方法及装置
CN110211565A (zh) * 2019-05-06 2019-09-06 平安科技(深圳)有限公司 方言识别方法、装置及计算机可读存储介质
CN110310662A (zh) * 2019-05-21 2019-10-08 平安科技(深圳)有限公司 音节自动标注方法、装置、计算机设备及存储介质
CN110277088B (zh) * 2019-05-29 2024-04-09 平安科技(深圳)有限公司 智能语音识别方法、装置及计算机可读存储介质
CN110277088A (zh) * 2019-05-29 2019-09-24 平安科技(深圳)有限公司 智能语音识别方法、装置及计算机可读存储介质
CN110176228A (zh) * 2019-05-29 2019-08-27 广州伟宏智能科技有限公司 一种小语料语音识别方法及系统
CN110415685A (zh) * 2019-08-20 2019-11-05 河海大学 一种语音识别方法
CN110648654A (zh) * 2019-10-09 2020-01-03 国家电网有限公司客户服务中心 一种引入语言向量的语音识别增强方法和装置
CN113192495A (zh) * 2020-01-10 2021-07-30 普天信息技术有限公司 语音识别方法及装置
CN111292727B (zh) * 2020-02-03 2023-03-24 北京声智科技有限公司 一种语音识别方法及电子设备
CN111292727A (zh) * 2020-02-03 2020-06-16 北京声智科技有限公司 一种语音识别方法及电子设备
CN111462735B (zh) * 2020-04-10 2023-11-28 杭州网易智企科技有限公司 语音检测方法、装置、电子设备及存储介质
CN111462735A (zh) * 2020-04-10 2020-07-28 网易(杭州)网络有限公司 语音检测方法、装置、电子设备及存储介质
CN111862942A (zh) * 2020-07-28 2020-10-30 苏州思必驰信息科技有限公司 普通话和四川话的混合语音识别模型的训练方法及系统
CN112233659A (zh) * 2020-10-14 2021-01-15 河海大学 一种基于双层声学模型的快速语音识别方法
CN112489662A (zh) * 2020-11-13 2021-03-12 北京沃东天骏信息技术有限公司 用于训练语音处理模型的方法和装置
CN112735482A (zh) * 2020-12-04 2021-04-30 珠海亿智电子科技有限公司 基于联合深度神经网络的端点检测方法及系统
CN112735482B (zh) * 2020-12-04 2024-02-13 珠海亿智电子科技有限公司 基于联合深度神经网络的端点检测方法及系统
CN112885336B (zh) * 2021-01-29 2024-02-02 深圳前海微众银行股份有限公司 语音识别系统的训练、识别方法、装置、电子设备
CN112885336A (zh) * 2021-01-29 2021-06-01 深圳前海微众银行股份有限公司 语音识别系统的训练、识别方法、装置、电子设备
CN113571045B (zh) * 2021-06-02 2024-03-12 北京它思智能科技有限公司 一种闽南语语音识别方法、系统、设备及介质
CN113571045A (zh) * 2021-06-02 2021-10-29 北京它思智能科技有限公司 一种闽南语语音识别方法、系统、设备及介质
CN113393830B (zh) * 2021-06-11 2022-10-11 腾讯音乐娱乐科技(深圳)有限公司 混合声学模型训练及歌词时间戳生成方法、设备、介质
CN113393830A (zh) * 2021-06-11 2021-09-14 腾讯音乐娱乐科技(深圳)有限公司 混合声学模型训练及歌词时间戳生成方法、设备、介质

Similar Documents

Publication Publication Date Title
CN108831445A (zh) 四川方言识别方法、声学模型训练方法、装置及设备
US11062699B2 (en) Speech recognition with trained GMM-HMM and LSTM models
Carlin et al. Rapid evaluation of speech representations for spoken term discovery
US8255215B2 (en) Method and apparatus for locating speech keyword and speech recognition system
KR101780760B1 (ko) 가변길이 문맥을 이용한 음성인식
CN104143327B (zh) 一种声学模型训练方法和装置
US9728183B2 (en) System and method for combining frame and segment level processing, via temporal pooling, for phonetic classification
CN110349597B (zh) 一种语音检测方法及装置
CN101042868B (zh) 群集系统、方法和使用群集系统的属性估计系统
CN108711421A (zh) 一种语音识别声学模型建立方法及装置和电子设备
Das et al. A hybrid meta-heuristic feature selection method for identification of Indian spoken languages from audio signals
CN110853630B (zh) 面向边缘计算的轻量级语音识别方法
Vuddagiri et al. Curriculum learning based approach for noise robust language identification using DNN with attention
CN103456302B (zh) 一种基于情感gmm模型权重合成的情感说话人识别方法
US7953594B2 (en) Speech recognition method and apparatus using lexicon group tree
Yu et al. Language Recognition Based on Unsupervised Pretrained Models.
Zhou et al. Extracting unit embeddings using sequence-to-sequence acoustic models for unit selection speech synthesis
Tanweer et al. Analysis of combined use of nn and mfcc for speech recognition
Anindya et al. Development of Indonesian speech recognition with deep neural network for robotic command
CN114067793A (zh) 音频处理方法和装置、电子设备及可读存储介质
JP2002082690A (ja) 言語モデル生成方法、音声認識方法及びそのプログラム記録媒体
Patil et al. Automatic speech recognition models: A characteristic and performance review
Liu et al. State-time-alignment phone clustering based language-independent phone recognizer front-end for phonotactic language recognition
Jia et al. Training wake word detection with synthesized speech data on confusion words
CN113763939B (zh) 基于端到端模型的混合语音识别系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20181116

RJ01 Rejection of invention patent application after publication