CN113192495A - 语音识别方法及装置 - Google Patents
语音识别方法及装置 Download PDFInfo
- Publication number
- CN113192495A CN113192495A CN202010027674.6A CN202010027674A CN113192495A CN 113192495 A CN113192495 A CN 113192495A CN 202010027674 A CN202010027674 A CN 202010027674A CN 113192495 A CN113192495 A CN 113192495A
- Authority
- CN
- China
- Prior art keywords
- voice
- sample
- inputting
- outputting
- recognition model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
Abstract
本发明实施例提供一种语音识别方法及装置,所述方法包括:获取待识别语音数据的频谱图;将所述待识别语音数据的频谱图输入至语音识别模型,输出所述待识别语音数据对应的文字识别结果;其中,所述语音识别模型是基于语音样本以及预先确定的语音样本对应的文字,采用二次训练的方式进行训练后得到。本发明实施例提供的语音识别方法及装置,采用二次训练的方式对语音识别模型进行训练,使用二次训练能够较好的兼容语音识别模型的时间开销和准确度,从而提高了对长句的识别效果。
Description
技术领域
本发明涉及语音识别技术领域,尤其涉及一种语音识别方法及装置。
背景技术
语音识别是一种广义的自然语言处理技术,是用于人与机器进行更顺畅交流的技术,语音识别目前已使用在生活的各个方面。
随着深度学习的发展,目前语音识别任务是由端到端的深度学习的模式完成的,传统的方式是通过快速傅里叶变换从原始的音频文件得到频谱图,经过深层神经网络(DNN)网络获取其中的语义信息,最后通过隐马尔科夫模型(HMM)获得文字信息,解码方式是通过Viterbi算法。
但是,在提取的语音特征中语音音素是带有一定的关联性,采用现有技术中的DNN-HMM的语音识别方案,在训练中存在梯度消失问题,容易陷入局部最优,会给整个模型的训练加大难度,导致模型无法收敛,最终导致Viterbi解码方式消耗时间过长,词典数据量过大时会加剧消耗时间,在较长的句子识别中效果差。
发明内容
本发明实施例提供一种语音识别方法及装置,用于解决现有技术中的上述技术问题。
为了解决上述技术问题,一方面,本发明实施例提供一种语音识别方法,包括:
获取待识别语音数据的频谱图;
将所述待识别语音数据的频谱图输入至语音识别模型,输出所述待识别语音数据对应的文字识别结果;
其中,所述语音识别模型是基于语音样本以及预先确定的语音样本对应的文字,采用二次训练的方式进行训练后得到。
进一步地,将所述待识别语音数据的频谱图输入至语音识别模型,输出所述待识别语音数据对应的文字识别结果,具体包括:
将所述待识别语音数据的频谱图输入至所述语音识别模型中的卷积神经网络,输出语音特征;
将所述语音特征输入至所述语音识别模型中的双向残差长短时记忆网络,输出语义信息;
将所述语义信息输入至所述语音识别模型中的解码器,输出所述文字识别结果。
进一步地,对所述语音识别模型进行训练的具体步骤如下:
将所述语音样本的频谱图输入至所述语音识别模型中的卷积神经网络,输出样本语音特征;
将所述样本语音特征输入至所述语音识别模型中的双向残差长短时记忆网络,输出样本语义信息;
将所述样本语义信息输入至全连接神经网络,输出样本预测文字;
将所述样本预测文字输入至Softmax回归模型,输出归一化后的样本预测文字;
将归一化后的样本预测文字输入至集束搜索算法模型,输出负样本;
根据所述负样本对所述语音识别模型进行二次训练,确定所述语音识别模型的参数。
进一步地,将所述样本语音特征输入至所述语音识别模型中的双向残差长短时记忆网络,输出样本语义信息,具体包括:
将所述样本语音特征输入至双向长短时记忆网络,输出前后向的隐藏语义信息,同时,对所述样本语音特征进行正则化,得到归一化样本语音特征;
将所述隐藏语义信息和所述归一化样本语音特征进行合并,得到所述样本语义信息。
进一步地,根据所述负样本对所述语音识别模型进行二次训练,确定所述语音识别模型的参数,具体包括:
将所述负样本输入至二次训练的卷积神经网络,输出负样本语音特征;
将所述负样本语音特征输入至二次训练的双向残差长短时记忆网络,输出负样本语义信息;
将所述负样本语义信息输入至连接者时间分类模型,输出连接者时间分类损失;
根据所述连接者时间分类损失,利用反向传播算法确定所述语音识别模型的参数。
进一步地,将所述负样本语义信息输入至连接者时间分类模型,输出连接者时间分类损失,具体包括:
将所述负样本语义信息输入至全连接神经网络,输出负样本预测文字;
将所述负样本预测文字输入至Softmax回归模型,输出归一化后的负样本预测文字;
将归一化后的负样本预测文字输入至连接者时间分类损失函数模型,输出所述连接者时间分类损失。
进一步地,所述语音识别模型中的卷积神经网络为两层卷积神经网络,所述语音识别模型中的双向残差长短时记忆网络为两层双向残差长短时记忆网络;
二次训练的卷积神经网络为两层卷积神经网络,二次训练的双向残差长短时记忆网络为七层双向残差长短时记忆网络。
另一方面,本发明实施例提供一种语音识别的装置,包括:
获取模块,用于获取待识别语音数据的频谱图;
识别模块,用于将所述待识别语音数据的频谱图输入至语音识别模型,输出所述待识别语音数据对应的文字识别结果;
其中,所述语音识别模型是基于语音样本以及预先确定的语音样本对应的文字,采用二次训练的方式进行训练后得到。
再一方面,本发明实施例提供一种电子设备,包括:存储器、处理器,以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现上述方法的步骤。
又一方面,本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,当所述计算机程序被处理器执行时,实现上述方法的步骤。
本发明实施例提供的语音识别方法及装置,采用二次训练的方式对语音识别模型进行训练,使用二次训练能够较好的兼容语音识别模型的时间开销和准确度,从而提高了对长句的识别效果。
附图说明
图1为本发明实施例提供的语音识别方法的示意图;
图2为本发明实施例提供的语音识别模型的训练原理示意图;
图3为本发明实施例提供的双向残差长短时记忆网络的结构示意图;
图4为本发明实施例提供的语音识别装置的示意图;
图5为本发明实施例提供的电子设备的结构示意图。
具体实施方式
为了使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
语音识别是一种广义的自然语言处理技术,是用于人与机器进行更顺畅交流的技术,语音识别目前已使用在生活的各个方面。
随着深度学习的发展,目前语音识别任务是由端到端的深度学习的模式完成的,传统的方式是通过快速傅里叶变换从原始的音频文件得到频谱图,经过深层神经网络(DNN)网络获取其中的语义信息,最后通过隐马尔科夫模型(HMM)获得文字信息,解码方式是通过Viterbi算法。
一种常用的采用DNN-HMM模型进行语音识别的步骤如下:
1、读入音频文件,获取频谱图。
2、采用3层DNN提取语音特征。
3、采用7层DNN建立声学模型。
4、通过HMM解码构建识别结果的分布概率。
通过这种端到端的方式,能够快速部署,鲁棒性比机器学习的方式高。
但是,传统的DNN-HMM语音识别模型在提取语音特征中没有考虑到语音音素是带有一定的关联性的特点,在较长的句子识别中效果差;在训练中存在梯度消失问题,容易陷入局部最优,会给整个模型的训练加大难度,导致模型无法收敛;Viterbi解码方式消耗时间过长,词典数据量过大时会加剧消耗时间。
为了解决上述技术问题,本发明实施例提供一种语音识别方法,采用二次训练的方式对语音识别模型进行训练,使用二次训练能够较好的兼容语音识别模型的时间开销和准确度,从而提高了对长句的识别效果。
图1为本发明实施例提供的语音识别方法的示意图,如图1所示,本发明实施例提供一种语音识别方法,其执行主体为语音识别装置。该方法包括:
步骤S101、获取待识别语音数据的频谱图。
具体来说,当需要进行语音识别时,首先读取音频文件,通过快速傅里叶变换得到待识别语音数据的频谱图。
例如,通过快速傅里叶变换得到39维的梅尔倒谱系数(Mel-scale FrequencyCepstral Coefficients,MFCC)特征的频谱图(Spectrum map)。
步骤S102、将所述待识别语音数据的频谱图输入至语音识别模型,输出所述待识别语音数据对应的文字识别结果;
其中,所述语音识别模型是基于语音样本以及预先确定的语音样本对应的文字,采用二次训练的方式进行训练后得到。
具体来说,获取待识别语音数据的频谱图之后,将该频谱图输入至语音识别模型,输出待识别语音数据对应的文字识别结果。
其中,该语音识别模型是基于语音样本以及预先确定的语音样本对应的文字,采用二次训练的方式进行训练后得到。
在试验中发现,通过第一次训练中的第一层网络结构被分错的样本占到了全部样本的22%以上,随着句子的加长,强语法和语义相关的词语距离会更远,那么对于较浅的循环神经网络来说就更难捕捉到这一个信息。因此,本发明实施例采用二次训练,通过集束搜索算法(beam search)模型解码,获得错误率较高的句子,进而确定负样本,再基于负样本,利用第二层网络结构进行再次训练,但是同时缩小了每一层的隐藏节点,主要是为了预防出现过拟合的情况,并且也可以加快训练速度,从而提高对长句的识别效果。
本发明实施例提供的语音识别方法,采用二次训练的方式对语音识别模型进行训练,使用二次训练能够较好的兼容语音识别模型的时间开销和准确度,从而提高了对长句的识别效果。
基于上述任一实施例,进一步地,将所述待识别语音数据的频谱图输入至语音识别模型,输出所述待识别语音数据对应的文字识别结果,具体包括:
将所述待识别语音数据的频谱图输入至所述语音识别模型中的卷积神经网络,输出语音特征;
将所述语音特征输入至所述语音识别模型中的双向残差长短时记忆网络,输出语义信息;
将所述语义信息输入至所述语音识别模型中的解码器,输出所述文字识别结果。
具体来说,在本发明实施例中,语音识别模型由卷积神经网络、双向残差长短时记忆网络resBiLSTM和解码器构成。
将待识别语音数据的频谱图输入至语音识别模型,输出待识别语音数据对应的文字识别结果的具体步骤如下:
特征提取阶段:首先,将待识别语音数据的频谱图输入至语音识别模型中的卷积神经网络,输出语音特征。
编码阶段:然后,将语音特征输入至语音识别模型中的resBiLSTM,输出语义信息。
解码阶段:最后,将语义信息输入至语音识别模型中的解码器,输出文字识别结果。
例如,在特征提取阶段,可以采用两层的卷积神经网络CNN,根据MFCC特征设计提取的卷积核,第一层为39*11,第二层为20*11,由于频谱图的相连音素具有较强的关系,因此采用较大的卷积核能够较好的保留语音信息,通过加入采样的步幅,能够去除冗余。
在编码阶段,利用两层的resBiLSTM获取语音特征中的语义信息。
本发明实施例提供的语音识别方法,采用二次训练的方式对语音识别模型进行训练,使用二次训练能够较好的兼容语音识别模型的时间开销和准确度,从而提高了对长句的识别效果。
基于上述任一实施例,进一步地,对所述语音识别模型进行训练的具体步骤如下:
将所述语音样本的频谱图输入至所述语音识别模型中的卷积神经网络,输出样本语音特征;
将所述样本语音特征输入至所述语音识别模型中的双向残差长短时记忆网络,输出样本语义信息;
将所述样本语义信息输入至全连接神经网络,输出样本预测文字;
将所述样本预测文字输入至Softmax回归模型,输出归一化后的样本预测文字;
将归一化后的样本预测文字输入至集束搜索算法模型,输出负样本;
根据所述负样本对所述语音识别模型进行二次训练,确定所述语音识别模型的参数。
具体来说,在本发明实施例中,采用二次训练的方式对语音识别模型进行训练,图2为本发明实施例提供的语音识别模型的训练原理示意图,如图2所示,对语音识别模型进行训练的过程如下:
输入阶段:读取样本音频文件,通过快速傅里叶变换得到语音样本数据的频谱图。
例如,通过快速傅里叶变换得到39维的MFCC特征的频谱图。
特征提取阶段:将语音样本的频谱图输入至语音识别模型中的卷积神经网络,输出样本语音特征。
例如,可以采用两层的CNN,根据MFCC特征设计提取的卷积核,第一层为39*11,第二层为20*11,由于频谱图的相连音素具有较强的关系,因此采用较大的卷积核能够较好的保留语音信息,通过加入采样的步幅,能够去除冗余。
编码阶段:将样本语音特征输入至语音识别模型中的双向残差长短时记忆网络,输出样本语义信息。
例如,利用两层的双向残差长短时记忆网络获取语音特征中的样本语义信息。
解码阶段:将样本语义信息输入至全连接神经网络,输出样本预测文字。
然后,将样本预测文字输入至Softmax回归模型,输出归一化后的样本预测文字。
反馈阶段:将归一化后的样本预测文字输入至beam search模型,输出负样本(NegSamples)。
然后,根据该负样本对语音识别模型进行二次训练,确定该语音识别模型的参数。
本发明实施例提供的语音识别方法,采用二次训练的方式对语音识别模型进行训练,使用二次训练能够较好的兼容语音识别模型的时间开销和准确度,从而提高了对长句的识别效果。
基于上述任一实施例,进一步地,将所述样本语音特征输入至所述语音识别模型中的双向残差长短时记忆网络,输出样本语义信息,具体包括:
将所述样本语音特征输入至双向长短时记忆网络,输出前后向的隐藏语义信息,同时,对所述样本语音特征进行正则化,得到归一化样本语音特征;
将所述隐藏语义信息和所述归一化样本语音特征进行合并,得到所述样本语义信息。
具体来说,在本发明实施例中,resBiLSTM由双向长短时记忆网络BiLSTM和正则化模型Batch Norm构成。将样本语音特征输入至语音识别模型中的双向残差长短时记忆网络,输出样本语义信息的具体步骤如下:
首先,将样本语音特征输入至双向长短时记忆网络,输出前后向的隐藏语义信息,同时,对样本语音特征进行正则化,得到归一化样本语音特征。
然后,将隐藏语义信息和归一化样本语音特征进行合并,得到语义信息。
图3为本发明实施例提供的双向残差长短时记忆网络的结构示意图,如图3所示,将残差网络的思想引入长短时记忆网络LSTM,循环神经网络中的LSTM在处理序列的输入可以获取音素之间的关系,当前步骤step的信息受到前一step的影响,在语音识别中能够获取语义信息,但对于复杂的长句子中音素和语义信息的结合较差,所以,本发明实施例将残差网络引入LSTM能够很好的修正这一个问题。
整个resBiLSTM的工作流程是:输入语音特征,通过BiLSTM得到前后向的隐藏语义信息,通过全连接网络将前后向的信息结合,获取更丰富的语义信息,语音特征通过BatchNorm得到归一化语音特征,最终,将归一化语音特征和语义信息结合在一起。
语音中的音素信息和语义信息是息息相关的,通过残差结合的方式能够很好的输出文本信息,对其中语音特征进行Batch Norm能够加速整个训练速度。实验中,从一轮训练集训练需要45分钟降低到30分钟。
简单的增加层数会导致梯度弥散或梯度爆炸,通过残差网路能够解决这一类问题,并且不会产生额外的参数,也不会增加计算复杂度,而且整个网络依旧可以通过端到端的反向传播训练。从实验中发现,引入残差网络能够提高语音识别的准确率,能够说明确实补充了语音信息。
本发明实施例提供的语音识别方法,采用二次训练的方式对语音识别模型进行训练,使用二次训练能够较好的兼容语音识别模型的时间开销和准确度,从而提高了对长句的识别效果。
基于上述任一实施例,进一步地,根据所述负样本对所述语音识别模型进行二次训练,确定所述语音识别模型的参数,具体包括:
将所述负样本输入至二次训练的卷积神经网络,输出负样本语音特征;
将所述负样本语音特征输入至二次训练的双向残差长短时记忆网络,输出负样本语义信息;
将所述负样本语义信息输入至连接者时间分类模型,输出连接者时间分类损失;
根据所述连接者时间分类损失,利用反向传播算法确定所述语音识别模型的参数。
具体来说,在本发明实施例中,根据负样本对语音识别模型进行二次训练,确定语音识别模型的参数的具体步骤如下:
特征提取阶段:将负样本的频谱图输入至二次训练的卷积神经网络,输出负样本语音特征。
例如,可以采用两层的CNN,根据MFCC特征设计提取的卷积核,第一层为39*11,第二层为20*11,由于频谱图的相连音素具有较强的关系,因此采用较大的卷积核能够较好的保留语音信息,通过加入采样的步幅,能够去除冗余。
编码阶段:将负样本语音特征输入至二次训练的双向残差长短时记忆网络,输出负样本语义信息。
例如,利用7层的双向残差长短时记忆网络获取语音特征中的样本语义信息。
解码阶段:将负样本语义信息输入至连接者时间分类模型,输出连接者时间分类损失。
反馈阶段:根据连接者时间分类损失,利用反向传播算法确定语音识别模型的参数。
本发明实施例提供的语音识别方法,采用二次训练的方式对语音识别模型进行训练,使用二次训练能够较好的兼容语音识别模型的时间开销和准确度,从而提高了对长句的识别效果。
基于上述任一实施例,进一步地,将所述负样本语义信息输入至连接者时间分类模型,输出连接者时间分类损失,具体包括:
将所述负样本语义信息输入至全连接神经网络,输出负样本预测文字;
将所述负样本预测文字输入至Softmax回归模型,输出归一化后的负样本预测文字;
将归一化后的负样本预测文字输入至连接者时间分类损失函数模型,输出所述连接者时间分类损失。
具体来说,在本发明实施例中,连接者时间分类模型由全连接神经网络FC、Softmax回归模型和连接者时间分类损失函数CTC Loss模型构成。
如图2所示,将负样本语义信息输入至连接者时间分类模型,输出连接者时间分类损失的具体步骤如下:
首先,将负样本语义信息输入至全连接神经网络,输出负样本预测文字。
然后,将负样本预测文字输入至Softmax回归模型,输出归一化后的负样本预测文字。
最后,将归一化后的负样本预测文字输入至连接者时间分类损失函数模型,输出连接者时间分类损失。
本发明实施例提供的语音识别方法,采用二次训练的方式对语音识别模型进行训练,使用二次训练能够较好的兼容语音识别模型的时间开销和准确度,从而提高了对长句的识别效果。
基于上述任一实施例,进一步地,所述语音识别模型中的卷积神经网络为两层卷积神经网络,所述语音识别模型中的双向残差长短时记忆网络为两层双向残差长短时记忆网络;
二次训练的卷积神经网络为两层卷积神经网络,二次训练的双向残差长短时记忆网络为七层双向残差长短时记忆网络。
具体来说,在本发明实施例中,语音识别模型中的CNN为两层CNN,语音识别模型中的resBiLSTM为两层resBiLSTM。
二次训练的CNN为两层CNN,二次训练的resBiLSTM为七层resBiLSTM。
首次训练完成后,通过beam search模型将预测结果进行文字输出,通过负采样获得分错的负样本,再利用负样本对语音识别模型进行二次训练,二次训练的各个阶段与首次训练的相同,其中,将二次训练过程中的resBiLSTM改为7层的resBiLSTM,能够有效提高语音识别的准确率。
在训练模型中,学习率采取基于验证集的自适应下降,选取最好的模型。
本发明实施例,通过基于LSTM的网络结构进行语音识别,克服了传统深层神经网络的梯度弥散或梯度爆炸的问题,并且在结果上也优于深层神经网络,使用二次训练能够较好的兼容模型的时间开销和准确度。
本发明实施例提供的语音识别方法,采用二次训练的方式对语音识别模型进行训练,使用二次训练能够较好的兼容语音识别模型的时间开销和准确度,从而提高了对长句的识别效果。
基于上述任一实施例,图4为本发明实施例提供的语音识别装置的示意图,如图4所示,本发明实施例提供一种语音识别装置,包括获取模块401和识别模块402,其中:
获取模块401用于获取待识别语音数据的频谱图;识别模块402用于将所述待识别语音数据的频谱图输入至语音识别模型,输出所述待识别语音数据对应的文字识别结果;其中,所述语音识别模型是基于语音样本以及预先确定的语音样本对应的文字,采用二次训练的方式进行训练后得到。
本发明实施例提供一种语音识别装置,用于执行上述任一实施例中所述的方法,通过本实施例提供的装置执行上述某一实施例中所述的方法的具体步骤与上述相应实施例相同,此处不再赘述。
本发明实施例提供的语音识别装置,采用二次训练的方式对语音识别模型进行训练,使用二次训练能够较好的兼容语音识别模型的时间开销和准确度,从而提高了对长句的识别效果。
图5为本发明实施例提供的电子设备的结构示意图,如图5所示,该电子设备包括:处理器(processor)501、通信接口(Communications Interface)502、存储器(memory)503和通信总线504,其中,处理器501,通信接口502,存储器503通过通信总线504完成相互间的通信。处理器501和存储器502通过总线503完成相互间的通信。处理器501可以调用存储器503中的逻辑指令,以执行如下方法:
获取待识别语音数据的频谱图;
将所述待识别语音数据的频谱图输入至语音识别模型,输出所述待识别语音数据对应的文字识别结果;
其中,所述语音识别模型是基于语音样本以及预先确定的语音样本对应的文字,采用二次训练的方式进行训练后得到。
此外,上述的存储器中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
进一步地,本发明实施例提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法实施例中的步骤,例如包括:
获取待识别语音数据的频谱图;
将所述待识别语音数据的频谱图输入至语音识别模型,输出所述待识别语音数据对应的文字识别结果;
其中,所述语音识别模型是基于语音样本以及预先确定的语音样本对应的文字,采用二次训练的方式进行训练后得到。
进一步地,本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,当所述计算机程序被处理器执行时,实现上述各方法实施例中的步骤,例如包括:
获取待识别语音数据的频谱图;
将所述待识别语音数据的频谱图输入至语音识别模型,输出所述待识别语音数据对应的文字识别结果;
其中,所述语音识别模型是基于语音样本以及预先确定的语音样本对应的文字,采用二次训练的方式进行训练后得到。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种语音识别方法,其特征在于,包括:
获取待识别语音数据的频谱图;
将所述待识别语音数据的频谱图输入至语音识别模型,输出所述待识别语音数据对应的文字识别结果;
其中,所述语音识别模型是基于语音样本以及预先确定的语音样本对应的文字,采用二次训练的方式进行训练后得到。
2.根据权利要求1所述的语音识别方法,其特征在于,将所述待识别语音数据的频谱图输入至语音识别模型,输出所述待识别语音数据对应的文字识别结果,具体包括:
将所述待识别语音数据的频谱图输入至所述语音识别模型中的卷积神经网络,输出语音特征;
将所述语音特征输入至所述语音识别模型中的双向残差长短时记忆网络,输出语义信息;
将所述语义信息输入至所述语音识别模型中的解码器,输出所述文字识别结果。
3.根据权利要求1所述的语音识别方法,其特征在于,对所述语音识别模型进行训练的具体步骤如下:
将所述语音样本的频谱图输入至所述语音识别模型中的卷积神经网络,输出样本语音特征;
将所述样本语音特征输入至所述语音识别模型中的双向残差长短时记忆网络,输出样本语义信息;
将所述样本语义信息输入至全连接神经网络,输出样本预测文字;
将所述样本预测文字输入至Softmax回归模型,输出归一化后的样本预测文字;
将归一化后的样本预测文字输入至集束搜索算法模型,输出负样本;
根据所述负样本对所述语音识别模型进行二次训练,确定所述语音识别模型的参数。
4.根据权利要求3所述的语音识别方法,其特征在于,将所述样本语音特征输入至所述语音识别模型中的双向残差长短时记忆网络,输出样本语义信息,具体包括:
将所述样本语音特征输入至双向长短时记忆网络,输出前后向的隐藏语义信息,同时,对所述样本语音特征进行正则化,得到归一化样本语音特征;
将所述隐藏语义信息和所述归一化样本语音特征进行合并,得到所述样本语义信息。
5.根据权利要求3所述的语音识别方法,其特征在于,根据所述负样本对所述语音识别模型进行二次训练,确定所述语音识别模型的参数,具体包括:
将所述负样本输入至二次训练的卷积神经网络,输出负样本语音特征;
将所述负样本语音特征输入至二次训练的双向残差长短时记忆网络,输出负样本语义信息;
将所述负样本语义信息输入至连接者时间分类模型,输出连接者时间分类损失;
根据所述连接者时间分类损失,利用反向传播算法确定所述语音识别模型的参数。
6.根据权利要求5所述的语音识别方法,其特征在于,将所述负样本语义信息输入至连接者时间分类模型,输出连接者时间分类损失,具体包括:
将所述负样本语义信息输入至全连接神经网络,输出负样本预测文字;
将所述负样本预测文字输入至Softmax回归模型,输出归一化后的负样本预测文字;
将归一化后的负样本预测文字输入至连接者时间分类损失函数模型,输出所述连接者时间分类损失。
7.根据权利要求5所述的语音识别方法,其特征在于,所述语音识别模型中的卷积神经网络为两层卷积神经网络,所述语音识别模型中的双向残差长短时记忆网络为两层双向残差长短时记忆网络;
二次训练的卷积神经网络为两层卷积神经网络,二次训练的双向残差长短时记忆网络为七层双向残差长短时记忆网络。
8.一种语音识别的装置,其特征在于,包括:
获取模块,用于获取待识别语音数据的频谱图;
识别模块,用于将所述待识别语音数据的频谱图输入至语音识别模型,输出所述待识别语音数据对应的文字识别结果;
其中,所述语音识别模型是基于语音样本以及预先确定的语音样本对应的文字,采用二次训练的方式进行训练后得到。
9.一种电子设备,包括存储器、处理器,以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时,实现如权利要求1至7任一项所述语音识别方法的步骤。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,当所述计算机程序被处理器执行时,实现如权利要求1至7任一所述语音识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010027674.6A CN113192495A (zh) | 2020-01-10 | 2020-01-10 | 语音识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010027674.6A CN113192495A (zh) | 2020-01-10 | 2020-01-10 | 语音识别方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113192495A true CN113192495A (zh) | 2021-07-30 |
Family
ID=76972342
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010027674.6A Withdrawn CN113192495A (zh) | 2020-01-10 | 2020-01-10 | 语音识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113192495A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113823321A (zh) * | 2021-08-31 | 2021-12-21 | 中国科学院上海微系统与信息技术研究所 | 一种基于特征预训练的深度学习分类的声音数据分类方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160284347A1 (en) * | 2015-03-27 | 2016-09-29 | Google Inc. | Processing audio waveforms |
CN107301860A (zh) * | 2017-05-04 | 2017-10-27 | 百度在线网络技术(北京)有限公司 | 基于中英文混合词典的语音识别方法及装置 |
CN108831445A (zh) * | 2018-05-21 | 2018-11-16 | 四川大学 | 四川方言识别方法、声学模型训练方法、装置及设备 |
CN110288995A (zh) * | 2019-07-19 | 2019-09-27 | 出门问问(苏州)信息科技有限公司 | 基于语音识别的交互方法、装置、存储介质和电子设备 |
-
2020
- 2020-01-10 CN CN202010027674.6A patent/CN113192495A/zh not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160284347A1 (en) * | 2015-03-27 | 2016-09-29 | Google Inc. | Processing audio waveforms |
CN107301860A (zh) * | 2017-05-04 | 2017-10-27 | 百度在线网络技术(北京)有限公司 | 基于中英文混合词典的语音识别方法及装置 |
CN108831445A (zh) * | 2018-05-21 | 2018-11-16 | 四川大学 | 四川方言识别方法、声学模型训练方法、装置及设备 |
CN110288995A (zh) * | 2019-07-19 | 2019-09-27 | 出门问问(苏州)信息科技有限公司 | 基于语音识别的交互方法、装置、存储介质和电子设备 |
Non-Patent Citations (1)
Title |
---|
张凯等: "基于重训练高斯混合模型的语音转换方法", 《声学技术》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113823321A (zh) * | 2021-08-31 | 2021-12-21 | 中国科学院上海微系统与信息技术研究所 | 一种基于特征预训练的深度学习分类的声音数据分类方法 |
CN113823321B (zh) * | 2021-08-31 | 2023-08-08 | 中国科学院上海微系统与信息技术研究所 | 一种基于特征预训练的深度学习分类的声音数据分类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111210807B (zh) | 语音识别模型训练方法、系统、移动终端及存储介质 | |
EP3076389A1 (en) | Statistical-acoustic-model adaptation method, acoustic-model learning method suitable for statistical-acoustic-model adaptation, storage medium in which parameters for building deep neural network are stored, and computer program for adapting statistical acoustic model | |
CN111312245B (zh) | 一种语音应答方法、装置和存储介质 | |
CN101777347B (zh) | 一种模型互补的汉语重音识别方法及系统 | |
US11404044B2 (en) | Method, apparatus, electronic device, and computer readable storage medium for voice translation | |
CN112528637B (zh) | 文本处理模型训练方法、装置、计算机设备和存储介质 | |
CN111339772B (zh) | 俄语文本情感分析方法、电子设备和存储介质 | |
CN114550703A (zh) | 语音识别系统的训练方法和装置、语音识别方法和装置 | |
CN111091809B (zh) | 一种深度特征融合的地域性口音识别方法及装置 | |
CN115394287A (zh) | 混合语种语音识别方法、装置、系统及存储介质 | |
Dossou et al. | OkwuGb\'e: End-to-End Speech Recognition for Fon and Igbo | |
Hassan et al. | Improvement in automatic speech recognition of south asian accent using transfer learning of deepspeech2 | |
Chen et al. | Unsupervised noise adaptation using data simulation | |
CN113192496A (zh) | 语音识别方法及装置 | |
CN113192495A (zh) | 语音识别方法及装置 | |
CN116524962A (zh) | 一种基于Conformer结构与多任务学习框架的语音情感识别方法 | |
CN115238068A (zh) | 语音转录文本聚类方法、装置、电子设备和存储介质 | |
CN115525749A (zh) | 语音问答方法、装置、电子设备和存储介质 | |
CN115376547A (zh) | 发音评测方法、装置、计算机设备和存储介质 | |
CN112863518B (zh) | 一种语音数据主题识别的方法及装置 | |
CN114170997A (zh) | 发音技巧检测方法、装置、存储介质及电子设备 | |
Al-Mansoori et al. | Automatic Speech Recognition (ASR) System using convolutional and Recurrent neural Network Approach | |
CN114360537A (zh) | 口语问答的评分方法、训练方法、计算机设备及存储介质 | |
CN113744727A (zh) | 模型训练方法、系统、终端设备及存储介质 | |
CN114218921A (zh) | 一种优化bert的问题语义匹配方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210730 |