CN105118501A - 语音识别的方法及系统 - Google Patents
语音识别的方法及系统 Download PDFInfo
- Publication number
- CN105118501A CN105118501A CN201510562502.8A CN201510562502A CN105118501A CN 105118501 A CN105118501 A CN 105118501A CN 201510562502 A CN201510562502 A CN 201510562502A CN 105118501 A CN105118501 A CN 105118501A
- Authority
- CN
- China
- Prior art keywords
- speech
- applicable
- sequence
- speech recognition
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Telephonic Communication Services (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本发明适用于语音识别技术,涉及一种语音识别的方法及系统,所述方法包括:获取语音信号;将所述语音信号进行模数转换,生成相应的语音数字信号;对所述语音数字信号进行预处理,根据预处理后相应的结果提取语音特征参数,以提取所述语音特征参数的时间顺序构建相应的特征序列;将所述语音特征参数与模板库中语音模型进行匹配,根据搜索算法对所述特征序列进行解码,以生成相应的识别结果。本发明通过提取时域GFCC特征替代频域上的MFCC特征,以及采用DCT变换,减少了计算量,同时,提高了计算速度和增加了鲁棒性;通过采用加权有限状态转换的机理构建解码模型,增加了模型的平滑和压缩处理,从而提高了解码速度。
Description
技术领域
本发明属于语音识别技术领域,特别是涉及一种嵌入式语音识别的方法及系统。
背景技术
语音识别是通过用机器识别用户声音命令来实现人机交互的关键技术,其可以显著改进人机交互的方式以使得用户可以在说出命令的同时完成更多任务。语音识别是通过在线或离线训练得到的语音识别引擎来实现的。语音识别过程通常可以分为训练阶段和识别阶段。在训练阶段中,根据语音识别引擎所基于的数学模型,从训练数据中统计地得到声学模型(acousticmodel,AM)和词汇表(lexicon)。在识别阶段中,语音识别引擎使用声学模型和词汇表对输入的语音进行处理,得到语音识别结果。例如,从输入声音的声波图进行特征提取以获得特征向量,然后根据声学模型得到音素(如[i],[o]等)序列,最后从词汇表中定位与音素序列匹配度较高的单词,甚至是句子。
然而,现有的语音识别技术在识别过程中,由于语音识别系统的适应性差,且对环境依赖性强,要求测试条件和训练条件必须保持一直,否则系统性能会会大大下降;或者,高噪声环境下识别困难,特别是车载条件下,人的发音变化大,像发音失真、发音速度和音调的改变因,导致语音识别的效率低下;或者,端点检测不确定性,即使在安静环境下,语音识别系统一般以上的识别错误来自错误的端点检测,造成转化存在大量的问题。
发明内容
鉴于以上所述现有技术的缺点,本发明的目的在于提供一种语音识别的方法及系统,用于解决现有语音识别的方法适应性差、对环境依赖性强和端点检测不确定性,导致解码效率低的问题。
为实现上述目的及其他相关目的,本发明提供一种语音识别的方法,包括:
获取语音信号;
将所述语音信号进行模数转换,生成相应的语音数字信号;
对所述语音数字信号进行预处理,根据预处理后相应的结果提取语音特征参数,以提取所述语音特征参数的时间顺序构建相应的特征序列;
将所述语音特征参数与模板库中语音模型进行匹配,根据搜索算法对所述特征序列进行解码,以生成相应的识别结果。
发明的另一目的还在于提供一种语音识别的系统,所述系统包括:
获取单元,适用于获取语音信号;
转换单元,适用于将所述语音信号进行模数转换,生成相应的语音数字信号;
处理单元,适用于对所述语音数字信号进行预处理,根据预处理后相应的结果提取语音特征参数,以提取所述语音特征参数的时间顺序构建相应的特征序列;
识别单元,适用于将所述语音特征参数与模板库中语音模型进行匹配,根据搜索算法对所述特征序列进行解码,以生成相应的识别结果。
如上所述,本发明为一种语音识别的方法及系统,具有以下有益效果:
首先,该语音系统从信号层、特征层和模型层方面,根据实际情况选择合适的处理方法,提高了语音识别的噪声鲁棒性和语音增加的技术;
其次,将时域GFCC特征替代频域上MFCC特征,且采用离散余弦变换替换传统的快速傅立叶变换,大大减少了计算量,当嵌入至设备上,根据GFCC特征的识别实时性更高,也变相的提高了识别效率;
最后,构建了基于加权有限状态转换的解码图来完成对识别的解码操作,将加权有限状态机理论引入语音识别,用加权有限状态转换器构建词图,通过对模型的平滑和压缩处理,以及对词图的剪枝操作,更够压缩整个系统的大小,并保证识别性能维持在一个较高的水平,解码速度也能相应的提高。
附图说明
图1显示本发明的实施例中提供的语音识别的方法流程图;
图2显示本发明的实施例图1中提供的语音识别的方法步骤S103的流程图;
图3显示本发明的实施例图1中提供的语音识别的方法步骤S104的流程图;
图4显示本发明的实施例图3中提供的语音识别的方法步骤S303的流程图;
图5显示本发明的实施例中提供的语音识别系统框架原理图;
图6显示本发明的实施例中提供的语音识别系统框架完整结构图;
图7显示本发明的实施例中提供的语音识别系统的识别单元Viterbi解析流程图;
图8显示本发明的实施例中提供的语音识别系统的识别单元Viterbi—beam解析流程图。
附图标号说明:
1、语音信号,2、获取单元,3、转换单元,4、处理单元,5、识别单元,6、识别结果,41、处理子单元,42、第一处理子单元,43、第二处理子单元,44、第三处理子单元,51、组合子单元,52、确定子单元,53、优化子单元,54、解码子单元。
具体实施方式
以下通过特定的具体实施例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
如图1所示,为本发明提供一种语音识别的方法流程图;具体包括:
步骤S101,获取语音信号;
在本实例中,获取语音信号的方式优选采取麦克风进行采样,麦克风将声音从物理状态转换为模拟的电信号,人的听力所能听到的声音频率范围约为20HZ-20KHZ,通常在PC(personalcomputer)机的采样频率为16KHZ,嵌入式设备为8HZ,采样频率越高、数字化的声波的保真度就越高。
步骤S102,将所述语音信号进行模数转换,生成相应的语音数字信号;
在本实施例中,将采集的语音信号通过AD转换(模数转换器),由模拟信号转为数字信号,为了确保系统处理结果的精确度,必须保证AD转换具有足够的转换精度,通常采用的方法是均匀量化和脉冲编码调制,且当前语音识别中常用16bit量化。
步骤S103,对所述语音数字信号进行预处理,根据预处理后相应的结果提取语音特征参数,以提取所述语音特征参数的时间顺序构建相应的特征序列;
在本实施例中,训练过程中,获得的特征参数通过不同的训练方法获得,而后存入至模板库,在解码过程中,新采集的语音信号经处理后为语音特征参数,在模板库中进行模式匹配;提取的语音特征参数为倒谱系数(GFCC,GammatoneFrequencyCepstrumCoefficient)特征,使用特征空间的去噪技术,如倒谱均值归一,提升GFCC特征的噪声鲁棒性和语音增加的技术。
步骤S104,将所述语音特征参数与模板库中语音模型进行匹配,根据搜索算法对所述特征序列进行解码,以生成相应的识别结果。
在本实施例中,通过语音识别中噪声鲁棒性技术的研究基础上,以语音特征角度出发,选用基于Gammatone滤波的GFCC特征作为语音识别中的特征,与传统的MFCC特征相比,模拟人类听觉感知系统设计的GFCC特征对噪声有更强的区分性,在静音和多种带噪语音的环境中,GFCC均有高于MFCC(梅尔频率倒谱系数,MelFrequencyCepstrumCoefficient)的识别性能;而在时域上的GFCC特征提取与频域上的MFCC提取方式相比,计算量更小,能够节省设备资源,更适合于嵌入式语音识别的任务要求。
在Mohri等研究者对加权有限状态转换器(WFST,WeightedFiniteStateTransducer)的先期研究工作的铺垫下,目前主流的大词汇量非特定人连续语音识别系统均采用WFST框架。在该理论框架下,语音识别中各层次的模型和知识被转换成WFST的形式,并通过加权有限状态机理论中的组合操作,将模型和知识源整合成完整的解码网络;而最小化操作又能去除冗余,最大程度的压缩网络的规模。在加权有限状态机的理论和操作下,可以得到一个完整的、高效的、单阶段的Viterbi解码静态搜索网络。通过将其它知识表达成WFST并组合到解码网络中的操作,可以解决特定的问题或提高整个系统的识别性能。与传统的两阶段识别系统(2-pass)相比,在优化后的静态网络上的单阶段识别系统(1-pass)更具有竞争力。
综上,本发明中构建了一个以GFCC为语音识别特征、以WFST为理论基础的语音识别系统,提升了该系统在噪声环境下的性能,并对其在嵌入式设备上的移植和应用做出分析和总结。
如图2所示,本发明的实施例图1中提供的语音识别的方法步骤S103的流程图,具体包括:
步骤S201中,将所述语音数字信号进行分帧和加窗、端点检测和滤波处理,其中,所述滤波是Gammatone滤波器;
在本实施例中,将语音数字信号采样处理后,在进行预加重,以提高语音信号的高频部分,达到频谱平滑;然后通过一阶高通滤波器。
步骤S202中,将通过Gammatone滤波的每一通信号进行预加重,根据预加重计算出该通道内每帧信号均值和平均帧能量;
在本实施例中,在分析语音数字信号之前,需要先进行分帧,通常语音数字信号每帧长度为20ms,相邻两帧之间有10ms的重叠。
步骤S203中,根据每帧时刻Gammatone滤波器所对应各个通道平均帧能量组成该帧的向量表达式,采用离散余弦变换得到该帧所对应的倒谱系数特征;
在本实例中,语音信号分析中,常用的频域分析方法有滤波器组和傅立叶变换的方法。
步骤S204中,根据每帧时刻的时间顺序获取所述倒谱系数特征所对应的特征序列。
在本实施例中,根据每帧时刻时间的先后顺序,将GFCC特征按照该时间顺序依次排列,形成对应的特征序列。
所述将所述语音特征参数与模板库中语音模型进行匹配之前,还包括:
采用不同的训练方法将获得的语音特征参数制作成相应的模型,将该模型存入模板库。
如图3所示,为本发明的实施例图1中提供的语音识别的方法步骤S104的流程图,具体包括:
步骤S301中,采用加权有限状态转换器转换模板库中语音模型,组合转换器以获得传输路径,根据所述传输路径得到对应的输入序列和映射序列;
在本实施例中,解码器要求组合并优化转换器,根据文本中的每一个音素去识别错误的文本相关的模型,生成一个HMM-级的转换器去替换之前的转换器。两个转换器相互组合,组合后路径使序列u映射到序列w,其中第一条路径在第一个转换器中从序列u映射到序列v,第二路径中从序列v映射到序列w,将组合后的路径中取值可以由第一和第二转换器计算得到。
步骤S302中,确定传输路径,以每个输入序列对应唯一的映射序列;
在本实施例中,当一个WFST中每个状态的输入只有一个传递且输入不为零时,可确定转换器是确定或有序的。
步骤S303中,以最小化算法优化传输路径,得到输入序列与映射序列之间的最优路径;
在本实施例中,确定化后的加权有限状态机能够在最小化基础上进行进一步的优化,采用经典的最小化算法,通过任意确定性的有限状态机得到优化,最小化处理后的加权有限状态机与处理前的确定化加权有限状态机等效,且在所有确定化的加权有限状态机中,其状态数和传递弧的数量均为最少。即将一组符合-权值当作为单独的符合,进而将加权有限状态机当作一个无权值的有限状态机,这样即可使用经典的最小化算法。
其步骤包括:首先,先将所有传递狐进行权值前推;其次,将每一组符合-权值看作单独的符合,使用经典的最小化算法进行优化。
步骤S304中,根据所述最优路径对所述特征序列进行解码,以生成相应的识别结果。
如图4所示,本发明的实施例图3中提供的语音识别的方法步骤S303的流程图,具体包括:
步骤S3011中,在每帧时刻,通过beam搜索确认所有路径出现最优路径概率最高的路径区域;
在本实施例中,Viterbi算法中,在每一个时刻,都将路径队列中的所有路径在搜索空间内扩展到下一个时刻,在所有可能到达的状态上都保存一条(或多条)似然得分最高的路径,这就形成了下一时刻的路径队列,再继续全部扩展;到达最后一个时刻后,选择所有刚好到达词、词组或句子边界的路径中得分最高的作为输出结果。
将Viterbi算法公式化,若一个left-to-right的无跳跃HMM模型共有L个状态,则其初始化为:
Φ1(j)=bj(y1),1≤j≤L(1)
对随后的每个时刻进行递推计算:
则搜索结束时得到的最优分数为:
Viterbi算法的优点思路简单,容易实现,只需计算概率得分即可,并可搜索到全局最优;缺点就是需要进行全搜索,计算复杂度极大,效率低下。为了在保留Viterbi算法实现简单的前提下,尽可能地提高搜索效率,故提出了Viterbi-Beam搜索概念。
步骤S3012中,在该路径区域内,通过Virerbi算法公式,计算该路径中到达下一个时刻的路径得分最高的为最优路径。
在本实施例中,Beam搜索,顾名思义,并非对所有路径进行扩展,而只针对一部分(一束)最可能的或者得分最高的路径进行扩展。在t时刻,存在以下公式:
令b为Beam宽度,在t时刻有b(t)=fScoremax(t)其中,f为Beam系数且小于1。
针对任何一条路径p,得分为Scorep(t),如果Scorep(t)≥b(t),则扩展路径p(即沿着路径p继续搜索),否则删除路径p。
如果概率得分用对数表示,即将上述过程修正,如果
则扩展路径p,否则删除路径p。
当前很多主流的大词汇量语音识别系统都能够通过加权有限状态转换器(WFSTs,WeightedFinite-StateTransducers)来构建。在加权有限状态机的理论下,语音识别中的各种模型,如HMM,发音词典,多元语法语言模型都能够转换成加权有限状态转换器的形式,并根据加权有限状态转换器理论中的组合、最小化操作,将这些转换器组成一个完整的静态搜索网络。
与传统的语音识别解码网络相比,经过组合和最小化的WFST解码网络,大大降低了网络的规模,同时,降低了解码过程中的时间和空间复杂度,保存了全局最优路径。同时,单阶段识别系统(1-pass)与传统的两阶段识别系统(2-pass)相比,识别速度更快;而在WFST的组合操作中,我们可以选择加入更多的知识源,这样能够提高某些特定识别任务或特别环境的识别性能。因此,采用WFST构建的语音识别解码系统,是一种快速的、高效的语音识别系统。
在加权有限状态机理论中,加权有限状态接收器(WFSAs)和加权有限状态转换器(WFSTs)都以半环代数结构来表示。
一个半环代数结构K包含一个数值集合K,两个基本操作和两个基本单位和可以写为如表1所述,为几种半环代数结构的表达。
表1几种半环代数结构表达
如图5所示,为本发明实施例提供一种语音识别系统框架原理图,包括:
获取单元2,适用于获取语音信号1;
转换单元3,适用于将所述语音信号1进行模数转换,生成相应的语音数字信号;
处理单元4,适用于对所述语音数字信号进行预处理,根据预处理后相应的结果提取语音特征参数,以提取所述语音特征参数的时间顺序构建相应的特征序列;
识别单元5,适用于将所述语音特征参数与模板库中语音模型进行匹配,根据搜索算法对所述特征序列进行解码,以生成相应的识别结果6。
如图6所示,为本发明实施例提供一种语音识别系统完整框架结构图,详述如下:
预处理子单元41,适用于将所述语音数字信号进行分帧和加窗、端点检测和滤波处理,其中,所述滤波是Gammatone滤波器;
第一处理子单元42,适用于将通过Gammatone滤波的每一通信号进行预加重,根据预加重计算出该通道内每帧信号均值和平均帧能量;
第二处理子单元43,适用于根据每帧时刻Gammatone滤波器所对应各个通道平均帧能量组成该帧的向量表达式,采用离散余弦变换得到该帧所对应的倒谱系数特征;
第三处理子单元44,适用于根据每帧时刻的时间顺序获取所述倒谱系数特征所对应的特征序列。
组合子单元51,适用于采用加权有限状态转换器转换模板库中语音模型,组合转换器以获得传输路径,根据所述传输路径得到对应的输入序列和映射序列;
确定子单元52,适用于确定传输路径,以每个输入序列对应唯一的映射序列;
优化子单元53,适用于以最小化算法优化传输路径,得到输入序列与映射序列之间的最优路径;
解码子单元54,适用于根据所述最优路径对所述特征序列进行解码,以生成相应的识别结果6。
模板库,适用于采用不同的训练方法将获得的语音特征参数制作成相应的模型,将该模型存入模板库。
如图7-8所示,为本发明的实施例中提供的语音识别系统的识别单元5Viterbi和Viterbi-Beam解析流程图。所述优化子单元具体包括:
估算模块,适用于在每帧时刻,通过beam搜索确认所有路径出现最优路径概率最高的路径区域;
计算模块,适用于在该路径区域内,通过Virerbi算法公式,计算该路径中到达下一个时刻的路径得分最高的为最优路径。
本发明根据该语音系统从信号层、特征层和模型层方面,根据实际情况选择合适的处理方法,提高了语音识别的噪声鲁棒性和语音增加的技术;其次,将时域GFCC特征替代频域上MFCC特征,且采用离散余弦变换替换传统的快速傅立叶变换,大大减少了计算量,当嵌入至设备上,根据GFCC特征的识别实时性更高,也变相的提高了识别效率;最后,构建了基于加权有限状态转换的解码图来完成对识别的解码操作,将加权有限状态机理论引入语音识别,用加权有限状态转换器构建词图,通过对模型的平滑和压缩处理,以及对词图的剪枝操作,更够压缩整个系统的大小,并保证识别性能维持在一个较高的水平,解码速度也能相应的提高。所以,本发明有效克服了现有技术中的种种缺点而具高度产业利用价值。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。
Claims (10)
1.一种语音识别的方法,其特征在于,包括:
获取语音信号;
将所述语音信号进行模数转换,生成相应的语音数字信号;
对所述语音数字信号进行预处理,根据预处理后相应的结果提取语音特征参数,以提取所述语音特征参数的时间顺序构建相应的特征序列;
将所述语音特征参数与模板库中语音模型进行匹配,根据搜索算法对所述特征序列进行解码,以生成相应的识别结果。
2.根据权利要求1所述的语音识别的方法,其特征在于,所述对所述语音数字信号进行预处理,根据预处理后相应的结果提取语音特征参数,以提取所述语音特征参数的时间顺序构建相应的特征序列,具体包括:
将所述语音数字信号进行分帧和加窗、端点检测和滤波处理,其中,所述滤波是Gammatone滤波器;
将通过Gammatone滤波的每一通信号进行预加重,根据预加重计算出该通道内每帧信号均值和平均帧能量;
根据每帧时刻Gammatone滤波器所对应各个通道平均帧能量组成该帧的向量表达式,采用离散余弦变换得到该帧所对应的倒谱系数特征;
根据每帧时刻的时间顺序获取所述倒谱系数特征所对应的特征序列。
3.根据权利要求1所述的语音识别的方法,其特征在于,所述将所述语音特征参数与模板库中语音模型进行匹配之前,还包括:
采用不同的训练方法将获得的语音特征参数制作成相应的模型,将该模型存入模板库。
4.根据权利要求1所述的语音识别的方法,其特征在于,所述将所述语音特征参数与模板库中语音模型进行匹配,所述根据搜索算法对所述特征序列进行解码,以生成相应的识别结果,具体包括:
采用加权有限状态转换器转换模板库中语音模型,组合转换器以获得传输路径,根据所述传输路径得到对应的输入序列和映射序列;
确定传输路径,以每个输入序列对应唯一的映射序列;
以最小化算法优化传输路径,得到输入序列与映射序列之间的最优路径;
根据所述最优路径对所述特征序列进行解码,以生成相应的识别结果。
5.根据权利要求4所述的语音识别的方法,其特征在于,所述以最小化算法优化传输路径,得到输入序列与映射序列之间的最优路径,具体包括:
在每帧时刻,通过beam搜索确认所有路径出现最优路径概率最高的路径区域;在该路径区域内,通过Virerbi算法公式,计算该路径中到达下一个时刻的路径得分最高的为最优路径。
6.一种语音识别的系统,其特征在于,包括:
获取单元,适用于获取语音信号;
转换单元,适用于将所述语音信号进行模数转换,生成相应的语音数字信号;
处理单元,适用于对所述语音数字信号进行预处理,根据预处理后相应的结果提取语音特征参数,以提取所述语音特征参数的时间顺序构建相应的特征序列;
识别单元,适用于将所述语音特征参数与模板库中语音模型进行匹配,根据搜索算法对所述特征序列进行解码,以生成相应的识别结果。
7.根据权利要求6所述的语音识别的系统,其特征在于,所述处理单元具体包括:
预处理子单元,适用于将所述语音数字信号进行分帧和加窗、端点检测和滤波处理,其中,所述滤波是Gammatone滤波器;
第一处理子单元,适用于将通过Gammatone滤波的每一通信号进行预加重,根据预加重计算出该通道内每帧信号均值和平均帧能量;
第二处理子单元,适用于根据每帧时刻Gammatone滤波器所对应各个通道平均帧能量组成该帧的向量表达式,采用离散余弦变换得到该帧所对应的倒谱系数特征;
第三处理子单元,适用于根据每帧时刻的时间顺序获取所述倒谱系数特征所对应的特征序列。
8.根据权利要求6所述的语音识别的系统,其特征在于,还包括:
模板库,适用于采用不同的训练方法将获得的语音特征参数制作成相应的模型,将该模型存入模板库。
9.根据权利要求6所述的语音识别的系统,其特征在于,所述识别单元具体包括:
组合子单元,适用于采用加权有限状态转换器转换模板库中语音模型,组合转换器以获得传输路径,根据所述传输路径得到对应的输入序列和映射序列;
确定子单元,适用于确定传输路径,以每个输入序列对应唯一的映射序列;
优化子单元,适用于以最小化算法优化传输路径,得到输入序列与映射序列之间的最优路径;
解码子单元,适用于根据所述最优路径对所述特征序列进行解码,以生成相应的识别结果。
10.根据权利要求9所述的语音识别的系统,其特征在于,所述优化子单元具体包括:
估算模块,适用于在每帧时刻,通过beam搜索确认所有路径出现最优路径概率最高的路径区域;
计算模块,适用于在该路径区域内,通过Virerbi算法公式,计算该路径中到达下一个时刻的路径得分最高的为最优路径。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510562502.8A CN105118501B (zh) | 2015-09-07 | 2015-09-07 | 语音识别的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510562502.8A CN105118501B (zh) | 2015-09-07 | 2015-09-07 | 语音识别的方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105118501A true CN105118501A (zh) | 2015-12-02 |
CN105118501B CN105118501B (zh) | 2019-05-21 |
Family
ID=54666464
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510562502.8A Expired - Fee Related CN105118501B (zh) | 2015-09-07 | 2015-09-07 | 语音识别的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105118501B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105913848A (zh) * | 2016-04-13 | 2016-08-31 | 乐视控股(北京)有限公司 | 一种基于最小堆的路径存储方法、系统和语音识别器 |
CN105976812A (zh) * | 2016-04-28 | 2016-09-28 | 腾讯科技(深圳)有限公司 | 一种语音识别方法及其设备 |
CN106557164A (zh) * | 2016-11-18 | 2017-04-05 | 北京光年无限科技有限公司 | 应用于智能机器人的多模态输出方法和装置 |
CN106683676A (zh) * | 2017-03-13 | 2017-05-17 | 安徽朗巴智能科技有限公司 | 一种机器人控制用语音识别系统 |
CN107195296A (zh) * | 2016-03-15 | 2017-09-22 | 阿里巴巴集团控股有限公司 | 一种语音识别方法、装置、终端及系统 |
CN108022584A (zh) * | 2017-11-29 | 2018-05-11 | 芜湖星途机器人科技有限公司 | 办公室语音识别优化方法 |
CN108288467A (zh) * | 2017-06-07 | 2018-07-17 | 腾讯科技(深圳)有限公司 | 一种语音识别方法、装置及语音识别引擎 |
CN110364171A (zh) * | 2018-01-09 | 2019-10-22 | 深圳市腾讯计算机系统有限公司 | 一种语音识别方法、语音识别系统及存储介质 |
CN110610696A (zh) * | 2018-06-14 | 2019-12-24 | 清华大学 | 一种基于混合信号域的mfcc特征提取方法及装置 |
CN110738988A (zh) * | 2019-10-24 | 2020-01-31 | 上海海事大学 | 一种基于维特比算法的花洒语音识别系统及方法 |
CN110992931A (zh) * | 2019-12-18 | 2020-04-10 | 佛山市顺德区美家智能科技管理服务有限公司 | 一种基于d2d技术的离线式语音控制方法、系统及存储介质 |
CN111048085A (zh) * | 2019-12-18 | 2020-04-21 | 佛山市顺德区美家智能科技管理服务有限公司 | 基于zigbee无线技术的离线式语音控制方法、系统及存储介质 |
CN111968648A (zh) * | 2020-08-27 | 2020-11-20 | 北京字节跳动网络技术有限公司 | 语音识别方法、装置、可读介质及电子设备 |
CN112687294A (zh) * | 2020-12-21 | 2021-04-20 | 重庆科技学院 | 一种车载噪音识别方法 |
CN112967717A (zh) * | 2021-03-01 | 2021-06-15 | 郑州铁路职业技术学院 | 一种高准确性的英语语音翻译的模糊匹配训练方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102968989A (zh) * | 2012-12-10 | 2013-03-13 | 中国科学院自动化研究所 | 一种用于语音识别的Ngram模型改进方法 |
US20130297299A1 (en) * | 2012-05-07 | 2013-11-07 | Board Of Trustees Of Michigan State University | Sparse Auditory Reproducing Kernel (SPARK) Features for Noise-Robust Speech and Speaker Recognition |
CN103985390A (zh) * | 2014-05-20 | 2014-08-13 | 北京安慧音通科技有限责任公司 | 一种基于伽马通相关图语音特征参数提取方法 |
CN104157290A (zh) * | 2014-08-19 | 2014-11-19 | 大连理工大学 | 一种基于深度学习的说话人识别方法 |
CN104778948A (zh) * | 2015-04-29 | 2015-07-15 | 太原理工大学 | 一种基于弯折倒谱特征的抗噪语音识别方法 |
-
2015
- 2015-09-07 CN CN201510562502.8A patent/CN105118501B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130297299A1 (en) * | 2012-05-07 | 2013-11-07 | Board Of Trustees Of Michigan State University | Sparse Auditory Reproducing Kernel (SPARK) Features for Noise-Robust Speech and Speaker Recognition |
CN102968989A (zh) * | 2012-12-10 | 2013-03-13 | 中国科学院自动化研究所 | 一种用于语音识别的Ngram模型改进方法 |
CN103985390A (zh) * | 2014-05-20 | 2014-08-13 | 北京安慧音通科技有限责任公司 | 一种基于伽马通相关图语音特征参数提取方法 |
CN104157290A (zh) * | 2014-08-19 | 2014-11-19 | 大连理工大学 | 一种基于深度学习的说话人识别方法 |
CN104778948A (zh) * | 2015-04-29 | 2015-07-15 | 太原理工大学 | 一种基于弯折倒谱特征的抗噪语音识别方法 |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107195296A (zh) * | 2016-03-15 | 2017-09-22 | 阿里巴巴集团控股有限公司 | 一种语音识别方法、装置、终端及系统 |
CN105913848A (zh) * | 2016-04-13 | 2016-08-31 | 乐视控股(北京)有限公司 | 一种基于最小堆的路径存储方法、系统和语音识别器 |
CN105976812A (zh) * | 2016-04-28 | 2016-09-28 | 腾讯科技(深圳)有限公司 | 一种语音识别方法及其设备 |
CN106557164A (zh) * | 2016-11-18 | 2017-04-05 | 北京光年无限科技有限公司 | 应用于智能机器人的多模态输出方法和装置 |
CN106683676A (zh) * | 2017-03-13 | 2017-05-17 | 安徽朗巴智能科技有限公司 | 一种机器人控制用语音识别系统 |
CN108288467A (zh) * | 2017-06-07 | 2018-07-17 | 腾讯科技(深圳)有限公司 | 一种语音识别方法、装置及语音识别引擎 |
CN108288467B (zh) * | 2017-06-07 | 2020-07-14 | 腾讯科技(深圳)有限公司 | 一种语音识别方法、装置及语音识别引擎 |
CN108022584A (zh) * | 2017-11-29 | 2018-05-11 | 芜湖星途机器人科技有限公司 | 办公室语音识别优化方法 |
CN110364171A (zh) * | 2018-01-09 | 2019-10-22 | 深圳市腾讯计算机系统有限公司 | 一种语音识别方法、语音识别系统及存储介质 |
CN110364171B (zh) * | 2018-01-09 | 2023-01-06 | 深圳市腾讯计算机系统有限公司 | 一种语音识别方法、语音识别系统及存储介质 |
CN110610696B (zh) * | 2018-06-14 | 2021-11-09 | 清华大学 | 一种基于混合信号域的mfcc特征提取方法及装置 |
CN110610696A (zh) * | 2018-06-14 | 2019-12-24 | 清华大学 | 一种基于混合信号域的mfcc特征提取方法及装置 |
CN110738988A (zh) * | 2019-10-24 | 2020-01-31 | 上海海事大学 | 一种基于维特比算法的花洒语音识别系统及方法 |
CN110992931A (zh) * | 2019-12-18 | 2020-04-10 | 佛山市顺德区美家智能科技管理服务有限公司 | 一种基于d2d技术的离线式语音控制方法、系统及存储介质 |
CN111048085A (zh) * | 2019-12-18 | 2020-04-21 | 佛山市顺德区美家智能科技管理服务有限公司 | 基于zigbee无线技术的离线式语音控制方法、系统及存储介质 |
CN111968648A (zh) * | 2020-08-27 | 2020-11-20 | 北京字节跳动网络技术有限公司 | 语音识别方法、装置、可读介质及电子设备 |
CN111968648B (zh) * | 2020-08-27 | 2021-12-24 | 北京字节跳动网络技术有限公司 | 语音识别方法、装置、可读介质及电子设备 |
CN112687294A (zh) * | 2020-12-21 | 2021-04-20 | 重庆科技学院 | 一种车载噪音识别方法 |
CN112967717A (zh) * | 2021-03-01 | 2021-06-15 | 郑州铁路职业技术学院 | 一种高准确性的英语语音翻译的模糊匹配训练方法 |
CN112967717B (zh) * | 2021-03-01 | 2023-08-22 | 郑州铁路职业技术学院 | 一种高准确性的英语语音翻译的模糊匹配训练方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105118501B (zh) | 2019-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105118501A (zh) | 语音识别的方法及系统 | |
CN110838289B (zh) | 基于人工智能的唤醒词检测方法、装置、设备及介质 | |
CN107195296B (zh) | 一种语音识别方法、装置、终端及系统 | |
EP4018437B1 (en) | Optimizing a keyword spotting system | |
Du et al. | Speaker augmentation for low resource speech recognition | |
CN102543073A (zh) | 一种沪语语音识别信息处理方法 | |
CN110600014B (zh) | 一种模型训练方法、装置、存储介质及电子设备 | |
CN110570853A (zh) | 基于语音数据的意图识别方法和装置 | |
CN110767210A (zh) | 一种生成个性化语音的方法及装置 | |
CN113314119B (zh) | 语音识别智能家居控制方法及装置 | |
CN108648769A (zh) | 语音活性检测方法、装置及设备 | |
CN105654955B (zh) | 语音识别方法及装置 | |
CN102945673A (zh) | 一种语音指令范围动态变化的连续语音识别方法 | |
CN113436612B (zh) | 基于语音数据的意图识别方法、装置、设备及存储介质 | |
CN102237083A (zh) | 一种基于WinCE平台的便携式口语翻译系统及其语言识别方法 | |
CN113077806A (zh) | 音频处理方法及装置、模型训练方法及装置、介质和设备 | |
Gupta et al. | Speech feature extraction and recognition using genetic algorithm | |
CN114495969A (zh) | 一种融合语音增强的语音识别方法 | |
Mian Qaisar | Isolated speech recognition and its transformation in visual signs | |
Dalmiya et al. | An efficient method for Tamil speech recognition using MFCC and DTW for mobile applications | |
CN113744715A (zh) | 声码器语音合成方法、装置、计算机设备及存储介质 | |
CN113782044A (zh) | 一种语音增强方法及装置 | |
Devi et al. | A novel approach for speech feature extraction by cubic-log compression in MFCC | |
Singhal et al. | Automatic speech recognition for connected words using DTW/HMM for English/Hindi languages | |
CN111489745A (zh) | 一种应用于人工智能的汉语语音识别系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190521 Termination date: 20190907 |
|
CF01 | Termination of patent right due to non-payment of annual fee |