CN109036391A - 语音识别方法、装置及系统 - Google Patents
语音识别方法、装置及系统 Download PDFInfo
- Publication number
- CN109036391A CN109036391A CN201810671596.6A CN201810671596A CN109036391A CN 109036391 A CN109036391 A CN 109036391A CN 201810671596 A CN201810671596 A CN 201810671596A CN 109036391 A CN109036391 A CN 109036391A
- Authority
- CN
- China
- Prior art keywords
- wfst
- word
- path
- acoustic feature
- phoneme
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 127
- 230000010354 integration Effects 0.000 claims abstract description 83
- 238000010276 construction Methods 0.000 claims description 57
- 230000015654 memory Effects 0.000 claims description 52
- 238000000605 extraction Methods 0.000 claims description 30
- 238000004364 calculation method Methods 0.000 claims description 17
- 239000000284 extract Substances 0.000 claims description 17
- 238000013528 artificial neural network Methods 0.000 claims description 14
- 238000012549 training Methods 0.000 claims description 12
- 230000008878 coupling Effects 0.000 claims description 6
- 238000010168 coupling process Methods 0.000 claims description 6
- 238000005859 coupling reaction Methods 0.000 claims description 6
- RLLPVAHGXHCWKJ-IEBWSBKVSA-N (3-phenoxyphenyl)methyl (1s,3s)-3-(2,2-dichloroethenyl)-2,2-dimethylcyclopropane-1-carboxylate Chemical compound CC1(C)[C@H](C=C(Cl)Cl)[C@@H]1C(=O)OCC1=CC=CC(OC=2C=CC=CC=2)=C1 RLLPVAHGXHCWKJ-IEBWSBKVSA-N 0.000 claims description 4
- 230000008901 benefit Effects 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 7
- 230000008569 process Effects 0.000 description 38
- 238000004422 calculation algorithm Methods 0.000 description 20
- 238000012545 processing Methods 0.000 description 16
- 238000009826 distribution Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000013507 mapping Methods 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 238000003066 decision tree Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 201000004569 Blindness Diseases 0.000 description 1
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
- G10L15/144—Training of HMMs
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Machine Translation (AREA)
- Telephonic Communication Services (AREA)
Abstract
一种语音识别方法,装置及系统,涉及计算机技术领域,尤其涉及语音识别技术领域,目的在于提高语音识别准确率。所述语音识别方法包括:构建声学WFST,所述声学WFST是从声学特征到发音属性的搜索网络;构建发音WFST,所述发音WFST是从发音属性到音素的搜索网络;构建词典WFST,所述词典WFST是从音素到字或词的搜索网络;构建语言WFST,所述语言WFST是字或词到词序列的搜索网络;对上述多个WFST进行整合生成语音识别WFST,并基于所述语音识别WFST进行语音识别,输出概率最大的识别结果。
Description
技术领域
本发明涉及涉及计算机技术领域,尤其涉及语音识别技术领域。
背景技术
语音识别(Automatic Speech Recognition,ASR)是指一种从语音波形中识别出对应的文字内容的技术,是人工智能领域的重要技术之一。解码器是语音识别技术的核心模块之一,可以基于己经训练好的声学模型、语言模型及发音词典建立一个识别网络,识别网络中的各路径分别与各种文本信息、以及各文本信息的发音对应,然后针对声学模型输出的发音,在该识别网络中寻找最大的一条路径,基于该路径能够以最大概率输出该语音信号对应的文本信息,完成语音识别。
现有技术中提出了一种语音识别方法,其方案为利用汉语普通话语音学知识指导和训练数据驱动相结合的方法,通过建立判决树的方式,实现模型状态层面的参数共享,建立语境相关的声学模型,声学模型建立在声、韵母层面上,该技术方案设计了一组语音学问题提供给判决树构造算法使用,利用能够提取的汉语普通话语音区别特征,如:清、浊音,鼻音、非鼻音等(此处发音特征属于发音属性的一种),在识别解码过程中,通过判决树对减少模型匹配的盲目性,提高搜索的效率和准确性,克服了模型的精确性和可训练性之间的矛盾。
该方案通过发音属性信息对声学模型进行聚类,实现了对更多的声学模型应用,从而提高系统性能,但其声学模型构建仍是基于语音特征的统计特性,当应用于中远距离交互场景下时,由于语音会受到周围环境的噪声与混响的干扰,语音特征的统计特性发生变化,会导致声学模型性能急剧下降,语音识别的准确率低。
发明内容
为了提高语音识别的准确率。本申请实施例提供了一种语音识别解码方法、系统和装置,以及相应的语音识别加权有限状态转换器WFST的构建方法、系统和装置。
本申请的实施例,一方面提供了一种语音识别WFST的构建方法,所述方法包括:构建声学WFST(H1),所述声学WFST是从声学特征到发音属性的搜索网络;构建发音WFST(A),所述发音WFST是从发音属性到音素的搜索网络;构建词典WFST(L),所述词典WFST是从音素到字或词的搜索网络;构建语言WFST(G),所述语言WFST是字或词到词序列的搜索网络;对多个WFST进行整合生成语音识别WFST;其中所述多个WFST包括:所述声学WFST、所述发音WFST、所述词典WFST、所述语言WFST;所述整合生成的语音识别WFST为从声学特征到词序列的搜索网络,表示为H1*A*L*G。所述整合为,将词典WFST与语言模型WFST进行整合运算,得到的有限状态转换器再与发音WFST做整合运算,进一步与声学WFST整合。
可选的,上述语音识别WFST的构建方法中,构建声学加权有限状态转换器WFST(H1)为:以发音属性作为状态,以声学特征作为观测,通过采用HMM隐马尔可夫模型结合前后向算法、期望最大化算法、Viterbi,获得在发音属性条件下产生给定声学特征的概率,基于所述概率构建所述声学WFST。
可选的,上述语音识别WFST的构建方法中,构建发音WFST(A)为:深度神经网络以声学特征为输入,以音素和发音属性为双目标输出,得到概率最大的音素及发音属性,作为发音属性与音素的一次共现,通过大量语音库的输入和输出统计发音属性与音素的共现次数,并除以总帧数,得到发音属性与音素的共现概率,将发音属性与音素及其共现概率表示成发音WFST,发音WFST状态转移的输入为发音属性,输出为音素及发音属性与音素的共现概率。
可选的,构建第二声学WFST(H2),第二声学WFST是从声学特征到音素的搜索网络;所述整合的多个WFST还包括:第二声学WFST。所述对多个WFST进行整合中的多个WFST当包括第二声学WFST时,整合后的加权有限状态转换器为(H1*A+H2)*L*G。
可选的,所述对多个WFST进行整合中的多个WFST当包括第二声学WFST(C)时,整合步骤为,将声学WFST和发音WFST进行整合得到的声学特征到音素的WFST和第二声学WFST进行网络合并生成一个声学特征到音素的WFST;然后将词典WFST与语言WFST进行整合,得到的有限状态转换器再与上述网络合并后的声学特征到音素的WFST做整合生成语音识别WFST。
可选的,所述网络合并为将两个输入输出类型相同的WFST的相同路径进行合并,概率组合,不同路径保留。
可选的,所述整合过程还包括进行确定化,最小化处理。
本申请的实施例,一方面提供了一种语音识别WFST的构建方法,所述方法包括:构建声学加权有限状态转换器WFST(H1),所述声学WFST是从声学特征到发音属性的搜索网络;构建发音WFST(A),所述发音WFST是从发音属性到上下文相关音素的搜索网络;构建上下文WFST(C),所述上下文WFST是从上下文相关音素到音素的搜索网络;构建词典WFST(L),所述词典WFST是从音素到字或词的搜索网络;构建语言WFST(G),所述语言WFST是字或词到词序列的搜索网络;对多个WFST进行整合生成语音识别WFST;其中所述多个WFST包括:所述声学WFST、所述发音WFST、所述上下文WFST、所述词典WFST、所述语言WFST;所述整合生成的语音识别WFST为从声学特征到词序列的搜索网络,表示为H1*A*C*L*G。
可选的,所述整合步骤具体为,将词典WFST与语言模型WFST进行整合运算,得到的有限状态转换器再上下文WFST做整合运算,再将结果与发音WFST做整合运算,进一步与声学WFST做整合。
可选的,上述语音识别WFST的构建方法中,构建声学加权有限状态转换器WFST(H1)为:以发音属性作为状态,以声学特征作为观测序列,通过采用HMM隐马尔可夫模型结合前后向算法、期望最大化算法、Viterbi,获得在该发音属性条件下产生给定观测(声学特征)的概率,基于所述概率构建所述声学WFST。
可选的,上述语音识别WFST的构建方法中,构建发音WFST(A)为:深度神经网络以声学特征为输入,以音素和发音属性为双目标输出,得到概率最大的音素及发音属性,作为发音属性与音素的一次共现,通过大量语音库的输入和输出统计发音属性与音素的共现次数,并除以总帧数,得到发音属性与音素的共现概率,将发音属性与音素及其共现概率表示成发音WFST,发音WFST状态转移的输入为发音属性,输出为音素及发音属性与音素的共现概率。
可选的,所述方法还包括:构建第二声学WFST,所述第二声学WFST是从声学特征到上下文相关音素的搜索网络。
可选的,所述对多个WFST进行整合中的多个WFST当包括第二声学WFST时,整合后的加权有限状态转换器为(H1*A+H2)*C*L*G。
可选的,所述对多个WFST进行整合中的多个WFST当包括第二声学WFST(C)时,整合步骤为,将声学WFST和发音WFST进行整合得到的声学特征到上下文相关音素的WFST和第二声学WFST进行网络合并生成一个声学特征到上下文相关音素的WFST;然后将词典WFST与语言WFST进行整合,得到的有限状态转换器再与上下文WFST进行整合,整合结果再与上述网络合并后的声学特征到音素的WFST做整合生成语音识别WFST。
可选的,所述网络合并为将两个输入输出类型相同的WFST的相同路径进行合并,概率组合,不同路径保留。
可选的,所述整合还包括进行确定化,最小化处理。
本申请的实施例,另一方面还提供了一种语音识别解码方法,所述方法包括:接收语音信号;从所述语音信号中提取声学特征;将所述声学特征输入语音识别WFST,获取声学特征至词序列的各路径的概率;比较各路径的概率,概率最大的路径所对应的词序列作为识别结果输出。
可选的,所述语音识别WFST是通过将声学WFST、发音WFST、上下文WFST,词典WFST、语言WFST进行整合所生成的从声学特征到词序列的搜索网络。
可选的,所述声学WFST是从声学特征到发音属性的搜索网络;所述发音WFST是从发音属性到上下文相关音素的搜索网络;所述上下文WFST是从上下文相关音素到音素的搜索网络;所述词典WFST是从音素到字或词的搜索网络;所述语言WFST是字或词到词序列的搜索网络。
可选的,所述语音识别WFST是通过将声学WFST、发音WFST、词典WFST、语言WFST进行整合所生成的从声学特征到词序列的搜索网络。
可选的,所述声学WFST是从声学特征到发音属性的搜索网络;所述发音WFST是从发音属性到音素的搜索网络;所述词典WFST是从音素到字或词的搜索网络;所述语言WFST是字或词到词序列的搜索网络。
本申请的实施例,另一方面还提供了一种语音识别解码方法,所述方法包括:接收语音信号;从所述语音信号中提取声学特征序列;将所述声学特征序列顺序输入声学WFST网络,获取声学特征至发音属性的各路径的概率;以声学特征至发音属性的各路径输出的发音属性作为发音WFST网络的输入,获取发音属性至上下文相关音素的各路径的概率;以第发音属性至上下文相关音素的各路径输出的上下文相关音素作为上下文WFST网络的输入,获取上下文相关音素至音素的各路径的概率以上下文相关音素至音素的各路径输出的音素作为词典WFST网络的输入,获取音素至字或词的各路径的概率;以音素至字或词的各路径径输出的字或词作为语言WFST网络的输入,获取字或词至词序列的各路径的概率;根据各WFST网络中各路径的概率来获得声学特征序列至词序列的各路径的总概率,将总概率最大的路径所对应的词序列作为对应于所述声学特征序列的识别结果输出。
可选的,所述语音识别解码方法还包括:所述总概率的计算方法为求和或乘积运算。
本申请的实施例,另一方面还提供了一种语音识别解码方法,所述方法包括:接收语音信号;从所述语音信号中提取声学特征序列;将所述声学特征序列顺序输入声学WFST网络的,获取声学特征至发音属性的各路径的概率;以声学特征为第二声学WFST网络的输入,获取声学特征至上下文相关音素的各路径的概率;以声学特征至发音属性的各路径输出的发音属性作为发音WFST网络的输入,获取发音属性至上下文相关音素的各路径的概率;以发音属性至上下文相关音素的各路径输出的上下文相关音素以及第二声学WFST网络输出的上下文相关音素作为所述上下文WFST网络的输入,获取上下文相关音素至音素的各路径的概率;以上下文相关音素至音素的各路径输出的音素作为词典WFST网络的输入,获取音素至字或词的各路径的概率;以音素至字或词的各路径输出的字或词作为语言WFST网络的输入,获取字或词至词序列的各路径的概率;根据各WFST网络中各路径的概率来获得声学特征序列至词序列的各路径的总概率,将总概率最大的路径所对应的词序列作为对应于所述声学特征序列的识别结果输出。
可选的,所述语音识别解码方法还包括:所述总概率的计算方法为求和或乘积运算。
本申请的实施例,另一方面还提供了一种语音识别WFST的构建装置,所述装置包括:处理器;所述处理器用于与存储器耦合;并读取并执行存储器中的指令,所述指令包括:构建声学加权有限状态转换器WFST,所述声学WFST是从声学特征到发音属性的搜索网络;构建发音WFST,所述发音WFST是从发音属性到音素的搜索网络;构建词典WFST,所述词典WFST是从音素到字或词的搜索网络;构建语言WFST,所述语言WFST是字或词到词序列的搜索网络;对多个WFST进行整合生成语音识别WFST;其中所述多个WFST包括:所述声学WFST、所述发音WFST、所述词典WFST、所述语言WFST;所述整合生成的语音识别WFST为从声学特征到词序列的搜索网络。
可选的,所述指令还包括:构建第二声学WFST,所述第二声学WFST是从声学特征到发音属性的搜索网络;所述对多个WFST进行整合生成语音识别WFST,其中所述多个WFST包括:所述第二声学WFST。
本申请的实施例,另一方面还提供了一种语音识别WFST的构建装置,所述装置包括:处理器;所述处理器用于与存储器耦合;并读取并执行存储器中的指令,所述指令包括:构建声学加权有限状态转换器WFST,所述声学WFST是从声学特征到发音属性的搜索网络;构建发音WFST,所述发音WFST是从发音属性到上下文相关音素的搜索网络;构建上下文WFST,所述上下文WFST是从上下文相关音素到音素的搜索网络;构建词典WFST,所述词典WFST是从音素到字或词的搜索网络;构建语言WFST,所述语言WFST是字或词到词序列的搜索网络;对多个WFST进行整合生成语音识别WFST;其中所述多个WFST包括:所述声学WFST、所述发音WFST、所述上下文WFST,所述词典WFST、所述语言WFST;所述整合生成的语音识别WFST为从声学特征到词序列的搜索网络。
可选的,所述指令还包括:构建第二声学WFST,所述第二声学WFST是从声学特征到上下文相关音素的搜索网络所述对多个WFST进行整合生成语音识别WFST,其中所述多个WFST包括:所述第二声学WFST。
上述语音识别WFST构建装置中的WFST整合方式同上述语音识别WFST构建方法相关的实施例相同。
本申请的实施例,另一方面还提供了一种语音识别解码装置,所述装置包括:处理器,所述处理器用于与存储器耦合;并读取并执行存储器中的指令,所述指令包括:接收语音信号;从所述语音信号中提取声学特征序列;将所述声学特征序列顺序输入声学WFST网络,获取声学特征至发音属性的各路径的概率;以所述声学特征至发音属性的各路径输出的发音属性作为发音WFST网络的输入,获取发音属性至音素的各路径的概率;以所述发音属性至音素的各路径输出的音素作为词典WFST网络的输入,获取音素至字或词的各路径的概率;以音素至字或词的各路径输出的字或词作为语言WFST网络的输入,获取字或词至词序列的各路径的概率;根据各WFST网络中各路径的概率来获得声学特征序列至词序列的各路径的总概率,将总概率最大的路径所对应的词序列作为对应于所述声学特征序列的识别结果输出。
可选的,上述所获取的路径是指活跃路径,其中活跃路径是指WFST搜索过程中将概率较小路径裁剪后,剩余的概率较大的路径。
本申请的实施例,另一方面还提供了一种语音识别解码装置,所述装置包括:处理器,所述处理器用于与存储器耦合;并读取并执行存储器中的指令,所述指令包括:接收语音信号;从所述语音信号中提取声学特征序列;将所述声学特征序列顺序输入声学WFST网络,获取声学特征至发音属性的各路径的概率;以所述声学特征序列作为第二声学WFST网络输入,获取声学特征至音素的各路径的概率;以声学特征至发音属性的各路径输出的发音属性作为发音WFST网络的输入,获取发音属性至音素的各路径的概率;以发音属性至音素的各路径输出的音素和第二声学WFST网络输出的音素作为所述词典WFST网络的输入,获取音素至字或词的各路径的概率;以音素至字或词的各路径输出的字或词作为语言WFST网络的输入,获取字或词至词序列的各路径的概率;根据各WFST网络中各路径的概率来获得声学特征序列至词序列的各路径的总概率,将总概率最大的路径所对应的词序列作为对应于所述声学特征序列的识别结果输出。
可选的,上述所获取的路径是指活跃路径,其中活跃路径是指WFST搜索过程中将概率较小路径裁剪后,剩余的概率较大的路径。
本申请的实施例,另一方面还提供了一种语音识别解码系统,所述系统包括:终端和服务器;所述终端用于接收语音信号,并将所述语音信号发送至服务器;所述服务器用于接收所述语音信号,并从语音信号中提取声学特征信序列,将所述声学特征序列输入语音识别WFST,获取声学特征序列至词序列的各路径的概率;比较各路径的概率,概率最大的路径所对应的词序列作为识别结果输出。
可选的,所述语音识别WFST是通过将声学WFST、发音WFST、上下文WFST,词典WFST、语言WFST进行整合所生成的从声学特征到词序列的搜索网络。
可选的,所述声学WFST是从声学特征到发音属性的搜索网络;所述发音WFST是从发音属性到上下文相关音素的搜索网络;所述上下文WFST是从上下文相关音素到音素的搜索网络;所述词典WFST是从音素到字或词的搜索网络;所述语言WFST是字或词到词序列的搜索网络。
可选的,所述语音识别WFST是通过将声学WFST、发音WFST、词典WFST、语言WFST进行整合所生成的从声学特征到词序列的搜索网络。
可选的,所述声学WFST是从声学特征到发音属性的搜索网络;所述发音WFST是从发音属性到音素的搜索网络;所述词典WFST是从音素到字或词的搜索网络;所述语言WFST是字或词到词序列的搜索网络。
上述语音识别解码系统中的WFST整合方式同上述语音识别WFST构建方法相关的实施例相同。
本申请的实施例,另一方面还提供了一种语音识别解码系统,所述系统包括:终端和服务器;所述终端用于接收语音信号,并将所述语音信号发送至服务器;所述服务器用于接收所述语音信号,并从语音信号中提取声学特征序列;
将声学特征序列顺序输入声学WFST网络,获取声学特征至发音属性的各路径的概率;以声学特征至发音属性的各路径输出的发音属性作为发音WFST网络的输入,获取发音属性至上下文相关音素的各路径的概率;以发音属性至上下文相关音素的各路径输出的上下文相关音素作为上下文WFST的输入,获取上下文相关音素至音素的各路径的概率;以上下文相关音素至音素的各路径输出的音素作为词典WFST网络的输入,获取音素至字或词的各路径的概率;以音素至字或词的各路径输出的字或词作为语言WFST网络的输入,获取字或词至词序列的各路径的概率;根据各WFST网络中各路径的概率来获得声学特征序列至词序列的各路径的总概率,将总概率最大的路径所对应的词序列作为对应于所述声学特征序列的识别结果输出。
可选的,上述各步骤所获取的路径是指活跃路径,其中活跃路径是指WFST搜索过程中将概率较小路径裁剪后,剩余的概率较大的路径。
本申请的实施例,另一方面还提供了一种语音识别解码系统,所述系统包括:终端和服务器。
本申请的实施例,另一方面还提供了一种语音识别解码系统,所述系统包括:终端和服务器;所述终端用于接收语音信号,并将所述语音信号发送至服务器;所述服务器用于接收所述语音信号,并从语音信号中提取声学特征序列,将声学特征序列顺序作为声学WFST网络的输入,获取声学特征至发音属性的各路径的概率;以声学特征为第二声学WFST网络的输入,获取声学特征至上下文相关音素的各路径的概率;以声学特征至发音属性的各路径输出的发音属性作为发音WFST网络的输入,获取发音属性至上下文相关音素的各路径的概率;以发音属性至上下文相关音素的各路径输出的上下文相关音素以及第二声学WFST网络输出的上下文相关音素作为上下文WFST网络的输入,获取上下文相关音素至音素的各路径的概率;以上下文相关音素至音素的各路径输出的音素作为词典WFST网络的输入,获取音素至字或词的各路径的概率;以音素至字或词的各路径输出的字或词作为语言WFST网络的输入,获取字或词至词序列的各路径的概率;根据各WFST网络中各路径的概率来获得声学特征序列至词序列的各路径的总概率,将总概率最大的路径所对应的词序列作为对应于所述声学特征序列的识别结果输出。
可选的,上述各步骤所获取的路径是指活跃路径,其中活跃路径是指WFST搜索过程中将概率较小路径裁剪后,剩余的概率较大的路径。
本申请的实施例,另一方面还提供了一种声学WFST的构建方法,所述方法包括,通过HMM隐马尔可夫模型,以发音属性作为状态,以声学特征作为观测,获得在发音属性条件下产生给定声学特征的概率,基于所述概率构建所述声学WFST。
可选的,通过HMM隐马尔可夫模型,以发音属性作为状态,以声学特征作为观测,获得在发音属性条件下产生给定声学特征的概率,进一步为,以发音属性作为状态,以声学特征作为观测,通过采用HMM隐马尔可夫模型结合前后向算法、期望最大化算法、Viterbi,获得在发音属性条件下产生给定声学特征的概率,基于所述概率构建所述声学WFST。
本申请的实施例,另一方面还提供了一种发音WFST的构建方法,所述方法包括,通过以声学特征为输入,以发音属性和音素或上下文相关音素为双目标输出进行神经网络多目标训练,最终获得发音属性与音素或上下文相关音素的共现概率来构建发音WFST。
本申请的实施例,另一方面还提供了一种语音识别解码装置,所述装置包括:语音信号接收单元,用于接收语音信号;声学特征提取单元,用于从所述语音信号接收单元接接收语音信号中提取声学特征序列;第一获取单元,用于将声学特征提取单元提取的声学特征序列顺序输入声学WFST网络,获取声学特征至发音属性的各路径的概率;第二获取单元,用于将所述第一获取单元获取的各路径的发音属性输入发音WFST网络的,获取发音属性至上下文相关音素的各路径的概率;第三获取单元,用于将所述第二获取单元获取的各路径的上下文相关音素输入上下文WFST网络,获取上下文相关音素至音素的各路径的概率第四获取单元,用于将所述第三获取单元获取的各路径的音素输入词典WFST网络的,获取音素至字或词的各路径的概率;第五获取单元,用于将所述第四获取单元获取的各路径的字或词输入语言WFST网络,获取字或词至词序列的各路径的概率;结果输出单元,用于根据各个获取单元获取的各路径的概率来获得声学特征序列至词序列的各路径的总概率,将总概率最大的路径所对应的词序列作为对应于所述声学特征序列的识别结果输出。
可选的,上述各步骤所获取的路径是指活跃路径,其中活跃路径是指WFST搜索过程中将概率较小路径裁剪后,剩余的概率较大的路径。
本申请的实施例,另一方面还提供了一种语音识别解码装置,所述装置包括:语音信号接收单元,用于接收语音信号;声学特征提取单元,用于从所述语音信号接收单元接接收语音信号中提取声学特征序列;第一获取单元,用于将声学特征提取单元提取的声学特征序列顺序输入声学WFST网络,获取声学特征至发音属性的各路径的概率;第二获取单元,将声学特征序列顺序作为第二声学WFST网络输入,获取声学特征序列至上下文相关音素的各路径的概率;第三获取单元,将第一获取单元获取的各路径输出的发音属性输入发音WFST网络,获取发音属性至上下文相关音素的各路径的概率;第四获取单元,将第二获取单元获取的各路径输出的上下文相关音素和第三获取单元获取的各路径输出的上下文相关音素输入上下文WFST网络,获取上下文相关音素至音素的各路径的概率;第五获取单元,将第四获取单元获取的各路径输出的音素输入词典WFST网络,获取音素至字或词的各路径的概率;第六获取单元将第五获取单元获取的各路径输出的字或词输入语言WFST网络,获取字或词至词序列的各路径的概率;结果输出单元,用于根据各个获取单元获取的各路径的概率来获得声学特征序列至词序列的各路径的总概率,将总概率最大的路径所对应的词序列作为对应于所述声学特征序列的识别结果输出。
可选的,上述各步骤所获取的路径是指活跃路径,其中活跃路径是指WFST搜索过程中将概率较小路径裁剪后,剩余的概率较大的路径。
本申请上述实施例新增声学特征到发音属性的WFST,以及发音属性到音素的WFST得到新的语音识别WFST,从而在语音识别解码过程中加入了不受噪声、混响等外界干扰的发音属性特征,提高了语音识别系统对环境的鲁棒性,使得语音识别的准确率得到提高。
附图说明
图1a示出了本发明实施例中的WFST的一种示例;
图1b示出了本发明实施例中的WFST的一种示例;
图1c示出了对图1a、1b中的WFST进行整合后的结果示例;
图2示出了本发明实施例的一种语音识别解码系统图;
图3示出了本发明实施例的一种语音识别解码系统结构图;
图4给出了本发明实施例的另一种语音识别解码系统结构图;
图5示出了本发明实施例的一种语音识别WFST构建流程图;
图6示出了本发明实施例的另一种语音识别WFST构建流程图;
图7示出了本发明实施例的一种语音识别解码流程;
图8示出了本发明实施例的另一种语音识别解码流程;
图9示出了本发明实施例的又一种语音识别解码流程;
图10示出了本发明实施例的又一种语音识别解码流程;
图11示出了本发明实施例的又一种语音识别解码流程;
图12示出了本发明实施例的一种服务器结构图;
图13示出了本发明实施例的一种电子终端结构图;
图14示出了本发明实施例的一种语音识别解码装置的结构图;
图15示出了本发明实施例的又一种语音识别解码装置的结构图;
图16示出了本发明实施例的又一种语音识别解码装置的结构图;
图17示出了本发明实施例的又一种语音识别解码装置的结构图。
具体实施方式
为了便于理解,下面先对本发明实施例中的一些概念进行介绍:
本发明实施例中的语音识别解码器是通过语音识别WFST来构建。WFST是一种用于大规模的语音识别的加权有限状态转换器,每一个状态转换均用输入和输出符号标记。因此,所构建的网络(WFST)用于生成从输入符号序列或字符串到输出字符串的映射。WFST除了输入和输出符号之外还对状态转换进行加权。权重值可以是编码概率,持续时间或沿路径积累的任何其他数量,以计算将输入字符串映射到输出字符串的总体权重。WFST用于语音识别通常是表示在语音处理中输入语音信号后输出识别结果的各种可能的路径选择及其相应的概率。
WFST之间的整合(Composition)是将两个不同级的WFST进行组合。如词典WFST是音素对字或词的映射,语言WFST是字或词对词序列(如词序列)的映射,两个WFST进行整合后就变成了音素对词序列的映射。图1a,1b,1c给出了一种WFST的整合实现方式,图1a、1b是两个不同级的WFST,图1c是整合后生成的新的WFST。
如图所示,例如图1a模型中的第一步有两条路径,第一路径是0->1,A1到B1的概率为0.2(表示成A1:B1/0.2),第二条路径为0->2,A2:B2/0.3,而图1b模型中的第一步只有一条路径,即0->1,B1:C2/0.4,因此图1a,1b整合后只有一条路径,A1->B1->C2,即图1a路径为0->1,A1:B1/0.2,和图1b的对应路径0->1,B1:C2/0.4结合,得到路径(0,0)->(1,1),A1:C2/0.6,如图1c所示,此处是进行概率值得相加,实际计算中概率的组合包括但不限于求和、乘积及其它线性及非线性变换。整合过程中其它路径的结合也和上述步骤类似,到达(1,1)后代表图1a网络中到达1位置了,在状态1同样有两条路径可走,分别为1->1,A3:B2/0.4,1->3,A1:B2/0.5,图1b的网络此时也是在状态1,只有一条路径,即1->2,B2:C4/0.5,在这个状态上A3:B2可以与B2:C4结合起来,A1:B2也可以与B2:C4结合起来,分别到的两个新的状态为(1,1)->(1,2)A3:C4/0.6和(1,1)->(3,2)A1:C4/1。同样的,图1a中的1->3,A1:B2/0.5可以和图1b中的2->2,B2:C4/0.6结合起来得到路径(1,2)->(3,2)A1:C4/1.1,基于上述方式就可以两个WFST网络结合起来整合为一个新的WFST图1c。
图2给出了本发明实施例的语音识别解码系统图,本发明实施例的语音识别方法和装置应用于如图2中的电子终端、一个或多个服务器(101、102),所述电子终端可以包括但不限于是智能手机、个人计算机、平板电脑、智能手表、智能眼镜、智能音响设备、车载电子终端、服务机器人等。电子终端和服务器101、服务器102可以通过一个或多个网络通信连接,网络可以是有线或无线网络,如因特网、蜂窝网络、卫星网络局域网和/或类似物。
服务器102用于构建语音识别WFST,并将构建的语音识别WFST输出给所述所述服务器101用于语音识别解码器的构建和语音识别解码。
具体构建包括:构建声学加权有限状态转换器WFST,所述声学WFST是从声学特征到发音属性的搜索网络;构建发音WFST,所述发音WFST是从发音属性到音素的搜索网络;构建词典WFST,所述词典WFST是从音素到字或词的搜索网络;构建语言WFST,所述语言WFST是字或词到词序列的搜索网络;构建第二声学WFST,所述第二声学WFST是从声学特征到音素的搜索网络;其中构建第二声学WFST为可选步骤;
上述语音识别WFST的构建还可以可选的包括上下文WFST,其中上下文WFST是从上下文相关音素到音素的搜索网络;当语音识别WFST的构建过程中包括上下文WFST时,所述发音WFST为从发音属性到上下文相关音素的搜索网络。
对多个WFST进行整合生成语音识别WFST,所述语音识别WFST为从声学特征到词序列的搜索网络;其中所述多个WFST包括:所述声学WFST、所述发音WFST、所述词典WFST、所述语言WFST、第二声学WFST(可选)、上下文WFST(可选)。
电子终端,通过语音获取装置,如麦克风,拾取语音声波,生成语音信号,并将所述语音信号发送至服务器101;服务器101用于接收所述语音信号,并从语音信号中提取声学特征序列,将所述提取的声学特征序列输入语音识别WFST进行搜索,获取声学特征至词序列的各路径的概率,比较各路径的概率,概率最大的路径作为识别结果发送回终端。
此处语音识别过程中进行的WFST搜索所获得的路径可以是指活跃路径。其中活跃路径是指WFST中每条路径都有一个概率值,为了在解码时降低计算量,一些概率较小的路径,在解码过程中将会被裁剪,不再扩展;概率较大的路径会继续扩展,这些路径就是活跃路径。
除上述实现方式外,本发明具体实施例中的语音识别WFST构建的执行主体还可以由电子终端设备执行,即电子终端设备执行本发明实施例的上述语音识别WFST的构建方法构建语音识别WFST,并基于语音识别WFST进行语音解码;语音识别WFST构建的执行主体还可以是服务器101,即服务器101和服务器102功能合并,服务器101执行本发明实施例的上述语音识别WFST的构建方法构建语音识别WFST,并基于语音识别WFST对终端发送的语音信号进行语音解码。
以上语音识别WFST的详细构建过程,以及语音识别解码的具体方法会在后续的具体实施例中详细介绍。
除上述构建语音识别WFST进行解码的实现方式外,本发明实施例的语音识别解码方法和装置应用于如图2中的电子终端和服务器还可以是:电子终端接收语音信号,并将所述语音信号发送至服务器101;服务器101可用于接收所述语音信号,并基于声学WFST、所述发音WFST、所述词典WFST、所述语言WFST、第二声学WFST(可选)、上下文WFST(可选)执行图8-11中的语音识别方法。或者可以是电子终端接收语音信号,并基于声学WFST、所述发音WFST、所述词典WFST、所述语言WFST、第二声学WFST(可选)、上下文WFST(可选)执行图8-11中的语音识别方法。所述图8-11中的语音识别方法会在后面的具体实施例描述中详细说明。
即本发明实施例的语音识别解码方案还可以是动态的解码方案,无需整合构建语音识别WFST,终端或者服务器直接基于各个WFST进行解码。
本发明实施例的一种语音识别解码WFST构建流程如图5所示,主要包括:
步骤501:生成声学WFST,声学WFST是从声学特征到发音属性的搜索网络,可以是,如隐马尔可夫模型(HMM)WFST(以H1表示)。
HMM(Hidden Markov Model)是关于时序的概率模型,描述由一个隐藏的马尔科夫链生成不可观测的状态随机序列,再由各个状态生成观测随机序列的过程。HMM的参数中包括所有可能的状态的集合,以及所有可能的观测的集合。HMM由初始概率分布、状态转移概率分布以及观测概率分布确定。初始概率分布和状态转移概率分布决定状态序列,观测概率分布决定观测序列。给定模型参数与观测序列,通过前后向算法计算给定模型下观测到上述观测序列的概率;给定观测序列,通过期望最大化算法估计模型参数,使得在该模型下观测序列概率最大;给定模型和观测序列,通过Viterbi估计最优状态序列。
本发明实施例中声学WFST的构建可以是以发音属性作为状态,以声学特征作为观测,其中声学特征可以表现为各种组合的声学特征序列,采用HMM模型描述由发音属性生成声学特征的过程,通过前后向算法计算HMM模型下发音属性作为状态观测到声学特征的观测概率;给定声学特征,通过期望最大化算法和观测概率估计HMM模型参数,使得在该参数下发音属性作为状态所观测到声学特征概率最大;利用模型参数,通过Viterbi估计一个发音属性,及在该发音属性条件下产生给定观测(声学特征)的概率。
步骤502:生成发音WFST,发音WFST是从发音属性(Articulatory Features)到音素或上下文相关音素的搜索网络(以A表示)。
发音属性信息可以是现有已知的发音方式的分类,如表1所示,也可以是根据发音位置的分类,但不限于此,可以通过神经网络学习获得新的发音属性类别。神经网络包括有多种算法模型,其中包括深度神经网络算法。其中发音WFST可以是发音属性到音素的搜索网络,也可以是发音属性上下文相关音素的搜索网络。当构建发音属性到音素的搜索网络时,可以是深度神经网络以声学特征为输入,以发音属性和音素为双目标输出,后续步骤也是基于发音属性和音素的训练;当构建发音属性到上下文相关音素的搜索网络时,可以是深度神经网络以声学特征为输入,以发音属性和上下文相关音素为双目标输出,后续步骤也是基于发音属性和上下文相关音素的训练,两种发音WFST的构建过程的训练方式相同,只是训练和构建的目标不同。因此下面在描述的过程中将两种训练过程合并进行描述,下面描述中音素/上下文相关音素表示或的关系,在生成发音属性到音素的搜索网络时选择音素相关的训练方案,在生成发音属性到上下文相关音素的搜索网络时选择上下文相关音素相关的训练方案。
表1:英语音素与发音属性对应表示例
发音属性至音素/上下文相关音素的对应可以通过以下步骤获取:
a)深度神经网络多目标训练,获取发音属性分类器,以及语音属于发音属性概率。深度神经网络以声学特征为输入,以发音属性和音素/上下文相关音素为双目标输出,利用前向传播算法计算给定声学特征条件下的音素/上下文相关音素概率及发音属性概率,并利用梯度下降算法训练深度神经网络参数。上述发音属性概率是指声学特征属于各发音属性的概率,并将概率最大的发音属性定义为当前声学特征的发音属性。
b)利用发音属性分类器,将声学特征序列重新对齐到发音级,获取到新标注。如帧数为T的声学特征序列O1,O2…OT,每一帧声学特征通过上述分类器都可以获得概率最大的发音属性,得到长度为T的发音属性序列A1,A2…AT。此发音属性序列即为新标注。
c)利用新标注A1,A2…AT重新对发音属性分类器进行多目标训练,更新上述发音属性分类器。
d)利用更新后的分类器,重新执行上述对齐获得新标注A1’,A2’…AT’。
e)任意一语音帧会被分类到某一发音属性及某一音素/上下文相关音素,例如对声学特征O1,通过上述深度神经网络,得到概率最大的音素及发音属性,记概率最大的音素/上下文相关音素为P/P1-P+P2,概率最大的发音属性为A。那么发音属性A与音素P/上下文相关音素P1-P+P2有一次共现。在大量语音库上统计A与P/P1-P+P2的共现次数,并除以总帧数,得到A与P/P1-P+P2的共现概率。任意音素/上下文相关音素与任意发音属性的共现概率通过同样的方法得到。
f)将A、P/P1-P+P2及其共现概率表示成发音WFST。发音WFST状态转换的输入为发音属性A,输出为音素P或上下文相关音素P1-P+P2及A与P/P1-P+P2的共现概率。
步骤503,生成上下文WFST,上下文WFST是上下文相关音素到音素的映射。上下文相关音素比较常用的模型有三音子(记为音子/左音子/右音子),也可以采用四音子。
以上下文相关音素为例,在声学建模时,为考虑上下文语境对当前发音的影响,通常可以采用上下文相关的上下文相关音素模型作为基本建模单元,并且采用决策树聚类等方式减少模型状态数量,以避免上下文相关音素模型训练时的数据不足的问题。上下文WFST构建从上下文相关音素到音素的映射。上下文WFST从某一个状态出发,接收一个上下文相关音素,输出一个音素及概率,达到目的状态,完成一次转移。上下文WFST可以通过现有技术中的其他方式构建生成。
503为可选步骤,当有503步骤时,步骤502生成发音属性到上下文相关音素的搜索网络,当没有503步骤时,步骤502生成发音属性到音素的搜索网络。
步骤504,生成词典WFST,词典WFST是从音素到字或词的搜索网络(以L表示)。
词典通常以词-音素序列的形式表示。如果一个词有不同发音,则会以多个词-音素序列的形式表示。在生成词典WFST时,可以采用对音素及字(或词)进行编号,并引入消歧符号解决同音字等问题。消歧符号是在词典中的音素序列末尾插入的符号#1,#2,#3等。当音素序列是词典中另一个音素序列的前缀,或者出现在一个以上的单词中时,需要在其后加入这些符号之一,以确保WFST可确定化的。上述过程生成的词典以WFST的形式表示词-音素的映射关系。WFST接收音素序列,输出是词。词典WFST也可以通过现有技术中的其他方式构建生成。
步骤505,生成语言WFST,语言WFST是一个字或词到词序列的搜索网络(以G表示)。
语言模型用于描述字或词到词序列等不同的语法单元的概率分布的模型,用于计算一个词序列出现的概率,或者预测给定历史词语序列下,一个词语出现的概率。N-gram语言模型最常用的的表示形式之一。它利用马尔可夫模型,假设一个词语出现的概率仅与其前面出现的N个词语有关。比如,1-gram语言模型表示词语出现仅与自身有关,2-gram表示词语出现仅与前一个词有关,3-gram表示词语出现仅与前两个词有关,等等。
在构造语言模型时采用最大似然估计来进行概率估计,通过计算N-gram词序列在语料中出现的次数来计算相应的概率。将上述词序列及其概率表示成状态转换。语言WFST也可以通过现有技术中的其他方式构建生成。
前述步骤501、步骤502、步骤503、步骤504、步骤505不分先后;其中步骤503为可选步骤。
当执行步骤503时,发音WFST为发音属性到上下文相关音素的搜索网络,步骤510为:整合声学模型WFST、发音WFST、上下文WFST、词典WFST、语言WFST,确定化、最小化整合后生成语音识别WFST。整合过程为将词典WFST与语言模型WFST进行整合运算,得到的WFST再与上下文WFST整合运算,得到的结果再与发音WFST做整合运算,最后进一步与声学WFST做整合。完成整合运算后,即得到一个从声学特征(状态概率分布)对应到词序列的WFST加权有限状态转换器。
当不执行步骤503时,步骤510为:整合声学模型WFST、发音WFST、词典WFST、语言WFST,确定化、最小化整合后的WFST生成解码器。整合过程为,将词典WFST与语言模型WFST进行整合运算,得到的WFST再与发音WFST做整合运算,进一步与声学WFST做整合。完成整合运算后,即得到一个从声学特征(状态概率分布)对应到词序列的WFST加权有限状态转换器。
图6是对应于本发明实施例的又一种语音识别解码WFST构建方法,与图5所示的实施例的语音识别解码WFST构建方法区别在与增加了以下步骤:
步骤606:生成第二声学WFST网络,第二声学模型WFST是从声学特征到音素或者上下文相关音素的搜索网络(以H2表示)。如隐马尔可夫模型(HMM)WFST。第二声学WFST的生成方法在现有技术中已经存在,因此此处不再做详细的介绍。
同样,在图6所示的语音识别解码WFST构建方法中步骤603是可选步骤。因此对应的,上述第二声学WFST可以是声学特征到音素的搜索网络,也可以是声学特征到上下文相关音素的搜索网络。当构建的过程中不包括步骤603时,步骤606生成的第二声学WFST为声学特征到音素的搜索网络;当构建的过程中包括步骤603时,步骤606生成的第二声学WFST为声学特征到上下文相关音素的搜索网络。
步骤601、602、603、604、605与图5所示的实施例中的步骤501、502、503、504、505一样,不再赘述。步骤601、602、603、604、605、606不分先后。
步骤610:整合发音WFST、声学模型WFST、第二声学模型WFST、上下文WFST(可选)、词典WFST、语言WFST,确定化、最小化整合后的WFST生成解码器。整合过程包括上下文WFST时表示为(H1*A+H2)*C*L*G,整合过程为为,将声学WFST和发音WFST的整合结果和第二声学WFST进行网络合并,生成一个声学特征到上下文相关音素的WFST,将词典WFST与语言模型WFST进行整合,得到的有限状态转换器再与上下文WFST整合,整合后的结果再与网络合并后的WFST做整合,整合后的语音识别解码器WFST以(H1*A+H2)*L*G表示。整合过程不包括上下文WFST时表示为(H1*A+H2)*L*G,整合过程为,将声学WFST和发音WFST的整合结果和第二声学WFST进行网络合并,生成一个声学特征到音素的WFST,将词典WFST与语言模型WFST进行整合,得到的有限状态转换器再与网络合并后的WFST做整合,整合后的语音识别解码器WFST以(H1*A+H2)*L*G表示,其中的每条成功路径都表示一种可能的声学特征到词序列的对应。上述各个WFST进行Composition最后形成了声学特征到词序列的映射。
图7示出了本发明实施例的一种语音识别解码方法。
步骤701:从语音信号帧中提取声学特征信息。声学特征提取的方式有多种,本发明的实施例中并不对其进行特别限定。声学特征提取方式有:例如将信号拾取单元输出的语音信号划分成多个语音信号帧,通过消除噪音、信道失真等处理对各语音信号帧进行增强,再将各语音信号帧从时域转化到频域,并从转换后的语音信号帧内提取合适的声学特征。
步骤702:以声学特征为输入,搜索语音识别WFST网络的路径,获取声学特征至词序列的各路径的概率。
其中所述语音识别WFST可以是通过图5、图6中所提到方法生成。
步骤703:比较各路径的概率,概率最大的路径所对应的词序列作为识别结果输出。
此处包括后续的解码过程中各步骤进行的WFST搜索所获得的路径可以是指活跃路径。其中活跃路径是指WFST中每条路径都有一个概率值,为了在解码时降低计算量,一些概率较小的路径,在解码过程中将会被裁剪,不再扩展;概率较大的路径会继续扩展,这些路径就是活跃路径。
通过上述实施例的语音识别解码方法通过采用考虑到发音属性与音素,发音属性与声学特征相关性而生成的语音识别WFST进行语音识别解码,能够增强对于外界噪声和混响的干扰抵抗能力,提高语音识别系统对环境的鲁棒性。
除了上述基于构建后的语音识别WFST的解码方法外,图8示出了本发明实施例的另一种语音识别解码方法:
步骤801:从语音信号中提取声学特征序列。
声学特征提取方式可以为:例如将信号拾取单元输出的语音信号划分成多个语音信号帧,通过消除噪音、信道失真等处理对各语音信号帧进行增强,再将各语音信号帧从时域转化到频域,并从转换后的语音信号帧内提取合适的声学特征。
步骤802:将语音帧对应的声学特征输入声学WFST,获取声学特征至发音属性的各路径的概率。
步骤803:以声学特征至发音属性的各路径输出的发音属性作为发音WFST网络的输入,获取发音属性至音素的各路径的概率。
步骤804:以发音属性至音素的各路径输出的音素作为词典WFST网络的输入,获取音素至字(或词)的各路径的概率。
步骤805:以音素至字(或词)的各路径输出的字(或词)作为语言WFST网络的输入,获取字(或词)至词序列的各路径的概率。
步骤810:根据各WFST中各路径的概率来获得声学特征序列至词序列的各路径的总概率,将总概率最大的路径所对应的词序列作为对应于所述声学特征序列的识别结果输出。
所述声学特征序列通常是指接收的语音信号帧中从起始帧到最后一帧的语音帧序列所一一对应的声学特征序列。WFST间总路径概率的计算可以有多种方式,包括但不限于求和、乘积及其它线性及非线性变换。
在一个实施例中,上述声学WFST、发音WFST、词典WFST、语言WFST可以是基于图5中相应构建步骤的方式所生成的。
图8中的上述解码步骤可以采用时间同步的维特比光束(Time-synchronousViterbi Beam)搜索算法举例如下:Viterbi-Beam搜索算法是一个宽度优化的帧同步算法,其核心是一嵌套循环。每当往后推移一帧,就针对相应层次的每个节点分别运行Viterbi算法。
下面给出Viterbi Beam搜索算法的基本步骤:
1.初始化搜索路径,在当前路径集合A中添加起始路径,设该路径为搜索网络的起始节点,并且设此刻时间t=0;
2.在t时刻,对于声学模型WFST的路径集合A中的每一条路径,都向后扩展一帧至所有可以达到的状态,执行Viterbi算法。比较扩展路径前驱的得分,并保留最佳得分。再利用发音WFST、词典WFST和语言WFST对路径重新判断得分;
3.利用设置的门限(光束宽度)裁剪掉不可能得分或低于门限分数的路径,保留高于得分高于门限的路径。并将这些路径添加到A中,得到t+1时刻WFST的路径集合;
4.重复步骤2-3,直到所有语音帧计算完毕。回溯集合A中得分最高的路径。
通过上述实施例的语音识别解码方法和装置通过采用考虑到发音属性与声学特征,发音属性与音素相关性而构建的声学WFST和发音WFST进行语音识别解码,能够增强对于外界噪声和混响的干扰抵抗能力,提高语音识别系统对环境的鲁棒性。
图9为本发明实施例的又一种语音识别解码方法流程:
步骤901:从语音信号帧中提取声学特征信息。
通常接收到的待识别的语音信号可以切割为多个语音信息号帧,解码识别的过程是对语音信号进行声学特征提取。
步骤902:将语音帧对应的声学特征输入声学WFST,获取声学特征至发音属性的各路径的概率得分。
步骤903:以学特征至发音属性的各路径输出的发音属性作为发音WFST网络的输入,获取发音属性至上下文相关音素的各路径的概率。
步骤904:以发音属性至上下文相关音素的各路径输出的上下文相关音素作为上下文WFST网络的输入,获取上下文相关音素至音素的各路径的概率。
步骤905:以上下文相关音素至音素的各路径输出的音素作为词典WFST网络的输入,获取音素至字(或词)的各路径的概率。
步骤906:以音素至字(或词)的各路径输出的字(或词)作为解码器中的语言WFST网络的输入,获取字(或词)至词序列的各路径的概率。
步骤910:根据各WFST中各路径的概率来获得起始帧到最后一帧的声学特征序列至词序列的各路径的总概率,将总概率最大的路径所对应的词序列作为对应于所述声学特征序列的识别结果输出。
WFST间总路径概率的计算可以有多种方式,包括但不限于求和、乘积及其它线性及非线性变换。
在一个实施例中,上述声学WFST、发音WFST、上下文WFST、词典WFST、语言WFST可以是基于图5中相应构建步骤的方式所生成的。
通过上述实施例的方法和装置,不仅采用了考虑到发音属性与声学特征,发音属性与音素相关性而构建的声学WFST和发音WFST进行语音识别解码,还能够将语音的发音学知识加入到语音识别解码过程中,在远场等强噪音、强混响环境下,利用发音不受噪音干扰的性质,弥补传统声学模型受到噪声和混响等外界干扰后概率不准确的问题,并且通过上下文WFST的引入,能够提升语音识别过程中音素识别的准确性。
图10给出了本发明实施例的又一种语音解码识别方法流程图,与图8的解码流程图比较,区别在以下步骤:
步骤1002、以声学特征作为声学WFST网络的输入,获取声学特征至发音属性的各路径的概率;以声学特征为输入,以声学特征作为第二声学WFST网络的输入,获取声学特征至音素的各路径的概率;
步骤1004、以发音属性至音素的各路径输出的音素以及第二声学WFST网络输出的声学特征至音素的各路径中的音素作为词典WFST网络的输入,获取音素至字(或词)的各路径的概率;
其他步骤1001、1003、1005、1010和图8中的801、803、805,、810相同,因此不再赘述。
在一个实施例中,上述声学WFST、发音WFST、词典WFST、语言WFST可以是基于图6中相应构建步骤的方式所生成的。
上述方案改进了传统声学建模的方法,加入了不受噪声、混响等外界干扰的发音属性特征,并在传统的解码搜索基础上,提出改进的解码搜索方法,利用语音帧属于发音属性的概率,以及发音属性与音素的相关性,提高语音识别系统对环境的鲁棒性。图11给出了本发明实施例的又一种的语音识别解码方法流程图,与图9的解码流程图比较,区别在以下步骤:
步骤1102、将声学特征作为声学WFST网络的输入,获取声学特征至发音属性的各路径的概率;以声学特征为输入,搜索第二声学WFST网络的路径,获取声学特征至上下文相关音素的各路径的概率;
步骤1103、以声学特征至发音属性的各路径输出的发音属性作为发音WFST网络的输入,获取发音属性至上下文相关音素的各路径的概率;
步骤1104、以发音属性至上下文相关音素的各路径输出的上下文相关音素以及第二声学WFST输出的声学特征至上下文相关音素的各路径中的上下文相关音素作为解码器中的上下文WFST网络的输入,获取上下文相关音素至音素的各路径的概率;
在一个实施例中,上述声学WFST、发音WFST、上下文WFST、词典WFST、语言WFST可以是基于图6中相应构建步骤的方式所生成的。
通过上述实施例的方法和装置,改进了传统声学建模的方法,加入了不受噪声、混响等外界干扰的发音属性特征,并在传统的解码搜索基础上,提出改进的解码搜索方法,利用语音帧属于发音属性的概率,以及发音属性与音素的相关性,提高语音识别系统对环境的鲁棒性,此外还引入了上下文音素模型,结合上下文模型进行音素识别,提升语音识别的准确度。
图3给出了本发明实施例的一种语音识别解码系统结构图;其中包括语音识别WFST构建装置100和语音识别解码装置200,基于上文对图2所示语音识别解码系统的介绍,本发明的语音识别WFST构建装置可以设置于服务器102或服务器101或电子终端,语音识别解码装置可以设置于电子终端设备或服务器101。
图3中的语音识别WFST构建装置100包括:301声学WFST生成单元、302发音WFST生成单元、303上下文WFST生成单元、304词典WFST生成单元、305语言WFST生成单元、306解码器生成单元。
其中,301声学WFST生成单元用于生成声学模型WFST,声学模型WFST是从声学特征到发音属性的搜索网络(以H1表示)。
302发音WFST生成单元用于构建生成发音WFST,发音WFST是从发音属性(Articulatory Features)到音素或上下文相关音素的搜索网络(以A表示)。
303上下文WFST生成单元用于生成上下文(context)WFST(以C表示),303上下文WFST可以是上下文相关音素到音素的映射,其中上下文相关音素可以是三音子(记为音子/左音子/右音子)。303上下文WFST生成单元为语音识别解码器的构建装置中的可选单元。当语音识别WFST的构建装置中包括303上下文WFST生成单元,302发音WFST生成单元所构建的发音WFST是从发音属性到上下文相关音素的搜索网络;当语音识别WFST的构建装置中不包括303上下文WFST生成单元,302发音WFST生成单元所构建的发音WFST是从发音属性到音素的搜索网络。
304词典WFST生成单元用于生成词典(Lexicon)WFST,词典WFST是从音素到字(或词)的搜索网络(以L表示)。
305语言WFST生成单元用于生成语言模型(Language Model)WFST,语言模型WFST是一个字(或词)到词序列的搜索网络(以G表示)。
306语音识别WFST生成单元,用于对声学模型WFST、发音WFST、词典WFST、语言模型WFST进行整合、确定化、最小化等获得最后的语音识别解码器WFST。
如果不引入上下文WFST(C),306语音识别WFST生成单元进行整合的过程,是将304词典WFST与305语言模型WFST进行整合运算,得到的WFST再与302发音WFST做整合运算,进一步与301声学WFST做整合。完成整合运算后,即得到一个从声学特征(状态概率分布)对应到词序列的WFST加权有限状态转换器。整合后的加权有限状态转换器表示为H1*A*L*G,最终得到的语音识别解码器WFST所生成的状态转换网络的每条成功路径都表示一种可能的声学特征到词序列的对应。如果引入上下文WFST(C),整合后的语音识别解码器WFST为H1*A*C*L*G。整合步骤为将304词典WFST与305语言模型WFST进行整合运算,得到的WFST再与303上下文WFST整合运算,得到的结果再与302发音WFST做整合运算,最后进一步与301声学WFST做整合。完成整合运算后,即得到一个从声学特征(状态概率分布)对应到词序列的WFST加权有限状态转换器。
其中各个WFST的具体生成方法和整合方法可以参考图5的描述,此处不再赘述。
语音识别解码装置200包括:307信号拾取单元(如麦克风)和310解码器。
307信号拾取单元(如麦克风)用于采集获得语音声波获得语音信号。
310解码器包括:308信号处理及特征提取单元和309语音识别解码单元。其中308信号处理及特征提取单元用于对信号拾取单元输出的语音信号进行处理提取声学特征,309语音识别解码单元用于基于语音识别WFST对308信号处理及特征提取单元所提取的声学特征进行解码搜索,获得声学特征至词序列的各路径的概率,输出概率最大的路径对应的识别结果(词序列)。所述语音识别WFST是上文中提到的306语音识别WFST生成单元所生成。声学特征提取的方式有多种,本发明的实施例中并不对其进行特别限定。声学特征提取方式有:例如将信号拾取单元输出的语音信号划分成多个语音信号帧,通过消除噪音、信道失真等处理对各语音信号帧进行增强,再将各语音信号帧从时域转化到频域,并从转换后的语音信号帧内提取合适的声学特征。
图4给出了本发明实施例的另一种语音识别解码系统结构图,系统包括语音识别WFST构建装置300和语音识别解码装置400,在图3实施例的基础上,语音识别WFST构建装置300的组成单元中新增410第二声学模型WFST生成单元。
语音识别WFST构建装置300包括410第二声学模型WFST生成单元,401声学WFST生成单元、402发音WFST生成单元、403上下文WFST生成单元、404词典WFST生成单元、405语言WFST生成单元,406解码器生成单元。
其中401声学WFST生成单元、402发音WFST生成单元、403上下文WFST生成单元、404词典WFST生成单元、405语言WFST生成单元与图3中功能相同,不再赘述。
所述410第二声学模型WFST生成单元用于生成第二声学模型WFST,第二声学模型WFST是从声学特征到音素或上下文相关音素的搜索网络(以H2表示)。第二声学WFST可以由隐马尔可夫模型HMM构建。当语音识别WFST的构建装置中包括403上下文WFST生成单元,410第二声学WFST生成单元所构建的第二声学WFST是从声学特征到上下文相关音素的搜索网络;当语音识别WFST的构建装置中不包括403上下文WFST生成单元,410第二声学WFST生成单元所构建的第二声学WFST是从声学特征到音素的搜索网络。
406语音识别WFST生成单元用于对401声学模型WFST、410第二声学模型WFST,402发音WFST、404词典WFST、405语言模型WFST和403上下文WFST进行整合、确定化、最小化等获得最后的语音识别解码器WFST。其中由于403上下文WFST生成单元为可选单元,因此在整合过程中也可以不包括上下文WFST。
如果不引入上下文WFST(C),整合过程包括,将声学WFST和发音WFST的整合结果和第二声学WFST进行网络合并,生成一个声学特征到音素的WFST,将词典WFST与语言模型WFST进行整合,得到的有限状态转换器再与网络合并后的WFST做整合,整合后的语音识别解码器WFST以(H1*A+H2)*L*G表示,其中的每条成功路径都表示一种可能的声学特征到词序列的对应。如果引入上下文WFST(C),整合后的语音识别解码器WFST(以(H1*A+H2)*C*L*G表示)。整合过程包括,将声学WFST和发音WFST的整合结果和第二声学WFST进行网络合并,生成一个声学特征到音素的WFST,将词典WFST与语言模型WFST进行整合,得到的有限状态转换器再与上下文WFST整合,整合后的结果再与网络合并后的WFST做整合,整合后的语音识别解码器WFST以(H1*A+H2)*L*G表示。其中网络合并即是将两个输入输出类型相同的WFST网络进行合并,具体可以是将两个输入输出类型相同的WFST网络中的相同的路径进行合并并进行概率的组合,并将不同路径保留之后生成的输入输出类型不变的新的WFST网络。
其中各个WFST的具体生成方法和整合方法已经在图5的描述中介绍过,此处不再赘述。
图4的语音识别解码装置400与图3中实施例语音识别解码装置200比较,区别在406语音识别WFST生成单元所构建生成并发送给409语音识别解码单元的WFST和图3实施例中不同,407信号拾取单元(如麦克风)、408信号处理及特征提取单元功能和图3实施例中相同。即:409语音识别解码器是由406语音识别WFST生成单元整合生成,其中所述整合方式可以是现有的WFST的整合方法,比如通过确定化和最小化的方式整合而得。
图14是本申请实施例提供的一种语音识别解码装置的结构图。如图所示,语音识别解码装置包括:1401语音信号接收单元,1402声学特征提取单元,1403第一获取单元,1404第二获取单元,1405第三获取单元,1406第四获取单元,1410结果输出单元。
1401语音信号接收单元,用于接收语音信号;
1402声学特征提取单元,用于从所述语音信号接收单元1401接接收语音信号中提取声学特征序列;
1403第一获取单元,用于将声学特征提取单元1402提取的声学特征序列顺序输入声学WFST网络,获取声学特征至发音属性的各路径的概率;
1404第二获取单元,用于将所述第一获取单元1403获取的各路径的发音属性输入发音WFST网络,获取发音属性至音素的各路径的概率;
1405第三获取单元,将第二获取单元1404获取的各路径的音素输入作为词典WFST网络,获取音素至字或词的各路径的概率;
1406第四获取单元将第三获取单元1405获取的各路径的字或词输入语言WFST网络,获取字或词至词序列的各路径的概率;
1410结果输出单元,用于根据各个获取单元获取的各路径的概率来获得声学特征序列至词序列的各路径的总概率,将总概率最大的路径所对应的词序列作为对应于所述声学特征序列的识别结果输出。
图15是本申请实施例提供的又一种语音识别解码装置的结构图。如图所示,语音识别解码装置包括:1501语音信号接收单元,1502声学特征提取单元,1503第一获取单元,1504第二获取单元,1505第三获取单元,1506第四获取单元,1507第五获取单元,1510结果输出单元。
1501语音信号接收单元,用于接收语音信号;
1502声学特征提取单元,用于从所述语音信号接收单元1501接接收语音信号中提取声学特征序列;
1503第一获取单元,用于将声学特征提取单元1502提取的声学特征序列顺序输入声学WFST网络,获取声学特征至发音属性的各路径的概率;
1504第二获取单元,用于将所述第一获取单元1503获取的各路径的发音属性输入发音WFST网络的,获取发音属性至上下文相关音素的各路径的概率;
1505第三获取单元,用于将所述第二获取单元1504获取的各路径的上下文相关音素输入上下文WFST网络,获取上下文相关音素至音素的各路径的概率;
1506第四获取单元,用于将所述第三获取单元1505获取的各路径的音素输入词典WFST网络的,获取音素至字或词的各路径的概率;
1507第五获取单元,用于将所述第四获取单元1504获取的各路径的字或词输入语言WFST网络,获取字或词至词序列的各路径的概率;
1510结果输出单元,用于根据各个获取单元获取的各路径的概率来获得声学特征序列至词序列的各路径的总概率,将总概率最大的路径所对应的词序列作为对应于所述声学特征序列的识别结果输出。
图16是本申请实施例提供的又一种语音识别解码装置的结构图。如图所示,语音识别解码装置包括:1601语音信号接收单元,1602声学特征提取单元,1603第一获取单元,1604第二获取单元,1605第三获取单元,1606第四获取单元,1607第五获取单元,1610结果输出单元。
1601语音信号接收单元,用于接收语音信号;
1602声学特征提取单元,用于从所述语音信号接收单元1601接接收语音信号中提取声学特征序列;
1603第一获取单元,用于将声学特征提取单元1602提取的声学特征序列顺序输入声学WFST网络,获取声学特征至发音属性的各路径的概率;
1604第二获取单元,将声学特征提取单元1602提取的声学特征序列顺序作为第二声学WFST网络输入,获取声学特征序列至音素的各路径的概率;
1605第三获取单元,将第一获取单元1603获取的各路径输出的发音属性输入发音WFST网络,获取发音属性至音素的各路径的概率;
1606第四获取单元,将第二获取单元1604获取的各路径输出的音素和第三获取单元1605获取的各路径输出的音素输入词典WFST网络,获取音素至字或词的各路径的概率;
1607第五获取单元将第四获取单元1606获取的各路径输出的字或词输入语言WFST网络,获取字或词至词序列的各路径的概率;
1610结果输出单元,用于根据各个获取单元获取的各路径的概率来获得声学特征序列至词序列的各路径的总概率,将总概率最大的路径所对应的词序列作为对应于所述声学特征序列的识别结果输出。
图17是本申请实施例提供的又一种语音识别解码装置的结构图。如图所示,语音识别解码装置包括:1701语音信号接收单元,1702声学特征提取单元,1703第一获取单元,1704第二获取单元,1705第三获取单元,1706第四获取单元,1707第五获取单元,1708第六获取单元,1710结果输出单元。
1701语音信号接收单元,用于接收语音信号;
1702声学特征提取单元,用于从所述语音信号接收单元1701接接收语音信号中提取声学特征序列;
1703第一获取单元,用于将声学特征提取单元1702提取的声学特征序列顺序输入声学WFST网络,获取声学特征至发音属性的各路径的概率;
1704第二获取单元,将声学特征提取单元1702提取的声学特征序列顺序作为第二声学WFST网络输入,获取声学特征序列至上下文相关音素的各路径的概率;
1705第三获取单元,将第一获取单元1703获取的各路径输出的发音属性输入发音WFST网络,获取发音属性至上下文相关音素的各路径的概率;
1706第四获取单元,将第二获取单元1704获取的各路径输出的上下文相关音素和第三获取单元1705获取的各路径输出的上下文相关音素输入上下文WFST网络,获取上下文相关音素至音素的各路径的概率;
1707第五获取单元,将第四获取单元1706获取的各路径输出的音素输入词典WFST网络,获取音素至字或词的各路径的概率;
1708第六获取单元将第五获取单元1707获取的各路径输出的字或词输入语言WFST网络,获取字或词至词序列的各路径的概率;
1710结果输出单元,用于根据各个获取单元获取的各路径的概率来获得声学特征序列至词序列的各路径的总概率,将总概率最大的路径所对应的词序列作为对应于所述声学特征序列的识别结果输出。
图12示出了本发明实施例的一种服务器的结构示意图。图12显示的服务器1208仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图12所示,服务器1208是通用计算设备的形式表现。服务器1208的组件可以包括:一个或者多个设备处理器1201,存储器1202,连接不同系统组件(包括存储器1202和设备处理器1201)的总线1204。
总线1204表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。通常来说,可以是工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
服务器1208典型地包括多种计算机系统可读介质。这些介质可以是任何能够被服务器1208访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。存储器1202可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)1211和/或高速缓存存储器1212。服务器1208可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。例如,存储系统1213可以用于读写不可移动的、非易失性磁介质(通常称为“硬盘驱动器”)。尽管图12中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线1204相连。存储器1202可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块1214,这些程序模块1214被配置以执行本发明具体实施例中语音识别解码方法的功能。
程序模块1214可以存储在例如存储器1202中,这样的程序模块1214包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块1214通常执行本发明所描述的实施例中的功能和/或方法。
服务器1208也可以与一个或多个外部设备1206(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该服务器1208交互的设备通信,和/或与使得该服务器1208能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过用户接口1205进行。并且,服务器1208还可以通过通信模块1203与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,通信模块1203通过总线1204与服务器1208的其它模块通信。应当明白,尽管图中未示出,可以结合服务器1208使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
设备处理器1201通过运行存储在存储器1201中的程序,从而执行各种功能应用以及数据处理,例如:
处理器1201可用于调用存储于存储器1202中的程序,例如本申请的一个或多个实施例提供的语音识别WFST的构建方法,如图7-11所示的语音识别解码方法在服务器侧的实现程序,或者,存储器1202可用于存储本申请的一个或多个实施例提供的语音识别解码方法,如图5-6所示的语音识别WFST构建方法在服务器侧的实现程序。并执行程序包含的指令。
以图5所述的语音识别WFST的构建方法的实现程序为例,当处理器1201可用于调用存储于存储器1202中的语音识别WFST的构建方法在服务器侧的实现程序时,执行以下步骤:
1、生成声学WFST,声学WFST是从声学特征到发音属性的搜索网络,如隐马尔可夫模型(HMM)WFST。
2、生成发音WFST,发音WFST是从发音属性(Articulatory Features)到音素或上下文相关音素的搜索网络。
3、生成上下文WFST,上下文WFST是上下文相关音素到音素的映射(可选步骤)。
4、生成词典WFST,词典WFST是从音素到字或词的搜索网络。
5、生成语言WFST,语言WFST是一个字或词到词序列的搜索网络。
6、整合声学模型WFST、发音WFST、上下文WFST(可选)、词典WFST、语言WFST后生成语音识别WFST。
上述步骤的具体实现方法在图5的说明中已经详细介绍过,因此不再赘述。
图12的服务器中的处理器还可以用于执行图6的语音识别WFST构建方法在服务器侧的实现程序。图12的服务器中的处理器还可以用于执行图7-11中的一种或多种的语音识别解码方法在服务器侧的实现程序。
上述方法已经在上文中详细介绍过,因此不再赘述。
本发明实施例中的语音识别解码方法可以用于在电子终端中进行语音识别。图13示出了本发明实施例提供的一种电子终端的结构示意图,其中该电子终端400可以为各种形态的移动终端,包括手机,平板,PDA(Personal Digital Assistant,个人数字助理),车载终端,可穿戴设备,智能终端等。其中图13显示的电子终端1300仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图13所示,该电子终端1300包括:RF电路1301、Wi-Fi模块1302、显示单元1303、输入单元1304、第一存储器1305、第二存储器1306、处理器1307、电源1308、GPS模块1309等硬件模块。
其中,RF电路1301用来收发通信信号,能够与其他网络设备通过无线网络进行数据的交互。通信模块1302可以Wi-Fi模块,用于通过Wi-Fi连接网络进行通信互联。也可以是蓝牙模块,或是其他短距离无线通信模块。
显示单元1303用来显示用户交互界面,用户可以通过显示界面访问移动应用。该显示单元1303可包括显示面板,可选的,可以采用LCD(Liquid Crystal Display,液晶显示器)或OLED(Organic Light-Emitting Diode,有机发光二极管)等形式来配置显示面板。在具体实现中,上述触控面板覆盖该显示面板,形成触摸显示屏,处理器1307根据触摸指令的类型在触摸显示屏上提供相应的视觉输出。具体地,本发明实施例中,该输入单元1304可以包括触控面板,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板上操作),可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板。除了触控面板,输入单元1304还可以包括其他输入设备,包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
其中,第一存储器1305存储该装置预设数量的APP以及界面信息;可以理解的,第二存储器1306可以为电子终端1300的外存,第一存储器1305可以为该智能装置的内存。第一存储器1305可以为NVRAM非易失存储器、DRAM动态随机存储器、SRAM静态随机存储器、Flash闪存等其中之一;该智能装置上运行的操作系统通常安装在第一存储器1305上。第二存储器1306可以为硬盘、光盘、USB盘、软盘或磁带机、云服务器等。可选地,现在有一些第三方的APP也可以安装在第二存储器1306上。本发明的具体实施例中的语音识别解码程序或语音识别WFST构建程序都可以存储于第一存储器1305上,也可以存储于第二存储器1306上。
处理器1307是装置的控制中心,利用各种接口和线路连接整个装置的各个部分,通过运行或执行存储在该第一存储器1305内的软件程序和/或模块,以及调用存储在该第二存储器1306内的数据,执行该装置的各种功能和处理数据。可选的,该处理器1307可包括一个或多个处理单元。
电源1308可以为整个装置供电,包括各种型号的锂电池。
GPS模块1309用于获取用户的位置信息,比如位置坐标。
当第一存储器1305或第二存储器1306中安装的某个程序接收处理器的指令,执行步骤如下:
在本申请的一些实施例中,第一存储器1305或第二存储器1306可用于存储本申请的一个或多个实施例提供的语音识别解码方法,如图7-11所示的语音识别解码方法在终端侧的实现程序,或者第一存储器1305或第二存储器1306可用于存储本申请的一个或多个实施例提供的语音识别WFST的构建方法,如图5-6所示的语音识别WFST构建方法在终端侧的实现程序。关于本申请的一个或多个实施例提供的语音识别解码方法的实现,请参考图5-11的实施例。
处理器1307可用于读取和执行计算机可读指令。具体的,处理器1307可用于调用存储于第一存储器1305或第二存储器1306中的程序,例如本申请的一个或多个实施例提供的语音识别解码方法在电子终端侧的实现程序,或者,本申请的一个或多个实施例提供的语音识别WFST构建方法在终端侧的实现程序并执行程序包含的指令。
以图8语音识别解码方法在电子终端侧的实现程序为例,当处理器1307可用于调用存储于第一存储器1305或第二存储器1306中的网络拥塞方法在电子终端侧的实现程序时,执行以下步骤:
1、从语音信号帧中提取声学特征。
通常接收到的待识别的语音信号可以切割为多个语音信息号帧,解码识别的过程是对语音信号进行声学特征提取。
2、将语音帧对应的声学特征输入声学WFST,获取第一层的声学特征至发音属性的各路径的概率。
3、以第一层的各路径输出的发音属性作为发音WFST网络的输入,获取第二层的发音属性至音素的各路径的概率。
4、以第二层的各路径输出的音素作为词典WFST网络的输入,获取第三层音素至字(或词)的各路径的概率。
5、以第三层各的路径输出的字(或词)作为语言WFST网络的输入,获取第四层字(或词)至词序列的各路径的概率。
6、根据各层中各路径的概率来获得起始帧到最后一帧的声学特征序列至词序列的各路径的总概率,将总概率最大的路径所对应的词序列作为对应于所述声学特征序列的识别结果输出。
图13的设备处理器还可以用于执行图5-6的语音识别WFST的构建方法,图7,9-11的语音识别解码方法在电子终端侧的实现程序。
上述方法已经在上文中详细介绍过,因此不再赘述。
具体当本发明实施例中的方法在终端中实现时,处理器还可以通过芯片的形式来实现。
上述装置通过改进传统语音识别解码器,加入了不受噪声、混响等外界干扰的发音属性特征,并在传统的解码搜索基础上,提出改进的解码搜索方法,利用语音帧属于发音属性的概率,以及发音属性与音素的相关性,提高语音识别系统对环境的鲁棒性。
本领域内的技术人员应明白,本申请实施例可提供为方法、系统、或计算机程序产品。因此,本申请实施例均可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。
显然,本领域的技术人员可以对本申请实施例进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请实施例的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (29)
1.一种语音识别加权有限状态转换器WFST的构建方法,其特征在于,所述方法包括:
构建声学WFST,所述声学WFST是从声学特征到发音属性的搜索网络;
构建发音WFST,所述发音WFST是从发音属性到音素的搜索网络;
构建词典WFST,所述词典WFST是从音素到字或词的搜索网络;
构建语言WFST,所述语言WFST是字或词到词序列的搜索网络;
对多个WFST进行整合生成语音识别WFST,所述语音识别WFST为从声学特征到词序列的搜索网络;其中所述多个WFST包括:所述声学WFST、所述发音WFST、所述词典WFST、所述语言WFST。
2.根据权利要求1所述的方法,其特征在于,构建声学WFST包括:采用HMM隐马尔可夫模型,以发音属性作为状态,以声学特征作为观测,获得发音属性条件下产生给定声学特征的概率;
基于所述概率构建所述声学WFST。
3.根据权利要求1-2任一项所述的方法,其特征在于,其特征在于,构建发音WFST包括:
以声学特征为输入,以音素和发音属性为双目标输出进行神经网络多目标训练,
获得音素与发音属性的共现概率;
基于所述概率构建来构建所述发音WFST。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述方法还包括:
构建第二声学WFST,所述第二声学WFST是从声学特征到音素的搜索网络;
所述对多个WFST进行整合生成语音识别WFST,其中所述多个WFST包括:所述第二声学WFST;
对多个WFST进行整合生成语音识别WFST包括:
将声学WFST和发音WFST进行整合,得到整合结果,所述整合结果为声学特征到音素的搜索网络;
将所述整合结果和第二声学WFST进行网络合并得到一个合并后的声学特征到音素的搜索网络;
将所述合并后声学特征到音素的搜索网络和所述词典WFST及所述语言WFST进行整合生成语音识别WFST。
5.一种语音识别WFST的构建方法,其特征在于,所述方法包括:
构建声学加权有限状态转换器WFST,所述声学WFST是从声学特征到发音属性的搜索网络;
构建发音WFST,所述发音WFST是从发音属性到上下文相关音素的搜索网络;
构建上下文WFST,所述上下文WFST是从上下文相关音素到音素的搜索网络;
构建词典WFST,所述词典WFST是从音素到字或词的搜索网络;
构建语言WFST,所述语言WFST是字或词到词序列的搜索网络;
对多个WFST进行整合生成语音识别WFST,所述语音识别WFST为从声学特征到词序列的搜索网络;其中所述多个WFST包括:所述声学WFST、所述发音WFST、所述上下文WFST,所述词典WFST、所述语言WFST。
6.根据权利要求5所述的方法,其特征在于,构建所述声学WFST包括:采用HMM隐马尔可夫模型,以发音属性作为状态,以声学特征作为观测,获得发音属性条件下产生给定声学特征的概率;
基于所述概率构建所述声学WFST。
7.根据权利要求5-6任一项所述的方法,其特征在于,其特征在于,构建所述发音WFST包括:
以声学特征为输入,以音素和发音属性为双目标输出进行神经网络多目标训练,
获得音素与发音属性的共现概率;
基于所述概率来构建所述发音WFST。
8.根据权利要求5-7任一项所述的方法,其特征在于,所述方法还包括:
构建第二声学WFST,所述第二声学WFST是从声学特征到上下文相关音素的搜索网络;
所述对多个WFST进行整合生成语音识别WFST,其中所述多个WFST包括:所述第二声学WFST;
对多个WFST进行整合生成语音识别WFST包括:
将所述声学WFST和所述发音WFST进行整合,得到整合结果,所述整合结果为声学特征到音素的搜索网络;
将所述整合结果和第二声学WFST进行网络合并得到一个合并后的声学特征到音素的搜索网络;
将所述合并后声学特征到音素的搜索网络和所述上下文WFST、所述词典WFST及所述语言WFST进行整合生成语音识别WFST。
9.一种语音识别解码方法,其特征在于,所述方法包括:
接收语音信号;
从所述语音信号中提取声学特征;
将所述声学特征输入权利要求1-8任一方法中所构建的语音识别WFST,获取声学特征至词序列的各路径的概率;
比较各路径的概率,概率最大的路径所对应的词序列作为识别结果输出。
10.一种语音识别解码方法,其特征在于,所述方法包括:
接收语音信号;
从所述语音信号中提取声学特征序列;
将所述声学特征序列顺序输入声学WFST网络,获取声学特征至发音属性的各路径的概率;
以所述声学特征至发音属性的各路径输出的发音属性作为发音WFST网络的输入,获取发音属性至音素的各路径的概率;
以所述发音属性至音素的各路径输出的音素作为词典WFST网络的输入,获取音素至字或词的各路径的概率;
以音素至字或词的各路径输出的字或词作为语言WFST网络的输入,获取字或词至词序列的各路径的概率;
根据各WFST网络中各路径的概率来获得声学特征序列至词序列的各路径的总概率,将总概率最大的路径所对应的词序列作为对应于所述声学特征序列的识别结果输出。
11.根据权利要求10所述的方法,其特征在于,所述方法还包括:
所述总概率的计算方法为求和或乘积运算。
12.一种语音识别解码方法,其特征在于,所述方法包括:
接收语音信号;
从所述语音信号中提取声学特征序列;
将所述声学特征序列顺序输入声学WFST网络,获取声学特征至发音属性的各路径的概率;
以所述声学特征序列作为第二声学WFST网络输入,获取声学特征至音素的各路径的概率;
以声学特征至发音属性的各路径输出的发音属性作为发音WFST网络的输入,获取发音属性至音素的各路径的概率;
以发音属性至音素的各路径输出的音素和第二声学WFST网络输出的音素作为所述词典WFST网络的输入,获取音素至字或词的各路径的概率;
以音素至字或词的各路径输出的字或词作为语言WFST网络的输入,获取字或词至词序列的各路径的概率;
根据各WFST网络中各路径的概率来获得声学特征序列至词序列的各路径的总概率,将总概率最大的路径所对应的词序列作为对应于所述声学特征序列的识别结果输出。
13.根据权利要求12所述的方法,其特征在于,所述方法还包括:
所述总概率的计算方法为求和或乘积运算。
14.一种语音识别WFST的构建装置,其特征在于,所述装置包括:处理器和存储器;
所述处理器用于与所述存储器耦合;并读取存储器中的指令,并根据所述指令执行权利要求1-8中任一项所述的方法。
15.一种语音识别解码装置,其特征在于,所述装置包括:处理器和存储器;
所述处理器用于与所述存储器耦合;并读取存储器中的指令,并根据所述指令执行权利要求9-13中任一项所述的方法。
16.一种语音识别解码系统,其特征在于,所述系统包括:终端和服务器;
所述终端用于接收语音信号,并将所述语音信号发送至服务器;
所述服务器用于接收所述语音信号,并从语音信号中提取声学特征信序列,
将所述声学特征序列输入权利要求14的语音识别WFST构建装置所构建的语音识别WFST,获取声学特征序列至词序列的各路径的概率;比较各路径的概率,概率最大的路径所对应的词序列作为识别结果输出。
17.一种语音识别解码系统,其特征在于,所述系统包括:终端和服务器;
所述终端用于接收语音信号,并将所述语音信号发送至服务器;
所述服务器用于接收所述语音信号,并从语音信号中提取声学特征序列,
将声学特征序列顺序输入声学WFST网络,获取声学特征至发音属性的各路径的概率;
以声学特征至发音属性的各路径输出的发音属性作为发音WFST网络的输入,获取发音属性至音素的各路径的概率;
以发音属性至音素的各路径输出的音素作为词典WFST网络的输入,获取音素至字或词的各路径的概率;
以音素至字或词的的各路径输出的字或词作为语言WFST网络的输入,获取字或词至词序列的各路径的概率;
根据各WFST网络中各路径的概率来获得声学特征序列至词序列的各路径的总概率,将总概率最大的路径所对应的词序列作为对应于所述声学特征序列的识别结果输出。
18.根据权利要求17所述的系统,其特征在于,所述服务器根据各WFST网络中各路径的概率来获得声学特征序列至词序列的各路径的总概率,其中所述总概率的计算方法为求和或乘积运算。
19.一种语音识别解码系统,其特征在于,所述系统包括:终端和服务器;
所述终端用于接收语音信号,并将所述语音信号发送至服务器;
所述服务器用于接收所述语音信号,并从语音信号中提取声学特征序列,
将声学特征序列顺序输入声学WFST网络,获取声学特征至发音属性的各路径的概率;
以声学特征作为第二声学WFST网络输入,获取声学特征至音素的各路径的概率;
以声学特征至发音属性的各路径输出的发音属性作为发音WFST网络的输入,获取发音属性至音素的各路径的概率;
以发音属性至音素的各路径输出的音素和第二声学WFST网络输出的音素作为所述词典WFST的输入,获取音素至字或词的各路径的概率;
以音素至字或词的各路径输出的字或词作为语言WFST网络的输入,获取字或词至词序列的各路径的概率;
根据各WFST网络中各路径的概率来获得声学特征序列至词序列的各路径的总概率,将总概率最大的路径所对应的词序列作为对应于所述声学特征序列的识别结果输出。
20.根据权利要求19所述的系统,其特征在于,所述服务器根据各WFST网络中各路径的概率来获得声学特征序列至词序列的各路径的总概率,其中所述总概率的计算方法为求和或乘积运算。
21.一种语音识别WFST的构建装置,其特征在于,所述装置包括:
声学WFST生成单元,用于生成声学WFST,所述声学WFST是从声学特征到发音属性的搜索网络;
发音WFST生成单元,用于生成发音WFST,所述发音WFST是从发音属性到音素的搜索网络;
词典WFST生成单元,用于生成词典WFST,所述词典WFST是从音素到字或词的搜索网络;
语言WFST生成单元,用于生成语言WFST,所述语言WFST是字或词到词序列的搜索网络;
解码器生成单元,用于对多个WFST进行整合,生成语音识别WFST;所述整合生成的语音识别WFST为从声学特征到词序列的搜索网络;其中所述多个WFST包括:
所述声学WFST生成单元生成的声学WFST,所述发音WFST生成单元生成的发音
WFST,所述词典WFST生成单元生成的词典WFST,所述语言WFST生成单元生成的语言WFST。
22.根据权利要求21所述的装置,其特征在于,所述装置还包括:
第二声学WFST生成单元,用于生成第二声学WFST,所述第二声学WFST是从声学特征到音素的搜索网络;
所述对多个WFST进行整合生成语音识别WFST,其中所述多个WFST包括:第二声学WFST;
将声学WFST和发音WFST进行整合,得到整合结果,所述整合结果为声学特征到音素的搜索网络;
将所述整合结果和第二声学WFST进行网络合并得到一个合并后的声学特征到音素的搜索网络;
将所述合并后声学特征到音素的搜索网络和所述词典WFST及所述语言WFST进行整合生成语音识别WFST。
23.一种语音识别WFST的构建装置,其特征在于,所述装置包括:
声学WFST生成单元,用于生成声学WFST,所述声学WFST是从声学特征到发音属性的搜索网络;
发音WFST生成单元,用于生成发音WFST,所述发音WFST是从发音属性到上下文相关音素的搜索网络;
上下文WFST生成单元,用于生成上下文WFST,所述上下文WFST是从上下文相关音素到音素的搜索网络;
词典WFST生成单元,用于生成词典WFST,所述词典WFST是从音素到字或词的搜索网络;
语言WFST生成单元,用于生成语言WFST,所述语言WFST是字或词到词序列的搜索网络;
语音识别WFST生成单元,用于对多个WFST进行整合,生成语音识别WFST;其中所述多个WFST包括:所述声学WFST生成单元生成的声学WFST,所述发音WFST生成单元生成的发音WFST,所述词典WFST生成单元生成的词典WFST,所述语言WFST生成单元生成的语言WFST;
所述整合生成的语音识别WFST为从声学特征到词序列的搜索网络。
24.根据权利要求23所述的装置,其特征在于,所述装置还包括:
第二声学WFST生成单元,用于生成第二声学WFST,所述第二声学WFST是从声学特征到上下文相关音素的搜索网络;
所述对多个WFST进行整合生成语音识别WFST,其中所述多个WFST包括:第二声学WFST;
将声学WFST和发音WFST进行整合,得到整合结果,所述整合结果为声学特征到音素的搜索网络;
将所述整合结果和第二声学WFST进行网络合并得到一个合并后的声学特征到上下文相关音素的搜索网络;
将所述合并后声学特征到音素的搜索网络和所述上下文WFST、所述词典WFST及所述语言WFST进行整合生成语音识别WFST。
25.一种语音识别解码装置,其特征在于,所述装置包括:
语音信号接收单元,用于接收语音信号;
声学特征提取单元,用于从所述语音信号接收单元接接收语音信号中提取声学特征序列;
语音识别解码单元,用于将声学特征序列输入权利要求14、21-24任一项所述的语音识别WFST构建装置所构建的语音识别WFST,获取声学特征序列至词序列的各路径的概率;比较各路径的概率,概率最大的路径作为识别结果输出。
26.一种语音识别解码装置,其特征在于,所述装置包括:
语音信号接收单元,用于接收语音信号;
声学特征提取单元,用于从所述语音信号接收单元接接收语音信号中提取声学特征序列;
第一获取单元,用于将声学特征提取单元提取的声学特征序列顺序输入声学WFST网络,获取声学特征至发音属性的各路径的概率;
第二获取单元将所述第一获取单元获取的各路径的发音属性输入发音WFST网络,获取发音属性至音素的各路径的概率;
第三获取单元,将第二获取单元获取的各路径的音素输入作为词典WFST网络,获取音素至字或词的各路径的概率;
第四获取单元将第三获取单元获取的各路径的字或词输入语言WFST网络,获取字或词至词序列的各路径的概率;
结果输出单元,用于根据各个获取单元获取的各路径的概率来获得声学特征序列至词序列的各路径的总概率,将总概率最大的路径所对应的词序列作为对应于所述声学特征序列的识别结果输出。
27.根据权利要求26所述的装置,其特征在于,所述结果输出单元根据各个获取单元获取的各路径的概率来获得声学特征序列至词序列的各路径的总概率,其中所述总概率的计算方法为求和或乘积运算。
28.一种语音识别解码装置,其特征在于,所述装置包括:
语音信号接收单元,用于接收语音信号;
声学特征提取单元,用于从所述语音信号接收单元接接收语音信号中提取声学特征序列;
第一获取单元,用于将声学特征提取单元提取的声学特征序列顺序输入声学WFST网络,获取声学特征至发音属性的各路径的概率;
第二获取单元,将声学特征序列顺序作为第二声学WFST网络输入,获取声学特征序列至音素的各路径的概率;
第三获取单元,将第一获取单元获取的各路径输出的发音属性输入发音WFST网络,获取发音属性至音素的各路径的概率;
第四获取单元,将第二获取单元获取的各路径输出的音素和第三获取单元获取的各路径输出的音素输入词典WFST网络,获取音素至字或词的各路径的概率;
第五获取单元将第四获取单元获取的各路径输出的字或词输入语言WFST网络,获取字或词至词序列的各路径的概率;
结果输出单元,用于根据各个获取单元获取的各路径的概率来获得声学特征序列至词序列的各路径的总概率,将总概率最大的路径所对应的词序列作为对应于所述声学特征序列的识别结果输出。
29.根据权利要求28所述的装置,其特征在于,所述结果输出单元根据各个获取单元获取的各路径的概率来获得声学特征序列至词序列的各路径的总概率,其中所述总概率的计算方法为求和或乘积运算。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810671596.6A CN109036391B (zh) | 2018-06-26 | 2018-06-26 | 语音识别方法、装置及系统 |
PCT/CN2019/092935 WO2020001458A1 (zh) | 2018-06-26 | 2019-06-26 | 语音识别方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810671596.6A CN109036391B (zh) | 2018-06-26 | 2018-06-26 | 语音识别方法、装置及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109036391A true CN109036391A (zh) | 2018-12-18 |
CN109036391B CN109036391B (zh) | 2021-02-05 |
Family
ID=64611065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810671596.6A Active CN109036391B (zh) | 2018-06-26 | 2018-06-26 | 语音识别方法、装置及系统 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN109036391B (zh) |
WO (1) | WO2020001458A1 (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110310644A (zh) * | 2019-06-28 | 2019-10-08 | 广州云蝶科技有限公司 | 基于语音识别的智慧班牌交互方法 |
WO2020001458A1 (zh) * | 2018-06-26 | 2020-01-02 | 华为技术有限公司 | 语音识别方法、装置及系统 |
CN110992932A (zh) * | 2019-12-18 | 2020-04-10 | 睿住科技有限公司 | 一种自学习的语音控制方法、系统及存储介质 |
CN111048085A (zh) * | 2019-12-18 | 2020-04-21 | 佛山市顺德区美家智能科技管理服务有限公司 | 基于zigbee无线技术的离线式语音控制方法、系统及存储介质 |
CN111243599A (zh) * | 2020-01-13 | 2020-06-05 | 网易有道信息技术(北京)有限公司 | 语音识别模型构建方法、装置、介质及电子设备 |
WO2021051514A1 (zh) * | 2019-09-20 | 2021-03-25 | 平安科技(深圳)有限公司 | 一种语音识别方法、装置、计算机设备及非易失性存储介质 |
CN112820281A (zh) * | 2020-12-31 | 2021-05-18 | 北京声智科技有限公司 | 一种语音识别方法、装置及设备 |
CN113096642A (zh) * | 2021-03-31 | 2021-07-09 | 南京地平线机器人技术有限公司 | 语音识别方法和装置、计算机可读存储介质、电子设备 |
CN113362812A (zh) * | 2021-06-30 | 2021-09-07 | 北京搜狗科技发展有限公司 | 一种语音识别方法、装置和电子设备 |
CN113362813A (zh) * | 2021-06-30 | 2021-09-07 | 北京搜狗科技发展有限公司 | 一种语音识别方法、装置和电子设备 |
WO2021183052A1 (en) * | 2020-03-12 | 2021-09-16 | National University Of Singapore | System and method for extracting data |
CN113421587A (zh) * | 2021-06-02 | 2021-09-21 | 网易有道信息技术(北京)有限公司 | 语音评测的方法、装置、计算设备及存储介质 |
CN113436619A (zh) * | 2021-05-28 | 2021-09-24 | 中国科学院声学研究所 | 一种语音识别解码的方法及装置 |
WO2022152029A1 (zh) * | 2021-01-12 | 2022-07-21 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置、计算机设备及存储介质 |
CN115798277A (zh) * | 2021-09-10 | 2023-03-14 | 广州视源电子科技股份有限公司 | 一种在线课堂交互的方法及在线课堂系统 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112116908B (zh) * | 2020-11-18 | 2021-02-23 | 北京声智科技有限公司 | 唤醒音频确定方法、装置、设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101510222A (zh) * | 2009-02-20 | 2009-08-19 | 北京大学 | 一种多层索引语音文档检索方法及其系统 |
JP2012113087A (ja) * | 2010-11-24 | 2012-06-14 | Nippon Telegr & Teleph Corp <Ntt> | 音声認識用wfst作成装置とそれを用いた音声認識装置と、それらの方法とプログラムと記憶媒体 |
US20130138441A1 (en) * | 2011-11-28 | 2013-05-30 | Electronics And Telecommunications Research Institute | Method and system for generating search network for voice recognition |
CN104217717A (zh) * | 2013-05-29 | 2014-12-17 | 腾讯科技(深圳)有限公司 | 构建语言模型的方法及装置 |
CN107195296A (zh) * | 2016-03-15 | 2017-09-22 | 阿里巴巴集团控股有限公司 | 一种语音识别方法、装置、终端及系统 |
CN107705787A (zh) * | 2017-09-25 | 2018-02-16 | 北京捷通华声科技股份有限公司 | 一种语音识别方法及装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101650886B (zh) * | 2008-12-26 | 2011-05-18 | 中国科学院声学研究所 | 一种自动检测语言学习者朗读错误的方法 |
JP5249967B2 (ja) * | 2010-02-09 | 2013-07-31 | 日本電信電話株式会社 | 音声認識装置、重みベクトル学習装置、音声認識方法、重みベクトル学習方法、プログラム |
CN102968989B (zh) * | 2012-12-10 | 2014-08-13 | 中国科学院自动化研究所 | 一种用于语音识别的Ngram模型改进方法 |
CN103871403B (zh) * | 2012-12-13 | 2017-04-12 | 北京百度网讯科技有限公司 | 建立语音识别模型的方法、语音识别方法及对应装置 |
CN106683677B (zh) * | 2015-11-06 | 2021-11-12 | 阿里巴巴集团控股有限公司 | 语音识别方法及装置 |
CN109036391B (zh) * | 2018-06-26 | 2021-02-05 | 华为技术有限公司 | 语音识别方法、装置及系统 |
-
2018
- 2018-06-26 CN CN201810671596.6A patent/CN109036391B/zh active Active
-
2019
- 2019-06-26 WO PCT/CN2019/092935 patent/WO2020001458A1/zh active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101510222A (zh) * | 2009-02-20 | 2009-08-19 | 北京大学 | 一种多层索引语音文档检索方法及其系统 |
JP2012113087A (ja) * | 2010-11-24 | 2012-06-14 | Nippon Telegr & Teleph Corp <Ntt> | 音声認識用wfst作成装置とそれを用いた音声認識装置と、それらの方法とプログラムと記憶媒体 |
US20130138441A1 (en) * | 2011-11-28 | 2013-05-30 | Electronics And Telecommunications Research Institute | Method and system for generating search network for voice recognition |
CN104217717A (zh) * | 2013-05-29 | 2014-12-17 | 腾讯科技(深圳)有限公司 | 构建语言模型的方法及装置 |
CN107195296A (zh) * | 2016-03-15 | 2017-09-22 | 阿里巴巴集团控股有限公司 | 一种语音识别方法、装置、终端及系统 |
CN107705787A (zh) * | 2017-09-25 | 2018-02-16 | 北京捷通华声科技股份有限公司 | 一种语音识别方法及装置 |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020001458A1 (zh) * | 2018-06-26 | 2020-01-02 | 华为技术有限公司 | 语音识别方法、装置及系统 |
CN110310644A (zh) * | 2019-06-28 | 2019-10-08 | 广州云蝶科技有限公司 | 基于语音识别的智慧班牌交互方法 |
WO2021051514A1 (zh) * | 2019-09-20 | 2021-03-25 | 平安科技(深圳)有限公司 | 一种语音识别方法、装置、计算机设备及非易失性存储介质 |
CN110992932A (zh) * | 2019-12-18 | 2020-04-10 | 睿住科技有限公司 | 一种自学习的语音控制方法、系统及存储介质 |
CN111048085A (zh) * | 2019-12-18 | 2020-04-21 | 佛山市顺德区美家智能科技管理服务有限公司 | 基于zigbee无线技术的离线式语音控制方法、系统及存储介质 |
CN110992932B (zh) * | 2019-12-18 | 2022-07-26 | 广东睿住智能科技有限公司 | 一种自学习的语音控制方法、系统及存储介质 |
CN111243599A (zh) * | 2020-01-13 | 2020-06-05 | 网易有道信息技术(北京)有限公司 | 语音识别模型构建方法、装置、介质及电子设备 |
CN111243599B (zh) * | 2020-01-13 | 2022-12-20 | 网易有道信息技术(北京)有限公司 | 语音识别模型构建方法、装置、介质及电子设备 |
WO2021183052A1 (en) * | 2020-03-12 | 2021-09-16 | National University Of Singapore | System and method for extracting data |
CN112820281A (zh) * | 2020-12-31 | 2021-05-18 | 北京声智科技有限公司 | 一种语音识别方法、装置及设备 |
CN112820281B (zh) * | 2020-12-31 | 2022-09-23 | 北京声智科技有限公司 | 一种语音识别方法、装置及设备 |
WO2022152029A1 (zh) * | 2021-01-12 | 2022-07-21 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置、计算机设备及存储介质 |
CN113096642A (zh) * | 2021-03-31 | 2021-07-09 | 南京地平线机器人技术有限公司 | 语音识别方法和装置、计算机可读存储介质、电子设备 |
CN113436619B (zh) * | 2021-05-28 | 2022-08-26 | 中国科学院声学研究所 | 一种语音识别解码的方法及装置 |
CN113436619A (zh) * | 2021-05-28 | 2021-09-24 | 中国科学院声学研究所 | 一种语音识别解码的方法及装置 |
CN113421587A (zh) * | 2021-06-02 | 2021-09-21 | 网易有道信息技术(北京)有限公司 | 语音评测的方法、装置、计算设备及存储介质 |
CN113421587B (zh) * | 2021-06-02 | 2023-10-13 | 网易有道信息技术(北京)有限公司 | 语音评测的方法、装置、计算设备及存储介质 |
CN113362813A (zh) * | 2021-06-30 | 2021-09-07 | 北京搜狗科技发展有限公司 | 一种语音识别方法、装置和电子设备 |
CN113362812A (zh) * | 2021-06-30 | 2021-09-07 | 北京搜狗科技发展有限公司 | 一种语音识别方法、装置和电子设备 |
CN113362812B (zh) * | 2021-06-30 | 2024-02-13 | 北京搜狗科技发展有限公司 | 一种语音识别方法、装置和电子设备 |
CN113362813B (zh) * | 2021-06-30 | 2024-05-28 | 北京搜狗科技发展有限公司 | 一种语音识别方法、装置和电子设备 |
CN115798277A (zh) * | 2021-09-10 | 2023-03-14 | 广州视源电子科技股份有限公司 | 一种在线课堂交互的方法及在线课堂系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109036391B (zh) | 2021-02-05 |
WO2020001458A1 (zh) | 2020-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109036391A (zh) | 语音识别方法、装置及系统 | |
CN110491382B (zh) | 基于人工智能的语音识别方法、装置及语音交互设备 | |
CN108170749B (zh) | 基于人工智能的对话方法、装置及计算机可读介质 | |
CN110473523A (zh) | 一种语音识别方法、装置、存储介质及终端 | |
CN110706692B (zh) | 儿童语音识别模型的训练方法及系统 | |
CN109977207A (zh) | 对话生成方法、对话生成装置、电子设备及存储介质 | |
CN109887484A (zh) | 一种基于对偶学习的语音识别与语音合成方法及装置 | |
CN109065032A (zh) | 一种基于深度卷积神经网络的外部语料库语音识别方法 | |
KR20170022445A (ko) | 통합 모델 기반의 음성 인식 장치 및 방법 | |
CN108846063A (zh) | 确定问题答案的方法、装置、设备和计算机可读介质 | |
CN110517664A (zh) | 多方言识别方法、装置、设备及可读存储介质 | |
WO2021103712A1 (zh) | 一种基于神经网络的语音关键词检测方法、装置及系统 | |
CN102063900A (zh) | 克服混淆发音的语音识别方法及系统 | |
WO2021051514A1 (zh) | 一种语音识别方法、装置、计算机设备及非易失性存储介质 | |
CN112397056B (zh) | 语音评测方法及计算机存储介质 | |
CN110930980A (zh) | 一种中英文混合语音的声学识别模型、方法及系统 | |
CN101515456A (zh) | 语音识别接口装置及其语音识别方法 | |
CN114596844A (zh) | 声学模型的训练方法、语音识别方法及相关设备 | |
CN111161724B (zh) | 中文视听结合语音识别方法、系统、设备及介质 | |
CN113342948A (zh) | 一种智能问答方法及装置 | |
CN110597958B (zh) | 文本分类模型训练和使用方法及装置 | |
CN102970618A (zh) | 基于音节识别的视频点播方法 | |
CN111508497B (zh) | 语音识别方法、装置、电子设备及存储介质 | |
CN110503956A (zh) | 语音识别方法、装置、介质及电子设备 | |
CN106971721A (zh) | 一种基于嵌入式移动设备的地方口音语音识别系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |