CN111243599B - 语音识别模型构建方法、装置、介质及电子设备 - Google Patents
语音识别模型构建方法、装置、介质及电子设备 Download PDFInfo
- Publication number
- CN111243599B CN111243599B CN202010032715.0A CN202010032715A CN111243599B CN 111243599 B CN111243599 B CN 111243599B CN 202010032715 A CN202010032715 A CN 202010032715A CN 111243599 B CN111243599 B CN 111243599B
- Authority
- CN
- China
- Prior art keywords
- network
- word
- speech recognition
- model
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010276 construction Methods 0.000 title claims description 55
- 238000000034 method Methods 0.000 claims abstract description 88
- 238000004364 calculation method Methods 0.000 claims abstract description 8
- 230000008569 process Effects 0.000 claims description 46
- 238000004422 calculation algorithm Methods 0.000 claims description 40
- 238000012545 processing Methods 0.000 claims description 19
- 238000005457 optimization Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 19
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000013507 mapping Methods 0.000 description 4
- 238000007493 shaping process Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013518 transcription Methods 0.000 description 3
- 230000035897 transcription Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 210000000867 larynx Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000001584 soft palate Anatomy 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0631—Creating reference templates; Clustering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0631—Creating reference templates; Clustering
- G10L2015/0633—Creating reference templates; Clustering using lexical or orthographic knowledge sources
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Machine Translation (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明的实施例提供了一种语音识别模型构建方法、装置、介质及电子设备,涉及语音识别技术领域。该方法包括:根据词典模型网络L和语言模型网络G构建第一网络LG;确定第一网络LG中包含词级别状态序列的目标输出边,并构建目标输出边对应的目标路径;其中,目标路径包括词级别状态序列对应的字级别状态序列;通过目标路径替换第一网络LG中的目标输出边,以根据替换处理后的第一网络LG以及预训练的第二网络构建语音识别模型。本发明实施例的技术方案不仅能够保证语音识别模型更好地量化、更方便压缩,以减少存储占用,降低系统计算的复杂度,而且能够保证语音识别模型的识别效率以及识别准确率。
Description
技术领域
本发明的实施例涉及语音识别技术领域,更具体地,本发明的实施例涉及语音识别模型构建方法、语音识别模型构建装置、计算机可读存储介质以及电子设备。
背景技术
本部分旨在为权利要求书中陈述的本发明的实施例提供背景或上下文。此处的描述不因为包括在本部分中就承认是现有技术。
随着互联网技术的发展,语音识别已经成为人们生活以及相关智能服务中不可缺少的一部分。语音识别技术也被称为自动语音识别(Automatic Speech Recognition,ASR),该技术能够将人类的语音中的词汇内容转换为计算机可读的输入,例如按键、二进制编码或者字符序列。与说话人识别及说话人确认不同,后者尝试识别或确认发出语音的说话人而非其中所包含的词汇内容。
目前的相关技术方案中,要么通过基于字级别的语音识别模型进行语音识别,要么通过基于词级别的语音识别模型进行语音识别。
发明内容
但是,基于词级别的语音识别模型,即使用词语作为基本输出单位的语音识别模型,会导致对应的输出词表较大,使语音识别模型不容易被压缩;基于字级别的语音识别模型,即使用字作为基本输出单位的语音识别模型,但是会导致语音识别得到的文本会丧失多音字消歧,静音建模等词级别天生附带的信息,因此在识别准确率上会比词级别的语音识别模型差,导致语音识别的效果较差。
因此在现有技术中,难以达到令人满意的语音识别模型。
为此,非常需要一种改进的语音识别模型构建方法,以使得构建的语音识别模型更加容易被量化,更方便被压缩,以减少存储占用,降低系统计算的复杂度,同时也保证语音识别模型的识别准确率以及识别效率。
在本上下文中,本发明的实施例期望提供一种语音识别模型构建方法、语音识别模型构建装置、计算机可读存储介质以及电子设备。
在本发明实施例的第一方面中,提供了一种语音识别模型构建方法,包括:根据预构建的词典模型网络L和预构建的语言模型网络G构建第一网络LG;其中,所述词典模型网络包含多个输出边;确定所述第一网络LG中包含词级别状态序列的目标输出边,并构建所述目标输出边对应的目标路径;其中,所述目标路径包括所述词级别状态序列对应的字级别状态序列;通过所述目标路径替换所述第一网络LG中的所述目标输出边,以根据替换处理后的所述第一网络LG以及预训练的第二网络构建语音识别模型。
在本发明的一些实施例中,基于前述方案,根据预构建的词典模型网络L和预构建的语言模型网络G构建第一网络LG,包括:获取预构建的词典模型网络L和预构建的语言模型网络G;通过组合构图算法将所述词典模型网络L以及所述语言模型网络G进行组合,构建第一网络LG。
在本发明的一些实施例中,基于前述方案,在构建第一网络LG之后,所述方法还包括:对所述第一网络LG进行优化处理以得到优化后的所述第一网络LG;其中,所述优化处理包括确定化操作处理、最小化操作处理、空转移处理和权重推移处理中的一种或者多种。
在本发明的一些实施例中,基于前述方案,所述第二网络包括预训练的声学模型网络H和预训练的发音模型网络C,所述根据替换处理后的所述第一网络LG以及预训练的第二网络构建语音识别模型,包括:通过所述组合构图算法将优化后的所述第一网络LG与所述发音模型网络C进行组合生成第三网络CLG,并对所述第三网络CLG进行优化处理得到优化后的所述第三网络CLG;通过所述组合构图算法将优化后的所述第三网络CLG与所述声学模型网络H进行组合生成第四网络HCLG,并对所述第四网络HCLG进行优化处理以根据优化后的所述第四网络HCLG构建语音识别模型。
在本发明的一些实施例中,基于前述方案,确定所述第一网络LG中包含词级别状态序列的目标输出边,并构建所述目标输出边对应的目标路径,包括:检测包含词级别状态序列的所述目标输出边对应的起始状态以及终止状态;根据所述起始状态以及所述终止状态构建所述目标输出边对应的目标路径。
在本发明的一些实施例中,基于前述方案,根据所述起始状态以及所述终止状态构建所述词级别状态序列对应的目标路径,包括:通过空字符对所述目标输出边进行拆解转换,以生成包含字级别状态序列的目标路径;其中所述目标路径起始于所述目标输出边对应的所述起始状态,终止于所述目标输出边对应的所述终止状态。
在本发明的一些实施例中,基于前述方案,通过空字符对所述目标输出边进行拆解转换,包括:通过所述空字符转写所述目标输出边中所述词级别状态序列对应的字符以将所述词级别状态序列拆解转换为字级别状态序列。
在本发明实施例的第二方面中,提供了一种语音识别方法,包括:获取待识别的语音数据,并提取所述语音数据对应的声学特征;将所述声学特征输入到本发明实施例的第一方面中所构建的语音识别模型,以获取将所述声学特征转换为字级别状态序列的各输出路径对应的概率数据;获取所述概率数据最大的目标输出路径中字级别状态序列对应的词语数据;将得到的多个所述词语数据按照输出顺序进行组合以生成所述语音数据对应的文本数据。
在本发明的一些实施例中,基于前述方案,将所述声学特征输入到本发明实施例的第一方面中所构建的语音识别模型,以获取将所述声学特征转换为字级别状态序列的各输出路径对应的概率数据,包括:将所述声学特征输入到所述语音识别模型中的声学模型网络H,以获取将所述声学特征转换为发音属性的各输出路径对应的第一概率;将所述声学特征转换为发音属性的各输出路径输出的发音属性作为发音模型网络C的输入,以获取将所述发音属性转换为音素的各输出路径对应的第二概率;将所述发音属性转换为音素的各输出路径输出的音素作为第一网络LG的输入,以获取将所述音素转换为字级别状态序列的各输出路径的第三概率;将通过所述第一概率、所述第二概率以及所述第三概率计算得到的总概率作为将所述声学特征转换为字状态序列的各输出路径对应的概率数据。
在本发明实施例的第三方面中,提供了一种语音识别模型构建装置,包括:第一网络构建模块,用于根据预构建的词典模型网络L和预构建的语言模型网络G构建第一网络LG;其中,所述词典模型网络包含多个输出边;目标路径构建模块,用于确定所述第一网络LG中包含词级别状态序列的目标输出边,并构建所述目标输出边对应的目标路径;其中,所述目标路径包括所述词级别状态序列对应的字级别状态序列;语音识别模型构建模块,用于通过所述目标路径替换所述第一网络LG中的所述目标输出边,以根据替换处理后的所述第一网络LG以及预训练的第二网络构建语音识别模型。
在本发明的一些实施例中,基于前述方案,所述第一网络构建模块被配置为:获取预构建的词典模型网络L和预构建的语言模型网络G;通过组合构图算法将所述词典模型网络L以及所述语言模型网络G进行组合,构建第一网络LG。
在本发明的一些实施例中,基于前述方案,所述语音识别模型构建装置还包括第一网络LG优化单元,所述第一网络LG优化单元被配置为:对所述第一网络LG进行优化处理以得到优化后的所述第一网络LG;其中,所述优化处理包括确定化操作处理、最小化操作处理、空转移处理和权重推移处理中的一种或者多种。
在本发明的一些实施例中,基于前述方案,所述语音识别模型构建模块被配置为:通过所述组合构图算法将优化后的所述第一网络LG与所述发音模型网络C进行组合生成第三网络CLG,并对所述第三网络CLG进行优化处理得到优化后的所述第三网络CLG;通过所述组合构图算法将优化后的所述第三网络CLG与所述声学模型网络H进行组合生成第四网络HCLG,并对所述第四网络HCLG进行优化处理以根据优化后的所述第四网络HCLG构建语音识别模型。
在本发明的一些实施例中,基于前述方案,所述目标路径构建模块还包括:状态检测单元,用于检测包含词级别状态序列的所述目标输出边对应的起始状态以及终止状态;目标路径构建单元,用于根据所述起始状态以及所述终止状态构建所述目标输出边对应的目标路径。
在本发明的一些实施例中,基于前述方案,所述目标路径构建单元还被配置为:通过空字符对所述目标输出边进行拆解转换,以生成包含字级别状态序列的目标路径;其中所述目标路径起始于所述目标输出边对应的所述起始状态,终止于所述目标输出边对应的所述终止状态。
在本发明的一些实施例中,基于前述方案,所述目标路径构建单元还被配置为:通过所述空字符转写所述目标输出边中所述词级别状态序列对应的字符以将所述词级别状态序列拆解转换为字级别状态序列。
在本发明实施例的第四方面中,提供了一种语音识别装置,包括:声学特征提取模块,用于获取待识别的语音数据,并提取所述语音数据对应的声学特征;概率数据获取模块,用于将所述声学特征输入到本发明实施例的第一方面中所构建的语音识别模型,以获取将所述声学特征转换为字级别状态序列的各输出路径对应的概率数据;词语数据确定模块,用于获取所述概率数据最大的目标输出路径中字级别状态序列对应的词语数据;文本数据生成模块,用于将得到的多个所述词语数据按照输出顺序进行组合以生成所述语音数据对应的文本数据。
在本发明实施例的第五方面中,提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上述第一方面所述的语音识别模型构建方法或者实现如上述第二方面所述的语音识别方法。
在本发明实施例的第六方面中,提供了一种电子设备,包括:处理器;以及存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时实现如上述第一方面所述的语音识别模型构建方法或者实现如上述第二方面所述的语音识别方法。
根据本发明实施例的技术方案,一方面,构建第一网络LG中包含词级别状态序列的目标输出边对应的目标路径(字级别状态序列),并根据字级别状态序列的目标路径替换该输出边,能够有效缩小语音识别模型的输出空间,不仅使语音识别模型更方便被量化,更方便被压缩,而且可以有效减少模型的存储占用,降低系统计算的复杂度;另一方面,仅替换第一网络LG中词级别状态序列的目标输出边,对语音识别模型其他网络不进行调整,使最终语音识别模型的输出的最小单位仍是词级别,保证语音识别结果的识别效率以及识别准确性。
附图说明
通过参考附图阅读下文的详细描述,本发明示例性实施例的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本发明的若干实施例,其中:
图1示意性示出了根据本发明的一些实施例的示例性应用场景的系统架构的示意框图;
图2示意性地示出了根据本发明的一些实施例的语音识别模型构建方法的流程示意图;
图3示意性地示出了根据本发明的一些实施例的根据第一网络以及第二网络构建语音识别模型的流程示意图;
图4示意性地示出了根据本发明的一些实施例的根据目标输出边构建对应目标路径的流程示意图;
图5示意性地示出了根据本发明的另一些实施例的语音识别方法的流程示意图;
图6示意性地示出了根据本发明的一些实施例的根据语音识别模型进行语音识别的流程示意图;
图7示意性地示出了根据本发明的一些实施例的词典模型网络L的结构示意图;
图8示意性地示出了根据本发明的一些实施例的通过目标路径替换目标输出边的示意图;
图9示意性地示出了根据本发明的一些实施例的通过四个模型构建语音识别模型的流程示意图;
图10示意性地示出了根据本发明的一些实施例的语音识别模型构建装置的示意框图;
图11示意性地示出了根据本发明的一些实施例的语音识别装置的示意框图;
图12示意性地示出了根据本发明的示例实施例的存储介质的示意图;以及
图13示意性地示出了根据发明的示例实施例的电子设备的方框图。
在附图中,相同或对应的标号表示相同或对应的部分。
具体实施方式
下面将参考若干示例性实施例来描述本发明的原理和精神。应当理解,给出这些实施例仅仅是为了使本领域技术人员能够更好地理解进而实现本发明,而并非以任何方式限制本发明的范围。相反,提供这些实施例是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
本领域技术人员知道,本发明的实施例可以实现为一种系统、装置、设备、方法或计算机程序产品。因此,本公开可以具体实现为以下形式,即:完全的硬件、完全的软件(包括固件、驻留软件、微代码等),或者硬件和软件结合的形式。
根据本发明的实施例,提出了一种语音识别模型构建方法、语音识别模型构建装置、介质和电子设备。
在本文中,需要理解的是,所涉及的术语,比如加权有限状态转写器(WeightedFinite State Transducer,WFST)是一个被广泛用于语音识别(ASR)的技术,加权有限状态机可以由若干状态和边组成。此外,附图中的任何元素数量均用于示例而非限制,以及任何命名都仅用于区分,而不具有任何限制含义。
下面参考本发明的若干代表性实施例,详细阐释本发明的原理和精神。
发明概述
词级别的语音识别系统主要是指系统输出基本单元为词的系统,字级别的语音识别系统则主要是指基本输出单元为字的系统。例如对于语音数据“进行语音识别”,将该语句作为三个基本单元“进行”,“语音”,“识别”的组合即为词级别,将该语句作为六个基本单元“进”“行”“语”“音”“识”“别”即为字级别。从组成句子的能力方面来说,两者都能很好地完成任务。
一种技术方案中,单纯的词级别的语音识别系统在进行语音识别时,使用词作为基本单元,一次转写一个词,这种方法被广泛使用,而且可以得到效果较好的识别结果,特别对于汉语,韩语,日语等ASR系统。但是,发明人发现,使用词级别的系统会导致输出词表很大,通常汉语的常用字在一万个以内,使用词作为基本输出单元会将输出词表扩充到数十万之多,比起词级别,字级别的模型的输出可以更加容易的用16位的整形常量来表示,这样可以让模型更方便地被量化,同时也更方便地被压缩。
另一种技术方案中,单纯的字级别的语音识别系统,在训练语音识别系统的时候,不使用分词算法,而是直接以字为基本单元建模,这样输出的单元就会是字。但是,发明人发现,使用字级别的语音识别系统识别得到的文本会丧失多音字消歧,静音建模等词级别的语音识别系统对应的优势,所以字级别的语音识别系统一般在识别准确率上会比词级别的语音识别系统差。
基于上述内容,本发明的基本思想在于,根据预构建的词典模型网络L和预构建的语言模型网络G构建第一网络LG;确定构建好的第一网络LG中包含词级别状态序列的目标输出边,并构建目标输出边对应的目标路径;该目标路径包括词级别状态序列对应的字级别状态序列,然后通过目标路径替换第一网络LG中的目标输出边,以根据替换处理后的第一网络LG以及预训练的第二网络构建语音识别模型,从而能够保证语音识别模型更好地量化、更方便压缩,以减少存储占用,降低系统计算的复杂度,同时也能够保证语音识别模型的识别效率以及识别准确率。
在介绍了本发明的基本原理之后,下面具体介绍本发明的各种非限制性实施例。
应用场景总览
首先参考图1,图1示出了可以应用本公开实施例的一种语音识别模型构建方法及装置的示例性应用场景的系统架构的示意框图。
如图1所示,系统架构100可以包括终端设备101、102、103中的一个或多个,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。终端设备101、102、103可以是具有显示屏的各种电子设备,包括但不限于台式计算机、便携式计算机、智能手机和平板电脑等等。应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。
本公开实施例所提供的语音识别模型构建方法(或者语音识别方法)一般由服务器105执行,相应地,语音识别模型构建装置(或者语音识别装置)一般设置于服务器105中。但本领域技术人员容易理解的是,本公开实施例所提供的语音识别模型构建方法(或者语音识别方法)也可以由终端设备101、102、103执行,相应的,语音识别模型构建装置(或者语音识别装置)也可以设置于终端设备101、102、103中,本示例性实施例中对此不做特殊限定。举例而言,在一种示例性实施例中,可以是工作人员通过终端设备101、102、103将预构建的词典模型网络L、预构建的语言模型网络G以及预训练的第二网络上传至服务器105,服务器通过本公开实施例所提供的语音识别模型构建方法将预构建的词典模型网络L、预构建的语言模型网络G以及预训练的第二网络进行组合构建生成语音识别模型,并将构建好的语音识别模型传输给终端设备101、102、103等以使终端设备101、102、103根据语音识别模型以及语音识别方法(语音识别装置)对待识别的语音数据进行识别以根据识别结果生成文本数据。
应该理解的是,图1所示的应用场景仅是本发明的实施例可以在其中得以实现的一个示例。本发明实施例的适用范围不受到该应用场景任何方面的限制。
示例性方法
下面结合图1的应用场景,参考图2来描述根据本发明示例性实施例的语音识别模型构建方法。需要注意的是,上述应用场景仅是为了便于理解本发明的精神和原理而示出,本发明的实施例在此方面不受任何限制。相反,本发明的实施例可以应用于适用的任何场景。
本公开首先提供了一种语音识别模型构建方法,该方法执行主体可以是终端设备,也可以是服务器,本公开对此不做特殊限定,本示例实施例中以服务器执行该方法为例进行说明。
参照图2所示,在步骤S210中,根据预构建的词典模型网络L和预构建的语言模型网络G构建第一网络LG;其中,词典模型网络包含多个输出边。
在示例实施例中,词典模型网络L可以是指基于加权有限状态转写器WFST的语音识别模型中的Lexicon WFST,词典模型网络L具体的作用是建立了从音素到具体的文本(词语)的对应关系,举例而言,对于音素(jinxing),通过词典模型网络L可以得到具体的文本“进行”。其中,音素(Phone)可以是指根据语音的自然属性划分出来的最小语音单位,依据音节里的发音动作来分析,一个动作构成一个音素,例如,对于汉语音节(ā)只有一个音素,爱(ài)有两个音素,代(dài)有三个音素,当然,此处仅是举例说明,并不应对本示例实施例造成任何特殊限定。具体的,词典模型网络L可以是专家根据先验知识预先构建的,也可以是根据现有的词典库预先构建的,也可以是对文本数据库进行分词得到的数据预先构建的,本示例实施例对此不做特殊限定。词典模型网络可以包含多个输出边(Arc),每个输出边可以包含一个音素到具体的文本(词语)的对应关系。
语言模型网络G可以是指基于加权有限状态转写器WFST的语音识别模型中的Grammar WFST,语言模型网络G具体的作用是建立了不同文本(词语)能够组合成为通顺文本的可能性,举例而言,对于词语“语音”、“识别”、“进行”,输入到语言模型网络G只有一种表达形式被认为是合理的(可能性最高的),即输出为“进行语音识别”,或者是这句话若干次的循环状态:“进行语音识别进行语音识别······”,当然,此处仅是举例说明,本示例实施例不以此为限。具体的,语言模型网络G可以是根据相关统计学模型预先构建的,也可以是专家根据先验知识预先构建的,本示例实施例对此不做特殊限定。
在步骤S220中,确定第一网络LG中包含词级别状态序列的目标输出边,并构建目标输出边对应的目标路径;其中,目标路径包括词级别状态序列对应的字级别状态序列。
在示例实施例中,在将词典模型网络L和语言模型网络G组合生成第一网络LG后,第一网络LG中可以包含词典模型网络L中所有的输出边,当然,这些输出边中可能均是包含词语的输出边,也有可能包含有不能构成词语的字(例如“的”“地”“得”等不能直接构成词语的字)的输出边,因此遍历第一网络LG中所有的输出边,确定包含词级别状态序列的目标输出边。其中,词级别状态序列可以是指词语数据在第一网络LG中的表现状态,例如,假设词语可以是“进行”,输出边上的词级别状态序列可以是“j(输入状态,即音素):进行(输出状态,即文本)”,当然,此处仅是示意性举例说明,本示例实施例不以此为限。
目标输出边可以是指第一网络LG的多个输出边中包含词级别状态序列的输出边。目标路径可以是指将目标输出边中词级别状态序列撰写成字级别状态序列对应的状态路径,例如对于词级别状态序列“j:进行”的目标输出边,对应的目标路径可以是包含两个输出边的状态路径“j:进,<eps>:行”,其中<eps>可以表示空字符,此时词级别状态序列对应的字级别状态序列为“j:进”以及“<eps>:行”当然,此处仅是示意性举例说明,本示例实施例不以此为限。
在步骤S230中,通过目标路径替换第一网络LG中的目标输出边,以根据替换处理后的第一网络LG以及预训练的第二网络构建语音识别模型。
在示例实施例中,根据构建好的目标路径替换第一网络LG中的包含词级别状态序列的目标输出边,以实现将第一网络LG中的词级别状态序列转换为字级别状态序列。获取预训练的第二网络,其中,第二网络可以包括预训练的声学模型网络H和预训练的发音模型网络C,并根据替换处理后的第一网络LG以及预训练的第二网络构建语音识别模型。
根据图2示例实施例的技术方案,一方面,构建第一网络LG中包含词级别状态序列的目标输出边对应的目标路径(字级别状态序列),并根据字级别状态序列的目标路径替换该输出边,能够有效缩小语音识别模型的输出空间,不仅使其更方便被量化,更方便被压缩,而且可以有效减少模型的存储占用,降低系统计算的复杂度;另一方面,仅替换第一网络LG中词级别状态序列的目标输出边,对语音识别模型其他网络不进行调整,使最终语音识别模型的输出的最小单位仍是词级别,保证语音识别结果的识别效率以及识别准确性。
在示例实施例中,可以通过以下步骤构建第一网络LG:
获取预构建的词典模型网络L和预构建的语言模型网络G;
通过组合构图算法将词典模型网络L以及语言模型网络G进行组合,构建第一网络LG。
其中,组合构图算法(Composition)可以是指将两个不同级的WFST进行连接组合的算法,例如,语音识别中发音词典的WFST即词典模型网络L(L.fst)是音素对词的映射,语言模型的WFST即语言模型网络G(G.fst)是词对受语法约束的词的映射,将L.fst和G.fst进行Compostion算法就可以得到音素对受语法约束的词的映射。总的来说,语音识别模型对应的解码器实质就是HCLG四个不同级的WFST依次进行Composition算法最后形成HMM的状态对受语法约束的词的映射。
具体的,在构建好第一网络LG之后,需要对第一网络LG进行优化,以去除构建好第一网络LG中的冗余状态路径或者空转移状态等,保证第一网络LG处理数据的效率以及准确性。对第一网络LG进行优化处理以得到优化后的第一网络LG;其中,优化处理可以是确定化操作处理(Determinization),也可以是最小化操作处理(Minimization),还可以是空转移处理(Epsilon removal)和权重推移处理(Weight pushing),当然,优化处理还可以是其他的优化处理算法,或者这些算法的组合(具体根据组合的WFST的不同进行选择),本示例实施例对此不做特殊限定。
图3示意性地示出了根据本发明的一些实施例的根据第一网络以及第二网络构建语音识别模型的流程示意图。
参考图3所示,步骤S310,通过组合构图算法将优化后的第一网络LG与发音模型网络C进行组合生成第三网络CLG,并对第三网络CLG进行优化处理得到优化后的第三网络CLG。
在本示例实施例中,发音模型网络C可以是指基于加权有限状态转写器WFST的语音识别模型中的Context WFST,发音模型网络C具体的作用是建立了从发音属性到音素(或者上下文相关的音素)的对应关系。其中,发音属性(Articulatory Features)可以是指现有的语言的发音类型,例如发音属性可以是发音方式(可以包括元音、鼻音、擦音、塞音等),也可以是发音位置(可以包括前舌音、齿音、喉音、唇音、舌位低音、舌位中音、卷舌音、软腭音等),当然,还可以是其他发音类型(可以包括前音、后音、浊音、送气音等),本示例实施例对此不作特殊限定。当构建发音属性到音素的发音模型网络C时,可以是深度神经网络以声学特征为输入,以发音属性和音素为双目标输出,后续步骤也是基于发音属性和音素的训练,本示例实施例对此不做特殊限定。
同样地,在通过组合构图算法将优化后的第一网络LG与发音模型网络C进行组合生成第三网络CLG之后,对第三网络CLG进行优化处理,优化处理可以是确定化操作处理(Determinization),也可以是最小化操作处理(Minimization),还可以是空转移处理(Epsilon removal)或者权重推移处理(Weight pushing),当然,优化处理还可以是其他的优化处理算法,或者也可以是这些算法的组合(具体根据组合后的WFST的不同进行选择),本示例实施例对此不做特殊限定。
步骤S320,通过组合构图算法将优化后的第三网络CLG与声学模型网络H进行组合生成第四网络HCLG,并对第四网络HCLG进行优化处理以根据优化后的第四网络HCLG构建语音识别模型。
在本示例实施例中,声学模型网络H可以是指基于加权有限状态转写器WFST的语音识别模型中的HMM(隐马尔可夫模型,Hidden Markov Model)WFST。HMM是关于时序的概率模型,描述由一个隐藏的马尔科夫链生成不可观测的状态随机序列,再由各个状态生成观测随机序列的过程。HMM的参数中包括所有可能的状态的集合,以及所有可能的观测的集合。HMM由初始概率分布、状态转移概率分布以及观测概率分布确定。初始概率分布和状态转移概率分布决定状态序列,观测概率分布决定观测序列。给定模型参数与观测序列,通过前向-后向算法计算给定模型下观测到上述观测序列的概率;给定观测序列,通过期望最大化算法估计模型参数,使得在该模型下观测序列概率最大;给定模型和观测序列,通过Viterbi算法(维特比算法,是一种机器学习中应用非常广泛的动态规划算法,主要用于隐马尔可夫模型、条件随机场的预测以及seq2seq模型等的概率计算)估计最优状态序列。
具体的,声学模型网络H的构建可以是以发音属性作为状态,以声学特征作为观测,其中声学特征可以表现为各种组合的声学特征序列,采用HMM模型描述由发音属性生成声学特征的过程,通过前向-后向算法计算预确定的HMM模型下发音属性作为状态观测到声学特征的观测概率;给定声学特征,通过期望最大化算法和观测概率估计HMM模型参数,使得在该参数下发音属性作为状态所观测到声学特征概率最大;利用模型参数,通过Viterbi算法估计一个发音属性,及在该发音属性条件下产生给定观测(声学特征)的概率。
图4示意性地示出了根据本发明的一些实施例的根据目标输出边构建对应目标路径的流程示意图。
参考图4所示,步骤S410,检测包含词级别状态序列的目标输出边对应的起始状态以及终止状态。
在本示例实施例中,起始状态可以是指目标输出边包含的词级别状态序列对应的输入状态中起始的字符,例如,假设目标输出边对应的词级别状态序列为“j:进行”,则目标输出边对应的起始状态为“j”,当然,本示例实施例不以此为限。终止状态可以是指目标输出边包含的词级别状态序列对应的输出状态中结尾的字符,例如,假设目标输出边对应的词级别状态序列为“j:进行”,则目标输出边对应的终止状态为“行”,当然,本示例实施例不以此为限。
步骤S420,根据起始状态以及终止状态构建目标输出边对应的目标路径。
在本示例实施例中,根据目标输出边的起始状态确定目标路径对应的起始状态,根据目标输出边的终止状态确定目标路径对应的终止状态,最后根据目标路径对应的起始状态以及目标路径对应的终止状态构建目标输出边对应的目标路径,即目标路径起始于目标输出边对应的起始状态,终止于目标输出边对应的终止状态。举例而言,包含词级别状态序列“j:进行”的输出边的起始状态是“j”,终止状态是“行”,构建的目标路径为“j:进,<eps>:行”,对应的起始状态也是“j”,终止状态也是“行”。
具体的,通过空字符对目标输出边进行拆解转换,以生成包含字级别状态序列的目标路径。空字符可以是指<eps>(epsilon),通过空字符对目标输出边进行拆解转换可以是指在检测到词级别状态序列中词语字符时,将词语字符拆解为单个的字,并通过空字符代替作为单个的字对应的输入状态,从而实现词级别状态序列转写为字级别状态序列。
通过将第一网络LG中包含词级别状态序列的输出边替换为包含与该词级别状态序列对应字级别状态序列的目标路径,可以使语音识别模型能够通过16位的整形常量表示(16位整形常量通过2个字节(一个汉字为2个字节)存放一个整数,数值范围为0–65535;而32位的整形常量通过4个字节存放一个整数,数值范围为0-4294967295),以便于语音识别模型更加方便被压缩,节省占用的存储空间。
进一步的,通过空字符转写目标输出边中词级别状态序列对应的字符以将词级别状态序列拆解转换为字级别状态序列。举例而言,目标输出边中包含词级别状态序列为“j:进行”,检测到词语字符“进行”,将其拆解为单个的字符“进”、“行”,由于“进”已经有对应的输入状态“j”,构建成目标路径中的一个字级别状态序列的输出边“j:进”,而拆解得到的“行”没有输入状态,因此将空字符作为其对应的输入状态,构建成目标路径中的另一个字级别状态序列的输出边“<eps>:行”,通过这两个字级别状态序列的输出边构成目标路径“j:进,<eps>:行”,该目标路径对应的起始状态与终止状态与目标输出边一致,因此可以直接通过目标路径对目标输出边进行替换而不会影响第一网络LG中的其他状态和输出边。
在本公开的另一个示例实施例中,还提供了一种语音识别模型构建方法,该方法执行主体可以是终端设备,也可以是服务器,本公开对此不做特殊限定,本示例实施例中以服务器执行该方法为例进行说明。
图5示意性地示出了根据本发明的另一些实施例的语音识别方法的流程示意图。
步骤S510,获取待识别的语音数据,并提取语音数据对应的声学特征。
在本示例实施例中,待识别的语音数据可以是指通过各种途径获取的、需要转换为文本数据的音频数据,例如,待识别的语音数据可以是指通过终端设备的麦克风采集的音频,也可以是相关视频数据中包含语言的音频数据,当然还可以是智能机器人通过采集单元收集的音频数据,本示例实施例对此不作特殊限定。
声学特征可以是指将语音数据通过预设方式进行处理得到的特征数据,具体的,将语音数据进行线性变换得到语音数据对应的梅尔频率倒谱(Mel-Frequency Cepstrum,MFCC),然后通过梅尔频率倒谱确定语音数据对应的声学特征PDF-ID(即HMM WFST的输入)。其中,在声音处理领域中,梅尔频率倒谱MFCC是基于声音频率的非线性梅尔刻度(melscale)的对数能量频谱的线性变换。
步骤S520,将声学特征输入到语音识别模型构建方法中所构建的语音识别模型,以获取将声学特征转换为字级别状态序列的各输出路径对应的概率数据。
在本示例实施例中,语音识别模型可以是指本示例实施例的语音识别模型构建方法中所构建的语音识别模型,即根据优化后的第四网络HCLG构建的语音识别模型。将提取的语音数据对应的声学特征输入到该语音识别模型中,声学特征依次通过H-C-L-G,找到能够将该声学特征转换为字级别状态序列的多个输出路径,每个输出路径都有将声学特征转换为字级别状态序列的概率数据(权重),概率数据(权重)越大,则可以表示该输出路径对应的字级别状态序列与输入的声学特征更加匹配(准确),相反,概率数据(权重)越小,则可以表示该输出路径对应的字级别状态序列与输入的声学特征越不匹配(准确)。
步骤S530,获取概率数据最大的目标输出路径中字级别状态序列对应的词语数据。
在本示例实施例中,词语数据可以是指语音识别模型构建方法中被拆解转写为字级别状态序列的词级别状态序列中包含的词语字符,例如,假设概率数据最大的目标输出路径中字级别状态序列为“j:进,<eps>:行”,则其对应的词级别状态序列为“j:进行”,对应的词语数据是“进行”,当然,此处仅是示意性举例说明,本示例实施例不以此为限。
步骤S540,将得到的多个所述词语数据按照输出顺序进行组合以生成语音数据对应的文本数据。
在本示例实施例中,文本数据可以是指将语音数据输入到语音识别模型中输出的文本,例如,假设语音数据对应的音素为“jinxingyuyinshibie”,输出的词语数据为“进行”“语音”“识别”,将这些词语数据按照输出顺序进行组合得到文本数据“进行语音识别”,当然,此处仅是示意性举例说明,本示例实施不以此为限。
图6示意性地示出了根据本发明的一些实施例的根据语音识别模型进行语音识别的流程示意图。
参考图6所示,步骤S610,将声学特征输入到语音识别模型中的声学模型网络H,以获取将声学特征转换为发音属性的各输出路径对应的第一概率。
在本示例实施例中,语音识别模型是一个以第四网络HCLG为基础的系统,在将声学特征输入到语音识别模型,声学特征可以依次经过H-C-L-G以得到输出的文本数据。
具体的,第一概率可以是指将声学特征转换为发音属性的多个输出路径对应的多个概率,首先将声学特征输入到语音识别模型中的声学模型网络H,声学特征可以在声学模型网络H对应多个输出路径,获取将声学特征转换为发音属性的多个输出路径对应的第一概率。
步骤S620,将声学特征转换为发音属性的各输出路径输出的发音属性作为发音模型网络C的输入,以获取将发音属性转换为音素的各输出路径对应的第二概率。
在本示例实施例中,第二概率可以是指将发音属性转换为音素的多个输出路径对应的多个概率,将声学特征转换为发音属性的各输出路径输出的发音属性作为发音模型网络C的输入,并获取将发音属性转换为音素的各输出路径对应的第二概率。
步骤S630,将发音属性转换为音素的各输出路径输出的音素作为第一网络LG的输入,以获取将音素转换为字级别状态序列的各输出路径的第三概率。
在本示例实施例中,第三概率可以是指将音素转换为字级别状态序列的多个输出路径对应的多个概率,将发音属性转换为音素的各输出路径输出的音素作为第一网络LG的输入,并获取将音素转换为字级别状态序列的各输出路径的第三概率。
步骤S640,将通过第一概率、第二概率以及第三概率计算得到的总概率作为将声学特征转换为字状态序列的各输出路径对应的概率数据。
在本示例实施例中,对得到的第一概率、第二概率以及第三概率,依据各输出路径之间的连接对应关系进行累加求和,得到将声学特征转换为字状态序列的各输出路径对应的概率数据。
图7示意性地示出了根据本发明的一些实施例的词典模型网络L的结构示意图。
参考图7所示,该网络结构可以是指Lexicon WFST对应的网络即词典模型网络L,通过该词典模型网络L,可以通过输出路径701将音素(在这里可以为拼音)转写成对应的词。以词级别状态序列“y:语音”的标记代表目标输出边702的输入状态为“y”,输出状态为“语音”。由于输出路径701的音素序列“y:语音,u:<eps>,y:<eps>,in:<eps>”较长,因此输出路径701输出的词一般位于其中的一个边上(即目标输出边702),图7中词都位于整个音素序列的第一条输出边上。其中,<eps>代表空的输入(输出),即空字符。
图8示意性地示出了根据本发明的一些实施例的通过目标路径替换目标输出边的示意图。
参考图8所示,输出路径801是优化后的第一网络LG中的一条路径,对应的输出词在输出路径801中包含词级别状态序列“j:进行”的目标输出边802上。
本示例实施例中的语音识别模型构建方法发生在构造词级别的WFST的过程中,在通过Composition算法将L和G进行组合之后,并且在对LG优化之前,本示例实施例中的语音识别模型构建方法检查得到的LG中的所有输出边,对于每一条会转写出词的WFST的输出边即包含词级别状态序列的目标输出边802(Arc),检查目标输出边802的起始状态(IntialState)和终止状态(Final State),构造出一条起始于之前的起始状态“j”,结束于之前的终止状态“行”的目标路径803。目标路径803上的输出边804以及输出边805,依序将空字符转写这个词级别状态序列对应词语字符中的一个字符,即拆解成字级别状态序列“j:进”以及“<eps>:行”,然后通过输出边804以及输出边805构建的目标路径804,替换之前的目标输出边802得到新的输出路径806。
在图8中,第一网络LG只有目标输出边802会转写出词,则对目标输出边802进行变换,变换的结果为目标路径803。接着对于处理完成的第一网络LG,依序进行原来的优化操作,再进行接下来的WFST的合成。
图9示意性地示出了根据本发明的一些实施例的通过四个模型构建语音识别模型的流程示意图。
参考图9所示,步骤S910,获取预构建的词典模型网络L和预构建的语言模型网络G;
步骤S920,通过组合构图算法将词典模型网络L和语言模型网络G进行组合,构建第一网络LG;
步骤S930,遍历第一网络LG中所有输出边,确定包含词级别状态序列的目标输出边,然后构建目标输出边对应的目标路径,并通过该目标路径替换第一网络LG中的目标输出边以将第一网络LG中的词级别状态序列转换为字级别状态序列;
步骤S940,对得到的第一网络LG进行优化处理;其中,优化处理可以包括确定化操作处理、最小化操作处理、空转移处理和权重推移处理中的一种或者多种;
步骤S950,通过组合构图算法将优化后的第一网络LG与预训练的发音模型网络C进行组合,构建第三网络CLG;
步骤S960,对得到的第三网络CLG进行优化处理;
步骤S970,通过组合构图算法将优化后的第三网络CLG与预训练的声学模型网络H进行组合,构建第四网络HCLG;
步骤S980,对得到的第四网络HCLG进行优化处理;
步骤S990,根据优化后的第四网络HCLG构建语音识别模型。
示例性装置
在介绍了本发明示例性实施例的方法之后,接下来,参考图10对本发明示例性实施例的语音识别模型构建装置。
在图10中,语音识别模型构建装置1000可以包括:第一网络构建模块1010、目标路径构建模块1020以及语音识别模型构建模块1030。其中:第一网络构建模块1010用于根据预构建的词典模型网络L和预构建的语言模型网络G构建第一网络LG;其中,所述词典模型网络包含多个输出边;目标路径构建模块1020用于确定所述第一网络LG中包含词级别状态序列的目标输出边,并构建所述目标输出边对应的目标路径;其中,所述目标路径包括所述词级别状态序列对应的字级别状态序列;语音识别模型构建模块1030用于通过所述目标路径替换所述第一网络LG中的所述目标输出边,以根据替换处理后的所述第一网络LG以及预训练的第二网络构建语音识别模型。
在本发明的一些实施例中,基于前述方案,所述第一网络构建模块1010被配置为:获取预构建的词典模型网络L和预构建的语言模型网络G;通过组合构图算法将所述词典模型网络L以及所述语言模型网络G进行组合,构建第一网络LG。
在本发明的一些实施例中,基于前述方案,所述语音识别模型构建装置1000还包括第一网络LG优化单元,所述第一网络LG优化单元被配置为:对所述第一网络LG进行优化处理以得到优化后的所述第一网络LG;其中,所述优化处理包括确定化操作处理、最小化操作处理、空转移处理和权重推移处理中的一种或者多种。
在本发明的一些实施例中,基于前述方案,所述语音识别模型构建模块被配置为:通过所述组合构图算法将优化后的所述第一网络LG与所述发音模型网络C进行组合生成第三网络CLG,并对所述第三网络CLG进行优化处理得到优化后的所述第三网络CLG;通过所述组合构图算法将优化后的所述第三网络CLG与所述声学模型网络H进行组合生成第四网络HCLG,并对所述第四网络HCLG进行优化处理以根据优化后的所述第四网络HCLG构建语音识别模型。
在本发明的一些实施例中,基于前述方案,所述目标路径构建模块还包括:状态检测单元,用于检测包含词级别状态序列的所述目标输出边对应的起始状态以及终止状态;目标路径构建单元,用于根据所述起始状态以及所述终止状态构建所述目标输出边对应的目标路径。
在本发明的一些实施例中,基于前述方案,所述目标路径构建单元还被配置为:通过空字符对所述目标输出边进行拆解转换,以生成包含字级别状态序列的目标路径;其中所述目标路径起始于所述目标输出边对应的所述起始状态,终止于所述目标输出边对应的所述终止状态。
在本发明的一些实施例中,基于前述方案,所述目标路径构建单元还被配置为:通过所述空字符转写所述目标输出边中所述词级别状态序列对应的字符以将所述词级别状态序列拆解转换为字级别状态序列。
在图11中,语音识别装置1100可以包括:声学特征提取模块1110、概率数据获取模块1120、词语数据确定模块1130以及文本数据生成模块1140。其中,声学特征提取模块1110用于获取待识别的语音数据,并提取所述语音数据对应的声学特征;概率数据获取模块1120用于将所述声学特征输入到本发明实施例的第一方面中本发明实施例的第一方面中所构建的语音识别模型,以获取将所述声学特征转换为字级别状态序列的各输出路径对应的概率数据;词语数据确定模块1130用于获取所述概率数据最大的目标输出路径中字级别状态序列对应的词语数据;文本数据生成模块1140用于将得到的多个所述词语数据按照输出顺序进行组合以生成所述语音数据对应的文本数据。
在本发明的一些实施例中,基于前述方案,所述概率数据获取模块1120还被配置为:将所述声学特征输入到所述语音识别模型中的声学模型网络H,以获取将所述声学特征转换为发音属性的各输出路径对应的第一概率;将所述声学特征转换为发音属性的各输出路径输出的发音属性作为发音模型网络C的输入,以获取将所述发音属性转换为音素的各输出路径对应的第二概率;将所述发音属性转换为音素的各输出路径输出的音素作为第一网络LG的输入,以获取将所述音素转换为字级别状态序列的各输出路径的第三概率;将通过所述第一概率、所述第二概率以及所述第三概率计算得到的总概率作为将所述声学特征转换为字状态序列的各输出路径对应的概率数据。
在本发明实施例的第五方面中,提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上述第一方面所述的语音识别模型构建方法。
示例性介质
在介绍了本发明示例性实施例的装置之后,接下来,对本发明示例性实施例的存储介质进行说明。
在一些实施例中,本发明的各个方面还可以实现为一种介质,其上存储有程序代码,当所述程序代码被设备的处理器执行时用于实现本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施例的语音识别模型构建方法或者语音识别方法中的步骤。
例如,所述设备的处理器执行所述程序代码时可以实现如图2中所述的步骤S210,根据预构建的词典模型网络L和预构建的语言模型网络G构建第一网络LG;其中,所述词典模型网络包含多个输出边;步骤S220,确定所述第一网络LG中包含词级别状态序列的目标输出边,并构建所述目标输出边对应的目标路径;其中,所述目标路径包括所述词级别状态序列对应的字级别状态序列;步骤S230,通过所述目标路径替换所述第一网络LG中的所述目标输出边,以根据替换处理后的所述第一网络LG以及预训练的第二网络构建语音识别模型。
参考图12所示,描述了根据本发明的实施例的用于实现上述语音识别模型构建方法或者实现上述语音识别方法的程序产品1200,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备。
示例性计算设备
在介绍了本发明示例性实施例的语音识别模型构建方法、语音识别模型构建装置以及存储介质之后,接下来,介绍根据本发明的示例性实施例的电子设备。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施例、完全的软件实施例(包括固件、微代码等),或硬件和软件方面结合的实施例,这里可以统称为“电路”、“模块”或“系统”。
在一些可能的实施例中,根据本发明的电子设备可以至少包括至少一个处理单元、以及至少一个存储单元。其中,所述存储单元存储有程序代码,当所述程序代码被所述处理单元执行时,使得所述处理单元执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施例的语音识别模型构建方法中的步骤。例如,所述处理单元可以执行如图2中所示的步骤S210,根据预构建的词典模型网络L和预构建的语言模型网络G构建第一网络LG;其中,所述词典模型网络包含多个输出边;步骤S220,确定所述第一网络LG中包含词级别状态序列的目标输出边,并构建所述目标输出边对应的目标路径;其中,所述目标路径包括所述词级别状态序列对应的字级别状态序列;步骤S230,通过所述目标路径替换所述第一网络LG中的所述目标输出边,以根据替换处理后的所述第一网络LG以及预训练的第二网络构建语音识别模型。
下面参照图13来描述根据本发明的示例实施例的电子设备1300。图13所示的电子设备1300仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图13所示,电子设备1300以通用计算设备的形式表现。电子设备1300的组件可以包括但不限于:上述至少一个处理单元1301、上述至少一个存储单元1302、连接不同系统组件(包括存储单元1302和处理单元1301)的总线1303、显示单元1307。
总线1303表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器、外围总线、图形加速端口、处理器或者使用多种总线结构中的任意总线结构的局域总线。
存储单元1302可以包括易失性存储器形式的可读介质,例如随机存取存储器(RAM)1321和/或高速缓存存储器1322,还可以进一步包括只读存储器(ROM)1323。
存储单元1302还可以包括具有一组(至少一个)程序模块1324的程序/实用工具1325,这样的程序模块1324包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
电子设备1300也可以与一个或多个外部设备1304(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与电子设备1300交互的设备通信,和/或与使得电子设备1300能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口1305进行。并且,电子设备1300还可以通过网络适配器1306与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器1306通过总线1303与电子设备1300的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备1300使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
应当注意,尽管在上文详细描述中提及了语音识别模型构建装置以及语音识别装置的若干单元/模块或子单元/模块,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本发明的实施例,上文描述的两个或更多单元/模块的特征和功能可以在一个单元/模块中具体化。反之,上文描述的一个单元/模块的特征和功能可以进一步划分为由多个单元/模块来具体化。
此外,尽管在附图中以特定顺序描述了本发明方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
虽然已经参考若干具体实施例描述了本发明的精神和原理,但是应该理解,本发明并不限于所公开的具体实施例,对各方面的划分也不意味着这些方面中的特征不能组合以进行受益,这种划分仅是为了表述的方便。本发明旨在涵盖所附权利要求的精神和范围内所包括的各种修改和等同布置。
Claims (14)
1.一种语音识别模型构建方法,其特征在于,包括:
根据预构建的词典模型网络L和预构建的语言模型网络G构建第一网络LG;其中,所述词典模型网络包含多个输出边;
检测包含词级别状态序列的目标输出边对应的起始状态以及终止状态;通过空字符转写所述目标输出边中所述词级别状态序列对应的字符以将所述词级别状态序列拆解转换为字级别状态序列,以生成包含字级别状态序列的目标路径;其中所述目标路径起始于所述目标输出边对应的所述起始状态,终止于所述目标输出边对应的所述终止状态;所述目标路径包括所述词级别状态序列对应的字级别状态序列;
通过所述目标路径替换所述第一网络LG中的所述目标输出边,以根据替换处理后的所述第一网络LG以及预训练的第二网络构建语音识别模型。
2.根据权利要求1所述的语音识别模型构建方法,其特征在于,根据预构建的词典模型网络L和预构建的语言模型网络G构建第一网络LG,包括:
获取预构建的词典模型网络L和预构建的语言模型网络G;
通过组合构图算法将所述词典模型网络L以及所述语言模型网络G进行组合,构建第一网络LG。
3.根据权利要求2所述的语音识别模型构建方法,其特征在于,在构建第一网络LG之后,所述方法还包括:
对所述第一网络LG进行优化处理以得到优化后的所述第一网络LG;其中,所述优化处理包括确定化操作处理、最小化操作处理、空转移处理和权重推移处理中的一种或者多种。
4.根据权利要求3所述的语音识别模型构建方法,其特征在于,所述第二网络包括预训练的声学模型网络H和预训练的发音模型网络C,所述根据替换处理后的所述第一网络LG以及预训练的第二网络构建语音识别模型,包括:
通过所述组合构图算法将优化后的所述第一网络LG与所述发音模型网络C进行组合生成第三网络CLG,并对所述第三网络CLG进行优化处理得到优化后的所述第三网络CLG;
通过所述组合构图算法将优化后的所述第三网络CLG与所述声学模型网络H进行组合生成第四网络HCLG,并对所述第四网络HCLG进行优化处理以根据优化后的所述第四网络HCLG构建语音识别模型。
5.一种语音识别方法,其特征在于,包括:
获取待识别的语音数据,并提取所述语音数据对应的声学特征;
将所述声学特征输入到权利要求1至4任一方法中所构建的语音识别模型,以获取将所述声学特征转换为字级别状态序列的各输出路径对应的概率数据;
获取所述概率数据最大的目标输出路径中字级别状态序列对应的词语数据;
将得到的多个所述词语数据按照输出顺序进行组合以生成所述语音数据对应的文本数据。
6.根据权利要求5所述的语音识别方法,其特征在于,将所述声学特征输入到权利要求1至4任一方法中所构建的语音识别模型,以获取将所述声学特征转换为字级别状态序列的各输出路径对应的概率数据,包括:
将所述声学特征输入到所述语音识别模型中的声学模型网络H,以获取将所述声学特征转换为发音属性的各输出路径对应的第一概率;
将所述声学特征转换为发音属性的各输出路径输出的发音属性作为发音模型网络C的输入,以获取将所述发音属性转换为音素的各输出路径对应的第二概率;
将所述发音属性转换为音素的各输出路径输出的音素作为第一网络LG的输入,以获取将所述音素转换为字级别状态序列的各输出路径的第三概率;
将通过所述第一概率、所述第二概率以及所述第三概率计算得到的总概率作为将所述声学特征转换为字状态序列的各输出路径对应的概率数据。
7.一种语音识别模型构建装置,其特征在于,包括:
第一网络构建模块,用于根据预构建的词典模型网络L和预构建的语言模型网络G构建第一网络LG;其中,所述词典模型网络包含多个输出边;
目标路径构建模块,用于检测包含词级别状态序列的目标输出边对应的起始状态以及终止状态;通过空字符转写所述目标输出边中所述词级别状态序列对应的字符以将所述词级别状态序列拆解转换为字级别状态序列,以生成包含字级别状态序列的目标路径;其中所述目标路径起始于所述目标输出边对应的所述起始状态,终止于所述目标输出边对应的所述终止状态;所述目标路径包括所述词级别状态序列对应的字级别状态序列;
语音识别模型构建模块,用于通过所述目标路径替换所述第一网络LG中的所述目标输出边,以根据替换处理后的所述第一网络LG以及预训练的第二网络构建语音识别模型。
8.根据权利要求7所述的语音识别模型构建装置,其特征在于,所述第一网络构建模块被配置为:
获取预构建的词典模型网络L和预构建的语言模型网络G;
通过组合构图算法将所述词典模型网络L以及所述语言模型网络G进行组合,构建第一网络LG。
9.根据权利要求8所述的语音识别模型构建装置,其特征在于,所述语音识别模型构建装置还包括第一网络LG优化单元,所述第一网络LG优化单元被配置为:
对所述第一网络LG进行优化处理以得到优化后的所述第一网络LG;其中,所述优化处理包括确定化操作处理、最小化操作处理、空转移处理和权重推移处理中的一种或者多种。
10.根据权利要求9所述的语音识别模型构建装置,其特征在于,所述语音识别模型构建模块被配置为:
通过所述组合构图算法将优化后的所述第一网络LG与发音模型网络C进行组合生成第三网络CLG,并对所述第三网络CLG进行优化处理得到优化后的所述第三网络CLG;
通过所述组合构图算法将优化后的所述第三网络CLG与声学模型网络H进行组合生成第四网络HCLG,并对所述第四网络HCLG进行优化处理以根据优化后的所述第四网络HCLG构建语音识别模型。
11.一种语音识别装置,其特征在于,包括:
声学特征提取模块,用于获取待识别的语音数据,并提取所述语音数据对应的声学特征;
概率数据获取模块,用于将所述声学特征输入到权利要求1至4任一方法中所构建的语音识别模型,以获取将所述声学特征转换为字级别状态序列的各输出路径对应的概率数据;
词语数据确定模块,用于获取所述概率数据最大的目标输出路径中字级别状态序列对应的词语数据;
文本数据生成模块,用于将得到的多个所述词语数据按照输出顺序进行组合以生成所述语音数据对应的文本数据。
12.根据权利要求11所述的语音识别装置,其特征在于,所述概率数据获取模块还被配置为:
将所述声学特征输入到所述语音识别模型中的声学模型网络H,以获取将所述声学特征转换为发音属性的各输出路径对应的第一概率;
将所述声学特征转换为发音属性的各输出路径输出的发音属性作为发音模型网络C的输入,以获取将所述发音属性转换为音素的各输出路径对应的第二概率;
将所述发音属性转换为音素的各输出路径输出的音素作为第一网络LG的输入,以获取将所述音素转换为字级别状态序列的各输出路径的第三概率;
将通过所述第一概率、所述第二概率以及所述第三概率计算得到的总概率作为将所述声学特征转换为字状态序列的各输出路径对应的概率数据。
13.一种电子设备,其特征在于,包括:
处理器;以及
存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时实现如权利要求1至4中任意一项所述的语音识别模型构建方法或者实现如权利要求5至6中任意一项所述的语音识别方法。
14.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至4中任意一项所述的语音识别模型构建方法或者实现如权利要求5至6中任意一项所述的语音识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010032715.0A CN111243599B (zh) | 2020-01-13 | 2020-01-13 | 语音识别模型构建方法、装置、介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010032715.0A CN111243599B (zh) | 2020-01-13 | 2020-01-13 | 语音识别模型构建方法、装置、介质及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111243599A CN111243599A (zh) | 2020-06-05 |
CN111243599B true CN111243599B (zh) | 2022-12-20 |
Family
ID=70874510
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010032715.0A Active CN111243599B (zh) | 2020-01-13 | 2020-01-13 | 语音识别模型构建方法、装置、介质及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111243599B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112002310B (zh) * | 2020-07-13 | 2024-03-26 | 苏宁云计算有限公司 | 领域语言模型构建方法、装置、计算机设备及存储介质 |
CN111933119B (zh) * | 2020-08-18 | 2022-04-05 | 北京字节跳动网络技术有限公司 | 用于生成语音识别网络的方法、装置、电子设备和介质 |
CN112420022B (zh) * | 2020-10-21 | 2024-05-10 | 浙江同花顺智能科技有限公司 | 一种噪声提取方法、装置、设备和存储介质 |
CN112614023A (zh) * | 2020-12-25 | 2021-04-06 | 东北大学 | 电子合同的形式化安全验证方法 |
CN113421587B (zh) * | 2021-06-02 | 2023-10-13 | 网易有道信息技术(北京)有限公司 | 语音评测的方法、装置、计算设备及存储介质 |
CN114399998B (zh) * | 2021-12-03 | 2022-09-27 | 北京百度网讯科技有限公司 | 语音处理方法、装置、设备、存储介质及程序产品 |
CN114529854B (zh) * | 2022-02-21 | 2024-05-31 | 山东浪潮科学研究院有限公司 | 基于TinyML的少儿语言早教实现方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107358967A (zh) * | 2017-06-08 | 2017-11-17 | 广东科学技术职业学院 | 一种基于wfst的老年人语音情感识别方法 |
CN107705787A (zh) * | 2017-09-25 | 2018-02-16 | 北京捷通华声科技股份有限公司 | 一种语音识别方法及装置 |
CN109036391A (zh) * | 2018-06-26 | 2018-12-18 | 华为技术有限公司 | 语音识别方法、装置及系统 |
CN109151218A (zh) * | 2018-08-21 | 2019-01-04 | 平安科技(深圳)有限公司 | 通话语音质检方法、装置、计算机设备及存储介质 |
CN109243428A (zh) * | 2018-10-15 | 2019-01-18 | 百度在线网络技术(北京)有限公司 | 一种建立语音识别模型的方法、语音识别方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9972314B2 (en) * | 2016-06-01 | 2018-05-15 | Microsoft Technology Licensing, Llc | No loss-optimization for weighted transducer |
-
2020
- 2020-01-13 CN CN202010032715.0A patent/CN111243599B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107358967A (zh) * | 2017-06-08 | 2017-11-17 | 广东科学技术职业学院 | 一种基于wfst的老年人语音情感识别方法 |
CN107705787A (zh) * | 2017-09-25 | 2018-02-16 | 北京捷通华声科技股份有限公司 | 一种语音识别方法及装置 |
CN109036391A (zh) * | 2018-06-26 | 2018-12-18 | 华为技术有限公司 | 语音识别方法、装置及系统 |
CN109151218A (zh) * | 2018-08-21 | 2019-01-04 | 平安科技(深圳)有限公司 | 通话语音质检方法、装置、计算机设备及存储介质 |
CN109243428A (zh) * | 2018-10-15 | 2019-01-18 | 百度在线网络技术(北京)有限公司 | 一种建立语音识别模型的方法、语音识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111243599A (zh) | 2020-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111243599B (zh) | 语音识别模型构建方法、装置、介质及电子设备 | |
CN111933129B (zh) | 音频处理方法、语言模型的训练方法、装置及计算机设备 | |
CN110491382B (zh) | 基于人工智能的语音识别方法、装置及语音交互设备 | |
Xiong et al. | Achieving human parity in conversational speech recognition | |
Wang et al. | Complete recognition of continuous Mandarin speech for Chinese language with very large vocabulary using limited training data | |
US6154722A (en) | Method and apparatus for a speech recognition system language model that integrates a finite state grammar probability and an N-gram probability | |
US6910012B2 (en) | Method and system for speech recognition using phonetically similar word alternatives | |
US6973427B2 (en) | Method for adding phonetic descriptions to a speech recognition lexicon | |
KR101153078B1 (ko) | 음성 분류 및 음성 인식을 위한 은닉 조건부 랜덤 필드모델 | |
US6845357B2 (en) | Pattern recognition using an observable operator model | |
Rabiner et al. | An overview of automatic speech recognition | |
JP6284462B2 (ja) | 音声認識方法、及び音声認識装置 | |
US20090240499A1 (en) | Large vocabulary quick learning speech recognition system | |
JP5752060B2 (ja) | 情報処理装置、大語彙連続音声認識方法及びプログラム | |
CN112397056B (zh) | 语音评测方法及计算机存储介质 | |
CN112466279B (zh) | 一种英语口语发音自动纠正方法和装置 | |
JP7335569B2 (ja) | 音声認識方法、装置及び電子機器 | |
Kadyan et al. | Developing children’s speech recognition system for low resource Punjabi language | |
Xiong | Fundamentals of speech recognition | |
CN117253493A (zh) | 用于语音生成任务的音频编码方法、电子设备和存储介质 | |
US20040006469A1 (en) | Apparatus and method for updating lexicon | |
Ronzhin et al. | Survey of russian speech recognition systems | |
Ajayi et al. | Systematic review on speech recognition tools and techniques needed for speech application development | |
US20230148275A1 (en) | Speech synthesis device and speech synthesis method | |
JP4962962B2 (ja) | 音声認識装置、自動翻訳装置、音声認識方法、プログラム、及びデータ構造 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |