CN113990293A - 语音识别方法及装置、存储介质、电子设备 - Google Patents
语音识别方法及装置、存储介质、电子设备 Download PDFInfo
- Publication number
- CN113990293A CN113990293A CN202111214686.0A CN202111214686A CN113990293A CN 113990293 A CN113990293 A CN 113990293A CN 202111214686 A CN202111214686 A CN 202111214686A CN 113990293 A CN113990293 A CN 113990293A
- Authority
- CN
- China
- Prior art keywords
- voice
- recognized
- speech
- language
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000012549 training Methods 0.000 claims description 49
- 230000006870 function Effects 0.000 claims description 23
- 238000012545 processing Methods 0.000 claims description 23
- 238000003062 neural network model Methods 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 13
- 238000009432 framing Methods 0.000 claims description 6
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 16
- 239000000203 mixture Substances 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/01—Assessment or evaluation of speech recognition systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/12—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being prediction coefficients
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0631—Creating reference templates; Clustering
- G10L2015/0633—Creating reference templates; Clustering using lexical or orthographic knowledge sources
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/086—Recognition of spelled words
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
Landscapes
- Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Machine Translation (AREA)
Abstract
本公开提供一种语音识别方法、语音识别装置、存储介质与电子设备,涉及计算机技术领域。其中,所述语音识别方法包括:获取待识别语音,并对所述待识别语音进行特征提取获取语音特征;通过结合建模单元构建的声学模型对所述语音特征进行预测处理,确定所述待识别语音的建模单元的概率分布;所述建模单元包括主要语言字符和辅助语言子词;基于所述主要语言字符和所述辅助语言子词构建的语言模型对所述待识别语音进行识别处理,确定所述待识别语音的语法得分;结合所述概率分布以及所述语法得分,确定所述待识别语音的识别结果。本公开的技术方案能够提高语音识别的准确性。
Description
技术领域
本公开涉及计算机技术领域,具体而言,涉及一种语音识别方法、语音识别装置、计算机可读存储介质以及电子设备。
背景技术
随着语音识别技术的发展,用户使用多种语言交流已逐渐成为普遍现象。因此,单语言的语音识别已无法满足许多场景下的识别需求。
相关技术中,主要通过两种方式来进行语言识别:一是传统语音识别系统,由声学模型、发音词典和语言模型三部分组成,不同模型需要分来训练,然后将各个部分融合到一起构成解码图,通过解码得到识别结果。二是端到端的语音识别系统,只需给出输入端的语音以及输出端的文本信息,训练一个模型,即可直接实现输入语音到输出文本的转换。
上述方式中,发音的音素需要大量的语言学专业知识来构建这种混合语种的发音词典,操作步骤复杂且可能存在偏差,准确性较低。并且,以中文字符和英文字母作为建模单元集合时,中文字符与英文字母之间是有明显差异的,可能会出现无法完全建模以及模型无法处理的问题,因此建模方式不合理,从而导致语音识别的应用范围较小,且语音识别的准确性较低。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开提供一种语音识别方法及装置、计算机可读存储介质和电子设备,进而至少在一定程度上克服相关技术中语音识别的准确性较低的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供一种语音识别方法,包括:获取待识别语音,并对所述待识别语音进行特征提取获取语音特征;通过结合建模单元构建的声学模型对所述语音特征进行预测处理,确定所述待识别语音的建模单元的概率分布;所述建模单元包括主要语言字符和辅助语言子词;基于所述主要语言字符和所述辅助语言子词构建的语言模型对所述待识别语音进行识别处理,确定所述待识别语音的语法得分;结合所述概率分布以及所述语法得分,确定所述待识别语音的识别结果。
在本公开的一种示例性实施例中,所述方法还包括:获取训练语料,并对所述训练语料进行特征提取,确定所述训练语料的参考语音特征;结合所述参考语音特征以及所述建模单元中的所述主要语言字符和所述辅助语言子词对声学神经网络模型进行模型训练,得到声学模型。
在本公开的一种示例性实施例中,所述对所述训练语料进行特征提取,确定所述训练语料的参考语音特征,包括;对所述训练语料进行分帧加窗操作,以获取多个语音帧;将所述多个语音帧进行变换处理,获取所述参考语音特征。
在本公开的一种示例性实施例中,所述结合所述参考语音特征以及所述建模单元对声学神经网络模型进行模型训练,得到声学模型,包括:将所述参考语音特征输入至所述声学神经网络模型,确定所述参考语音特征对应的预测标签的概率分布;将所述预测标签与所述建模单元表示的真实标签进行对比,根据所述预测标签和所述真实标签之间的距离确定损失函数;根据所述损失函数调整所述神经网络模型的模型参数,直至所述损失函数最小,以得到所述声学模型。
在本公开的一种示例性实施例中,所述方法还包括:将训练语料按照最小粒度进行拆分,得到字符序列;统计所述字符序列中每个连续字符对出现的次数,将出现次数最高的字符对进行合并生成新字符序列,直至满足结束条件为止,以确定所述辅助语言子词。
在本公开的一种示例性实施例中,所述方法还包括:将训练语料按照所述建模单元中的所述主要语言字符和所述辅助语言子词进行拆分得到拆分结果,并根据所述拆分结果生成所述语言模型。
在本公开的一种示例性实施例中,所述结合所述概率分布以及所述语法得分,确定所述待识别语音的识别结果,包括:对所述建模单元的概率分布进行解码,确定所述待识别语音的候选解码路径;结合所述语法得分对所述候选解码路径进行评估,确定所述待识别语音的识别结果。
在本公开的一种示例性实施例中,所述结合所述语法得分对所述候选解码路径进行评估,确定所述待识别语音的识别结果,包括:将目标字符的声学模型得分与所述目标字符的语法得分进行综合,以得到所述候选解码路径的路径得分;将所述路径得分最高的候选解码路径作为所述识别结果。
根据本公开的一个方面,提供一种语音识别装置,包括:特征提取模块,用于获取待识别语音,并对所述待识别语音进行特征提取获取语音特征;概率确定模块,用于通过结合建模单元构建的声学模型对所述语音特征进行预测处理,确定所述待识别语音的建模单元的概率分布;所述建模单元包括主要语言字符和辅助语言子词;语法得分确定模块,用于基于所述主要语言字符和所述辅助语言子词构建的语言模型对所述待识别语音进行识别处理,确定所述待识别语音的语法得分;识别结果确定模块,用于结合所述概率分布以及所述语法得分,确定所述待识别语音的识别结果。
根据本公开的一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的语音识别方法。
根据本公开的一个方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的语音识别方法。
本公开实施例中提供的语音识别方法、语音识别装置、计算机可读存储介质以及电子设备,可以根据主要语言字符和辅助语言子词生成的建模单元构建的声学模型来对确定待识别语音的标签,进一步可以根据建模单元生成的语言模型来确定其语法得分,进而确定待识别语音的识别结果。一方面,由于使用辅助语言子词建模,缩小了主要语言和辅助语言的建模单元时长之间的差距,也避免了数据稀疏的问题,提高了建模方式的合理性。一方面,由于使用了主要语言字符和辅助语言子词生成建模单元进而进行建模,避免了无法全部建模的局限性,提高了模型的完整性和准确性,提高了操作效率,也增加了语言识别的应用范围,提高了语音识别的准确性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施方式,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性示出本公开实施例用于实现语音识别方法的系统架构图。
图2示意性示出本公开实施例中一种语音识别方法的示意图。
图3示意性示出本公开实施例中确定辅助语言子词的具体流程示意图。
图4示意性示出本公开实施例中确定英文子词的示意图。
图5示意性示出本公开实施例中确定声学模型的流程示意图。
图6示意性示出本公开实施例中模型训练的具体流程示意图。
图7示意性示出本公开实施例中模型调整的整体流程示意图。
图8示意性示出本公开实施例中确定识别结果的整体流程示意图。
图9示意性示出本公开实施例中进行语音识别的整体流程示意图。
图10示意性示出本公开实施例中语音识别装置的框图。
图11示意性示出本公开实施例中一种电子设备的框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
相关技术中,中英文混合的识别任务分为两种:一种是句间混杂;一种是句内混杂。中英文混合的识别系统大多数针对句间混杂的情况,具体指的是将语种识别模型与两个单语言的语音识别模型构建的中英文混合系统。即需要先对语音进行语种的识别,判断其为中文还是英文,再根据语种类型,将语音输入到对应的单语言的语音识别系统中进行识别。即,若一句语音“你好”经过语种识别判断为中文,则输入到中文语音识别系统进行识别;若语音“How are you”经过语种识别判断为英文,则输入到英文语音识别系统进行识别。虽然这种系统既可以识别中文又可以识别英文,但它对于一句语音里中英文句内混杂的情况,如比如“播放一首Justin Bieber的baby”,则无法很好地处理,无法满足更多场景下的中英文混合识别的需求。
现有的语音识别系统主要分为两种,一是传统语音识别系统,由声学模型、发音词典和语言模型三部分组成,不同模型需要分来训练,然后通过WFST将各个部分融合到一起构成解码图,通过解码得到识别结果;二是端到端的语音识别系统,只需给出输入端的语音以及输出端的文本信息,训练一个模型,即可直接实现输入语音到输出文本的转换。
对于句内混杂的中英文混合识别,在传统语音识别系统中,其解决方式为构建中英文混合的发音词典,将中文与英文词汇用同一通用的发音音素集来进行表示,因此声学模型训练时,中、英文词汇都可以通过发音词典映射到对应的音素上,声学模型便可以学习到这些音素的发音,从而可以对中文与英文同时进行建模。但这种方式将两种不同的语言使用同一套发音音素来进行表示时,什么样的音素可以中英文共享,什么样的音素是某种语言独有的需要单独设立,以及大量的中文、英文词汇需要逐个进行音素的标注,这些问题需要大量的语言学专业知识来解决、以及专业的语言学学者来构建这种混合语种的发音词典,代价比较高,且这种手工构建的词典也不可避免地存在一定程度的差错。
而端到端的模型能够一步直接实现语音的输入与解码识别,不引入传统系统中音素到词的发音词典的概念,直接训练音频到文本的模型,避免了传统语音识别系统中繁杂的对齐工作与发音词典制作工作。因此本专利采用端到端语音识别系统,但是同样地,在实现在句内混杂的中英文混合识别时,也面临着如何对中英文同时进行建模的问题。对于中英混合任务,一个自然的方式即是,中文字符和英文字母作为建模单元集合;但中文字符与英文字母之间是有明显差异的,对于声学特征来说,中文字符是比英文字母长的,因此这种建模方式不够合理;而如果用英文单词进行建模,又存在开放词汇的问题,即由于英文词汇量庞大无法全部建模,当出现建模单词之外的词汇时,模型则无法处理的问题。
为了解决上述技术问题,本公开实施例中提供了一种语音识别方法。图1示出了可以应用本公开实施例的技术方案的示例性系统架构的示意图。
如图1所示,系统架构100可以包括发送端101、网络102、接收端103。其中,发送端可以为用户,也可以为能够发送语音的客户端,例如可以为智能手机、电脑、平板电脑智能音箱等终端。网络102用以在发送端101和接收端103之间提供通信链路的介质,以使得接收端能够接收到语音。网络102可以包括各种连接类型,例如有线通信链路、无线通信链路等等,在本公开实施例中,发送端101和接收端103之间的网络102可以是有线通信链路,例如可以通过串口连接线提供通信链路,也可以是无线通信链路,通过无线网络提供通信链路。接收端103可以是具有语音处理功能的服务器或者是客户端,例如便携式计算机、台式计算机、智能手机等具有语音处理功能的终端设备,用于对发送端发送的语音进行处理。
本公开实施例中,发送端可以用于发送语音,例如用户发出语音或者是客户端播放语音。接收端接收到语音后,根据其中的声学模型以及语言模型、解码器对接收到的语音进行识别,以得到识别结果。
需要说明的是,本公开实施例所提供的语音识别方法可以完全由接收端执行,相应地,语音识别装置可设置于接收端103中。
基于上述系统架构,本公开实施例中提供了一种语音识别方法,用于识别中英文混合的语音。参考图2中所示,该语音识别方法包括步骤S210至步骤S240,详细介绍如下:
在步骤S210中,获取待识别语音,并对所述待识别语音进行特征提取获取语音特征。
本公开实施例中,待识别语音指的是用户发出的语音或者是客户端播放的语音。待识别语音可以由不同类型的语言混合得到,例如可以为主要语言和辅助语言结合的语音。待识别语音中的主要语言和辅助语言可以为任意形式的语言,具体根据应用场景而配置,但是主要语言与辅助语言的类型不同。
需要说明的是,主要语言和辅助语言用于区分语言的类型,其在待识别语音中所占的比例并不会存在限制。例如,主要语言在待识别语音中所占的比例可以小于或等于辅助语言在待识别语音中所占的比例,只要待识别语音中同时存在主要语言和辅助语言两种类型的语言即可。举例而言,主要语言可以为中文,辅助语言可以为英文;或者主要语言可以为英文,辅助语言可以为中文等等。
此处以主要语言为中文,辅助语言为英文为例进行说明。基于此,待识别语音可以为中英文混合的语音,且混合模式可以为句内混合或者是句间混合,此处以句内混合为例进行说明。
在接收到待识别语音之后,可以对待识别语音进行特征提取,以得到其对应的语音特征。具体地,可以将待识别语音的语音信号确定为语音帧,进而对语音帧进行信号处理得到语音特征。其中,首先可以将待识别语音的语音信号的原始波形经过分帧加窗操作分成多个语音帧,此处的语音帧指的是一小段一小段音频;进一步将多个语音帧经过快速傅立叶变换,再经过梅尔滤波器进行滤波,以及取对数的计算,将计算后的预设数据作为Fbank特征,以得到待识别语音的语音特征。此处的预设数据可以为前80维数据或者是任意维数的数据,此处不作特殊限定。
在步骤S220中,通过结合建模单元构建的声学模型对所述语音特征进行预测处理,确定所述待识别语音的建模单元的概率分布;所述建模单元包括主要语言字符和辅助语言子词。
本公开实施例中,建模单元指的是用于构建模型的字符单元。根据时间尺度的长短,建模单元可以选择为句子、短语、词、音节、音子或者更小的半音子。时间尺度越短的建模单元,其可训练性及推广性就越强;而时间尺度越长的单元,其精确性就越强。
本示例中,为了实现中英文混合的语音识别系统,对于声学模型而言,需要能够学习和识别主要语言和辅助语言,因此需要同时对主要语言和辅助语言进行建模,即同时对中文和英文进行建模。与此同时,为了避免相关技术中的问题,建模单元可以包括主要语言字符和辅助语言子词。具体地,主要语言字符可以为汉字,具体可以为常用的3000~8000的汉字作为中文的建模单元即可。
为实现中英文混合的语音识别系统,对于声学模型,需要满足既能学习中文,又能学习英文的要求。对于英文而言,相关技术中可以使用字母或者单词作为建模单元。然而,若选用字母作为建模单元,与中文汉字的建模单元在语音时长的差距较大,而且因为字母粒度小,导致解码时的序列过长从而增加解码时间;而如果选用单词作为建模单元,英文的单词数量庞大,如果一一进行建模,会导致数据稀疏的问题;如果仅用一部分常用单词进行建模,又会面临开放词汇的问题。
为了解决上述用字母和单词作为建模单元时导致的问题,本公开实施例中,生成一种子词来作为英文的建模单元,即生成辅助语言子词(英文子词)来作为辅助语言的建模单元。子词指的是介于字母和单词之间的英文单元。具体地,辅助语言子词可以采用BPE(Byte pair encoding,数据压缩)算法生成,也可以采用WordPiece算法以及UnigramLanguage Model算法来生成英文子词。本公开实施例中,以采用BPE算法生成英文子词为例进行说明。
生成英文子词的步骤包括:步骤一、将训练语料按照最小粒度进行拆分,得到字符序列;步骤二、统计所述字符序列中每个连续字符对出现的次数,将出现次数最高的字符对进行合并生成新字符序列,直至满足结束条件为止,以确定英文子词。其中,最小粒度指的是最小字符,例如字母。拆分成的字符序列指的是每个字符组成的序列。连续字符对指的是字符序列中所有相邻的字符组成的字符对。结束条件用于停止确定英文子词的过程,结束条件可以根据出现次数或者是子词种类来确定,此处不作特殊限定。
图3中示意性示出了确定英文子词的流程图,参考图3所示,主要包括以下步骤:
在步骤S310中,将训练语料按照最小字符进行拆分,得到字符序列。即,将所有句子拆分成粒度最小的字符序列。
在步骤S320中,统计字符对出现的频次。
在步骤S330中,合并高频字符对。即,通过统计每一个连续字符对的出现频次,选择高频的字符对合并到一起作为一个整体,作为一个新的子词,以得到新的字符序列。并返回至步骤S320。
在步骤S340中,重复合并高频字符对的过程,直至下一个最高频的字符对的频次为1或者是达到设定的符号数量(例如符号数量大于设置的符号数量的阈值),结束整个过程。此时的符号集合则为最终得到的BPE单元集合,从而获取所有的辅助语言子词,即英文子词。
参考图4中所示,假设训练语料为三个单词“hello”,“low”,“lower”,首先将每一行的单词按照最小的字母粒度进行拆分,然后将进行相邻字符之间的两两合并,统计合并后的子词出现的频次。此时,子词“lo”出现频次最高为3次,因此,将拆分后的语料中的“l”与“o”进行合并,作为一个单元“lo”。重复进行相邻单元两两合并后统计合并后子词频次的操作,此次最高频次的子词为“low”,因此,将语料中的“lo”与“w”进行合并作为一个单元“low”。再次进行两两合并,并统计合并后的子词频次,此时所有子词的最高频次均为1,达到结束的条件。通过上述操作,最终得到的BPE单元即为“h,e,l,lo,low,r”,且训练语料中的单词的拆分后的结果也已得到。需要说明的是,实际使用中,训练语料中包含的子词数的数量较多,为了便于操作,可以设定一个目标子词数量,当训练语料中的子词的数量达到该目标子词数量时,则停止计算。
本公开实施例中的技术方案,使用BPE算法生成新的英文建模单元,能够提高建模单元的准确性,从而便于构建模型。
在确定中文字符和英文子词之后,可以基于中文字符和英文子词来训练声学模型。图5示意性示出了确定声学模型的具体流程图,参考图5中所示,主要包括以下步骤:
在步骤S510中,获取训练语料,并对所述训练语料进行特征提取,确定所述训练语料的参考语音特征。
本步骤中,训练语料指的是用于训练模型的语音,训练语料可以与待识别语音的形式相同,训练语料也可以为中英文混合的语音,并且可以为句间混合或者是句内混合,此处以句内混合为例进行说明。
具体而言,可以包括以下步骤:步骤一、对所述训练语料进行分帧加窗,以获取多个语音帧;步骤三、将所述多个语音帧进行变换处理,获取所述参考语音特征。其中,可以将训练语料的原始波形经过分帧加窗操作变为一小段一小段音频作为多个语音帧,进一步将多个语音帧进行变换处理,得到训练语料的参考语音特征。此处的变换处理包括:将语音帧经过快速傅立叶变换处理后,得到变换信号;将变换信号经过梅尔滤波器后得到滤波信号;将滤波信号取对数之后得到目标信号,并且将目标信号中的前预设维数据作为训练语料的Fbank特征,即参考语音特征,进而输入至声学模型,以实现声学模型的训练。预设维数据可以根据实际需求确定,例如可以为80维。
在步骤S520中,结合所述参考语音特征以及所述建模单元对声学神经网络模型进行模型训练,得到声学模型。
本步骤中,可以将构建单元作为参考语音特征对应的真实标签,使用参考语音特征和构建单元来训练声学模型。声学模型用于确定语音的标签。声学模型具体可以为声学神经网络模型,或者是其它网络模型,此处以声学神经网络模型为例进行说明。
图6中示意性示出了模型训练的流程图,参考图6中所示,主要包括以下步骤:
在步骤S610中,将所述参考语音特征输入至所述声学神经网络模型,确定所述参考语音特征对应的预测标签的概率分布;
在步骤S620中,将所述预测标签与所述建模单元表示的真实标签进行对比,根据所述预测标签和所述真实标签之间的距离确定损失函数;
在步骤S630中,根据所述损失函数调整所述声学神经网络模型的模型参数,直至所述损失函数最小,以得到所述声学模型。
其中,声学神经网络模型的输入即为帧级别的Fbank特征(参考语音特征),输出为帧级别的建模单元的概率分布。模型训练的目标是最小化损失函数。从而计算网络模型的梯度,以获得更新模型网络参数的方向和数值。训练声学模型需要经过两个过程:一是前向过程,即将输入的参考语音特征经过与网络参数的计算,得到预测标签的概率分布;二是反向过程,将得到的预测标签与真实标签进行对比,计算二者之间的距离。此处的距离可以用于表示损失函数,具体可以为CTC损失函数。
进一步参考图7中所示,整个训练过程为:将特征提取阶段得到的参考语音特征输入至语音神经网络模型以对其进行预测处理,得到参考语音特征的预测标签;进一步计算预测标签和真实标签(建模单元)之间的距离来确定损失函数,以损失函数最小为目标调整声学神经网络模型的模型参数,经过不断地迭代直至损失函数的值不再减小时,可以认为模型收敛,结束整个模型训练过程,从而得到声学模型。
本公开实施例中,使用中文字符与英文子词混合的建模方式,使得声学模型同时具备对中文与英文的学习能力,使得声学模型可以识别任何形式的中英文混杂情况的语音,以使声学模型既可以识别句间混杂的情况,又可以识别句内混杂的情况。缩小了建模单元时长之间的差距,避免了无法全部建模的局限性,提高了模型的完整性和准确性,提高了操作效率,也增加了语言识别的应用范围。
在生成声学模型之后,可以将对待识别语音进行特征提取得到的语音特征输入至声学模型中,以得到待识别语音对应的帧级别的建模单元的概率分布,即待识别语音属于建模单元中的中文字符以及英文子词的概率分布。
在步骤S230中,基于所述主要语言字符和所述辅助语言子词构建的语言模型对所述待识别语音进行识别处理,确定所述待识别语音的语法得分。
本公开实施例中,语言模型用以计算一个符号序列组成的句子的概率。语言模型的符号单元可以为字母、也可以为子词,取决于训练语料中句子序列分割的单元。对于中英文混合的语言模型而言,需要按照符号单元对训练语料进行拆分得到拆分结果,进而根据拆分单元生成语言模型。为了保证识别的准确性,符号单元可以为声学模型中确定的建模单元。如此一来,在进行拆分时,可以将训练语料中的英文单词处理为BPE单元(英文子词),中文也按照汉字级别进行分隔(例如按照每个字进行分隔),以使语言模型的建模单元与声学模型的建模单元保持一致。进一步地,将训练语料按照建模单元处理之后,将拆分结果输入到统计语言模型训练工具即可生成语言模型。语言模型训练工具可以为kenlm工具,也可以使用srilm工具或其他工具生成语言模型,此处不作特殊限定。
在确定语言模型之后,可以将待识别语音输入至语言模型中,以确定待识别语音的语法得分。具体地,可以按照语言模型对应的评价指标来确定语法得分。评价指标可以为多个维度的指标,具体可以用困惑度来表示。举例而言,评价指标可以包括但不限于是否合理、是否通顺、是否正确等等。
在步骤S240中,结合所述概率分布以及所述语法得分,确定所述待识别语音的识别结果。
本公开实施例中,利用上述两个过程中得到的声学模型与语言模型,结合解码器对待识别语音进行解码,得到识别结果。解码器根据声学模型给出的帧级别的建模单元的概率分布给出每个时间步可能的候选解码路径,再结合语言模型给出的语法得分为所有可能的候选解码路径进行打分,得到最后的解码结果,即为识别结果。
图8中示意性示出了确定识别结果的流程图,参考图8所示,主要包括以下步骤:
在步骤S810中,对所述帧级别的建模单元的概率分布进行解码,确定所述待识别语音的候选解码路径;
在步骤S820中,结合所述概率分布以及所述语法得分对所述候选解码路径进行评估,确定所述待识别语音的识别结果。
其中,每个时间步就是每一帧,当前时间步有几个答案,下个时间步在当前时间步的基础上,用每一个答案之后再扩展几个字,可以称为解码路径。每个时间步的待识别语音可能存在多个候选解码路径。对于每个时间步而言,每个时间步都对应所有建模单元的概率,即在所有建模单元上的概率。在所有建模单元中取目标字符,确定目标字符的概率得分,并将概率得分作为声学模型得分。目标字符可以为按照概率从大到小的顺序排列在前N位的建模单元。
进一步地,结合语法得分对候选解码路径进行评估指的是结合语言模型的语法得分对每个目标字符再进行打分,并将声学模型得分与语法得分进行综合,得到候选解码路径的路径得分。此处的将声学模型得分和语法得分进行综合可以为将声学模型得分和语法得分进行加法操作或者是其它逻辑操作。在得到多个候选解码路径的路径得分之后,将路径得分最高的候选解码路径作为待识别语音在每个时间步的识别结果,从而得到待识别语音的识别结果。
参考图9中所示,语音识别方法主要通过声学模型、语言模型以及解码器三个部分来完成,且语言识别系统可以为端对端系统。识别一条语音的过程为:步骤S901,将待识别语音经过特征提取得到语音特征;步骤S902,将语音特征输入到声学模型中计算得到待识别语音的帧级别的建模单元标签的概率分布;步骤S903,将此概率分布与语言模型一起输入至解码器,进行解码得到识别结果。
本公开实施例中的技术方案,利用中文字符与英文子词进行混合建模,在语音识别的声学模型训练阶段,同时对中文和英文进行建模,以使同一个声学模型可以同时学习到中文和英文的发音;使用英文子词来进行建模,增加了英文建模单元的时长,缩小来中文和英文建模单元时长之间的差距,使得模型可以获得更好的学习效果,且所有单词均可以用英文子词来表示,解决了用单词建模时所不能解决的开放词汇的问题,避免了建模的局限性,增加了应用范围,提高了模型的准确性。在此基础上,通过英文子词构建的声学模型和语言模型能够对中英文混合的语音进行准确全面的识别,提高识别准确性。
本公开实施例中,还提供了一种语音识别装置,参考图10中所示,该语音识别装置1000主要包括以下模块:
特征提取模块1001,用于获取待识别语音,并对所述待识别语音进行特征提取获取语音特征;
概率确定模块1002,用于通过结合建模单元构建的声学模型对所述语音特征进行预测处理,确定所述待识别语音的建模单元的概率分布;所述建模单元包括主要语言字符和辅助语言子词;
语法得分确定模块1003,用于基于所述主要语言字符和所述辅助语言子词构建的语言模型对所述待识别语音进行识别处理,确定所述待识别语音的语法得分;
识别结果确定模块1004,用于结合所述概率分布以及所述语法得分,确定所述待识别语音的识别结果。
在本公开的一种示例性实施例中,,所述装置还包括:参考特征提取模块,用于获取训练语料,并对所述训练语料进行特征提取,确定所述训练语料的参考语音特征;模型确定模块,用于结合所述参考语音特征以及所述建模单元中的所述主要语言字符和所述辅助语言子词对声学神经网络模型进行模型训练,得到声学模型。
在本公开的一种示例性实施例中,参考特征提取模块,包括;语音帧确定模块,用于对所述训练语料进行分帧加窗操作,以获取多个语音帧;变换模块,用于将所述多个语音帧进行变换处理,获取所述参考语音特征。
在本公开的一种示例性实施例中,模型确定模块包括:预测模块,用于将所述参考语音特征输入至所述声学神经网络模型,确定所述参考语音特征对应的预测标签的概率分布;损失函数确定模块,用于将所述预测标签与所述建模单元表示的真实标签进行对比,根据所述预测标签和所述真实标签之间的距离确定损失函数;模型训练模块,用于根据所述损失函数调整所述神经网络模型的模型参数,直至所述损失函数最小,以得到所述声学模型。
在本公开的一种示例性实施例中,所述装置还包括:序列确定模块,用于将训练语料按照最小粒度进行拆分,得到字符序列;子词确定模块,用于统计所述字符序列中每个连续字符对出现的次数,将出现次数最高的字符对进行合并生成新字符序列,直至满足结束条件为止,以确定所述辅助语言子词。
在本公开的一种示例性实施例中,所述装置还包括:语言模型确定模块,用于将训练语料按照所述建模单元中的所述主要语言字符和所述辅助语言子词进行拆分得到拆分结果,并根据所述拆分结果生成所述语言模型。
在本公开的一种示例性实施例中,识别结果确定模块包括:路径确定模块,用于对所述建模单元的概率分布进行解码,确定所述待识别语音的候选解码路径;评估模块,用于结合所述语法得分对所述候选解码路径进行评估,确定所述待识别语音的识别结果。
在本公开的一种示例性实施例中,评估模块被配置为:将目标字符的声学模型得分与所述目标字符的语法得分进行综合,以得到所述候选解码路径的路径得分;将所述路径得分最高的候选解码路径作为所述识别结果。
此外,上述语音识别装置中各部分的具体细节在语音识别方法部分实施方式中已经详细说明,未披露的细节内容可以参见方法部分的实施方式内容,因而不再赘述。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
在本公开的实施例中,还提供了一种能够实现上述方法的电子设备。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图11来描述根据本公开的这种实施方式的电子设备1100。图11显示的电子设备1100仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图11所示,电子设备1100以通用计算设备的形式表现。电子设备1100的组件可以包括但不限于:上述至少一个处理单元1110、上述至少一个存储单元1120、连接不同系统组件(包括存储单元1120和处理单元1110)的总线1130以及显示单元1140。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元1110执行,使得所述处理单元1110执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,所述处理单元1110可以执行如图2中所示的步骤。
存储单元1120可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)11201和/或高速缓存存储单元11202,还可以进一步包括只读存储单元(ROM)11203。
存储单元1120还可以包括具有一组(至少一个)程序模块11205的程序/实用工具11204,这样的程序模块11205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线1130可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速接口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备1100也可以与一个或多个外部设备1200(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备1100交互的设备通信,和/或与使得该电子设备1100能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口1150进行。并且,电子设备1100还可以通过网络适配器1160与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器1160通过总线1130与电子设备1100的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备1100使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
在本公开的实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
根据本公开的实施方式的用于实现上述方法的程序产品,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本公开实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限。
Claims (11)
1.一种语音识别方法,其特征在于,包括:
获取待识别语音,并对所述待识别语音进行特征提取获取语音特征;
通过结合建模单元构建的声学模型对所述语音特征进行预测处理,确定所述待识别语音的建模单元的概率分布;所述建模单元包括主要语言字符和辅助语言子词;
基于所述主要语言字符和所述辅助语言子词构建的语言模型对所述待识别语音进行识别处理,确定所述待识别语音的语法得分;
结合所述概率分布以及所述语法得分,确定所述待识别语音的识别结果。
2.根据权利要求1所述的语音识别方法,其特征在于,所述方法还包括:
获取训练语料,并对所述训练语料进行特征提取,确定所述训练语料的参考语音特征;
结合所述参考语音特征以及所述建模单元中的所述主要语言字符和所述辅助语言子词对声学神经网络模型进行模型训练,得到声学模型。
3.根据权利要求2所述的语音识别方法,其特征在于,所述对所述训练语料进行特征提取,确定所述训练语料的参考语音特征,包括;
对所述训练语料进行分帧加窗操作,以获取多个语音帧;
将所述多个语音帧进行变换处理,获取所述参考语音特征。
4.根据权利要求2所述的语音识别方法,其特征在于,所述结合所述参考语音特征以及所述建模单元对声学神经网络模型进行模型训练,得到声学模型,包括:
将所述参考语音特征输入至所述声学神经网络模型,确定所述参考语音特征对应的预测标签的概率分布;
将所述预测标签与所述建模单元表示的真实标签进行对比,根据所述预测标签和所述真实标签之间的距离确定损失函数;
根据所述损失函数调整所述神经网络模型的模型参数,直至所述损失函数最小,以得到所述声学模型。
5.根据权利要求1所述的语音识别方法,其特征在于,所述方法还包括:
将训练语料按照最小粒度进行拆分,得到字符序列;
统计所述字符序列中每个连续字符对出现的次数,将出现次数最高的字符对进行合并生成新字符序列,直至满足结束条件为止,以确定所述辅助语言子词。
6.根据权利要求1所述的语音识别方法,其特征在于,所述方法还包括:
将训练语料按照所述建模单元中的所述主要语言字符和所述辅助语言子词进行拆分得到拆分结果,并根据所述拆分结果生成所述语言模型。
7.根据权利要求1所述的语音识别方法,其特征在于,所述结合所述概率分布以及所述语法得分,确定所述待识别语音的识别结果,包括:
对所述建模单元的概率分布进行解码,确定所述待识别语音的候选解码路径;
结合所述语法得分对所述候选解码路径进行评估,确定所述待识别语音的识别结果。
8.根据权利要求7所述的语音识别方法,其特征在于,所述结合所述语法得分对所述候选解码路径进行评估,确定所述待识别语音的识别结果,包括:
将目标字符的声学模型得分与所述目标字符的语法得分进行综合,以得到所述候选解码路径的路径得分;
将所述路径得分最高的候选解码路径作为所述识别结果。
9.一种语音识别装置,其特征在于,包括:
特征提取模块,用于获取待识别语音,并对所述待识别语音进行特征提取获取语音特征;
概率确定模块,用于通过结合建模单元构建的声学模型对所述语音特征进行预测处理,确定所述待识别语音的建模单元的概率分布;所述建模单元包括主要语言字符和辅助语言子词;
语法得分确定模块,用于基于所述主要语言字符和所述辅助语言子词构建的语言模型对所述待识别语音进行识别处理,确定所述待识别语音的语法得分;
识别结果确定模块,用于结合所述概率分布以及所述语法得分,确定所述待识别语音的识别结果。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-8任意一项所述的语音识别方法。
11.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-8任意一项所述的语音识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111214686.0A CN113990293A (zh) | 2021-10-19 | 2021-10-19 | 语音识别方法及装置、存储介质、电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111214686.0A CN113990293A (zh) | 2021-10-19 | 2021-10-19 | 语音识别方法及装置、存储介质、电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113990293A true CN113990293A (zh) | 2022-01-28 |
Family
ID=79739302
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111214686.0A Pending CN113990293A (zh) | 2021-10-19 | 2021-10-19 | 语音识别方法及装置、存储介质、电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113990293A (zh) |
-
2021
- 2021-10-19 CN CN202111214686.0A patent/CN113990293A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109887497B (zh) | 语音识别的建模方法、装置及设备 | |
CN111369996B (zh) | 一种特定领域的语音识别文本纠错方法 | |
CN108417210B (zh) | 一种词嵌入语言模型训练方法、词语识别方法及系统 | |
CN111667816B (zh) | 模型训练方法、语音合成方法、装置、设备和存储介质 | |
US9368108B2 (en) | Speech recognition method and device | |
CN109754809B (zh) | 语音识别方法、装置、电子设备及存储介质 | |
JP7092953B2 (ja) | エンドツーエンドモデルによる多言語音声認識のための音素に基づく文脈解析 | |
KR20170022445A (ko) | 통합 모델 기반의 음성 인식 장치 및 방법 | |
CN111402861B (zh) | 一种语音识别方法、装置、设备及存储介质 | |
US20160147740A1 (en) | Adapting machine translation data using damaging channel model | |
CN111243599B (zh) | 语音识别模型构建方法、装置、介质及电子设备 | |
CN112397056B (zh) | 语音评测方法及计算机存储介质 | |
CN112466279B (zh) | 一种英语口语发音自动纠正方法和装置 | |
CN111414745A (zh) | 文本标点确定方法与装置、存储介质、电子设备 | |
Sokolov et al. | Neural machine translation for multilingual grapheme-to-phoneme conversion | |
CN110503956B (zh) | 语音识别方法、装置、介质及电子设备 | |
CN112216284A (zh) | 训练数据更新方法及系统、语音识别方法及系统、设备 | |
CN117099157A (zh) | 用于端到端自动语音识别置信度和删除估计的多任务学习 | |
WO2024001662A1 (zh) | 语音识别方法、装置、设备和存储介质 | |
CN113990293A (zh) | 语音识别方法及装置、存储介质、电子设备 | |
Mann et al. | Tamil talk: What you speak is what you get! | |
CN114067783A (zh) | 语音识别方法、语音识别装置、存储介质及电子设备 | |
CN113362801A (zh) | 基于梅尔谱对齐的音频合成方法、系统、设备及存储介质 | |
CN112908359A (zh) | 语音测评方法、装置、电子设备及计算机可读介质 | |
CN111883133A (zh) | 客服语音识别方法、装置、服务器及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |