CN105529027B - 语音识别方法和装置 - Google Patents
语音识别方法和装置 Download PDFInfo
- Publication number
- CN105529027B CN105529027B CN201510925644.6A CN201510925644A CN105529027B CN 105529027 B CN105529027 B CN 105529027B CN 201510925644 A CN201510925644 A CN 201510925644A CN 105529027 B CN105529027 B CN 105529027B
- Authority
- CN
- China
- Prior art keywords
- score
- decoding
- path
- decoding paths
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 83
- 230000009191 jumping Effects 0.000 claims description 11
- 238000012216 screening Methods 0.000 claims description 11
- 238000010586 diagram Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 8
- 238000005520 cutting process Methods 0.000 description 6
- 238000003860 storage Methods 0.000 description 5
- 239000000203 mixture Substances 0.000 description 4
- 150000001875 compounds Chemical class 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000009432 framing Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000013138 pruning Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 210000003733 optic disk Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004540 process dynamic Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0631—Creating reference templates; Clustering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Telephonic Communication Services (AREA)
- Machine Translation (AREA)
Abstract
本发明提出一种语音识别方法和装置,其中,该语音识别方法,包括以下步骤:接收语音信号;根据预先建立的声学模型、语言模型和解码网络对所述语音信号进行解码,并在解码过程中动态添加空白单元,以得到添加空白单元后的最优解码路径,其中,所述声学模型是基于连接时序分类训练得到的,所述声学模型中包括基本发音单元和所述空白单元,所述解码网络由所述基本发音单元构成的多个解码路径组成;将所述最优解码路径输出为所述语音信号的识别结果。本发明的语音识别方法,能够提高语音识别的准确性,并提高识别过程中的解码速度。
Description
技术领域
本发明涉及语音识别技术领域,特别涉及一种语音识别方法和装置。
背景技术
传统的语音识别技术,大多是基于状态建模的语音识别模型进行语音识别的。例如,基于隐马尔科夫模型(Hidden Markov Model;以下简称:HMM)进行语音识别。HMM可以看作一个数学上的双重随机过程:一个是用具有有限状态数的马尔科夫Markov链来模拟语音信号统计特性变化的隐含的随机过程,另一个是与马尔科夫Markov链的每一个状态相关联的观测序列的随机过程。在这种建模方式中,一个音素或者一个音节被认为可分为多个没有物理意义的状态,然后采用离散或者连续高斯模型或深度学习模型描述每个状态的输出分布。但是,基于状态建模的方式,在语音识别的过程中,在对两个发音单元之间处进行识别时,容易出现混淆,识别性能较差。
发明内容
本发明旨在至少在一定程度上解决上述技术问题。
为此,本发明的第一个目的在于提出一种语音识别方法,能够提高语音识别的准确性,并提高识别过程中的解码速度。
本发明的第二个目的在于提出一种语音识别装置。
为达上述目的,根据本发明第一方面实施例提出了一种语音识别方法,包括以下步骤:接收语音信号;根据预先建立的声学模型、语言模型和解码网络对所述语音信号进行解码,并在解码过程中动态添加空白单元,以得到添加空白单元后的最优解码路径,其中,所述声学模型是基于连接时序分类训练得到的,所述声学模型中包括基本发音单元和所述空白单元,所述解码网络由所述基本发音单元构成的多个解码路径组成;将所述最优解码路径输出为所述语音信号的识别结果。
本发明实施例的语音识别方法,基于连接时序分类构建的声学模型和解码网络对语音信号进行解码,并在解码过程中动态添加空白单元,以得到添加空白单元后的最优解码路径,并作为语音信号的识别结果,能够解决两个发音单元中间出现混淆的问题,提高语音识别的准确性,并能够有效减少可能的解码路径,提高识别过程中的解码速度。
本发明第二方面实施例提出了一种语音识别装置,包括:接收模块,用于接收语音信号;解码模块,用于根据预先建立的声学模型、语言模型和解码网络对所述语音信号进行解码,并在解码过程中动态添加空白单元,以得到添加空白单元后的最优解码路径,其中,所述声学模型是基于连接时序分类训练得到的,所述声学模型中包括基本发音单元和所述空白单元,所述解码网络由所述基本发音单元构成的多个解码路径组成;输出模块,用于将所述最优解码路径输出为所述语音信号的识别结果。
本发明实施例的语音识别装置,基于连接时序分类构建的声学模型和解码网络对语音信号进行解码,并在解码过程中动态添加空白单元,以得到添加空白单元后的最优解码路径,并作为语音信号的识别结果,能够解决两个发音单元中间出现混淆的问题,提高语音识别的准确性,并能够有效减少可能的解码路径,提高识别过程中的解码速度。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明一个实施例的语音识别方法的流程图;
图2为根据本发明一个实施例中解码网络的示意图;
图3为根据本发明另一个实施例的语音识别方法的流程图;
图4a为根据本发明一个实施例的解码网络中的节点S的示意图;
图4b为根据本发明一个实施例的对图4a中节点S添加blank节点后的拓扑图;
图5为本发明一个实施例的语音识别方法中两个发音单元中间识别混淆的示意图;
图6为根据本发明一个实施例的语音识别装置的结构示意图一;
图7为根据本发明一个实施例的语音识别装置的结构示意图二;
图8为根据本发明一个实施例的语音识别装置的结构示意图三;
图9为根据本发明一个实施例的语音识别装置的结构示意图四。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,术语“多个”指两个或两个以上;术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性。
下面参考附图描述根据本发明实施例的语音识别方法和装置。
一种语音识别方法,包括以下步骤:接收语音信号;根据预先建立的声学模型、语言模型和解码网络对语音信号进行解码,并在解码过程中动态添加空白单元,以得到添加空白单元后的最优解码路径,其中,声学模型是基于连接时序分类训练得到的,声学模型中包括基本发音单元和空白单元,解码网络由基本发音单元构成的多个解码路径组成;将最优解码路径输出为语音信号的识别结果。
图1为根据本发明一个实施例的语音识别方法的流程图。
如图1所示,根据本发明实施例的语音识别方法,包括以下步骤。
S101,接收语音信号。
S102,根据预先建立的声学模型、语言模型和解码网络对语音信号进行解码,并在解码过程中动态添加空白单元,以得到添加空白单元后的最优解码路径,其中,声学模型是基于连接时序分类训练得到的,声学模型中包括基本发音单元和空白单元,解码网络由基本发音单元构成的多个解码路径组成。
在本发明的一个实施例中,预先建立的声学模型是基于CTC(connectionisttemporal classification,连接时序分类)技术训练得到的。具体地,可对大量的语音信号进行特征提取,以得到各语音信号的特征向量。然后在特征向量中每隔预定数量的发音单元添加空白标签,并基于连接时序分类对添加所述空白标签后的语音信号进行训练,建立声学模型。其中,声学模型中包括多个基本发音单元和空白单元。
语言模型可为现有的或者未来可能出现的任意语言模型本发明对此不做限定。
声学模型中的多个基本发音单元及其之间的跳转关系(即跳转路径)可以形成大量的解码路径,这些解码路径即可构成解码网络。
其中,基本发音单元可为完整的声母或韵母,可被称为音素。
举例来说,图2为根据本发明一个实施例中解码网络的示意图。如图2所示,其中,虚线圆圈用于标识解码路径的开始,实线圆圈(如A和B)表示解码网络中的基本发音单元,箭头标识基本发音单元之间的跳转路径。由图2可知,解码网络中存在多个解码路径。每条解码路径为对语音信号进行解码时的一种可能解码结果。
在本发明的实施例中,对语音信号进行解码的过程即为根据语音信号的特征向量帧从解码网络中的多个解码路径中选择最优解码路径的过程。
在本发明的一个实施例中,如图3所示,S102可具体包括S201-S204:
S201,根据解码网络中的跳转路径,对当前各解码路径进行扩展,并在扩展过程中动态添加空白单元,以得到添加空白单元后的至少一个扩展路径。
对解码路径进行扩展的过程,即从解码网络中起始位置沿着各个基本发音单元之间的跳转路径向解码网络的结束位置一步步前进的过程。
举例来说,如果已经完成语音信号到达特征向量帧i扩展,并得到了至少一个解码路径(可称为当前解码路径),假设特征向量帧i在其中一个当前解码路径中对应的基本发音单元为A,则可根据解码网络中基本发音单元A的各个跳转路径分别对当前解码路径进行进一步扩展以得到可能的扩展路径。其中,在解码网络中每前进一步表示语音信号中的特征向量帧i跳转至特征向量帧i+1的一个可能的跳转路径。
在本发明的实施例中,随着路径扩展的进行,扩展到达一个基本发音单元时,可为该基本发音单元添加空白(black)单元,并添加空白单元相关的跳转路径。具体地,可确定各解码路径当前扩展到的第一基本发音单元;为第一基本发音单元添加由第一基本发音单元跳转至空白单元、由空白单元跳转至自身的跳转路径,以生成针对第一基本发音单元添加空白单元之后的至少一个扩展路径。
举例来说,对于图4a中的解码网络中的节点S,其添加空白(black)单元之后的拓扑图可如图4b所示,在原来的S—>S(即由S跳转至S)的路径基础上增加了S—>blank以及blank—>blank的路径。由此,相当于在基于解码网络中的跳转路径的基础上,在扩展到一个基本发音单元时,为该基本发音单元添加了空白单元相关的跳转路径,并根据添加的跳转路径对当前解码路径进行扩展。
由此,在解码路径中在进入S后,能够得到“S—>S(可重复若干次,次数大于或等于0),S—>blank,blank—>blank(可重复若干次,次数大于或等于0),blank—>出口(解码路径中个S的下一个基本发音单元)”的可能扩展路径。其中的每一步跳转都表示语音信号中的特征向量帧的跳转。
其中,blank单元表示非发音单元,可用于标识语音信号中音素间以及词间的停顿。本发明的实施例通过针对每个发音单元添加blank单元较好地解决了两个发音单元中间混淆处的帧分类问题,传统的“强制对齐”对两个发音单元中间混淆处一般分类为左边标签、右边标签或者短停顿,这样容易导致对两个发音单元中间混淆处的识别不准确,出现混淆。如图5中方框框住的部分所示,图5为本发明一个实施例的语音识别方法中两个发音单元中间识别混淆的示意图,从图5中可以看出,而采用添加blank单元的方式则不会出现混淆,可以提高语音识别的准确率。
此外,本发明的实施例,在扩展的过程中动态添加blank单元,也就是说,当扩展到基本发音单元时,才在该基本发音单元处添加blank单元相关的跳转路径,将基本发音单元的跳转路径与blank单元相关跳转路径进行了合并保留,能够有效减少可能的解码路径,从而加速解码过程。
S202,根据从语音信号中提取的当前特征向量帧在声学模型和语言模型上分别获取所述至少一个扩展路径的得分。
举例来说,对于上述示例中由基本发音单元为A的跳转路径扩展得到的可能的扩展路径,可根据特征向量帧i+1在声学模型和语言模型上确定各个可能的扩展路径的得分。后续可根据得分对可能的扩展路径进行筛选,以得到到达特征向量帧i+1时语音信号对应的解码路径(S203)。
其中,扩展路径的得分为扩展路径上各个基本发音单元的声学模型得分和语言模型得分的总和。具体地,举例来说,假设在扩展路径中基本发音单元为A跳转到基本发音单元B,则可根据声学模型获得B的声学模型得分,并根据语言模型得到B的语言模型得分,并将B的声学模型得分和语言模型得分都累计到未扩展到B之前的解码路径的得分上,从而得到扩展路径的得分。获取基本发音单元的声学模型得分和语言模型得分与现有技术相同,在此不再详细说明。
S203,根据得分对所述至少一个扩展路径进行筛选,并根据筛选结果更新当前解码路径。
其中,更新后的当前解码路径相对于更新前的解码路径来说,增加了与特征向量帧i+1对应的单元节点(可能为基本发音单元,也可能为blank单元)。
在本发明的实施例中,根据得分筛选扩展路径可有多种方法。例如选取得分较高的预设数量的扩展路径作为新的当前解码路径。
在本发明的一个实施例中,也可分别获取所述至少一个扩展路径的得分与当前各解码路径中的最高得分的差值,如果扩展路径的得分与所述最高得分的差值小于预设阈值,则将扩展路径作为新的当前解码路径。
当然,本发明并不仅限于上述列举的方法,通过其他筛选规则进行筛选的方法均适用于本发明。
由于基于CTC技术训练出的声学模型,其得分具有典型的尖峰现象,即当语音信号的一个特征向量帧位于某个基本发音单元处时,则对于该特征向量帧来说,该基本发音单元的声学模型得分会明显高于其他单元的得分。而对于不在基本发音单元处的特征向量帧来说,blank单元的得分要明显高于其他单元。也就是说,如果对于某一特征向量帧来说,blank单元的得分最高时,表示该特征向量帧并未处于任何一个基本发音单元。
为了减少解码过程中可能的解码路径的数量,可在路径扩展的过程中进行路径裁剪。因此,本发明的实施例中,可基于上述尖峰现象,根据扩展路径中基本发音单元以及该基本发音单元对应的blank单元的得分制定裁剪策略。
具体地,在本发明的一个实施例中,可根据当前特征向量帧分别获取空白单元的得分和第一基本发音单元的得分;如果第一基本发音单元的得分小于空白单元的得分,则在判断进入第一基本发音单元的扩展路径能否作为新的当前解码路径时,降低所述预设阈值。其中,得分为语言模型得分与声学模型得分之和。
举例来说,在上述示例中,在解码路径到达基本发音单元A后,可获取当前特征向量帧(即特征向量帧i+1)在A处的得分以及当前特征向量帧在blank处的得分。如果当前特征向量帧在A处的得分小于在blank处的得分,则表示有两种可能,一、当前特征向量帧应该处于blank,或者二、当前特征向量帧处于比blank得分高的单元。因此,应当在判断进入基本发音单元A的扩展路径能否作为新的当前解码路径时,应当收窄裁剪阈值,即减小上述预设阈值,以对进入基本发音单元A的扩展路径进行更严格的裁剪。从而能够减少扩展路径的数量,提高解码速度。
进一步地,在本发明的一个实施例中,还可判断所述至少一个扩展路径是否到达词尾;如果扩展路径到达词尾,则在判断到达词尾的扩展路径能否作为新的当前解码路径时,降低预设阈值。
由于在解码过程中,当解码路径到达词尾时,需要查询该解码路径的实际语言模型得分。因此,在判断到达词尾的扩展路径能否作为新的当前解码路径时,降低所述预设阈值,能够对达词尾的扩展路径进行更严格的裁剪,以减少扩展路径,从而能够减少查询语言模型得分的次数,进一步提高解码速度。
S204,如果当前特征向量帧为语音信号的最后特征向量帧,则根据得分从更新后的当前解码路径中选择最优解码路径。
如果当前特征向量帧为语音信号的最后特征向量帧,则表示路径扩展已经完成,因此,可从得到所有解码路径中选择一条最优解码路径。具体地,可根据每条解码路径的得分从当前解码路径中选择得分最高的解码路径作为最优解码路径。
S103,将最优解码路径输出为语音信号的识别结果。
本发明实施例的语音识别方法,基于连接时序分类构建的声学模型和解码网络对语音信号进行解码,并在解码过程中动态添加空白单元,以得到添加空白单元后的最优解码路径,并作为语音信号的识别结果,能够解决两个发音单元中间出现混淆的问题,提高语音识别的准确性,并能够有效减少可能的解码路径,提高识别过程中的解码速度。
为了实现上述实施例,本发明还提出一种语音识别装置。
一种语音识别装置,包括:接收模块,用于接收语音信号;解码模块,用于根据预先建立的声学模型、语言模型和解码网络对语音信号进行解码,并在解码过程中动态添加空白单元,以得到添加空白单元后的最优解码路径,其中,声学模型是基于连接时序分类训练得到的,声学模型中包括基本发音单元和空白单元,解码网络由基本发音单元构成的多个解码路径组成;输出模块,用于将最优解码路径输出为语音信号的识别结果。
图6为根据本发明一个实施例的语音识别装置的结构示意图一。
如图6所示,根据本发明实施例的语音识别装置,包括:接收模块10、解码模块20和输出模块30。
具体地,接收模块10用于接收语音信号。
解码模块20用于根据预先建立的声学模型、语言模型和解码网络对语音信号进行解码,并在解码过程中动态添加空白单元,以得到添加空白单元后的最优解码路径,其中,声学模型是基于连接时序分类训练得到的,声学模型中包括基本发音单元和空白单元,解码网络由基本发音单元构成的多个解码路径组成。
在本发明的一个实施例中,预先建立的声学模型是基于CTC(connectionisttemporal classification,连接时序分类)技术训练得到的。具体地,可对大量的语音信号进行特征提取,以得到各语音信号的特征向量。然后在特征向量中每隔预定数量的发音单元添加空白标签,并基于连接时序分类对添加所述空白标签后的语音信号进行训练,建立声学模型。其中,声学模型中包括多个基本发音单元和空白单元。
语言模型可为现有的或者未来可能出现的任意语言模型本发明对此不做限定。
声学模型中的多个基本发音单元及其之间的跳转关系(即跳转路径)可以形成大量的解码路径,这些解码路径即可构成解码网络。
其中,基本发音单元可为完整的声母或韵母,可被称为音素。
举例来说,图2为根据本发明一个实施例中解码网络的示意图。如图2所示,其中,虚线圆圈用于标识解码路径的开始,实线圆圈(如A和B)表示解码网络中的基本发音单元,箭头标识基本发音单元之间的跳转路径。由图2可知,解码网络中存在多个解码路径。每条解码路径为对语音信号进行解码时的一种可能解码结果。
在本发明的实施例中,对语音信号进行解码的过程即为根据语音信号的特征向量帧从解码网络中的多个解码路径中选择最优解码路径的过程。
在本发明的一个实施例中,如图7所示,解码模块20可具体包括:扩展单元21、添加单元22、第一获取单元23、筛选单元24和选择单元25。
扩展单元21用于根据解码网络中的跳转路径,对当前各解码路径进行扩展。
扩展单元21对解码路径进行扩展的过程,即从解码网络中起始位置沿着各个基本发音单元之间的跳转路径向解码网络的结束位置一步步前进的过程。
举例来说,如果已经完成语音信号到达特征向量帧i扩展,并得到了至少一个解码路径(可称为当前解码路径),假设特征向量帧i在其中一个当前解码路径中对应的基本发音单元为A,则扩展单元21可根据解码网络中基本发音单元A的各个跳转路径分别对当前解码路径进行进一步扩展以得到可能的扩展路径。其中,在解码网络中每前进一步表示语音信号中的特征向量帧i跳转至特征向量帧i+1的一个可能的跳转路径。
添加单元22用于在扩展过程中动态添加空白单元,以得到添加空白单元后的至少一个扩展路径。
在本发明的实施例中,随着路径扩展的进行,扩展到达一个基本发音单元时,添加单元22可为该基本发音单元添加空白(black)单元,并添加空白单元相关的跳转路径。具体地,添加单元22可用于:确定各解码路径当前扩展到的第一基本发音单元;为第一基本发音单元添加由第一基本发音单元跳转至空白单元、由空白单元跳转至自身的跳转路径,以生成针对第一基本发音单元添加空白单元之后的至少一个扩展路径。
举例来说,对于图4a中的解码网络中的节点S,其添加空白(black)单元之后的拓扑图可如图4b所示,在原来的S—>S(即由S跳转至S)的路径基础上增加了S—>blank以及blank—>blank的路径。由此,相当于在基于解码网络中的跳转路径的基础上,在扩展到一个基本发音单元时,为该基本发音单元添加了空白单元相关的跳转路径,并根据添加的跳转路径对当前解码路径进行扩展。
由此,在解码路径中在进入S后,能够得到“S—>S(可重复若干次,次数大于或等于0),S—>blank,blank—>blank(可重复若干次,次数大于或等于0),blank—>出口(解码路径中个S的下一个基本发音单元)”的可能扩展路径。其中的每一步跳转都表示语音信号中的特征向量帧的跳转。
其中,blank单元表示非发音单元,可用于标识语音信号中音素间以及词间的停顿。本发明的实施例通过针对每个发音单元添加blank单元较好地解决了两个发音单元中间混淆处的帧分类问题,传统的“强制对齐”对两个发音单元中间混淆处一般分类为左边标签、右边标签或者短停顿,这样容易导致对两个发音单元中间混淆处的识别不准确,出现混淆。如图5中方框框住的部分所示,图5为本发明一个实施例的语音识别方法中两个发音单元中间识别混淆的示意图,从图5中可以看出,而采用添加blank单元的方式则不会出现混淆,可以提高语音识别的准确率。
此外,本发明的实施例,在扩展的过程中动态添加blank单元,也就是说,当扩展到基本发音单元时,才在该基本发音单元处添加blank单元相关的跳转路径,将基本发音单元的跳转路径与blank单元相关跳转路径进行了合并保留,能够有效减少可能的解码路径,从而加速解码过程。
第一获取单元23用于根据从语音信号中提取的当前特征向量帧在声学模型和语言模型上分别获取所述至少一个扩展路径的得分。
举例来说,对于上述示例中由基本发音单元为A的跳转路径扩展得到的可能的扩展路径,第一获取单元23可根据特征向量帧i+1在声学模型和语言模型上确定各个可能的扩展路径的得分。后续筛选单元24可根据得分对可能的扩展路径进行筛选,以得到到达特征向量帧i+1时语音信号对应的解码路径。
其中,扩展路径的得分为扩展路径上各个基本发音单元的声学模型得分和语言模型得分的总和。具体地,举例来说,假设在扩展路径中基本发音单元为A跳转到基本发音单元B,则第一获取单元23可根据声学模型获得B的声学模型得分,并根据语言模型得到B的语言模型得分,并将B的声学模型得分和语言模型得分都累计到未扩展到B之前的解码路径的得分上,从而得到扩展路径的得分。获取基本发音单元的声学模型得分和语言模型得分与现有技术相同,在此不再详细说明。
筛选单元24用于根据得分对所述至少一个扩展路径进行筛选,并根据筛选结果更新当前解码路径。
其中,更新后的当前解码路径相对于更新前的解码路径来说,增加了与特征向量帧i+1对应的单元节点(可能为基本发音单元,也可能为blank单元)。
在本发明的实施例中,筛选单元24根据得分筛选扩展路径可有多种方法。例如筛选单元24可选取得分较高的预设数量的扩展路径作为新的当前解码路径。
在本发明的一个实施例中,筛选单元24也可用于:分别获取所述至少一个扩展路径的得分与当前各解码路径中的最高得分的差值;如果扩展路径的得分与最高得分的差值小于预设阈值,则将扩展路径作为新的当前解码路径。
当然,本发明并不仅限于上述列举的方法,通过其他筛选规则进行筛选的方法均适用于本发明。
选择单元25用于如果当前特征向量帧为语音信号的最后特征向量帧,则根据得分从更新后的当前解码路径中选择最优解码路径。
如果当前特征向量帧为语音信号的最后特征向量帧,则表示路径扩展已经完成,因此,选择单元25可从得到所有解码路径中选择一条最优解码路径。具体地,选择单元25可根据每条解码路径的得分从当前解码路径中选择得分最高的解码路径作为最优解码路径。
输出模块30用于将最优解码路径输出为语音信号的识别结果。
本发明实施例的语音识别装置,基于连接时序分类构建的声学模型和解码网络对语音信号进行解码,并在解码过程中动态添加空白单元,以得到添加空白单元后的最优解码路径,并作为语音信号的识别结果,能够解决两个发音单元中间出现混淆的问题,提高语音识别的准确性,并能够有效减少可能的解码路径,提高识别过程中的解码速度。
由于基于CTC技术训练出的声学模型,其得分具有典型的尖峰现象,即当语音信号的一个特征向量帧位于某个基本发音单元处时,则对于该特征向量帧来说,该基本发音单元的声学模型得分会明显高于其他单元的得分。而对于不在基本发音单元处的特征向量帧来说,blank单元的得分要明显高于其他单元。也就是说,如果对于某一特征向量帧来说,blank单元的得分最高时,表示该特征向量帧并未处于任何一个基本发音单元。
为了减少解码过程中可能的解码路径的数量,可在路径扩展的过程中进行路径裁剪。因此,本发明的实施例中,可基于上述尖峰现象,根据扩展路径中基本发音单元以及该基本发音单元对应的blank单元的得分制定裁剪策略。
下面以图8和图9进行示例性说明。
图8为根据本发明一个实施例的语音识别装置的结构示意图三。
如图8所示,本发明的实施例的语音识别装置中,在图7的基础之上,解码模块20还可包括第二获取单元26和第一控制单元27。
其中,第二获取单元26用于根据当前特征向量帧分别获取空白单元的得分和第一基本发音单元的得分。
第一控制单元27用于当空白单元的得分小于第一基本发音单元的得分时,在判断进入第一基本发音单元的扩展路径能否作为新的当前解码路径时,降低预设阈值。其中,得分为语言模型得分与声学模型得分之和。
举例来说,在上述示例中,在解码路径到达基本发音单元A后,可获取当前特征向量帧(即特征向量帧i+1)在A处的得分以及当前特征向量帧在blank处的得分。如果当前特征向量帧在A处的得分小于在blank处的得分,则表示有两种可能,一、当前特征向量帧应该处于blank,或者二、当前特征向量帧处于比blank得分高的单元。因此,应当在判断进入基本发音单元A的扩展路径能否作为新的当前解码路径时,应当收窄裁剪阈值,即减小上述预设阈值,以对进入基本发音单元A的扩展路径进行更严格的裁剪。从而能够减少扩展路径的数量,提高解码速度。
图9为根据本发明一个实施例的语音识别装置的结构示意图四。
如图9所示,本发明的实施例的语音识别装置中,在图7的基础之上,解码模块20还可包括判断单元28和第二控制单元29。
判断单元28用于判断所述至少一个扩展路径是否到达词尾;
第二控制单元29用于在扩展路径到达词尾时,在判断到达词尾的扩展路径能否作为新的当前解码路径时,则降低所述预设阈值。
由于在解码过程中,当解码路径到达词尾时,需要查询该解码路径的实际语言模型得分。因此,在判断到达词尾的扩展路径能否作为新的当前解码路径时,降低所述预设阈值,能够对达词尾的扩展路径进行更严格的裁剪,以减少扩展路径,从而能够减少查询语言模型得分的次数,进一步提高解码速度。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.一种语音识别方法,其特征在于,包括以下步骤:
接收语音信号;
根据预先建立的声学模型、语言模型和解码网络对所述语音信号进行解码,并在解码过程中动态添加空白单元,以得到添加空白单元后的最优解码路径,其中,所述声学模型是基于连接时序分类训练得到的,所述声学模型中包括基本发音单元和所述空白单元,所述解码网络由所述基本发音单元构成的多个解码路径组成;
将所述最优解码路径输出为所述语音信号的识别结果;
其中,所述根据预先建立的声学模型、语言模型和解码网络对所述语音信号进行解码,并在解码过程中动态添加空白单元,以得到添加空白单元后的最优解码路径,包括:
根据所述解码网络中的跳转路径,对当前各解码路径进行扩展,并在扩展过程中动态添加空白单元,以得到添加空白单元后的至少一个扩展路径;
根据从所述语音信号中提取的当前特征向量帧在所述声学模型和所述语言模型上分别获取所述至少一个扩展路径的得分;
根据所述得分对所述至少一个扩展路径进行筛选,并根据筛选结果更新所述当前解码路径;
如果所述当前特征向量帧为所述语音信号的最后特征向量帧,则根据所述得分从所述更新后的当前解码路径中选择所述最优解码路径。
2.如权利要求1所述的方法,其特征在于,所述根据所述得分对所述至少一个扩展路径进行筛选,并根据筛选结果更新当前解码路径,包括:
分别获取所述至少一个扩展路径的得分与当前各解码路径中的最高得分的差值;
如果扩展路径的得分与所述最高得分的差值小于预设阈值,则将所述扩展路径作为新的当前解码路径。
3.如权利要求2所述的方法,其特征在于,所述在扩展过程中动态添加空白单元,包括:
确定所述各解码路径当前扩展到的第一基本发音单元;
为所述第一基本发音单元添加由所述第一基本发音单元跳转至所述空白单元、由所述空白单元跳转至自身的跳转路径,以生成针对所述第一基本发音单元添加空白单元之后的至少一个扩展路径。
4.如权利要求3所述的方法,其特征在于,还包括:
根据所述当前特征向量帧分别获取所述空白单元的得分和所述第一基本发音单元的得分;
如果所述空白单元的得分小于所述第一基本发音单元的得分,则在判断进入所述第一基本发音单元的扩展路径能否作为新的当前解码路径时,降低所述预设阈值。
5.如权利要求3所述的方法,其特征在于,还包括:
判断所述至少一个扩展路径是否到达词尾;
如果所述扩展路径到达词尾,则在判断所述到达词尾的扩展路径能否作为新的当前解码路径时,降低所述预设阈值。
6.一种语音识别装置,其特征在于,包括:
接收模块,接收语音信号;
解码模块,根据预先建立的声学模型、语言模型和解码网络对所述语音信号进行解码,并在解码过程中动态添加空白单元,以得到添加空白单元后的最优解码路径,其中,所述声学模型是基于连接时序分类训练得到的,所述声学模型中包括基本发音单元和所述空白单元,所述解码网络由所述基本发音单元构成的多个解码路径组成;
输出模块,将所述最优解码路径输出为所述语音信号的识别结果;
其中,所述解码模块包括:
扩展单元,用于根据所述解码网络中的跳转路径,对当前各解码路径进行扩展;
添加单元,用于在扩展过程中动态添加空白单元,以得到添加空白单元后的至少一个扩展路径;
第一获取单元,用于根据从所述语音信号中提取的当前特征向量帧在所述声学模型和所述语言模型上分别获取所述至少一个扩展路径的得分;
筛选单元,用于根据所述得分对所述至少一个扩展路径进行筛选,并根据筛选结果更新所述当前解码路径;
选择单元,用于如果所述当前特征向量帧为所述语音信号的最后特征向量帧,则根据所述得分从所述更新后的当前解码路径中选择所述最优解码路径。
7.如权利要求6所述的装置,其特征在于,所述筛选单元用于:
分别获取所述至少一个扩展路径的得分与当前各解码路径中的最高得分的差值;
如果扩展路径的得分与所述最高得分的差值小于预设阈值,则将所述扩展路径作为新的当前解码路径。
8.如权利要求7所述的装置,其特征在于,所述添加单元用于:
确定所述各解码路径当前扩展到的第一基本发音单元;
为所述第一基本发音单元添加由所述第一基本发音单元跳转至所述空白单元、由所述空白单元跳转至自身的跳转路径,以生成针对所述第一基本发音单元添加空白单元之后的至少一个扩展路径。
9.如权利要求8所述的装置,其特征在于,所述解码模块还包括:
第二获取单元,用于根据所述当前特征向量帧分别获取所述空白单元的得分和所述第一基本发音单元的得分;
第一控制单元,用于当所述空白单元的得分小于所述第一基本发音单元的得分时,在判断进入所述第一基本发音单元的扩展路径能否作为新的当前解码路径时,降低所述预设阈值。
10.如权利要求8所述的装置,其特征在于,所述解码模块还包括:
判断单元,用于判断所述至少一个扩展路径是否到达词尾;
第二控制单元,用于在所述扩展路径到达词尾时,在判断所述到达词尾的扩展路径能否作为新的当前解码路径时,则降低所述预设阈值。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510925644.6A CN105529027B (zh) | 2015-12-14 | 2015-12-14 | 语音识别方法和装置 |
PCT/CN2016/091765 WO2017101450A1 (zh) | 2015-12-14 | 2016-07-26 | 语音识别方法和装置 |
US15/758,159 US10650809B2 (en) | 2015-12-14 | 2016-07-26 | Speech recognition method and device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510925644.6A CN105529027B (zh) | 2015-12-14 | 2015-12-14 | 语音识别方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105529027A CN105529027A (zh) | 2016-04-27 |
CN105529027B true CN105529027B (zh) | 2019-05-31 |
Family
ID=55771204
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510925644.6A Active CN105529027B (zh) | 2015-12-14 | 2015-12-14 | 语音识别方法和装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10650809B2 (zh) |
CN (1) | CN105529027B (zh) |
WO (1) | WO2017101450A1 (zh) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105529027B (zh) | 2015-12-14 | 2019-05-31 | 百度在线网络技术(北京)有限公司 | 语音识别方法和装置 |
JP6618884B2 (ja) * | 2016-11-17 | 2019-12-11 | 株式会社東芝 | 認識装置、認識方法およびプログラム |
CN106531158A (zh) * | 2016-11-30 | 2017-03-22 | 北京理工大学 | 一种应答语音的识别方法及装置 |
CN108231089B (zh) * | 2016-12-09 | 2020-11-03 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音处理方法及装置 |
CN108269568B (zh) * | 2017-01-03 | 2021-07-30 | 中国科学院声学研究所 | 一种基于ctc的声学模型训练方法 |
JP6599914B2 (ja) * | 2017-03-09 | 2019-10-30 | 株式会社東芝 | 音声認識装置、音声認識方法およびプログラム |
CN107680587A (zh) * | 2017-09-29 | 2018-02-09 | 百度在线网络技术(北京)有限公司 | 声学模型训练方法和装置 |
CN111081226B (zh) * | 2018-10-18 | 2024-02-13 | 北京搜狗科技发展有限公司 | 语音识别解码优化方法及装置 |
US11056098B1 (en) | 2018-11-28 | 2021-07-06 | Amazon Technologies, Inc. | Silent phonemes for tracking end of speech |
CN111477212B (zh) * | 2019-01-04 | 2023-10-24 | 阿里巴巴集团控股有限公司 | 内容识别、模型训练、数据处理方法、系统及设备 |
CN111429889B (zh) * | 2019-01-08 | 2023-04-28 | 百度在线网络技术(北京)有限公司 | 基于截断注意力的实时语音识别的方法、装置、设备以及计算机可读存储介质 |
CN110428819B (zh) * | 2019-05-21 | 2020-11-24 | 腾讯科技(深圳)有限公司 | 解码网络生成方法、语音识别方法、装置、设备及介质 |
CN110322884B (zh) * | 2019-07-09 | 2021-12-07 | 科大讯飞股份有限公司 | 一种解码网络的插词方法、装置、设备及存储介质 |
CN110444203B (zh) * | 2019-07-17 | 2024-02-27 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置及电子设备 |
CN110930979B (zh) * | 2019-11-29 | 2020-10-30 | 百度在线网络技术(北京)有限公司 | 一种语音识别模型训练方法、装置以及电子设备 |
US11475167B2 (en) | 2020-01-29 | 2022-10-18 | International Business Machines Corporation | Reserving one or more security modules for a secure guest |
US11049502B1 (en) * | 2020-03-18 | 2021-06-29 | Sas Institute Inc. | Speech audio pre-processing segmentation |
WO2022198474A1 (en) | 2021-03-24 | 2022-09-29 | Sas Institute Inc. | Speech-to-analytics framework with support for large n-gram corpora |
CN113539242A (zh) * | 2020-12-23 | 2021-10-22 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置、计算机设备及存储介质 |
CN113808594A (zh) * | 2021-02-09 | 2021-12-17 | 京东科技控股股份有限公司 | 编码节点处理方法、装置、计算机设备及存储介质 |
CN114067800B (zh) * | 2021-04-28 | 2023-07-18 | 北京有竹居网络技术有限公司 | 语音识别方法、装置和电子设备 |
CN113707137B (zh) * | 2021-08-30 | 2024-02-20 | 普强时代(珠海横琴)信息技术有限公司 | 解码实现方法及装置 |
KR102626954B1 (ko) * | 2023-04-20 | 2024-01-18 | 주식회사 덴컴 | 치과용 음성 인식 장치 및 이를 이용한 방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103065630A (zh) * | 2012-12-28 | 2013-04-24 | 安徽科大讯飞信息科技股份有限公司 | 用户个性化信息语音识别方法及系统 |
CN103065633A (zh) * | 2012-12-27 | 2013-04-24 | 安徽科大讯飞信息科技股份有限公司 | 一种语音识别解码效率优化方法 |
CN103151039A (zh) * | 2013-02-07 | 2013-06-12 | 中国科学院自动化研究所 | 一种基于向量机svm的说话者年龄段识别方法 |
CN105139864A (zh) * | 2015-08-17 | 2015-12-09 | 北京天诚盛业科技有限公司 | 语音识别方法和装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6466906B2 (en) * | 1999-01-06 | 2002-10-15 | Dspc Technologies Ltd. | Noise padding and normalization in dynamic time warping |
CN103794211B (zh) * | 2012-11-02 | 2017-03-01 | 北京百度网讯科技有限公司 | 一种语音识别方法及系统 |
CN105529027B (zh) * | 2015-12-14 | 2019-05-31 | 百度在线网络技术(北京)有限公司 | 语音识别方法和装置 |
-
2015
- 2015-12-14 CN CN201510925644.6A patent/CN105529027B/zh active Active
-
2016
- 2016-07-26 US US15/758,159 patent/US10650809B2/en active Active
- 2016-07-26 WO PCT/CN2016/091765 patent/WO2017101450A1/zh active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103065633A (zh) * | 2012-12-27 | 2013-04-24 | 安徽科大讯飞信息科技股份有限公司 | 一种语音识别解码效率优化方法 |
CN103065630A (zh) * | 2012-12-28 | 2013-04-24 | 安徽科大讯飞信息科技股份有限公司 | 用户个性化信息语音识别方法及系统 |
CN103151039A (zh) * | 2013-02-07 | 2013-06-12 | 中国科学院自动化研究所 | 一种基于向量机svm的说话者年龄段识别方法 |
CN105139864A (zh) * | 2015-08-17 | 2015-12-09 | 北京天诚盛业科技有限公司 | 语音识别方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2017101450A1 (zh) | 2017-06-22 |
CN105529027A (zh) | 2016-04-27 |
US10650809B2 (en) | 2020-05-12 |
US20180254039A1 (en) | 2018-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105529027B (zh) | 语音识别方法和装置 | |
CN107301860A (zh) | 基于中英文混合词典的语音识别方法及装置 | |
CN107195295A (zh) | 基于中英文混合词典的语音识别方法及装置 | |
US9865251B2 (en) | Text-to-speech method and multi-lingual speech synthesizer using the method | |
US20080177543A1 (en) | Stochastic Syllable Accent Recognition | |
CN106710585B (zh) | 语音交互过程中的多音字播报方法及系统 | |
CN104464751B (zh) | 发音韵律问题的检测方法及装置 | |
CN105551480B (zh) | 方言转换方法及装置 | |
Qian et al. | A cross-language state sharing and mapping approach to bilingual (Mandarin–English) TTS | |
CN103632663B (zh) | 一种基于hmm的蒙古语语音合成前端处理的方法 | |
CN102982811A (zh) | 一种基于实时解码的语音端点检测方法 | |
CN111369974B (zh) | 一种方言发音标注方法、语言识别方法及相关装置 | |
CN105336321B (zh) | 用于语音合成的音子切分方法和装置 | |
CA2564760A1 (en) | Speech analysis using statistical learning | |
CN104464755A (zh) | 语音评测方法和装置 | |
Streefkerk et al. | Acoustical features as predictors for prominence in read aloud dutch sentences used in ANN's. | |
CN1787072B (zh) | 基于韵律模型和参数选音的语音合成方法 | |
CN1331113C (zh) | 语音合成装置和方法 | |
KR100573870B1 (ko) | 대화체 연속음성인식을 위한 의사형태소 기반다중발음사전 구축 방법 및 그 시스템과 이를 이용한대화체 음성인식 방법 | |
KR20060067717A (ko) | 화행 정보를 이용한 대화체 음성합성 시스템 및 방법 | |
Liang et al. | A cross-language state mapping approach to bilingual (Mandarin-English) TTS | |
CN109389969B (zh) | 语料库优化方法及装置 | |
CN1674092B (zh) | 连续数字识别的声韵母跨词建模、解码方法及系统 | |
CN107924677A (zh) | 用于异常值识别以移除语音合成中的不良对准的系统和方法 | |
KR102605159B1 (ko) | 음성 인식 서비스를 제공하는 서버, 방법 및 컴퓨터 프로그램 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |