CN107093422A - 一种语音识别方法和语音识别系统 - Google Patents
一种语音识别方法和语音识别系统 Download PDFInfo
- Publication number
- CN107093422A CN107093422A CN201710015475.1A CN201710015475A CN107093422A CN 107093422 A CN107093422 A CN 107093422A CN 201710015475 A CN201710015475 A CN 201710015475A CN 107093422 A CN107093422 A CN 107093422A
- Authority
- CN
- China
- Prior art keywords
- acoustic model
- fundamental tone
- identification
- model
- recognition method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 230000015654 memory Effects 0.000 claims abstract description 31
- 238000001228 spectrum Methods 0.000 claims description 35
- 230000008569 process Effects 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 23
- 238000007596 consolidation process Methods 0.000 claims description 8
- 238000012805 post-processing Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 7
- 230000006403 short-term memory Effects 0.000 description 12
- 241001672694 Citrus reticulata Species 0.000 description 10
- 239000000284 extract Substances 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 241000208340 Araliaceae Species 0.000 description 3
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 3
- 235000003140 Panax quinquefolius Nutrition 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 235000008434 ginseng Nutrition 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 235000013399 edible fruits Nutrition 0.000 description 2
- 230000007787 long-term memory Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000000630 rising effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000004611 spectroscopical analysis Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
- G10L15/144—Training of HMMs
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
Abstract
本发明提供了一种语音识别方法和语音识别系统,其中,所述语音识别方法包括一下步骤:对获取的语音信号进行预处理;从所述语音信号中提取特征参数;采用语言模型和基于长短时记忆模型结构建立得到的声学模型对所述语音信号进行自动识别;对自动识别得到的语音信号进行后处理。根据本发明,采用长短时记忆模型结构可以表征更长时间内的基音曲线,提高建模精度以及语音识别精度。
Description
技术领域
本发明涉及语音识别领域,尤其涉及一种语音识别方法和语音识别系统。
背景技术
语音识别,也称为自动语音识别(Automatic Speech Recognition,ASR),其目标是将人类语音转换为计算机可读的文字或指令,是模式识别的一个重要分支。一个完整的语音识别系统一般包括语音信号预处理、特征提取、模型训练、声学模型、语言模型以及自然语言后处理等几大模块。
其中,声学模型的主要作用是用来辨识用户发什么样的音。对于一门具体的语言来说,需要采集该门语言数量众多的发音人的数据来进行训练,而且这些数据需要将对应的文字标记出来。近30年来,语音识别的声学模型建模方法有隐马尔科夫模型(HiddenMarkov Model,HMM)、高斯混合模型(Gaussian Mixture Model,GMM)以及目前占主流地位的深度神经网络模型(DNN/CNN/RNN)等。
目前语音识别技术路线为语言相关、说话人无关的统计模式识别技术,不同语言之间由于音系、音段和韵律表现方面的差异,声学模型的建模方法可以略有差异。西方语言(如英语、法语和德语等等) 绝大多数都是不带调的语言,建立声学模型时,可忽略基音信息,对最终系统的识别精度几无影响。而中文普通话是一种带调的语言,普通话一般可分为5个声调:第一声(阴平)、第二声(阳平)、第三声(上声)、第四声(去声)、第五声(轻声),这对于普通话的辨音识义非常重要。普通话里边存在大量的拼音相同但音调不同的词汇,如“睡觉”和“水饺”等等。这就需要我们在设计和实现普通话语音识别系统时,有必要显式考虑音调的因素。在模型训练阶段,将基音信息充分考虑进去。并在识别解码阶段,正确运用相关模型辅助判决。
在语音信号分析过程中,语音信号中往往有清音(unvoiced)段和浊音(voiced)段。一般认为清音段没有基音(或者说基音),浊音段有基音(或者说基音)。这种特性对基音建模有直接影响。
基音信息在普通话的声调辨识中起着重要作用。
其中,在声学模型的各种模型中,比如:将基音信息作为一维特征与谱参数的多维特征组成联合特征,进行模型训练。在HMM/GMM 中,以一个流(stream)进行处理。这种方法的问题是:由于清音段没有基音,只能通过插值来补全,与实际情况偏差很大,而且逐帧求出的基音值很难准确,最终的效果并不理想。
考虑到清音段无基音和浊音段有基音这种特点,利用 MSD(Multi-SpaceDistribution)模型对基音进行建模。这种方法对处理清音和浊音的二元特性比较有效,但仍不能充分反映相邻帧之间基音上的相关性。
再比如:利用深度神经网络(Deep Neural Network)将基音和谱参数一起建模,但特征不具有归一化,谱参数和基音在解码时不分离,易引入额外的误差,导致识别精度降低。
为此,亟待提供一种识别精度高的建模方式。
发明内容
本发明的目的是提供一种在声学模型中建模精度高、识别精度高的语音识别方法和语音识别系统。
根据本发明的一个方面,提供一种语音识别方法,其中,所述语音识别方法包括以下步骤:
对获取的语音信号进行预处理;
从所述语音信号中提取特征参数;
采用语言模型和基于长短时记忆模型结构建立得到的声学模型对所述语音信号进行自动识别;
对自动识别得到的语音信号进行后处理。
其中,声学模型的建立包括特征选取步骤,所述特征选取步骤包括:
将连续若干帧的基音组合形成一特征向量;
对所述特征向量进行归整化处理;
将归整化处理后的特征向量作为长短时记忆模型结构的输入参数。实现特征的归一化,提高识别精度。
其中,在对所述特征向量进行归整化处理的过程中,所述归整化处理在音节层面进行,具体过程包括:
根据同一个音节内部的基音曲线,算其平均值,
各帧基音对平均值取预定比值。以建立更为普适的精准基音模型。
其中,所述预定比值采用公式:
其中,Fk表示第k帧的基音,Fmean表示音节的平均基音,其中,表示第k帧基音相对于平均基音的比值,k为自然数。
其中,声学模型的建立包括:基于长短时记忆模型结构分别建立相互独立的谱参数声学模型和基音声学模型。
在声学模型的建立过程中,谱参数声学模型和基音声学模型相互独立建模,识别的过程中,谱参数声学模型和基音声学模型独立计算似然度和进行搜索,不会影响谱参数模型识别过程。相比采用谱参数和基音参数混在一起计算似然度的方案更灵活,并能避免音调不准导致识别率降低的问题。
其中,在解码识别过程中,先利用谱参数声学模型进行解码识别,再利用基音声学模型进行解码识别。以提高识别精准度。
其中,在基音声学模型解码识别过程中,对拼音相同、但调型不同的词序列进行重新打分以选取更为精准的词序列。以提高识别精准度。
其中,在利用谱参数声学模型进行解码识别中,判断谱参数声学模型的识别结果中是否包括相同的拼音,若不包含相同的拼音,则解码识别过程结束。
其中,在利用谱参数声学模型进行解码识别中,判断谱参数声学模型的识别结果中是否包括相同的拼音,若包含相同的拼音,则利用基音声学模型进行解码识别。以提高识别精准度。
根据本发明的另一个方面,本发明还提供了一种语音识别系统,所述语音识别系统包括:
预处理单元,用于对语音信号进行预处理;
提取单元,用于从所述语音信号中提取特征参数;
识别器,用于采用语言模型和基于长短时记忆模型结构建立得到的声学模型对所述语音信号进行自动识别;
后处理单元,用于对自动识别得到的结果进行后处理。
与现有技术相比,本发明具有以下优点:采用长短时记忆模型结构可以表征更长时间内的基音曲线,提高建模精度以及语音识别精度。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明一个实施例的语音识别方法的流程示意图;
图2为本发明一个实施例的语音识别系统的框图;
图3为本发明一个实施例的声学模型的总体模型结构示意图;
附图中相同或相似的附图标记代表相同或相似的部件。
具体实施方式
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各项操作描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。此外,各项操作的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
所述计算机设备包括用户设备与网络设备。其中,所述用户设备包括但不限于电脑、智能手机、PDA等;所述网络设备包括但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算 (Cloud Computing)的由大量计算机或网络服务器构成的云,其中,云计算是分布式计算的一种,由一群松散耦合的计算机集组成的一个超级虚拟计算机。其中,所述计算机设备可单独运行来实现本发明,也可接入网络并通过与网络中的其他计算机设备的交互操作来实现本发明。其中,所述计算机设备所处的网络包括但不限于互联网、广域网、城域网、局域网、VPN网络等。
需要说明的是,所述用户设备、网络设备和网络等仅为举例,其他现有的或今后可能出现的计算机设备或网络如可适用于本发明,也应包含在本发明保护范围以内,并以引用方式包含于此。
后面所讨论的方法(其中一些通过流程图示出)可以通过硬件、软件、固件、中间件、微代码、硬件描述语言或者其任意组合来实施。当用软件、固件、中间件或微代码来实施时,用以实施必要任务的程序代码或代码段可以被存储在机器或计算机可读介质(比如存储介质)中。(一个或多个)处理器可以实施必要的任务。
这里所公开的具体结构和功能细节仅仅是代表性的,并且是用于描述本发明的示例性实施例的目的。但是本发明可以通过许多替换形式来具体实现,并且不应当被解释成仅仅受限于这里所阐述的实施例。
应当理解的是,虽然在这里可能使用了术语“第一”、“第二”等等来描述各个单元,但是这些单元不应当受这些术语限制。使用这些术语仅仅是为了将一个单元与另一个单元进行区分。举例来说,在不背离示例性实施例的范围的情况下,第一单元可以被称为第二单元,并且类似地第二单元可以被称为第一单元。这里所使用的术语“和 /或”包括其中一个或更多所列出的相关联项目的任意和所有组合。
应当理解的是,当一个单元被称为“连接”或“耦合”到另一单元时,其可以直接连接或耦合到所述另一单元,或者可以存在中间单元。与此相对,当一个单元被称为“直接连接”或“直接耦合”到另一单元时,则不存在中间单元。应当按照类似的方式来解释被用于描述单元之间的关系的其他词语(例如“处于...之间”相比于“直接处于...之间”,“与...邻近”相比于“与...直接邻近”等等)。
这里所使用的术语仅仅是为了描述具体实施例而不意图限制示例性实施例。除非上下文明确地另有所指,否则这里所使用的单数形式“一个”、“一项”还意图包括复数。还应当理解的是,这里所使用的术语“包括”和/或“包含”规定所陈述的特征、整数、步骤、操作、单元和/或组件的存在,而不排除存在或添加一个或更多其他特征、整数、步骤、操作、单元、组件和/或其组合。
下面结合附图对本发明作进一步详细描述。
图1为本发明一个实施例的语音识别方法的流程示意图。图2为本发明一个实施例的语音识别系统的示意框图。所述语音识别方法包括由图2中的语音识别系统执行的步骤S101、步骤S102、步骤S103 和步骤S104。
其中,本实施例的语音识别方法主要通过网络设备和用户设备来实现;所述用户设备包括但不限于PC机、平板电脑、智能手机、PDA 等;所述网络设备包括但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算(Cloud Computing)的由大量计算机或网络服务器构成的云,其中,云计算是分布式计算的一种,由一群松散耦合的计算机集组成的一个超级虚拟计算机。而本实施例的用户设备依手机为例进行说明,以及网络设备依服务器为例进行说明。
需要说明的是,所述用户设备采用手机仅为举例,其他现有的或今后可能出现的网络设备和用户设备如可适用于本发明,也应包含在本发明保护范围以内,并以引用方式包含于此。
根据本实施例的语音识别方法包括步骤S101、步骤S102、步骤 S103和步骤S104。
在步骤S101中,对获取的语音信号进行预处理。具体的,可对语音信息进行降噪、增强以处理原始语音信号,部分消除噪声和不同说话人带来的影响,使处理后的语音信号更能反映语音的本质特征。
在步骤S102中,从所述语音信号中提取特征参数。具体的,特征参数提取是从语音信号中提取出有关的特征参数,如梅尔频率倒谱系数(Mel-Frequency CepstralCoefficient,MFCC)或滤波器组系数 (Filterbank Coefficient)等等。
在步骤S103中,采用语言模型和基于长短时记忆模型结构建立得到的声学模型对所述语音信号进行自动识别。具体的,可以采用识别器进行搜索,在搜索空间中确定跟用户语音吻合度最高的词序列。比如:采用搜索算法为时间同步的Viterbi搜索。
本发明实施例采用长短时记忆模型结构可以表征更长时间内的基音曲线,提高建模精度。
其中,语言模型的作用是帮助辨识用户发出的音对应于什么文字,对于普通话同音字的辨识起着重要作用,比如普通话中同音字比比皆是(工/供/功/公/宫)、甚至还有些同音词(公式/工事/公示/公事/攻势)。语言模型利用前后词汇的搭配信息来选取更为准确的词汇序列。本发明实施例的语言模型的类型包括但并不限于规则模型和统计模型。其中,统计语言模型是用概率统计的方法来揭示语言单位内在的统计规律,其简单有效。
其中,声学模型是基于长短时记忆(Long Short-Term Memory, LSTM)结构模型进行构建的。现有的声学模型中,比如:基于前向深度神经网络的建模方法,只能逐层传播,在表征长距离相关性(长时记忆)方面能力较弱,对于滑动窗之外的输入特征,没有显式或者隐式的考量。而本发明实施例基于长短时记忆(Long Short-Term Memory,LSTM)结构模型建立的声学模型在重要事件相隔很远情况下,依然可以进行分类、处理和预测。
具体的,LSTM结构模型包括有记忆组块(memory block),记忆组块可以被看作为是存储芯片在数字计算上的微分版本,LSTM结构模型中的乘法器允许LSTM单元保存和使用过去很长时间的信息,从而可以有效避免梯度消失问题。更具体的,每一个记忆组块包含一个或更多的自连接存储单元,以及三个乘法器单元:输入门、输出门、遗忘门(input gates,output gates,forget gates)。比如:当输入门保持关闭状态,LSTM单元的所有动作将不会受当前输入的影响。
本发明实施例声学模型的总体模型结构如图3所示;
其中,声学模型的建立包括:基于长短时记忆模型结构分别建立相互独立的谱参数声学模型和基音声学模型,也就是说基于长短时记忆模型结构独立建立谱参数声学模型;以及基于短时记忆模型结构独立建立基音声学模型。
在声学模型的建立过程中,谱参数声学模型和基音声学模型相互独立建模,识别的过程中,谱参数声学模型和基音声学模型独立计算似然度和进行搜索,不会影响谱参数模型识别过程。相比采用谱参数和基音参数混在一起计算似然度的方案更灵活,并能避免音调不准导致识别率降低的问题。
其中,在基于短时记忆模型结构建立声学模型中,包括特征选取步骤,所述特征选取步骤包括:将连续若干帧的基音组合形成一特征向量;
对所述特征向量进行归整化处理,以实现归一化,将谱参数和基音在解码时分离,提高识别精度;
将归整化处理后的特征向量作为长短时记忆模型结构的输入参数。
其中,在对所述特征向量进行归整化处理的过程中,所述归整化处理在音节层面进行,以建立更为普适的精准基音模型。具体过程包括:
根据同一个音节内部的基音曲线,算其平均值,
各帧基音对平均值取预定比值,所述预定比值采用公式:
其中,Fk表示第k帧的基音,Fmean表示音节的平均基音,其中,表示第k帧基音相对于平均基音的比值,k为自然数。
在解码识别过程中,先利用谱参数声学模型进行解码识别,再利用基音声学模型进行解码识别。
其中,在基音声学模型解码识别过程中,对拼音相同、但调型不同的词序列进行重新打分以选取更为精准的词序列。
具体的,在利用谱参数声学模型进行解码识别中,判断谱参数声学模型的识别结果中是否包括相同的拼音,若不包含相同的拼音,则解码识别过程结束。而若包含相同的拼音,则利用基音声学模型进行解码识别。
更具体的,在语音识别过程中,识别过程分两步进行(two-pass),第一步是不带基音的识别,利用谱参数作为特征搜索最优的词序列;第二步是利用基音声学模型,利用第一步识别过程中形成的音素对齐 (Alignment)结果,对拼音相同但音调不同的词序列重新进行打分 (rescoring),选出基音声学模型得分更高的词序列,这样可进一步提升识别精度。有效解决“水饺”和“睡觉”之类的问题。
而当谱参数声学模型的识别结果中不包含相同的拼音,则基音声学模型可以不使用。
本发明实施例由于采用两阶段解码,第一步解码完成后,再在句子层面提取基音曲线,这比边提取基音、边解码的方式更为准确。
在步骤S104中,对自动识别得到的结果进行后处理。具体的,自然语言后处理阶段是利用语言知识库或模型进一步提升语音识别的精度。对自然语言的识别和理解。首先必须将连续的讲话分解为词、音素等单位,其次要建立一个理解语义的规则,根据上下文的约束对识别结果进行纠正和修改。
如图2所示,图2为本发明一个实施例的语音识别系统的示意框图,所述语音识别系统100包括预处理单元101、提取单元102、识别器103和后处理单元104。
其中,预处理单元101对获取的语音信号进行预处理。具体的,预处理单元101可对语音信息进行降噪、增强以处理原始语音信号,部分消除噪声和不同说话人带来的影响,使处理后的语音信号更能反映语音的本质特征。
其中,提取单元102从所述语音信号中提取特征参数。提取单元 102从语音信号中提取出有关的特征参数,如梅尔频率倒谱系数 (Mel-Frequency Cepstral Coefficient,MFCC)或滤波器组系数(Filterbank Coefficient)等等。
其中,识别器103采用语言模型和基于长短时记忆模型结构建立得到的声学模型对所述语音信号进行自动识别。具体的,识别器在搜索空间中确定跟用户语音吻合度最高的词序列,比如:采用搜索算法为时间同步的Viterbi搜索。
本发明实施例的识别器中采用长短时记忆模型结构可以表征更长时间内的基音曲线,提高建模精度。
其中,识别器中语言模型的作用是帮助辨识用户发出的音对应于什么文字,对于普通话同音字的辨识起着重要作用,比如普通话中同音字比比皆是(工/供/功/公/宫)、甚至还有些同音词(公式/工事/公示/公事/攻势)。语言模型利用前后词汇的搭配信息来选取更为准确的词汇序列。本发明实施例的语言模型的类型包括但并不限于规则模型和统计模型。其中,统计语言模型是用概率统计的方法来揭示语言单位内在的统计规律,其简单有效。
其中,识别器中声学模型是基于长短时记忆(Long Short-Term Memory,LSTM)结构模型进行构建的。现有的声学模型中,比如:基于前向深度神经网络的建模方法,只能逐层传播,在表征长距离相关性(长时记忆)方面能力较弱,对于滑动窗之外的输入特征,没有显式或者隐式的考量。而本发明实施例基于长短时记忆(Long Short-Term Memory,LSTM)结构模型建立的声学模型在重要事件相隔很远情况下,依然可以进行分类、处理和预测。
具体的,LSTM结构模型包括有记忆组块(memory block),记忆组块可以被看作为是存储芯片在数字计算上的微分版本,LSTM结构模型中的乘法器允许LSTM单元保存和使用过去很长时间的信息,从而可以有效避免梯度消失问题。更具体的,每一个记忆组块包含一个或更多的自连接存储单元,以及三个乘法器单元:输入门、输出门、遗忘门(input gates,output gates,forget gates)。比如:当输入门保持关闭状态,LSTM单元的所有动作将不会受当前输入的影响。
本发明实施例声学模型的总体模型结构如图3所示
其中,声学模型的建立包括:基于长短时记忆模型结构分别建立相互独立的谱参数声学模型和基音声学模型,也就是说基于长短时记忆模型结构独立建立谱参数声学模型;以及基于短时记忆模型结构独立建立基音声学模型。
在声学模型的建立过程中,谱参数声学模型和基音声学模型相互独立建模,识别的过程中,谱参数声学模型和基音声学模型独立计算似然度和进行搜索,不会影响谱参数模型识别过程。相比采用谱参数和基音参数混在一起计算似然度的方案更灵活,并能避免音调不准导致识别率降低的问题。
其中,在基于短时记忆模型结构建立声学模型中,识别器对特征进行选取,具体的是:将连续若干帧的基音组合形成一特征向量,对所述特征向量进行归整化处理,以实现归一化,将谱参数和基音在解码时分离,提高识别精度;以及将归整化处理后的特征向量作为长短时记忆模型结构的输入参数。
其中,在对所述特征向量进行归整化处理的过程中,所述归整化处理在音节层面进行,以建立更为普适的精准基音模型。具体过程包括:
根据同一个音节内部的基音曲线,算其平均值,
各帧基音对平均值取预定比值,所述预定比值采用公式:
其中,Fk表示第k帧的基音,Fmean表示音节的平均基音,其中,表示第k帧基音相对于平均基音的比值,k为自然数。
在识别器解码识别过程中,先利用谱参数声学模型进行解码识别,再利用基音声学模型进行解码识别。
其中,在基音声学模型解码识别过程中,对拼音相同、但调型不同的词序列进行重新打分以选取更为精准的词序列。
具体的,在利用谱参数声学模型进行解码识别中,判断谱参数声学模型的识别结果中是否包括相同的拼音,若不包含相同的拼音,则解码识别过程结束。而若包含相同的拼音,则利用基音声学模型进行解码识别。
更具体的,在识别器进行语音识别过程中,识别过程分两步进行(two-pass),第一步是不带基音的识别,利用谱参数作为特征搜索最优的词序列;第二步是利用基音声学模型,利用第一步识别过程中形成的音素对齐(Alignment)结果,对拼音相同但音调不同的词序列重新进行打分(rescoring),选出基音声学模型得分更高的词序列,这样可进一步提升识别精度。有效解决“水饺”和“睡觉”之类的问题。
而当谱参数声学模型的识别结果中不包含相同的拼音,则基音声学模型可以不使用。
本发明实施例由于采用两阶段解码,第一步解码完成后,再在句子层面提取基音曲线,这比边提取基音、边解码的方式更为准确。
后处理单元104对自动识别得到的结果进行后处理。具体的,自然语言后处理阶段是利用语言知识库或模型进一步提升语音识别的精度。后处理单元104对自然语言的识别和理解。首先必须将连续的讲话分解为词、音素等单位,其次要建立一个理解语义的规则,根据上下文的约束对识别结果进行纠正和修改。
虽然前面特别示出并且描述了示例性实施例,但是本领域技术人 员将会理解的是,在不背离权利要求书的精神和范围的情况下,在其 形式和细节方面可以有所变化。这里所寻求的保护在所附权利要求书 中做了阐述。
Claims (10)
1.一种语音识别方法,其特征在于,所述语音识别方法包括以下步骤:
对获取的语音信号进行预处理;
从所述语音信号中提取特征参数;
采用语言模型和基于长短时记忆模型结构建立得到的声学模型对所述语音信号进行自动识别;
对自动识别得到的结果进行后处理。
2.如权利要求1所述的一种语音识别方法,其特征在于,声学模型的建立包括特征选取步骤,所述特征选取步骤包括:
将连续若干帧的基音组合形成一特征向量;
对所述特征向量进行归整化处理;
将归整化处理后的特征向量作为长短时记忆模型结构的输入参数。
3.如权利要求2所述的一种语音识别方法,其特征在于,在对所述特征向量进行归整化处理的过程中,所述归整化处理在音节层面进行,具体过程包括:
根据同一个音节内部的基音曲线,算其平均值,
各帧基音对平均值取预定比值。
4.如权利要求3所述的一种语音识别方法,其特征在于,所述预定比值采用公式:
其中,Fk表示第k帧的基音,Fmean表示音节的平均基音,其中,表示第k帧基音相对于平均基音的比值,k为自然数。
5.如权利要求1所述的一种语音识别方法,其特征在于,声学模型的建立包括以下步骤:
基于长短时记忆模型结构分别建立相互独立的谱参数声学模型和基音声学模型。
6.如权利要求5所述的一种语音识别方法,其特征在于,在解码识别过程中,先利用谱参数声学模型进行解码识别,再利用基音声学模型进行解码识别。
7.如权利要求6所述的一种语音识别方法,其特征在于,在基音声学模型解码识别过程中,对拼音相同、但调型不同的词序列进行重新打分以选取更为精准的词序列。
8.如权利要求5所述的一种语音识别方法,其特征在于,在利用谱参数声学模型进行解码识别中,判断谱参数声学模型的识别结果中是否包括相同的拼音,若不包含相同的拼音,则解码识别过程结束。
9.如权利要求5所述的一种语音识别方法,其特征在于,在利用谱参数声学模型进行解码识别中,判断谱参数声学模型的识别结果中是否包括相同的拼音,若包含相同的拼音,则利用基音声学模型进行解码识别。
10.一种语音识别系统,其特征在于,所述语音识别系统包括:
预处理单元,用于对语音信号进行预处理;
提取单元,用于从所述语音信号中提取特征参数;
识别器,用于采用语言模型和基于长短时记忆模型结构建立得到的声学模型对所述语音信号进行自动识别;
后处理单元,用于对自动识别得到的结果进行后处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710015475.1A CN107093422B (zh) | 2017-01-10 | 2017-01-10 | 一种语音识别方法和语音识别系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710015475.1A CN107093422B (zh) | 2017-01-10 | 2017-01-10 | 一种语音识别方法和语音识别系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107093422A true CN107093422A (zh) | 2017-08-25 |
CN107093422B CN107093422B (zh) | 2020-07-28 |
Family
ID=59648782
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710015475.1A Active CN107093422B (zh) | 2017-01-10 | 2017-01-10 | 一种语音识别方法和语音识别系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107093422B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108319666A (zh) * | 2018-01-19 | 2018-07-24 | 国网浙江省电力有限公司电力科学研究院 | 一种基于多模态舆情分析的供电服务评估方法 |
CN108364634A (zh) * | 2018-03-05 | 2018-08-03 | 苏州声通信息科技有限公司 | 基于深度神经网络后验概率算法的口语发音评测方法 |
CN108492821A (zh) * | 2018-03-27 | 2018-09-04 | 华南理工大学 | 一种减弱语音识别中说话人影响的方法 |
CN108694951A (zh) * | 2018-05-22 | 2018-10-23 | 华南理工大学 | 一种基于多流分层融合变换特征和长短时记忆网络的说话人辨识方法 |
CN109754789A (zh) * | 2017-11-07 | 2019-05-14 | 北京国双科技有限公司 | 语音音素的识别方法及装置 |
CN111128130A (zh) * | 2019-12-31 | 2020-05-08 | 秒针信息技术有限公司 | 语音数据处理方法和装置及电子装置 |
CN112074903A (zh) * | 2017-12-29 | 2020-12-11 | 流畅人工智能公司 | 用于口语中的声调识别的系统和方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1336634A (zh) * | 2000-07-28 | 2002-02-20 | 国际商业机器公司 | 根据基音信息识别声调语言的方法与设备 |
CN1512485A (zh) * | 2002-12-31 | 2004-07-14 | 北京天朗语音科技有限公司 | 语速自适应的语音识别系统 |
CN101334998A (zh) * | 2008-08-07 | 2008-12-31 | 上海交通大学 | 基于异类模型区分性融合的汉语语音识别系统 |
CN105469065A (zh) * | 2015-12-07 | 2016-04-06 | 中国科学院自动化研究所 | 一种基于递归神经网络的离散情感识别方法 |
CN105529023A (zh) * | 2016-01-25 | 2016-04-27 | 百度在线网络技术(北京)有限公司 | 语音合成方法和装置 |
-
2017
- 2017-01-10 CN CN201710015475.1A patent/CN107093422B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1336634A (zh) * | 2000-07-28 | 2002-02-20 | 国际商业机器公司 | 根据基音信息识别声调语言的方法与设备 |
CN1512485A (zh) * | 2002-12-31 | 2004-07-14 | 北京天朗语音科技有限公司 | 语速自适应的语音识别系统 |
CN101334998A (zh) * | 2008-08-07 | 2008-12-31 | 上海交通大学 | 基于异类模型区分性融合的汉语语音识别系统 |
CN105469065A (zh) * | 2015-12-07 | 2016-04-06 | 中国科学院自动化研究所 | 一种基于递归神经网络的离散情感识别方法 |
CN105529023A (zh) * | 2016-01-25 | 2016-04-27 | 百度在线网络技术(北京)有限公司 | 语音合成方法和装置 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109754789A (zh) * | 2017-11-07 | 2019-05-14 | 北京国双科技有限公司 | 语音音素的识别方法及装置 |
CN109754789B (zh) * | 2017-11-07 | 2021-06-08 | 北京国双科技有限公司 | 语音音素的识别方法及装置 |
CN112074903A (zh) * | 2017-12-29 | 2020-12-11 | 流畅人工智能公司 | 用于口语中的声调识别的系统和方法 |
CN108319666A (zh) * | 2018-01-19 | 2018-07-24 | 国网浙江省电力有限公司电力科学研究院 | 一种基于多模态舆情分析的供电服务评估方法 |
CN108364634A (zh) * | 2018-03-05 | 2018-08-03 | 苏州声通信息科技有限公司 | 基于深度神经网络后验概率算法的口语发音评测方法 |
CN108492821A (zh) * | 2018-03-27 | 2018-09-04 | 华南理工大学 | 一种减弱语音识别中说话人影响的方法 |
CN108492821B (zh) * | 2018-03-27 | 2021-10-22 | 华南理工大学 | 一种减弱语音识别中说话人影响的方法 |
CN108694951A (zh) * | 2018-05-22 | 2018-10-23 | 华南理工大学 | 一种基于多流分层融合变换特征和长短时记忆网络的说话人辨识方法 |
CN108694951B (zh) * | 2018-05-22 | 2020-05-22 | 华南理工大学 | 一种基于多流分层融合变换特征和长短时记忆网络的说话人辨识方法 |
CN111128130A (zh) * | 2019-12-31 | 2020-05-08 | 秒针信息技术有限公司 | 语音数据处理方法和装置及电子装置 |
Also Published As
Publication number | Publication date |
---|---|
CN107093422B (zh) | 2020-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11062699B2 (en) | Speech recognition with trained GMM-HMM and LSTM models | |
US10699699B2 (en) | Constructing speech decoding network for numeric speech recognition | |
CN109410914B (zh) | 一种赣方言语音和方言点识别方法 | |
CN107093422A (zh) | 一种语音识别方法和语音识别系统 | |
CN107305768B (zh) | 语音交互中的易错字校准方法 | |
CN103578471B (zh) | 语音辨识方法及其电子装置 | |
US8321218B2 (en) | Searching in audio speech | |
Schuster et al. | Japanese and korean voice search | |
Lee | Voice dictation of mandarin chinese | |
Lee et al. | An information-extraction approach to speech processing: Analysis, detection, verification, and recognition | |
US9355642B2 (en) | Speaker recognition method through emotional model synthesis based on neighbors preserving principle | |
US20220262352A1 (en) | Improving custom keyword spotting system accuracy with text-to-speech-based data augmentation | |
CN104756182A (zh) | 组合听觉注意力线索与音位后验得分以用于音素/元音/音节边界检测 | |
CN108109613A (zh) | 用于智能对话语音平台的音频训练和识别方法及电子设备 | |
CN109065032A (zh) | 一种基于深度卷积神经网络的外部语料库语音识别方法 | |
CN105280181B (zh) | 一种语种识别模型的训练方法及语种识别方法 | |
CN102982799A (zh) | 一种融合引导概率的语音识别优化解码方法 | |
US20110218802A1 (en) | Continuous Speech Recognition | |
CN106297769B (zh) | 一种应用于语种识别的鉴别性特征提取方法 | |
KR20130126570A (ko) | 핵심어에서의 음소 오류 결과를 고려한 음향 모델 변별 학습을 위한 장치 및 이를 위한 방법이 기록된 컴퓨터 판독 가능한 기록매체 | |
Ma et al. | Speaker cluster based GMM tokenization for speaker recognition. | |
Chen et al. | Improved spoken term detection by feature space pseudo-relevance feedback | |
Zhang et al. | Discriminatively trained sparse inverse covariance matrices for speech recognition | |
Veisi et al. | Jira: a Kurdish Speech Recognition System Designing and Building Speech Corpus and Pronunciation Lexicon | |
Phuong et al. | Development of high-performance and large-scale vietnamese automatic speech recognition systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |