CN101409073A - 一种基于基频包络的汉语普通话孤立词识别方法 - Google Patents
一种基于基频包络的汉语普通话孤立词识别方法 Download PDFInfo
- Publication number
- CN101409073A CN101409073A CNA2008101222954A CN200810122295A CN101409073A CN 101409073 A CN101409073 A CN 101409073A CN A2008101222954 A CNA2008101222954 A CN A2008101222954A CN 200810122295 A CN200810122295 A CN 200810122295A CN 101409073 A CN101409073 A CN 101409073A
- Authority
- CN
- China
- Prior art keywords
- fundamental frequency
- template
- frequency envelope
- speech
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
本发明公开了一种基于基频包络的汉语普通话孤立词识别方法,包括以基频包络的形式事先存贮在模板库中的词汇,还依次包括以下步骤:1)语音切割并降噪;2)提取语音的基频特征;3)判断:当语料是用来训练、即语料库中没有相应的词汇时,进入步骤4);当语料是用来识别时,进入步骤5);4)将该语料的基频特征加入到模板库中;5)比较测试语音与模板的基频包络之间的相似性,取与测试语音距离最小的模板所代表的词汇作为识别结果;6)输出识别结果。本发明的方法通过对汉语声调的研究,依靠比较测试语音和模板的基频包络之间的相似性,从而实现汉语普通话孤立词识别。
Description
技术领域
本发明涉及孤立词识别技术,特别是一种通过比较测试语音和模板的基频包络之间的相似性来进行汉语普通话孤立词识别的方法。
背景技术
与机器进行语音交流,让机器明白你说什么,这是人们长期以来梦寐以求的事情。语音识别技术就是让机器通过识别和理解过程把语音信号转变为相应的文本或命令的技术。语音识别是一门交叉学科。语音识别技术所涉及的领域包括:信号处理、模式识别、概率论和信息论、发声机理和听觉机理、人工智能等等。近二十年来,语音识别技术取得显著进步,开始从实验室走向市场。人们预计,未来10年内,语音识别技术将进入工业、家电、通信、汽车电子、医疗、家庭服务、消费电子产品等各个领域。
根据语音是连续的还是每次说一个词,语音识别分为连续语音识别和孤立词识别。在连续语音识别中,很难决定一个词的起始位置。此外,在连续语音识别中由于语音和词根据上下文的不同展现了很大的变化,所以连续语音识别比孤立词识别要困难。一个典型的孤立词识别系统包括:如何归一化语音信号中的变化;什么是语音信号的参数表示;系统如何适应新的说话人或词汇;如何度量两段语料之间的相似性;如何加速匹配过程。在语音信号的参数表示方面,短时频谱特征(如线性预测谱)和频率规整的频谱特征(如梅尔倒谱系数)被广泛使用。在度量两段语料的相似性时,通常使用经典的模式识别方法,包括基于模板的方法,如动态时间规整(DTW),以及统计方法,如隐马尔可夫模型(HMM)。当前的孤立词识别系统在某些情况下识别率可以达到90%以上。汉语是声调语言,而基频包络(Pitch Contour)能从一定程度上反映汉语声调,将对汉语声调的研究应用到汉语孤立词识别中,这方面的研究还很少。
发明内容
本发明要解决的技术问题是提供一种基于基频包络的汉语普通话孤立词识别方法,该方法通过对汉语声调的研究,依靠比较测试语音和模板的基频包络之间的相似性,从而实现汉语普通话孤立词识别。
为了解决上述技术问题,本发明提供一种基于基频包络的汉语普通话孤立词识别方法,包括以基频包络的形式事先存贮在模板库中的词汇,依次包括以下步骤:
1)、语音切割并降噪;
2)、提取语音的基频特征;
3)、判断:
当语料是用来训练、即语料库中没有相应的词汇时,进入步骤4);
当语料是用来识别时,进入步骤5);
4)、将该语料的基频特征加入到模板库中;
5)、比较测试语音与模板的基频包络之间的相似性,取与测试语音距离最小的模板所代表的词汇作为识别结果;
6)、输出识别结果。
作为本发明的基于基频包络的汉语普通话孤立词识别方法的改进:步骤2)采用自相关算法提取语音基频。
作为本发明的基于基频包络的汉语普通话孤立词识别方法的进一步改进:步骤5)采用了动态时间规整(DTW)的方法来比较测试语音与模板的基频包络之间的相似性。
作为本发明的基于基频包络的汉语普通话孤立词识别方法的进一步改进:步骤5)中:通常不同的词在基频的时长方面存在差异,因此需要进行基频时长方面的补偿;在DTW算出测试语音与模板之间的距离后,如果测试语音的基频时长与模板的基频时长的差异大于某一阈值,那么就对距离进行补偿。
作为本发明的基于基频包络的汉语普通话孤立词识别方法的进一步改进:步骤1)中:使用短时能量检测语音端点,并降噪音,即静音切除。
汉语属于音节声调语言,音节单说时有一定的声调,不能任意改变;如果改变了,这个音节的意义也改变,由它组成的词义也就完全不同了。汉语声调的调型分为4种:阴平、阳平、上声和去声。声调是利用嗓音音调(声带振动)的高低来区别词义的。声调的一种定义是在一种语言中,音高(Pitch)随时间的变化模式具有词汇意义时,这种音高模式就是声调。音高是指声带每秒钟振动的次数,又叫基频(Fundamental Frequency,F0)。图1显示了汉语普通话中“开灯”这个词的基频包络示意图。汉语的声调模式在基频曲线上主要表现为元音和浊辅音。声调听觉征兆的研究表明基频曲线是声调的最本质特征,因此声调模型也主要是针对基频曲线建模。
可用于比较基频包络相似性的方法有多种,本发明在实施过程中采用了动态时间规整(DTW)的方法。语音信号的准平稳随机特性,使得即使是同一说话人发同一话音的不同次发音,语音的音长也往往不同,相应的语音特征序列长度(帧数)也不相同,因此测试音特征序列和模板特征序列在时间上对齐的问题是孤立词识别领域的基本问题。在这种情况下,动态时间规整(Dynamic Time Warping,DTW)技术被提出来,并在语音识别中得到了广泛的应用,它比较有效的解决了语音特征矢量与参考模板之间的时间对准与匹配问题。可以说,DTW技术的出现是语音识别中的一个历程碑,它使语音识别技术空前活跃起来。
基频的检测和估计是语音信号处理的重要内容,尤其在汉语语音处理中更是如此,这是因为汉语的声调主要体现在音节韵母部分F0随时间变化的轨迹上。准确的基频检测和估计算法对于声调的建模、分析起了关键的作用。常见的基频检测算法分为三类。第一类是时域检测算法,这一类算法是直接由语音信号的波形来估计基频。常见的算法有自相关法、并行处理法等。第二类是变换域基频检测算法,这一类算法是将语音信号变换到频域或其他空间来估计基音周期。常见的有倒频谱法、小波法等。第三类算法是激励源估计类算法,这一类算法的特点是通过语音信号的产生模型来估计声门闭合点(Glottal Closure)以求出激励源信号。常见的算法有LPC逆滤波法。本发明在实施过程中采用了自相关算法提取语音的基频包络。
综上所述,本发明是针对特定人有限词汇量词库,提出了一种通过比较测试语音和模板的基频包络之间的相似性来进行汉语普通话孤立词识别的方法;主要用于特定人有限词汇量的汉语孤立词识别。本发明将反映声调的基频包络应用于汉语普通话孤立词识别,这样能够充分利用了汉语是声调语言的特性。
本发明的有益效果是:利用汉语是声调语言的特点,针对特定人有限词汇量的应用背景,通过比较测试语音和模板的基频包络之间的相似性进行汉语孤立词识别并且能够达到很高的正确识别率。
附图说明
下面结合附图对本发明的具体实施方式作进一步详细说明。
图1是“开灯”的基频包络示意图;
图2是本发明的算法流程图;
图3是图2中的自相关算法提取基频包络的流程图;
图4是图2中的DTW的算法示意图。
具体实施方式
实施例1、图2~图4结合给出了一种基于基频包络的汉语普通话孤立词识别方法,包括将一些常用词汇以基频包络的形式事先存贮在模板库中,然后依次进行以下步骤:
1)、语音切割:
使用短时能量检测语音端点:语音信号经采样后,计算每一帧语音信号的能量,如果该能量大于某一阈值,则保留该帧,否则剔除该帧。语音切割的参数如下表1所示:
表1、语音切割参数
静音阈值 | 帧长(ms) | 步长(ms) | 词最短时间(s) | 词最长时间(s) |
1e-005 | 128 | 64 | 0.01 | 2 |
2)、提取语音的基频特征;
使用自相关算法提取语音的基频。自相关算法是指通过短时自相关函数对基频估值的算法,它一般是通过求中心削波后的语音信号自相关函数的极值加上其他条件来进行清浊音判断和基频估计。下面结合图3具体介绍一下自相关算法提取基频的步骤。
(1)预处理:为了去除加了海宁窗的在纳奎斯特率附近的信号分量的傅立叶变换的旁波瓣,我们实施一个软逆采样过程。首先对语音信号做FFT变换。然后将频域中范围在95%到100%纳奎斯特率的部分滤波掉。最后再做一个逆FFT变换。
(2)计算信号的全局绝对峰值,具体做法是:先计算信号的均值,然后计算信号每个采样点与均值的差的绝对值并取最大的作为全局绝对峰值。
其中N为语音信号的总帧数。
(3)将语音信号分帧并对每一帧实施下面的操作:
A.从信号中截取一段数据,窗长应该足够长从而可以包含所要检测的最小基频的三倍周期,一般取40ms;
B.该窗长中的采样点减去窗长中所有采样点的局部均值;
C.令第一个基频候选值是无声候选值;
D.乘以窗函数;
其中w(t)是窗函数,这里使用的是海宁窗;
E.为了插值我们至少需要半个窗长的值,所以我们在这段数据后面添加半个窗长的0;
F.继续添加0直到采样点的数量达到2n来避免FFT过程中的边效应(Edge Effect);
G.实施快速傅立叶变换来获得复频谱:
H.对复频谱在频域内的采样点取平方从而获得能量谱;
I.对能量谱再次执行快速傅立叶变换,这样我们便可以得到每帧信号的自相关函数ra(τ):
J.除以窗的自相关函数,这样我们便可以得到每帧信号规整后的自相关函数rx(τ):
其中rw(τ)是窗的自相关函数;
K.通过插值的方法,使离散的rx(τ)连续化然后找到连续rx(τ)曲线上的极大值及其位置,插值公式如下所示:
(4)找到基频路径:
经过步骤(3)后,我们已经计算得到了每帧语音信号的基频候选值,接下来我们需要从每帧语音信号的基频候选值中选取一个作为每帧语音信号的基频值从而获得全局基频路径。由于相邻两帧基频的转换存在有声/无声及频率跳转的代价,在寻找基频路径的过程中为了使总体代价最小,我们使用Viterbi算法获得全局的最优基频路径。
3)、判断:
由用户指定语料是进行训练还是测试。
当语料是用来训练(即语料库中没有相应的词汇)时,进入步骤4);
当语料是用来识别时,进入步骤5);
4)、将该语料的基频特征加入到模板库中;
由于语料是用来训练的,因此语料库中没有相应的词汇,所以就将语料的基频特征以基频包络的形式加入到模板库中。从而建立并更新模板库。
5)、比较测试语音与模板的基频包络之间的相似性:
使用DTW方法计算测试语音的基频序列与模板之间的相似性。动态时间规整问题可以归结为在一个有限的网格上寻找一条路径的问题,如图4所示。令R(n)和T(m)分别为模板序列和测试序列,其中n=1,2,...,N,m=1,2,...,M。根据图4中的模型,DTW问题就是要在(m,n)平面上找到一条优化路径m=w(n)从而使得下面公式中的总体距离函数最小,
取与测试语音距离最小的模板所代表的词汇作为识别结果。
6)、输出识别结果。
实验1、本实验在特定人有限词汇量的汉语普通话词库上进行,具体使用实施例1的方法。该词库的发音人为某一个青年男性。该词库目前包含10个词:车祸、拥堵、修路、障碍、上传、开灯、关灯、提高音量、降低音量、邮件。其中每个词有6遍录音。这6遍录音的录制时间不一样,前3遍和后3遍的录制时间相隔两个月。实验中我们用每个词的前3遍录音分别作为模板,以后3遍录音进行测试。实验用机配置CPU为AMD Athlon(tm)1.05GHz,1.00G内存。
本实验根据下表2中参数设置使用自相关算法提取语音基频。8个参数中前3个参数用于计算有效的基频候选值,中间两个参数用于判断一帧信号是语音还是静音,最后3个参数用于选择基频优化路径。
表2、自相关算法参数设置
1.基频范围下限(Hz) | 2.候选值数量的上限 | 3.基频范围上限(Hz) | 4.静音阈值 |
75.0 | 15 | 500.0 | 0.03 |
5.语音阈值 | 6.倍频程代价 | 7.倍频程跳转代价 | 8.语音/非语音转换代价 |
0.45 | 0.01 | 0.35 | 0.14 |
结果如下表3所示:
表3、识别结果
词汇 | 正确识别的个数 | 词汇 | 正确识别的个数 |
车祸 | 3 | 开灯 | 2 |
拥堵 | 3 | 关灯 | 2 |
修路 | 3 | 提高音量 | 3 |
障碍 | 3 | 降低音量 | 3 |
上传 | 3 | 邮件 | 3 |
正确识别的总数 | 29 | 识别率 | 96.67% |
实验结果表明:将基频包络用于汉语孤立词识别能够充分利用汉语是声调语言的特点,并且对于特定人有限词汇量的汉语普通话孤立词识别能够取得良好的正确识别率。
最后,还需要注意的是,以上列举的仅是本发明的若干个具体实施例。显然,本发明不限于以上实施例,还可以有许多变形。本领域的普通技术人员能从本发明公开的内容直接导出或联想到的所有变形,均应认为是本发明的保护范围。
Claims (5)
1、一种基于基频包络的汉语普通话孤立词识别方法,包括以基频包络的形式事先存贮在模板库中的词汇,其特征是依次包括以下步骤:
1)、语音切割并降噪;
2)、提取语音的基频特征;
3)、判断:
当语料是用来训练、即语料库中没有相应的词汇时,进入步骤4);
当语料是用来识别时,进入步骤5);
4)、将该语料的基频特征加入到模板库中;
5)、比较测试语音与模板的基频包络之间的相似性,取与测试语音距离最小的模板所代表的词汇作为识别结果;
6)、输出识别结果。
2、根据权利要求1所述的基于基频包络的汉语普通话孤立词识别方法,其特征是:所述步骤2)采用自相关算法提取语音基频。
3、根据权利要求2所述的基于基频包络的汉语普通话孤立词识别方法,其特征是:所述步骤5)采用了动态时间规整的方法来比较测试语音与模板的基频包络之间的相似性。
4、根据权利要求3所述的基于基频包络的汉语普通话孤立词识别方法,其特征是:所述步骤5)中:在动态时间规整的方法算出测试语音与模板之间的距离后,当测试语音的基频时长与模板的基频时长的差异大于某一阈值,那么就对距离进行补偿。
5、根据权利要求4所述的基于基频包络的汉语普通话孤立词识别方法,其特征是:所述步骤1)中:使用短时能量检测语音端点,并降噪音,即静音切除。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNA2008101222954A CN101409073A (zh) | 2008-11-17 | 2008-11-17 | 一种基于基频包络的汉语普通话孤立词识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNA2008101222954A CN101409073A (zh) | 2008-11-17 | 2008-11-17 | 一种基于基频包络的汉语普通话孤立词识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101409073A true CN101409073A (zh) | 2009-04-15 |
Family
ID=40572053
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNA2008101222954A Pending CN101409073A (zh) | 2008-11-17 | 2008-11-17 | 一种基于基频包络的汉语普通话孤立词识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101409073A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101944359A (zh) * | 2010-07-23 | 2011-01-12 | 杭州网豆数字技术有限公司 | 一种面向特定人群的语音识别方法 |
CN104103280A (zh) * | 2014-07-15 | 2014-10-15 | 无锡中星微电子有限公司 | 基于动态时间归整算法的离线语音端点检测的方法和装置 |
CN104464726A (zh) * | 2014-12-30 | 2015-03-25 | 北京奇艺世纪科技有限公司 | 一种相似音频的确定方法及装置 |
CN106157974A (zh) * | 2015-04-07 | 2016-11-23 | 富士通株式会社 | 文本背诵质量评估装置和方法 |
CN107464568A (zh) * | 2017-09-25 | 2017-12-12 | 四川长虹电器股份有限公司 | 基于三维卷积神经网络文本无关的说话人识别方法及系统 |
CN108074588A (zh) * | 2016-11-15 | 2018-05-25 | 北京唱吧科技股份有限公司 | 一种音高计算方法及装置 |
CN109192223A (zh) * | 2018-09-20 | 2019-01-11 | 广州酷狗计算机科技有限公司 | 音频对齐的方法和装置 |
CN110049270A (zh) * | 2019-03-12 | 2019-07-23 | 平安科技(深圳)有限公司 | 多人会议语音转写方法、装置、系统、设备及存储介质 |
CN112530213A (zh) * | 2020-12-25 | 2021-03-19 | 方湘 | 一种汉语音调学习方法及系统 |
-
2008
- 2008-11-17 CN CNA2008101222954A patent/CN101409073A/zh active Pending
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101944359B (zh) * | 2010-07-23 | 2012-04-25 | 杭州网豆数字技术有限公司 | 一种面向特定人群的语音识别方法 |
CN101944359A (zh) * | 2010-07-23 | 2011-01-12 | 杭州网豆数字技术有限公司 | 一种面向特定人群的语音识别方法 |
CN104103280B (zh) * | 2014-07-15 | 2017-06-06 | 无锡中感微电子股份有限公司 | 基于动态时间归整算法的离线语音端点检测的方法和装置 |
CN104103280A (zh) * | 2014-07-15 | 2014-10-15 | 无锡中星微电子有限公司 | 基于动态时间归整算法的离线语音端点检测的方法和装置 |
CN104464726B (zh) * | 2014-12-30 | 2017-10-27 | 北京奇艺世纪科技有限公司 | 一种相似音频的确定方法及装置 |
CN104464726A (zh) * | 2014-12-30 | 2015-03-25 | 北京奇艺世纪科技有限公司 | 一种相似音频的确定方法及装置 |
CN106157974A (zh) * | 2015-04-07 | 2016-11-23 | 富士通株式会社 | 文本背诵质量评估装置和方法 |
CN108074588A (zh) * | 2016-11-15 | 2018-05-25 | 北京唱吧科技股份有限公司 | 一种音高计算方法及装置 |
CN108074588B (zh) * | 2016-11-15 | 2020-12-01 | 北京唱吧科技股份有限公司 | 一种音高计算方法及装置 |
CN107464568A (zh) * | 2017-09-25 | 2017-12-12 | 四川长虹电器股份有限公司 | 基于三维卷积神经网络文本无关的说话人识别方法及系统 |
CN107464568B (zh) * | 2017-09-25 | 2020-06-30 | 四川长虹电器股份有限公司 | 基于三维卷积神经网络文本无关的说话人识别方法及系统 |
CN109192223A (zh) * | 2018-09-20 | 2019-01-11 | 广州酷狗计算机科技有限公司 | 音频对齐的方法和装置 |
CN110049270A (zh) * | 2019-03-12 | 2019-07-23 | 平安科技(深圳)有限公司 | 多人会议语音转写方法、装置、系统、设备及存储介质 |
CN112530213A (zh) * | 2020-12-25 | 2021-03-19 | 方湘 | 一种汉语音调学习方法及系统 |
CN112530213B (zh) * | 2020-12-25 | 2022-06-03 | 方湘 | 一种汉语音调学习方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101409073A (zh) | 一种基于基频包络的汉语普通话孤立词识别方法 | |
CN101136199B (zh) | 语音数据处理方法和设备 | |
CN102063899B (zh) | 一种非平行文本条件下的语音转换方法 | |
CN102800316B (zh) | 基于神经网络的声纹识别系统的最优码本设计方法 | |
CN102800314B (zh) | 具有反馈指导的英语句子识别与评价系统及其方法 | |
Claes et al. | A novel feature transformation for vocal tract length normalization in automatic speech recognition | |
US20200160839A1 (en) | Method and system for generating advanced feature discrimination vectors for use in speech recognition | |
CN104835498A (zh) | 基于多类型组合特征参数的声纹识别方法 | |
US20150025892A1 (en) | Method and system for template-based personalized singing synthesis | |
US20090313016A1 (en) | System and Method for Detecting Repeated Patterns in Dialog Systems | |
Jin et al. | Cute: A concatenative method for voice conversion using exemplar-based unit selection | |
CN104900235A (zh) | 基于基音周期混合特征参数的声纹识别方法 | |
CN103077728B (zh) | 一种病人虚弱语音端点检测方法 | |
Lin et al. | Automatic estimation of voice onset time for word-initial stops by applying random forest to onset detection | |
Hou et al. | Multi-layered features with SVM for Chinese accent identification | |
Sinha et al. | Continuous density hidden markov model for context dependent Hindi speech recognition | |
Narayanan et al. | Speech rate estimation via temporal correlation and selected sub-band correlation | |
Karjigi et al. | Classification of place of articulation in unvoiced stops with spectro-temporal surface modeling | |
Unnibhavi et al. | LPC based speech recognition for Kannada vowels | |
Ziółko et al. | Phoneme segmentation based on wavelet spectra analysis | |
Saheer et al. | Combining vocal tract length normalization with hierarchical linear transformations | |
Graciarena et al. | Voicing feature integration in SRI's decipher LVCSR system | |
Lee et al. | Speech emotion recognition using spectral entropy | |
Tong et al. | Tokenizing fundamental frequency variation for mandarin tone error detection | |
Kim et al. | Pitch synchronous cepstrum for robust speaker recognition over telephone channels |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C12 | Rejection of a patent application after its publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20090415 |