CN107492373B - 基于特征融合的声调识别方法 - Google Patents
基于特征融合的声调识别方法 Download PDFInfo
- Publication number
- CN107492373B CN107492373B CN201710939527.4A CN201710939527A CN107492373B CN 107492373 B CN107492373 B CN 107492373B CN 201710939527 A CN201710939527 A CN 201710939527A CN 107492373 B CN107492373 B CN 107492373B
- Authority
- CN
- China
- Prior art keywords
- feature vector
- layer
- frame
- tone
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/01—Assessment or evaluation of speech recognition systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
Abstract
本发明公开了一种基于特征融合的声调识别方法。该方法包括如下步骤:提取待识别语音信号中每一帧的倒谱特征矢量,得到倒谱特征矢量序列;获取待识别语音信号的韵律特征矢量;根据倒谱特征矢量序列计算待识别语音信号中每一帧的段统计量特征矢量,得到段统计量特征矢量序列;将倒谱特征矢量序列、韵律特征矢量和段统计量特征矢量序列输入到预先训练好的反馈神经网络模型,得到每一种声调的总识别得分,并将总识别得分最高的声调判定为所述待识别语音信号的声调类型。
Description
技术领域
本发明涉及语音识别领域,特别涉及一种基于特征融合的声调识别方法。
背景技术
声调是汉语音节的重要组成部分,人们不仅要凭借不同的声母、韵母来辨别字和词的意义,还需要以不同的声调来区分它们。在汉语语音识别系统中,如果能获得准确的声调信息将会有效地提高识别系统的性能。语音识别解码时,声调模型是作为声学模型的补充而提供区分性信息,也就是即纠正声学模型在解码时产生的错误,这就要求声调识别的精度必须足够高。
目前声调识别时最常用的特征为体现整个音节基频轮廓信息的韵律特征。除了韵律特征外,还有一些声调识别方法使用了基于帧的谱特征。其中,韵律特征是基于整个音节提取出来的,时间单元较大,不能获取语音信号中较为细节的信息。基于帧的谱特征时间单元较小,以便于分析,但帧与帧之间设定为相互独立的,因此会缺失上下文信息。同时使用韵律特征和谱特征可以一定程度上避免两种特征的缺陷。但是由于韵律特征和谱特征的时间单元不同,实际很难同时用于声调建模。
发明内容
本发明的目的在于针对现有技术中的汉语声调方法只使用一种时间单元特征的缺陷,提出一种基于多特征融合的声调识别方法,能够有效地集成不同时间单元的多粒度声调特征进行声调识别,从而提高识别精度。
本发明公开了一种基于特征融合的声调识别方法,其具体包括以下步骤:
步骤1、提取待识别语音信号中每一帧的倒谱特征矢量,得到倒谱特征矢量序列;
步骤2、获取所述待识别语音信号的韵律特征矢量;
步骤3、根据所述倒谱特征矢量序列计算所述待识别语音信号中每一帧的段统计量特征矢量,得到段统计量特征矢量序列;
步骤4、将所述倒谱特征矢量序列、所述韵律特征矢量和所述段统计量特征矢量序列输入到预先训练好的反馈神经网络模型,得到每一种声调的总识别得分,并将总识别得分最高的声调判定为所述待识别语音信号的声调类型。
上述技术方案中,步骤1-3分别提取了基于帧的短时倒谱特征、基于音节的长时韵律特征,基于语音段的中时统计量特征。上述三种特征分别从不同角度描述了声调类型的显著性信息,在声调识别时具有互补作用,能够提高识别精度。然而,它们的时间单元并不一致,很难同时用于声调建模。步骤4中采用了反馈神经网络模型用于声调识别,有效地解决了上述三种特征同时用于声调建模时其时间单元不一致的难题。
附图说明
图1是根据本发明的一种基于特征融合的声调识别方法的流程图;
图2是根据本发明的一个反馈神经网络模型的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
图1为根据本发明的一种基于特征融合的声调识别方法的流程图。其中,待识别语音信号对应一个音节,音节的边界信息可以通过语音识别系统的强制对齐得到。
如图1所示,所述基于特征融合的声调识别方法包括如下步骤:
步骤101、提取待识别语音信号中每一帧的倒谱特征矢量,得到倒谱特征矢量序列;其中,每一帧的倒谱特征矢量采用12维的梅尔频率倒谱系数;
步骤102、获取待识别语音信号的韵律特征矢量;其中,所述韵律特征矢量有9个分量,具体包含5维基频轮廓参数特征,3维能量特征和1维时长特征;
步骤103、根据倒谱特征矢量序列计算待识别语音信号中每一帧的段统计量特征矢量,得到段统计量特征矢量序列;
步骤104、将倒谱特征矢量序列、韵律特征矢量和段统计量特征矢量序列输入到预先训练好的反馈神经网络模型,得到每一种声调的总识别得分,并将总识别得分最高的声调判定为所述待识别语音信号的声调类型。
在步骤103中,根据倒谱特征矢量序列计算待识别语音信号中每一帧的段统计量特征矢量,具体步骤包括:
步骤1031、获取第i帧前后特定时间范围[i-m,i+m]的语音段,并提取所述语音段对应的局部倒谱特征矢量序列f(i-m),f(i-m+1),…,f(i),…,f(i+m);其中f(i)表示第i帧的梅尔频率倒谱系数矢量;
步骤1032、计算局部倒谱特征矢量序列f(i-m),f(i-m+1),…,f(i),…,f(i+m)中每一维的11个统计特征;所述11个统计特征包括:最大值、最小值、最大值所在位置、最小值所在位置、范围、几何平均数、算术平均数、平方平均数、方差、标准差、偏斜度;其中,计算每一维的11个统计特征的具体过程如下:
将局部倒谱特征矢量序列f(i-m),f(i-m+1),…,f(i),…,f(i+m)中每一个矢量的第k个分量提取出来,形成一个有序集合然后计算该集合的所述11个统计特征,其中fi k表示倒谱特征矢量f(i)的第k个分量;
步骤1033、将所有12维的统计特征连接起来,形成第i帧的段统计量特征矢量s(i),所述段统计量特征矢量s(i)共有132个分量。
在步骤104中,所述预先训练好的反馈神经网络模型的结构如图2所示:
在图2中,该反馈神经网络模型包含第一输入层、第二输入层、记忆层、第一隐含层、第二隐含层和输出层。第一输入层包含了144个节点,用于接收所述倒谱特征矢量序列中当前帧t的倒谱特征矢量f(t)和当前帧t的段统计量特征矢量s(t),其中倒谱特征矢量f(t)拥有12个分量,段统计量特征矢量s(t)拥有132个分量,分别对应第一输入层的144个节点;第二输入层包含了9个节点,用于接收韵律特征矢量p;第一隐含层和第二隐含层分别包含了50个节点;记忆层包含了50个节点;输出层包含5个节点,分别对应4种汉语声调和轻声。其中,连接第一输入层到第一隐含层的权值矩阵为W1;连接记忆层到第一隐含层的权值矩阵为W4;连接第一隐含层到第二隐含层的权值矩阵为W2;连接第二输入层到第二隐含层的权值矩阵为W5;连接第二隐含层到输出层的权值矩阵为W3。
第一隐含层中节点的输出值通过下面公式得到:
xi(t)=f(Vi(t))
其中,xi(t)表示第一隐含层中第i个节点的输出值,i的取值范围是[1,50],第一隐含层50个节点的输出值组成了第一隐含层的输出值矢量x(t);f(·)表示Sigmoid函数,Vi(t)表示所述第一隐含层中第i个节点的输入值,Vi(t)具体为所述第一隐含层的输入值矢量V(t)的第i个分量,所述输入值矢量V(t)通过如下公式得到:
V(t)=W1(f(t)T,s(t)T)T+W4xc(t)
其中,W1是一个50×144的矩阵,(f(t)T,s(t)T)T表示所述倒谱特征矢量f(t)和所述段统计量特征矢量s(t)相连接形成的新矢量,该新矢量维数为144,W4是一个50×50的矩阵,xc(t)表示当前帧t时记忆层的值,xc(t)具体通过下面公式得到:
xc(t)=x(t-1)
其中,x(t-1)表示第t-1帧时第一隐含层的输出值矢量,维数为50;
第二隐含层中节点的输出值通过下面公式得到:
zj(t)=f(Tj(t))
其中,zj(t)表示所述第二隐含层中第j个节点的输出值,j的取值范围是[1,50],第二隐含层50个节点的输出值组成了第二隐含层的输出值矢量z(t);Tj(t)表示所述第二隐含层中第j个节点的输入值,Tj(t)具体为所述第二隐含层的输入值矢量T(t)的第j个分量,所述输入值矢量T(t)具体通过如下公式得到:
T(t)=W2x(t)+W5p
其中,W2是一个50×50的矩阵,W5是一个50×9矩阵;
所述输出层中节点的输出值通过下面公式得到:
yk(t)=f(Lk(t))
其中,yk(t)表示所述输出层中第k个节点的输出值,k的取值范围是[1,5],输出层5个节点的输出值组成了输出层的输出值矢量y(t),输出层5个节点的输出值分别是5种声调在第t帧的帧识别得分;Lk(t)表示所述输出层中第k个节点的输入值,Lk(t)具体为所述输出层的输入值矢量L(t)的第k个分量,所述输入值矢量L(t)具体通过如下公式得到:
L(t)=W3z(t)
其中,W3是一个5×50的矩阵。
步骤104的具体步骤包含:
步骤1041:将倒谱特征矢量序列和段统计量特征矢量序列按照时序输入到所述第一输入层,将韵律特征矢量输入到所述第二输入层,计算每一帧的输出值矢量;其中,每一帧的输出值矢量计算过程具体如下:
将该帧的倒谱特征矢量和段统计量特征矢量输入到反馈神经网络模型的第一输入层,将韵律特征矢量p输入到反馈神经网络模型的第二输入层,然后计算反馈神经网络模型的输出层的输出值矢量,所述输出层的输出值矢量即是该帧的输出值矢量;
步骤1042:根据每一帧的输出值矢量确定每一种声调在每一帧的帧识别得分;
步骤1043:将每一种声调在每一帧的帧识别得分相加,得到每一种声调的总识别得分;
步骤1044:将总识别得分最高的声调判定为待识别语音信号的声调类型。
上述技术方案中,步骤101-103分别提取了基于帧的短时倒谱特征、基于音节的长时韵律特征,基于语音段的中时统计量特征。上述三种特征分别从不同角度描述了声调类型的显著性信息,在声调识别时具有互补作用,能够提高识别精度。然而,它们的时间单元并不一致,很难同时用于声调建模。步骤4中采用的反馈神经网络模型拥有两个输入层,第一输入层用于接收短时倒谱特征和中时统计量特征,与第一隐含层连接;第二输入层用于接收长时韵律特征,与第二隐含层连接;此外,还通过记忆层来获取上一帧的相关数据。具有上述结构的反馈神经网络能够有效地解决上述三种特征同时用于声调建模时其时间单元不一致的难题,既保留了韵律特性的表达,又加强了上下文对声调识别的作用,实现多层级信息的融合。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (2)
1.一种基于特征融合的声调识别方法,其特征在于包括如下步骤:
步骤1、提取待识别语音信号中每一帧的倒谱特征矢量,得到倒谱特征矢量序列;
步骤2、获取所述待识别语音信号的韵律特征矢量;
步骤3、根据所述倒谱特征矢量序列计算所述待识别语音信号中每一帧的段统计量特征矢量,得到段统计量特征矢量序列;
步骤4、将所述倒谱特征矢量序列、所述韵律特征矢量和所述段统计量特征矢量序列输入到预先训练好的反馈神经网络模型,得到每一种声调的总识别得分,并将总识别得分最高的声调判定为所述待识别语音信号的声调类型;
所述步骤3中,根据所述倒谱特征矢量序列计算所述待识别语音信号中每一帧的段统计量特征矢量,得到段统计量特征矢量序列,具体步骤包括:
步骤31、获取该帧前后特定时间范围内的语音段,并提取所述语音段对应的局部倒谱特征矢量序列;
步骤32、计算所述局部倒谱特征矢量序列中每一维的统计特征;
步骤33、将所有维的统计特征连接起来,形成该帧的段统计量特征矢量;
所述步骤1中,待识别语音信号对应一个音节,倒谱特征矢量为梅尔频率倒谱系数;
所述步骤2中,韵律特征矢量包含基频曲线特征、时长特征和能量特征;
所述步骤32中,统计特征包括:最大值、最小值、最大值所在位置、最小值所在位置、范围、几何平均数、算术平均数、平方平均数、方差、标准差、偏斜度;
所述步骤4中,反馈神经网络模型包含第一输入层、第二输入层、记忆层、第一隐含层、第二隐含层和输出层;其中,所述第一输入层用于接收所述倒谱特征矢量序列和所述段统计量特征矢量序列;所述第二输入层用于接收所述韵律特征矢量;
所述步骤4的具体步骤包含:
步骤41:将所述倒谱特征矢量序列和所述段统计量特征矢量序列按照时序输入到所述第一输入层,将所述韵律特征矢量输入到所述第二输入层,计算每一帧的输出值矢量;
步骤42:根据每一帧的输出值矢量确定每一种声调在每一帧的帧识别得分;
步骤43:将每一种声调在每一帧的帧识别得分相加,得到每一种声调的总识别得分;
步骤44:将总识别得分最高的声调判定为所述待识别语音信号的声调类型;
所述步骤41中,所述每一帧的输出值矢量具体通过下面公式得到:
yk(t)=f(Lk(t))
其中,t表示第t帧,yk(t)表示所述输出层中第k个节点的输出值,所述输出层中所有节点的输出值构成了第t帧的输出值矢量y(t);f(·)表示sigmoid函数,Lk(t)表示所述输出层中第k个节点的输入值,所述输出层中所有节点的输入值构成了所述输出层的输入值矢量L(t),所述L(t)具体通过如下公式得到:
L(t)=W3z(t)
其中,W3表示连接第二隐含层到输出层的权值矩阵,z(t)表示所述第二隐含层的输出值矢量,所述z(t)的第j个分量zj(t)表示所述第二隐含层中第j个节点的输出值,所述zj(t)通过下面公式得到:
zj(t)=f(Tj(t))
其中,Tj(t)表示所述第二隐含层中第j个节点的输入值,所述第二隐含层中所有节点的输入值构成了所述第二隐含层的输入值矢量T(t),所述T(t)具体通过如下公式得到:
T(t)=W2x(t)+W5p
其中,W2表示连接第一隐含层到第二隐含层的权值矩阵,W5表示连接第二输入层到第二隐含层的权值矩阵,p表示所述韵律特征矢量,x(t)表示所述第一隐含层的输出值矢量,所述x(t)的第i个分量xi(t)表示所述第一隐含层中第i个节点的输出值,所述xi(t)通过下面公式得到:
xi(t)=f(Vi(t))
其中,Vi(t)表示所述第一隐含层中第i个节点的输入值,所述第一隐含层中所有节点的输入值构成了所述第一隐含层的输入值矢量V(t),所述V(t)通过如下公式得到:
V(t)=W1(f(t)T,s(t)T)T+W4xc(t)
其中,W1表示连接第一输入层到第一隐含层的权值矩阵,(f(t)T,s(t)T)T表示第t帧的倒谱特征矢量f(t)和段统计量特征矢量s(t)相连接形成的新矢量,W4表示连接记忆层到第一隐含层的权值矩阵,xc(t)表示第t帧时所述记忆层的值,xc(t)具体通过下面公式得到:
xc(t)=x(t-1)
其中,x(t-1)表示第t-1帧时所述第一隐含层的输出值矢量。
2.根据权利要求1所述的基于特征融合的声调识别方法,其特征在于所述步骤41之前还包括:
步骤40:将第1帧时所述记忆层的值xc(1)设置为初始值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710939527.4A CN107492373B (zh) | 2017-10-11 | 2017-10-11 | 基于特征融合的声调识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710939527.4A CN107492373B (zh) | 2017-10-11 | 2017-10-11 | 基于特征融合的声调识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107492373A CN107492373A (zh) | 2017-12-19 |
CN107492373B true CN107492373B (zh) | 2020-11-27 |
Family
ID=60653805
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710939527.4A Expired - Fee Related CN107492373B (zh) | 2017-10-11 | 2017-10-11 | 基于特征融合的声调识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107492373B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112074903A (zh) * | 2017-12-29 | 2020-12-11 | 流畅人工智能公司 | 用于口语中的声调识别的系统和方法 |
CN111063335B (zh) * | 2019-12-18 | 2022-08-09 | 新疆大学 | 一种基于神经网络的端到端声调识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101887725A (zh) * | 2010-04-30 | 2010-11-17 | 中国科学院声学研究所 | 一种基于音素混淆网络的音素后验概率计算方法 |
CN101950560A (zh) * | 2010-09-10 | 2011-01-19 | 中国科学院声学研究所 | 一种连续语音声调识别方法 |
CN102938252A (zh) * | 2012-11-23 | 2013-02-20 | 中国科学院自动化研究所 | 结合韵律和发音学特征的汉语声调识别系统及方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0920480D0 (en) * | 2009-11-24 | 2010-01-06 | Yu Kai | Speech processing and learning |
CN103366737B (zh) * | 2012-03-30 | 2016-08-10 | 株式会社东芝 | 在自动语音识别中应用声调特征的装置和方法 |
-
2017
- 2017-10-11 CN CN201710939527.4A patent/CN107492373B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101887725A (zh) * | 2010-04-30 | 2010-11-17 | 中国科学院声学研究所 | 一种基于音素混淆网络的音素后验概率计算方法 |
CN101950560A (zh) * | 2010-09-10 | 2011-01-19 | 中国科学院声学研究所 | 一种连续语音声调识别方法 |
CN102938252A (zh) * | 2012-11-23 | 2013-02-20 | 中国科学院自动化研究所 | 结合韵律和发音学特征的汉语声调识别系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107492373A (zh) | 2017-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102134201B1 (ko) | 숫자 음성 인식에 있어서 음성 복호화 네트워크를 구성하기 위한 방법, 장치, 및 저장 매체 | |
CN110516696B (zh) | 一种基于语音和表情的自适应权重双模态融合情感识别方法 | |
CN104575490B (zh) | 基于深度神经网络后验概率算法的口语发音评测方法 | |
WO2018227780A1 (zh) | 语音识别方法、装置、计算机设备及存储介质 | |
CN107680582A (zh) | 声学模型训练方法、语音识别方法、装置、设备及介质 | |
WO2017218465A1 (en) | Neural network-based voiceprint information extraction method and apparatus | |
CN108281137A (zh) | 一种全音素框架下的通用语音唤醒识别方法及系统 | |
CN107039036B (zh) | 一种基于自动编码深度置信网络的高质量说话人识别方法 | |
CN103928023A (zh) | 一种语音评分方法及系统 | |
CN109767778A (zh) | 一种融合Bi-LSTM和WaveNet的语音转换方法 | |
CN102938252B (zh) | 结合韵律和发音学特征的汉语声调识别系统及方法 | |
CN107093422B (zh) | 一种语音识别方法和语音识别系统 | |
CN109377981B (zh) | 音素对齐的方法及装置 | |
Vadwala et al. | Survey paper on different speech recognition algorithm: challenges and techniques | |
CN108364634A (zh) | 基于深度神经网络后验概率算法的口语发音评测方法 | |
CN106548775A (zh) | 一种语音识别方法和系统 | |
WO2023245389A1 (zh) | 歌曲生成方法、装置、电子设备和存储介质 | |
CN106653002A (zh) | 一种文字直播方法及平台 | |
JP2001166789A (ja) | 初頭/末尾の音素類似度ベクトルによる中国語の音声認識方法及びその装置 | |
CN109326278B (zh) | 一种声学模型构建方法及装置、电子设备 | |
CN112735404A (zh) | 一种语音反讽检测方法、系统、终端设备和存储介质 | |
CN107492373B (zh) | 基于特征融合的声调识别方法 | |
Bi et al. | Deep feed-forward sequential memory networks for speech synthesis | |
CN111599339B (zh) | 具有高自然度的语音拼接合成方法、系统、设备及介质 | |
Kaiser et al. | Overall risk criterion estimation of hidden Markov model parameters |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20201127 Termination date: 20211011 |
|
CF01 | Termination of patent right due to non-payment of annual fee |