CN111128229A - 语音分类方法、装置及计算机存储介质 - Google Patents
语音分类方法、装置及计算机存储介质 Download PDFInfo
- Publication number
- CN111128229A CN111128229A CN201910716117.2A CN201910716117A CN111128229A CN 111128229 A CN111128229 A CN 111128229A CN 201910716117 A CN201910716117 A CN 201910716117A CN 111128229 A CN111128229 A CN 111128229A
- Authority
- CN
- China
- Prior art keywords
- mfcc
- signal
- frequency cepstrum
- cepstrum coefficient
- order difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 230000009467 reduction Effects 0.000 claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 19
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 238000012360 testing method Methods 0.000 claims abstract description 7
- 238000000513 principal component analysis Methods 0.000 claims abstract description 6
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 9
- 238000004891 communication Methods 0.000 claims description 7
- 239000013598 vector Substances 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 6
- 238000009432 framing Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 230000001186 cumulative effect Effects 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 3
- 210000002569 neuron Anatomy 0.000 description 8
- 230000003068 static effect Effects 0.000 description 8
- 238000001228 spectrum Methods 0.000 description 5
- 101100294399 Schizosaccharomyces pombe (strain 972 / ATCC 24843) not1 gene Proteins 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000005284 excitation Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 101150008481 not2 gene Proteins 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000036039 immunity Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供一种语音分类方法,方法包括:通过对待处理语音信号进行预处理,获得预处理语音信号所对应的梅尔频率倒谱系数、梅尔频率倒谱系数所对应的MFCC一阶差分、MFCC二阶差分;将梅尔频率倒谱系数、梅尔频率倒谱系数所对应的MFCC一阶差分、MFCC二阶差分进行组合,获得特征参数;采用主成分分析对提取的特征参数进行降维,获得降维后特征参数;采用DAG‑DBN,对所述降维后特征参数进行训练及测试。此外,本发明还公开了一种语音分类装置及计算机存储介质。
Description
技术领域
本发明涉及音频处理技术领域,特别是涉及一种语音分类方法、装置及计算机存储介质。
背景技术
带有口音的语言交流会产生交流误区,尤其是人机沟通带来了错误的理解,因此需要客服口音带来的障碍。
口音识别的关键点之一是进行特征值提取,特征参数要能够反映语音信息。在之前人们对线性预测倒谱系数(Linear Predictive Cepstrum Coefficients,简称LPCC)、线性预测系数(Linear Predictive Coefficients,简称LPC)以及梅尔频率倒谱系数(MelFrequency Cepstrum Coefficient,简称MFCC)等进行了深入的研究。MFCC更接近人耳的听觉特性以及具有较强的抗噪性等优势被广泛使用,但是标准的MFCC仅仅可以体现出语音参数的静态特性。
因此,现有技术中仅仅体现语音参数的静态特性无法起到对语音的正确认知,不能正确的对语音进行分类。
发明内容
鉴于以上所述现有技术的缺点,本发明的目的在于提供一种语音分类方法及装置,旨在通过同时反映语音的静态特征和动态特征,能够保留用户声音特征,所以能够提高分类性能。
为实现上述目的及其他相关目的,本发明提供一种语音分类方法,所述方法包括:
通过对待处理语音信号进行预处理,获得预处理语音信号所对应的梅尔频率倒谱系数、梅尔频率倒谱系数所对应的MFCC一阶差分、MFCC二阶差分;
将梅尔频率倒谱系数、梅尔频率倒谱系数所对应的MFCC一阶差分、MFCC二阶差分进行组合,获得特征参数;
采用主成分分析对提取的特征参数进行降维,获得降维后特征参数;
采用DAG-DBN,对所述降维后特征参数进行训练及测试。
一种实现方式中,所述通过对待处理语音信号进行预处理,获得预处理语音信号所对应的梅尔频率倒谱系数、梅尔频率倒谱系数所对应的MFCC一阶差分、MFCC二阶差分的步骤,包括:
将所述待处理语音信号通过高通滤波器进行滤波;
将滤波后的语音信号进行分帧处理;
将每一帧信号乘以汉明窗,获得第一信号;
将所述第一信号进行快速傅里叶变换,得到第二信号;
将所述第二信号通过三角带通滤波器进行滤波,获得第三信号;
对所述第三信号进行离散余弦变换,获得梅尔频率倒谱系数;
对所述梅尔频率倒谱系数进行一阶差分变换,获得MFCC一阶差分;
对所述梅尔频率倒谱系数进行二阶差分变换,获得MFCC二阶差分。
一种实现方式中,所述将滤波后的语音信号进行分帧处理的步骤,包括:
将所述滤波后的语音信号进行采样,以获取第一数量个采样点;
以所述第一数量个采样点为一帧;且在相邻两帧之间重叠区域。
一种实现方式中,所述采用主成分分析对提取的特征参数进行降维,获得降维后特征参数的步骤,包括:
获取特征参数的协方差矩阵;
计算所述协方差矩阵的特征值和对应的特征向量;
通过所述特征值,计算累积贡献率;
在所述累计贡献率不小于预设值的情况下,将所述特征值进行降序排列,并选取排列在前的第二数量个特征值;
获取第二数量个特征值所对应的特征向量;
将所述特征参数与转换矩阵的点乘结果作为降维后特征参数。
还公开了一种语音分类装置,所述装置包括处理器、以及通过通信总线与所述处理器连接的存储器;其中,
所述存储器,用于存储语音分类程序;
所述处理器,用于执行所述语音分类程序,以实现任一项所述的语音分类方法步骤。
以及一种计算机存储介质,所述计算机存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以使所述一个或者多个处理器执行任一项所述的语音分类方法步骤。
如上所述,本发明实施例提供的一种语音分类方法、装置及计算存储介质,通过提取说话人的MFCC及其一阶差分特征△MFCC和二阶差分特征△△MFCC,将三者组合作为特征参数,同时反映语音的静态特征和动态特征,获得的是高维的特征,然后将高维的特征通过PCA投影映射到低维的空间中,以此通过使用较少的数据维数,同时保留较多的原数据的信息来达到降维和去除冗余的目的。因此,通过同时反映语音的静态特征和动态特征,能够保留用户声音特征,所以能够提高分类性能。使用PCA对动静态组合特征进行降维,减少因维数增加导致的时间、空间以及计算复杂度增加的问题,提高分类准确率。
附图说明
图1是本发明实施例的一种语音分类方法的一种流程示意图。
图2是本发明实施例的一种语音分类方法的第一种具体应用示意图。
图3是本发明实施例的一种语音分类方法的第二种具体应用示意图。
图4是本发明实施例的一种语音分类方法的第三种具体应用示意图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。
请参阅图1-4。需要说明的是,本实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
需要说明的是,梅尔频率倒谱系数(Mel Frequency Cepstrum Coefficient,简称MFCC),MFCC由于更接近人耳的听觉特性以及具有较强的抗噪性等优势被广泛使用。但是标准的MFCC仅仅可以体现出语音参数的静态特性。
如图1所示,本发明实施例提供一种语音分类方法,所述方法包括:
S101,通过对待处理语音信号进行预处理,获得预处理语音信号所对应的梅尔频率倒谱系数、梅尔频率倒谱系数所对应的MFCC一阶差分、MFCC二阶差分。
具体的,一种实现方式中,如图2所示,所述通过对待处理语音信号进行预处理,获得预处理语音信号所对应的梅尔频率倒谱系数也就是MFCC,以及梅尔频率倒谱系数MFCC所对应的MFCC一阶差分、MFCC二阶差分的步骤,包括:
将所述待处理语音信号通过高通滤波器进行滤波;
具体的,首先将语音信号通过一个高通滤波器:
H(z)=1-μz-1
其中,0.9≤μ≤1,通常取0.97,预加重是减少噪声的影响。也为了减少发音系统对高频造成的影响,突出高频的共振峰,z是高通滤波器的参数,为一种自变量。
将滤波后的语音信号进行分帧处理。
将N个采样点称为一帧。通常情况下N的值为256或512,涵盖的时间约为20-30ms左右。相邻两帧之间有一段重叠区域是为了避免相邻两帧的变化过大,重叠区域包含了M个取样点,通常M的值约为N的1/2或1/3。
将每一帧信号乘以汉明窗,获得第一信号。
将每一帧乘以汉明窗,使帧的左右两端有更好的连续性。假设分帧后的信号为S(n),n=0,1,…N-1。N为帧的大小,那么乘上汉明窗后S'(n)=S(n)×W(n),窗信号W(n)形式如下
其中,a的取值不同会产生不同的汉明窗,一般情况下a取0.46。
将所述第一信号进行快速傅里叶变换,得到第二信号。
为了方便观察信号的特性,对分帧加窗后的各帧信号进行快速傅里叶变换得到在频谱上的能量分布,并对语音信号的频谱取模平方得到语音信号的功率谱,设语音信号的DFT为:
式中,Xa(k)为能量分布,x(n)为输入的语音信号,N表示傅里叶变换的点数,k为第k个取样点。
将所述第二信号通过三角带通滤波器进行滤波,获得第三信号。
将能量频谱Xa(k)乘以一个有M个三角带通滤波器的滤波器组,求得每一个滤波器输出的对数能量s(m):
其中,Hm(k)是三角滤波器的频率响应。梅尔频率mel(f)和一般频率f的关系式如下:
三角带通滤波器是为了对频谱进行平滑化,并消除谐波的作用,突显原先语音的共振峰。
对所述第三信号进行离散余弦变换,获得梅尔频率倒谱系数。
将上述的对数能量s(m)代入离散余弦变换,求出L阶的Mel-scale Cepstrum参数:
L阶指MFCC系数阶数,通常取12-16,M是三角滤波器个数。
对所述梅尔频率倒谱系数进行一阶差分变换,获得MFCC一阶差分。
对所述梅尔频率倒谱系数进行二阶差分变换,获得MFCC二阶差分。
对MFCC进行一阶差分,获得MFCC一阶差分,公式如下:
对MFCC进行二阶差分,获得MFCC二阶差分,二阶差分公式如下:
k为常数,可取1或2。
S102,将梅尔频率倒谱系数、梅尔频率倒谱系数所对应的MFCC一阶差分、MFCC二阶差分进行组合,获得特征参数。
具体的,组合MFCC以及一阶差分信号、二阶差分信号,得到动静态组合特征。去除MFCC一阶差分、MFCC二阶差分首尾两帧将MFCC和一阶、二阶MFCC结合得到36维特征参数。
S103,采用主成分分析对提取的特征参数进行降维,获得降维后特征参数。
虽然组合MFCC以及一阶差分信号、二阶差分信号,能够反映语音的静态特征和动态特征。作为语音特征意味着特征的维数升高,这必将导致计算复杂度增加。并且MFCC的一阶和二阶差分含有大量的冗余信息会导致分类准确率降低。
首先,针对每一个样板所对应的梅尔频率倒谱系数(梅尔频率倒谱系数和MFCC一阶差分、MFCC二阶差分)计算特征参数的协方差矩阵Sij,
为所有特征参数每一维的均值。比如一共有20个特征参数,每个特征参数36维,XiXj为20个特征参数每一维均值,一共有36个,k为特征参数数。i,j=1…d,d为特征参数维数,然后计算协方差矩阵的特征值λ1≥λ1≥…λd和对应的特征向量(w1,w2,...,wd),具体的,根据奇异值分解求取特征值和特征向量。通过累积贡献率G(q)来确定降维之后的维数即主成分个数。
其中,G(q)的具体表达为:
这里的λ表示的是方差,因为特征值对应主成分的方差,例如,当累积贡献率达到80%以上就足够代表所有主成分的信息。确定主成分个数q以后从所有的特征值中选取最大的q个特征值。
那么PCA转换矩阵W=(w1,w2,…wq)就是由这q个特征值对应的特征向量组成的,W为d×q维,降维之前的特征参数为X,求得降维后的特征参数特征为Y=X·W。
由于PCA是一种线性降维方法,将高维的特征通过线性投影映射到低维的空间中,并使得映射后的数据的方差尽可能大,以此通过使用较少的数据维数,同时保留较多的原数据的信息来达到降维和去除冗余的目的。使用PCA对动静态组合特征进行降维。
S104,采用DAG-DBN,对所述降维后特征参数进行训练及测试。
示例性的,如图4所示,在分类训练的过程中,还可以通过对分类结果进行评价,评价包括对分类精度和分类速度进行评价,分类精度可以为分类的准确率,从而实现对模型的评价。
本发明实施例中,基于DAG拓扑的DBN多口音分类,采用一对多的方法,即将原本的分类问题转化为一类对所有类别中剩下的其他类别的二分类问题。在进行训练的时候每一次所有的特征参数都需要参与,因此需要大量的训练时间。其次,每个分类器需要定义一个类别与所有类别中剩下的其他类别之间的分类面,增加了分类面的复杂度。当分类类别数目较大时,每一类的训练特征参数的数量和其他类别的训练特征参数总和的数量相差较大,造成训练特征参数不均衡,由此大大降低分类精度。
一对一分类方法也是一种多分类方法,但是当有K个分类类别时,其无论是训练还是测试,都需要遍历K(K-1)/2个分类器,使得分类时间大大增加,降低了分类效率。
如图4所示,针对DBN1v4,通过not1和not4进行分类获得DBN2v4、DBN1v3,然后针对DBN2v4通过not2和not4获得DBN3v4、DBN2v3,然后针对DBN1v3通过not1和not3获得DBN2v3、DBN1v2,然后分别通过not1、not2、not3和not4获得1、2、3、4。
针对以上问题提出有向无环图-深度置信网络,即使用深度置信网络作为二分类器,通过有向无环图完成多分类。
DBN是由多个RBM和一层反向传播网络(Back Propagation,简称BP)组成的神经网络。RBM由两层神经元组成,上面一层的神经元组成隐藏层,下面一层的神经元组成可见层。隐藏层和可见层神经元之间全连接,可见层神经元之间以及隐藏层神经元之间都没有连接。
无监督的对每一层神经网络自下而上进行训练。先对第一个RBM进行训练:使用对比散度算法对权值进行初始化工作。随机初始化权重向量和偏置向量,计算隐藏层神经元被开启的概率,根据概率分布进行一步吉布斯抽样。然后计算概率密度,再进行吉布斯抽样来重构显层。最后用重构后的显元计算隐藏层神经元被开启的概率。更新得到新的权重和偏置。将第一个RBM的隐藏层作为第二个RBM的输入层,用同样的方法训练第二个RBM,以此类推。逐步更新得到最终的权重和偏置向量。训练RBM就是为了得到一个分布,使之可以最大概率的得到训练特征参数。权值决定了这个分布,所以基于RBM的无监督预训练就是为了得到最优权值。
DBN最后一层设置BP网络,首先进行前向传播,使用第一步预训练好的权重和偏置来确定相应隐元是否开启。然后求取所有隐藏层中隐元的激励值。
主要使用sigmoid函数进行标准化,最后计算出输出层的激励值和输出。然后进行后向传播调整网络的参数:可以使用最小均方误差准则算法和梯度下降法两种方法来更新网络的参数。
当有K个分类类别时,所有分类类别两两组合,构成K(K-1)/2个二分类器,训练阶段训练K(K-1)/2个分类器。测试阶段将K(K-1)/2个DBN二分类器组合成一个有向无环图,如附图3所示。包括K(K-1)/2个节点和K个叶节点。最上面一层的是根节点,只有一个,最下面的K个节点是叶节点,代表K个类别。除了叶节点以外,其余所有的节点都表示一个二分类器。第i层含有i个节点,其中第j层的第i个节点和第j+1层的第i个和第i+1个节点相连接。分类时从根节点开始,排除最不可能的一类后进入下一层对应的节点,经过K-1次判断后到达某叶节点,该叶节点对应的类别即为特征参数的类别。
因此,使用DBN作为二分类器,采用有向无环图的决策方法将K个类别的多分类问题转换为K(K-1)/2个二分类问题,通过有向无环图完成多分类。DAG网络结构较一对一以及一对多网络结构远远缩短了训练和测试时间,DBN克服了BP网络因随机初始化权值参数而容易陷入局部最优和训练时间长的缺点,提高分类准确率。
此外,本发明还公开了一种语音分类装置,所述装置包括处理器、以及通过通信总线与所述处理器连接的存储器;其中,
所述存储器,用于存储语音分类程序;
所述处理器,用于执行所述语音分类程序,以实现任一项所述的语音分类步骤。
以及,公开了一种计算机存储介质,所述计算机存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以使所述一个或者多个处理器执行任一项所述的语音分类步骤。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。
Claims (6)
1.一种语音分类方法,其特征在于,所述方法包括:
通过对待处理语音信号进行预处理,获得预处理语音信号所对应的梅尔频率倒谱系数、梅尔频率倒谱系数所对应的MFCC一阶差分、MFCC二阶差分;
将梅尔频率倒谱系数、梅尔频率倒谱系数所对应的MFCC一阶差分、MFCC二阶差分进行组合,获得特征参数;
采用主成分分析对提取的特征参数进行降维,获得降维后特征参数;
采用DAG-DBN,对所述降维后特征参数进行训练及测试。
2.根据权利要求1所述的语音分类方法,其特征在于,所述通过对待处理语音信号进行预处理,获得预处理语音信号所对应的梅尔频率倒谱系数、梅尔频率倒谱系数所对应的MFCC一阶差分、MFCC二阶差分的步骤,包括:
将所述待处理语音信号通过高通滤波器进行滤波;
将滤波后的语音信号进行分帧处理;
将每一帧信号乘以汉明窗,获得第一信号;
将所述第一信号进行快速傅里叶变换,得到第二信号;
将所述第二信号通过三角带通滤波器进行滤波,获得第三信号;
对所述第三信号进行离散余弦变换,获得梅尔频率倒谱系数;
对所述梅尔频率倒谱系数进行一阶差分变换,获得MFCC一阶差分;
对所述梅尔频率倒谱系数进行二阶差分变换,获得MFCC二阶差分。
3.根据权利要求2所述的语音分类方法,其特征在于,所述将滤波后的语音信号进行分帧处理的步骤,包括:
将所述滤波后的语音信号进行采样,以获取第一数量个采样点;
以所述第一数量个采样点为一帧;且在相邻两帧之间重叠区域。
4.根据权利要求2所述的语音分类方法,其特征在于,所述采用主成分分析对提取的特征参数进行降维,获得降维后特征参数的步骤,包括:
获取特征参数的协方差矩阵;
计算所述协方差矩阵的特征值和对应的特征向量;
通过所述特征值,计算累积贡献率;
在所述累计贡献率不小于预设值的情况下,将所述特征值进行降序排列,并选取排列在前的第二数量个特征值;
获取第二数量个特征值所对应的特征向量;
将所述特征参数与转换矩阵的点乘结果作为降维后特征参数。
5.一种语音分类装置,其特征在于,所述装置包括处理器、以及通过通信总线与所述处理器连接的存储器;其中,
所述存储器,用于存储语音分类程序;
所述处理器,用于执行所述语音分类程序,以实现如权利要求1至4中任一项所述的语音分类方法步骤。
6.一种计算机存储介质,其特征在于,所述计算机存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以使所述一个或者多个处理器执行如权利要求1至4中任一项所述的语音分类方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910716117.2A CN111128229A (zh) | 2019-08-05 | 2019-08-05 | 语音分类方法、装置及计算机存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910716117.2A CN111128229A (zh) | 2019-08-05 | 2019-08-05 | 语音分类方法、装置及计算机存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111128229A true CN111128229A (zh) | 2020-05-08 |
Family
ID=70496069
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910716117.2A Pending CN111128229A (zh) | 2019-08-05 | 2019-08-05 | 语音分类方法、装置及计算机存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111128229A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111968622A (zh) * | 2020-08-18 | 2020-11-20 | 广州市优普科技有限公司 | 一种基于注意力机制的语音识别方法、系统及装置 |
CN112102846A (zh) * | 2020-09-04 | 2020-12-18 | 腾讯科技(深圳)有限公司 | 音频处理方法、装置、电子设备以及存储介质 |
CN112908303A (zh) * | 2021-01-28 | 2021-06-04 | 广东优碧胜科技有限公司 | 音频信号的处理方法、装置以及电子设备 |
CN113689863A (zh) * | 2021-09-24 | 2021-11-23 | 广东电网有限责任公司 | 一种声纹特征提取方法、装置、设备及存储介质 |
CN113855065A (zh) * | 2021-09-28 | 2021-12-31 | 平安科技(深圳)有限公司 | 基于浅层学习和深度学习融合的心音识别方法及相关装置 |
CN114295195A (zh) * | 2021-12-31 | 2022-04-08 | 河海大学常州校区 | 基于特征提取的光纤传感振动信号的异常判断方法和系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105788592A (zh) * | 2016-04-28 | 2016-07-20 | 乐视控股(北京)有限公司 | 一种音频分类方法及装置 |
CN106531157A (zh) * | 2016-10-28 | 2017-03-22 | 中国科学院自动化研究所 | 语音识别中的正则化口音自适应方法 |
CN109036437A (zh) * | 2018-08-14 | 2018-12-18 | 平安科技(深圳)有限公司 | 口音识别方法、装置、计算机装置及计算机可读存储介质 |
-
2019
- 2019-08-05 CN CN201910716117.2A patent/CN111128229A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105788592A (zh) * | 2016-04-28 | 2016-07-20 | 乐视控股(北京)有限公司 | 一种音频分类方法及装置 |
CN106531157A (zh) * | 2016-10-28 | 2017-03-22 | 中国科学院自动化研究所 | 语音识别中的正则化口音自适应方法 |
CN109036437A (zh) * | 2018-08-14 | 2018-12-18 | 平安科技(深圳)有限公司 | 口音识别方法、装置、计算机装置及计算机可读存储介质 |
Non-Patent Citations (4)
Title |
---|
ABDULLA AMIN ABUROMMAN 等: ""A novel weighted support vector machines multiclass classifier based on differential evolution for intrusion detection systems"", 《INFOMATION SCIENCES》 * |
R. UPADHYAY 等: ""Foreign English Accent Classification Using Deep Belief Networks"", 《2018 IEEE 12TH INTERNATIONAL CONFERENCE ON SEMANTIC COMPUTING (ICSC)》 * |
肖萌萌: ""有向无环图拓扑的DBN多口音分类方法"", 《小型微型计算机系统》 * |
谢思敏: ""基于深度神经网络的病理嗓音分类研究"", 《中国优秀硕士学位论文全文数据库(信息科技辑)》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111968622A (zh) * | 2020-08-18 | 2020-11-20 | 广州市优普科技有限公司 | 一种基于注意力机制的语音识别方法、系统及装置 |
CN112102846A (zh) * | 2020-09-04 | 2020-12-18 | 腾讯科技(深圳)有限公司 | 音频处理方法、装置、电子设备以及存储介质 |
CN112908303A (zh) * | 2021-01-28 | 2021-06-04 | 广东优碧胜科技有限公司 | 音频信号的处理方法、装置以及电子设备 |
CN113689863A (zh) * | 2021-09-24 | 2021-11-23 | 广东电网有限责任公司 | 一种声纹特征提取方法、装置、设备及存储介质 |
CN113689863B (zh) * | 2021-09-24 | 2024-01-16 | 广东电网有限责任公司 | 一种声纹特征提取方法、装置、设备及存储介质 |
CN113855065A (zh) * | 2021-09-28 | 2021-12-31 | 平安科技(深圳)有限公司 | 基于浅层学习和深度学习融合的心音识别方法及相关装置 |
CN113855065B (zh) * | 2021-09-28 | 2023-09-22 | 平安科技(深圳)有限公司 | 基于浅层学习和深度学习融合的心音识别方法及相关装置 |
CN114295195A (zh) * | 2021-12-31 | 2022-04-08 | 河海大学常州校区 | 基于特征提取的光纤传感振动信号的异常判断方法和系统 |
CN114295195B (zh) * | 2021-12-31 | 2023-06-13 | 河海大学常州校区 | 基于特征提取的光纤传感振动信号的异常判断方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lokesh et al. | An automatic tamil speech recognition system by using bidirectional recurrent neural network with self-organizing map | |
CN111128229A (zh) | 语音分类方法、装置及计算机存储介质 | |
CN107657964B (zh) | 基于声学特征和稀疏数学的抑郁症辅助检测方法及分类器 | |
CN108766419B (zh) | 一种基于深度学习的非常态语音区别方法 | |
CN110400579B (zh) | 基于方向自注意力机制和双向长短时网络的语音情感识别 | |
Daqrouq et al. | Speaker identification using vowels features through a combined method of formants, wavelets, and neural network classifiers | |
Ittichaichareon et al. | Speech recognition using MFCC | |
Sailor et al. | Novel unsupervised auditory filterbank learning using convolutional RBM for speech recognition | |
CN105206270B (zh) | 一种组合pca和rbm的孤立数字语音识别分类系统及方法 | |
CN108615533B (zh) | 一种基于深度学习的高性能语音增强方法 | |
CN111899757B (zh) | 针对目标说话人提取的单通道语音分离方法及系统 | |
US20130297299A1 (en) | Sparse Auditory Reproducing Kernel (SPARK) Features for Noise-Robust Speech and Speaker Recognition | |
Bhattacharjee | A comparative study of LPCC and MFCC features for the recognition of Assamese phonemes | |
Yücesoy et al. | Gender identification of a speaker using MFCC and GMM | |
Srinivasan et al. | Artificial neural network based pathological voice classification using MFCC features | |
Sailor et al. | Filterbank learning using convolutional restricted Boltzmann machine for speech recognition | |
CN110942766A (zh) | 音频事件检测方法、系统、移动终端及存储介质 | |
Cheng et al. | DNN-based speech enhancement with self-attention on feature dimension | |
CN113571095A (zh) | 基于嵌套深度神经网络的语音情感识别方法和系统 | |
Roy et al. | Pathological voice classification using deep learning | |
CN112329819A (zh) | 基于多网络融合的水下目标识别方法 | |
Sunija et al. | Comparative study of different classifiers for Malayalam dialect recognition system | |
Raju et al. | AUTOMATIC SPEECH RECOGNITION SYSTEM USING MFCC-BASED LPC APPROACH WITH BACK PROPAGATED ARTIFICIAL NEURAL NETWORKS. | |
Jagadeeshwar et al. | ASERNet: Automatic speech emotion recognition system using MFCC-based LPC approach with deep learning CNN | |
Pati et al. | A comparative study of explicit and implicit modelling of subsegmental speaker-specific excitation source information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200508 |