CN109448726A - 一种语音控制准确率的调整方法及系统 - Google Patents
一种语音控制准确率的调整方法及系统 Download PDFInfo
- Publication number
- CN109448726A CN109448726A CN201910030821.2A CN201910030821A CN109448726A CN 109448726 A CN109448726 A CN 109448726A CN 201910030821 A CN201910030821 A CN 201910030821A CN 109448726 A CN109448726 A CN 109448726A
- Authority
- CN
- China
- Prior art keywords
- signal
- voice
- accuracy rate
- control
- voice control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 230000008569 process Effects 0.000 claims abstract description 27
- 238000000605 extraction Methods 0.000 claims abstract description 25
- 238000013528 artificial neural network Methods 0.000 claims abstract description 23
- 238000003062 neural network model Methods 0.000 claims abstract description 10
- 238000001228 spectrum Methods 0.000 claims description 35
- 230000006870 function Effects 0.000 claims description 20
- 238000001514 detection method Methods 0.000 claims description 15
- 238000009432 framing Methods 0.000 claims description 15
- 230000002441 reversible effect Effects 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 11
- 230000000694 effects Effects 0.000 claims description 10
- 238000012544 monitoring process Methods 0.000 claims description 10
- 238000002203 pretreatment Methods 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 8
- 230000005236 sound signal Effects 0.000 claims description 6
- 230000007613 environmental effect Effects 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims description 4
- 230000001149 cognitive effect Effects 0.000 claims description 3
- 239000012634 fragment Substances 0.000 claims description 3
- 230000002401 inhibitory effect Effects 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 210000002569 neuron Anatomy 0.000 claims description 2
- 210000004218 nerve net Anatomy 0.000 claims 1
- 230000006872 improvement Effects 0.000 abstract description 3
- 230000000306 recurrent effect Effects 0.000 description 10
- 238000011160 research Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 210000003477 cochlea Anatomy 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 210000005036 nerve Anatomy 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 244000141359 Malus pumila Species 0.000 description 1
- 230000001944 accentuation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 235000021016 apples Nutrition 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 210000000860 cochlear nerve Anatomy 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 239000011121 hardwood Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000035800 maturation Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明提供了一种语音控制准确率的调整方法和系统,该方法通过以下步骤实现:选择特定的神经网络模型,对网络的权值初始化;监控是否有用户语音控制信号输入;对输入信号执行预处理;信号经特征提取后,送入训练好的神经网络,得到分类的识别结果;判断该识别结果与系统预存的语音控制指令是否匹配;匹配时,执行相应控制操作;不匹配时,计算语音控制准确率;当语音控制准确率低于预定值或用户启动调整过程时,系统进入准确率调整模式;重新对网络模型进行训练,直至准确率高于设定值。本发明可以根据需要实时对模型进行训练,调整语音控制准确率,提高对受控设备控制的可靠性;同时利用本发明中的改进神经网络模型,提高了语音识别精度。
Description
技术领域
本发明涉及语音控制技术领域,尤其涉及一种语音控制方法和系统。
背景技术
随着语音识别、人机交互技术的发展与成熟,越来越多的设备采用语音控制。被控设备通过语音采集装备,获取用户语音信号,与贮存的控制命令的语音资料作比对匹配,进行语音识别,解析后将指令发送至控制单元,控制设备进行相关操作。其中,语音识别的精度直接关系到了语音控制的准确率,但目前存在的主要问题是语音识别率不高,无法识别用户命令或错误识别用户命令,存在系统误操作的问题。
现有技术中语音识别系统基本由4部分构成:预处理、特征提取、模型库和模式匹配。系统框图如附图1所示语音信号经过处理得到的语音波形,首先需要进行预处理操作。预处理操作主要包括语音信号的预加重、信号的分帧、语音信号的加窗以及语音信号的端点检测;语音信号经过预处理后,接着要对语音信号的重要参数进行特征提取;特征提取后的信号经过训练与模型库中的数据进行匹配,最终得到语音识别的结果。
人工神经网络的研究一直是个热潮,因其非线性、自适应、鲁棒性及学习特性并且易于硬件实现等特点而受到人们的极大关注。对于语音信号的处理和识别,由于神经网络的结构与人耳耳蜗的层次和连接极其相似,因此神经网络模型的独特优点和超强的分类和映射能力能够充分借鉴和探索人的听觉神经机理,对神经网络和耳蜗模型互相结合的研究将是改进现有语音识别系统性能的重要方向。近些年,随着信号处理和机器学习领域的发展,语音识别研究已经取得了很大的成功,包括高斯混合模型、隐马尔可夫模型和深层神经网络等技术在内的方法已经获得很高的识别准确率。现阶段是语音识别研究的黄金时期,吸引了诸多科技公司和科研机构。国外像谷歌、微软、苹果等公司都相继推出了基于深度学习的语音识别服务,国内一批企业也纷纷跟进。
但目前的基于神经网络算法的语音识别算法也存在一些弊端。例如一个简单的问题通常需要几百倍甚至上千倍的迭代训练,要耗费大量的时间,网络训练时间长;再如局部极小值问题普遍存在于神经网络的优化过程中;在噪声环境下的性能却仍然不尽如人意,且现有算法针对不同噪声的效果差异很大;用户本身说话带有口音或者使用了方言、说话人本身的说话含糊或者不清楚等,也可能造成语音识别效果变差。
发明内容
为解决上述影响语音识别率的问题,对此本发明提供一种语音控制准确率的调整方法和系统。本发明的技术方案:
一种语音控制准确率的调整方法,包括步骤:
S1:根据语音控制的特点,选择特定的神经网络模型,采集用户的语音信息经特征提取后对模型进行训练,使用已经训练好的参数对网络的权值初始化;根据控制系统的功能和控制需求,设置语音控制指令集;
S2:获得所在环境声音信号,将时域信号转化为频域信号,计算信号的能量谱;将信号的能量谱与背景噪声能量谱比较,判断是否存在用户语音控制信号输入;若存在用户语音控制信号输入,执行之后步骤;否则,继续监听环境声音信号;
S3:获取用户语音控制信号,对该信号执行预处理步骤,预处理步骤包括:抗混叠滤波步骤;预加重步骤;加窗分帧步骤和端点检测步骤;
S4:将预处理后的用户语音控制信号作为输入,经过特征提取后,送入训练好的神经网络中,得到分类的识别结果即用户的语音控制命令;
S5:判断该识别结果与系统预存的语音控制指令是否匹配,当用户语音控制命令与预存的控制指令匹配时,系统控制执行部件执行相应的控制操作;当用户语音控制命令与预存的控制命令不匹配时,计算语音控制准确率;
S6:当语音控制准确率低于预定值或用户启动调整过程时,系统进入准确率调整模式,执行步骤S7;否则,跳转到步骤S2;
S7:系统输出标准语段,提示用户跟读,系统采集用户语音输入,对模型进行训练;再次测量语音控制准确率,当准确率高于阈值时,结束调整过程;若准确率低于阈值,重复调整过程。
优选的,步骤S1和S7中对模型训练过程具体为:
设在t时刻,网络的输入向量为x(t),隐含向量是h(t),网络的输出向量是o(t)。用V表示输入层与隐含层之间的连接权值,U表示隐含层与隐含层之间的连接权值,W表示隐含层与输出层之间的连接权值,b和a分别表示隐含层和输出层的偏置;
hl(t)表示第l个样本在t时刻的隐含变量;ol(t)表示第l个样本在t时刻的输出变量;vl(t)表示第l个样本在t时刻输出层输出;ul(t)表示第l个样本在t时刻隐含层输出;δl(vl(t))表示第l个样本在t时刻输出层的误差反向信号变量;δl(ul(t))表示第l个样本在t时刻隐含层的误差反向信号向量,和分别表示对权值W、V和U的偏导;分别表示对偏置a和b的偏导。首先随机初始化所有的权值和偏置,初始化
时间t从1到T正向传播,对第l个样本在t时刻的隐含变量和输出变量进行定义;在t=0时刻,定义隐含变量都为0,随着时间的展开,更新样本在t时刻的隐含变化量和输出变量;
hl(t)=f(ul(t))=f(Vxl(t)+Uhl(t-1)+b),(1≤t≤T);
ol(t)=g(ul(t))=f(Whl(t)+a),随着时间t从T到1反向传播,计算第l个样本在t时刻输出层的误差反向信号变量和隐含层的误差反向信号变量,对权值w、v、u和偏置a、b的偏导进行更新;
δl(vl(t))=ol(t)-vl(t)·g'(vl(t))
δl(ul(t))=[(W)Tδl(vl(t))]·f'(vl(t))
每次更新网络中的所有权值和偏置。
优选的,步骤S3对信号执行预处理步骤具体为:
抗混叠滤波步骤:设低通滤波器的截止频率为fc,它与采用频率fs的关系为:
预加重步骤:将语音信号通过一个预加重滤波器,其中预加重滤波器的传递函数公式如下:H(z)=1-az-1式中,a为预加重系数,是预加重前的语音信号,T(n)是经过预加重滤波器后得到的信号,其关系可用一阶差分方程表示如下:系数a取0.95;
加窗分帧步骤:将采集到的语音信号分为短时的语音片段进行分析,片段长度为10ms~30ms,为抑制分帧产生的Gibbs效应,利用汉宁窗在语音信号上进行滑动将语音信号分成若干帧;
端点检测步骤:计算每帧信号的短时过零率和短时平均能量;设语音信号的前m帧为静音段,计算噪声的平均能量和平均过零率;分别为短时平均能量设置高低两个门限,给短时过零率设置一个阈值;用之前设置的高低门限确定语音信号的起始点和终止点,然后再用短时过零率进行修正。
优选的,步骤S4中特征提取步骤具体为:
对预处理后的语音信号进行FFT变换得到频谱;对得到的频谱进行平方运算,再将得到的能量谱通过若干Mel带通滤波器进行滤波;将信号通过Mel滤波器后再对其取对数,获得相应的对数功率谱;最后再对得到的功率谱进行DCT反离散余弦变换,即可得到MFCC特征提取系数,若对其做一阶和二阶差分,可以得到动态MFCC特征参数。
优选的,步骤S4中:
使用Softmax分类器对语音输入信号进行概率判断,选取输出值最大的神经元所对应的类别作为分类的识别结果。
本发明还提供了一种语音控制准确率的调整系统,包括监听模块,预处理模块,语音识别模块,指令集存储模块,匹配模块,准确率调整模块,执行模块,其特征在于:
监听模块,用于获得所在环境声音信号,将时域信号转化为频域信号,计算信号的能量谱;将信号的能量谱与背景噪声能量谱比较,判断是否存在用户语音控制信号输入;若存在用户语音控制信号输入,执行之后步骤;否则,继续监听环境声音信号;
预处理模块,用于获取监听模块输入的用户语音控制信号,对该信号执行预处理操作,预处理模块包括:抗混叠滤波单元;预加重单元;加窗分帧单元和端点检测单元;
指令集存储模块,用于根据控制系统的功能和控制需求,设置语音控制指令集;
语音识别模块,用于在初始化阶段,根据语音控制的特点,选择特定的神经网络模型,采集用户的语音信息经特征提取后对模型进行训练,使用已经训练好的参数对网络的权值初始化;在识别阶段,将预处理后的用户语音控制信号作为输入,经过特征提取后,送入训练好的神经网络中,得到分类的识别结果即用户的语音控制命令;
匹配模块,用于判断上述识别结果与指令集存储模块预存的语音控制指令是否匹配,当用户语音控制命令与预存的控制指令匹配时,系统控制执行部件执行相应的控制操作;当用户语音控制命令与预存的控制命令不匹配时,计算语音控制准确率;
准确率调整模块,当语音控制准确率低于预定值或用户启动调整过程时,系统进入准确率调整模式,系统输出标准语段,提示用户跟读,系统采集用户语音输入,对模型进行训练;再次测量语音控制准确率,当准确率高于阈值时,结束调整过程;若准确率低于阈值,重复调整过程;
执行模块,用于控制执行部件执行相应的控制操作。
本发明还提供了一种语音控制系统,包括存储器、处理器和至少一个被存储在所述存储器中并被配置为由所述处理器执行的应用程序,其特征在于,所述应用程序被配置为用于执行权利要求1至5任一项所述的语音控制准确率的调整方法。
本发明还提供了一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有语音控制程序,所述语音控制程序被处理器执行时,实现如权利要求1至5中任一项所述的语音控制准确率的调整方法。
本发明的有益效果:
1、本发明方法可以根据需要实时对模型进行训练,调整语音控制准确率,提高对受控设备控制的可靠性;本发明中语音识别算法收敛速度快,鲁棒性好,易于在数字处理器中实现。
2、本发明方法能够检测低信噪比下的语音信号,检测准确率高;即使用户口音含糊不清或没有说出标准的语音控制命令,系统也能准确的理解用户的真实意图,进而提高了语音控制的准确率和效率,提升了用户体验。
3、利用本发明中的改进神经网络模型,同时实现特征提取和分类功能,简化了处理流程,避免了需要根据不同语音特征设计聚类算法的缺点,并具有相位偏移不敏感性和良好的抗噪声性能。
附图说明
图1为现有技术中语音识别系统示意图;
图2为本发明的语音控制准确率的调整系统结构图;
图3为本发明的语音控制准确率的调整方法流程图;
图4为本发明的MFCC提取过程流程图;
具体实施方式
下面结合附图1-4对本发明作进一步的说明。
本发明中一种语音控制准确率的调整系统包括:监听模块1,预处理模块2,语音识别模块3,指令集存储模块4,匹配模块5,准确率调整模块6,执行模块7。
监听模块1,用于获得所在环境声音信号,将时域信号转化为频域信号,计算信号的能量谱;将信号的能量谱与背景噪声能量谱比较,判断是否存在用户语音控制信号输入;若存在用户语音控制信号输入,执行之后步骤;否则,继续监听环境声音信号;
预处理模块2,用于获取监听模块输入的用户语音控制信号,对该信号执行预处理步骤,预处理步骤包括:抗混叠滤波步骤;预加重步骤;加窗分帧步骤和端点检测步骤;
指令集存储模块3,用于根据控制系统的功能和控制需求,设置语音控制指令集;
语音识别模块4,初始化阶段,根据语音控制的特点,选择特定的神经网络模型,采集用户的语音信息经特征提取后对模型进行训练,使用已经训练好的参数对网络的权值初始化;识别阶段,将预处理后的用户语音控制信号作为输入,经过特征提取后,送入训练好的神经网络中,得到分类的识别结果即用户的语音控制命令;
匹配模块5,用于判断上述识别结果与指令集存储模块预存的语音控制指令是否匹配,当用户语音控制命令与预存的控制指令匹配时,系统控制执行部件执行相应的控制操作;当用户语音控制命令与预存的控制命令不匹配时,计算语音控制准确率;
准确率调整模块6,当语音控制准确率低于预定值或用户启动调整过程时,系统进入准确率调整模式,系统输出标准语段,提示用户跟读,系统采集用户语音输入,对模型进行训练;再次测量语音控制准确率,当准确率高于阈值时,结束调整过程;若准确率低于阈值,重复调整过程;
执行模块7,用于控制执行部件执行相应的控制操作。
本发明中一种语音控制准确率的调整方法,包括步骤:
S1:根据语音控制的特点,选择特定的神经网络模型,采集用户的语音信息经特征提取后对模型进行训练,使用已经训练好的参数对网络的权值初始化;根据控制系统的功能和控制需求,设置语音控制指令集;
S2:获得所在环境声音信号,将时域信号转化为频域信号,计算信号的能量谱;将信号的能量谱与背景噪声能量谱比较,判断是否存在用户语音控制信号输入;若存在用户语音控制信号输入,执行之后步骤;否则,继续监听环境声音信号;
S3:获取用户语音控制信号,对该信号执行预处理步骤,预处理步骤包括:抗混叠滤波步骤;预加重步骤;加窗分帧步骤和端点检测步骤;
S4:将预处理后的用户语音控制信号作为输入,经过特征提取后,送入训练好的神经网络中,得到分类的识别结果即用户的语音控制命令;
S5:判断该识别结果与系统预存的语音控制指令是否匹配,当用户语音控制命令与预存的控制指令匹配时,系统控制执行部件执行相应的控制操作;当用户语音控制命令与预存的控制命令不匹配时,计算语音控制准确率;
S6:当语音控制准确率低于预定值或用户启动调整过程时,系统进入准确率调整模式,执行步骤S7;否则,跳转到步骤S2;
S7:系统输出标准语段,提示用户跟读,系统采集用户语音输入,对模型进行训练;再次测量语音控制准确率,当准确率高于阈值时,结束调整过程;若准确率低于阈值,重复调整过程。
其中,抗混叠滤波步骤:在进行A/D信号转换过程中,当采样频率fs大于等于原始信号最高频率的2倍时,那么釆样之后所得到的数字信号能够完整地保留原始模拟信号的信息。如果不满足采样定理,那么高于采样频率一半的那些频率将被重建成低于采样频率一半的信号,在采样信号中有频谱重叠,出现频率混叠现象,这些采样信号将不能被完整恢复成原始信号。
在对模拟信号采样之前,先用一个低通滤波器滤除掉大于1/2fs的频率成份,这样可以有效地解决混叠现象。实际中采用的通频带为0~1/2fs的低通滤波器不可能既完全滤掉高于的1/2fs的分量又不衰减接近于1/2fs的有用分量,这是因为信号谱不是很规则的矩形截止的,并且由于时域的限制,高频分量的存在不可避免。实际仪器设计中,设低通滤波器的截止频率为fc,它与采用频率fs的关系为:在选择滤波器时,要求该滤波器的振幅较平坦、相位变化较缓慢、阻带的衰减性能足够强,同时为了能获得较大的频域分析范围,又不出现频谱混叠的现象,则希望过渡带要陡峭一些。
其中,语音信号的预加重步骤:将语音信号进行数字化处理之后,接下来就要进行预加重处理,因为高频部分是语音信号的有用部分,对语音信号进行预加重的目的就是过滤掉信号的低频部分以提升信号的高频部分,以得到平坦的频谱,便于后续对声道参数或频谱进行分析。进行预加重处理就是将信号通过一个预加重滤波器,其中预加重滤波器的传递函数公式如下:
H(z)=1-az-1
式中,a为预加重系数,是预加重前的语音信号,T(n)是经过预加重滤波器后得到的信号,其关系可用一阶差分方程表示如下:
通常系数a在0.9至1之间选取,如可取0.95。
其中,加窗分桢步骤:语音信号是典型的时变的非平稳信号,一般将语音信号分为一些短时的语音片段进行分析,通常情况下取10ms到30ms之间,在此时间段内将信号看作是平稳的,每个语音片段我们称其为一帧。为了保持连续性,避免各帧之间的变化过大,两帧之间需要有一部分重叠,称为帧移,实际应用时一般将帧移取为帧长的一半。一般要对语音信号进行加窗处理,其目的是为了抑制分帧产生Gibbs效应。加窗处理时要用到窗函数,将其在语音信号上进行滑动将语音信号分成若干帧。加窗时,选择不同的窗函数将会出现不同的分析结果。选择窗函数时要考虑窗函数的形状和长度。矩形窗、汉宁窗和汉明窗等是目前用的最多的窗函数。
本发明中根据所采集的语音信号的特点,选择汉宁窗,
N为帧长,选择窗函数时要考虑窗函数的形状和长度,语音信号短时分析与窗函数的选择密切相关,在时域上,窗函数的形状和长度很重要,主瓣的宽窄与旁瓣的高低分别决定着频率分辨率和幅度分辨率的高低。窗函数在水平方向上越长,得到的信号就越平滑,但不易观察出信号的变化细节;长度越短,便得不到平滑的短时信号。所以要选择合适的窗函数长度。
其中,端点检测步骤:端点检测就是从带噪语音信号中找出语音的起点和终点,端点检测准确与否直接关系到语音系统识别性能的好坏。浊音有较高的短时能量,而清音信号有较高的短时过零率,所以本文将短时能量和短时过零率两种方法结合起来进行端点检测。具体实现步骤如下:1)分别计算每帧信号的短时过零率和短时平均能量;2)设语音信号的前m帧为静音段,计算噪声的平均能量和平均过零率;3)分别为短时平均能量设置高低两个门限,给短时过零率设置一个阈值;4)用在上面步骤中设置的高低门限确定语音信号的起始点和终止点,然后再用短时过零率进行修正。
其中,特征提取步骤:Mel频率倒谱系数(MFCC,Mel-Frequency CepstrumCoefficient)是由Davies和Mermelstein提出的,是将人耳听觉感知特性与语音的产生相结合的一种特征参数,它比线性预测倒谱系数(LPCC)参数更适合对语音识别特征进行提取,目前MFCC参数已经得到广泛的应用。
人耳的感知能力随语音频率的不同而不同,在1kHz以上时感知能力与频率大致呈对数关系,而在1000Hz以下时近似成线性关系。MFCC系数在计算时是以“Bark"为频率基准的,Mel频标的表示式如下式:fmel=2595lg(1+f/700),式中f为线性频率,单位是Hz,fmel为Mel频标。
倒谱归一化是语音识别系统经常采用的一种特征级语音信号去噪方法。它的原理是在特征参数提取阶段,首先计算MFCC特性参数的均值,然后将每一帧MFCC特征参数都减去这一均值,即可去除因噪声干扰引起的特征偏差。
本发明中,MFCC的提取过程是:1)首先对预处理后的语音信号进行FFT变换得到频谱。2)对得到的频谱进行平方运算,再将得到的能量谱通过若干Mel带通滤波器进行滤波。3)将信号通过Mel滤波器后再对其取对数,获得相应的对数功率谱。4)最后再对得到的功率谱进行DCT反离散余弦变换,即可得到MFCC特征提取系数,若对其做一阶和二阶差分,可以得到动态MFCC特征参数。
循环神经网络(Recurrent Neural Networks,RNN),也称递归神经网络,其最主要的特征就是共享权值W,循环神经网络模型的基本结构为:
输出层:
Ot=g(Vst+V's't)
隐藏层:
St=f(Uxt+Wst-1)
式中,x为输入单元,标记为{X0,X1,…,Xt…},其中Xt代表t时刻的输入;s为隐含单元,标记为{S0,S1,…,St,…}。RNN最主要的特征就是体现在隐藏层这边,也可以把隐藏层看作整个网络的一个记忆单元。因此,整个网络模型的应用主要是充分利用了这一特点。在经过一系列的实验之后,循环神经网络在自然语言处理上取得了很好的结果,尤其像词向量表达、语句合法性检查、词性标注等方面,表现更加突出。
循环神经网络(RNN)的算法为BPTT,包括前向传播和反向传播。整个模型的训练主要是对参数的训练,因为每一层的参数U、V、W都是共享的,因此本发明中假设整个模型每一层的任务都是相同的。这样可以提高整个模型的效率。而整个模型的关键就是隐藏层,对于隐藏层的训练在这里是尤为重要的。
前向传播主要就是一个参数前向传递的过程,在这个过程中,既有时间上的前后传递,同时还有一个共享的权重,主要由以下两个公式体现:
ak t=i∑wikxi t+k'∑wk'kbk'
bk t=f(bk t)
循环神经网络能够根据具有相关性语义的输入进行预测输出结果,本发明中充分利用了循环神经网络的这一特点,实现基于此网络设计实验来实现对发明中语音识别。由于循环神经网络的预测结果和人的判断具有一定的相关性,因此,本发明中就借助此网络实现语言文本的智能预测。为了确保精度,本发明中增加网络层数,但是在预测的准确度有所提升同时,在训练的时候,耗时也比较大,那么这时候就需要一个新的方法来平衡精度和效率。这时,双向循环神经网络就应运而生了。所谓“双向”就是在原来网络模型的基础上,本发明中又加了一个共享权值W。很显然,两个共享权值肯定会比一个共享权值的效果好。两个权值一个参与正向计算,一个参与反向计算。更进一步地提高了性能。因此本申请中循环神经网络又有了一个新的阶段性的进步。随着人们对性能的要求越来越高,新的模型又不断出现,比如长短时记忆神经网络(LSTM)。
在实验的过程中,为了提高语音识别的性能,首先尝试了加深循环神经网络的层数,效果确实有了一定的提高,接着,又尝试使用双向循环神经网络,以及改进的循环神经网络如(LSTM)。最终为了达到比较好的智能文本预测效果,选择和(LSTM)网络相结合,以达到相对较好的效果。
具体的,本发明中训练过程为,设在t时刻,网络的输入向量为x(t),隐含向量是h(t),网络的输出向量是o(t)。用V表示输入层与隐含层之间的连接权值,U表示隐含层与隐含层之间的连接权值,W表示隐含层与输出层之间的连接权值,b和a分别表示隐含层和输出层的偏置。
hl(t)表示第l个样本在t时刻的隐含变量;ol(t)表示第l个样本在t时刻的输出变量;vl(t)表示第l个样本在t时刻输出层输出;ul(t)表示第l个样本在t时刻隐含层输出;δl(vl(t))表示第l个样本在t时刻输出层的误差反向信号变量;δl(ul(t))表示第l个样本在t时刻隐含层的误差反向信号向量,和分别表示对权值W、V和U的偏导;分别表示对偏置a和b的偏导。首先随机初始化所有的权值和偏置,初始化
时间t从1到T正向传播,对第l个样本在t时刻的隐含变量和输出变量进行定义。在t=0时刻,定义隐含变量都为0,随着时间的展开,更新样本在t时刻的隐含变化量和输出变量。
hl(t)=f(ul(t))=f(Vxl(t)+Uhl(t-1)+b),(1≤t≤T);
ol(t)=g(ul(t))=f(Whl(t)+a),随着时间t从T到1反向传播,计算第l个样本在t时刻输出层的误差反向信号变量和隐含层的误差反向信号变量,对权值w、v、u和偏置a、b的偏导进行更新。
每次更新网络中的所有权值和偏置。
在网络最后,使用Softmax分类器对样本种类进行概率判断,选取输出值最大的神经元所对应的类别作为分类结果。
以上所述实施方式仅表达了本发明的一种实施方式,但并不能因此而理解为对本发明范围的限制。应当指出,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。
Claims (10)
1.一种语音控制准确率的调整方法,包括步骤:
S1:根据语音控制的特点,选择特定的神经网络模型,采集用户的语音信息经特征提取后对模型进行训练,使用已经训练好的参数对网络的权值初始化;根据控制系统的功能和控制需求,设置语音控制指令集;
S2:监听用户命令;
S3:获取用户语音控制信号,对该信号执行预处理步骤;
S4:将预处理后的用户语音控制信号作为输入,经过特征提取后,送入训练好的神经网络中,得到分类的识别结果即用户的语音控制命令;
S5:判断该识别结果与系统预存的语音控制指令是否匹配,当用户语音控制命令与预存的控制指令匹配时,系统控制执行部件执行相应的控制操作;不匹配时,计算语音控制准确率;
S6:当语音控制准确率低于预定值或用户启动调整过程时,系统进入准确率调整模式,执行步骤S7;否则,跳转到步骤S2;
S7:系统输出标准语段,提示用户跟读,系统采集用户语音输入,对模型进行训练;再次测量语音控制准确率,当准确率高于阈值时,结束调整过程;若准确率低于阈值,重复调整过程。
2.根据权利要求1所述的一种语音控制准确率的调整方法,其特征在于,步骤S2具体为:
获得所在环境声音信号,将时域信号转化为频域信号,计算信号的能量谱;将信号的能量谱与背景噪声能量谱比较,判断是否存在用户语音控制信号输入;若存在用户语音控制信号输入,执行之后步骤;否则,继续监听环境声音信号;
步骤S3中预处理步骤包括:抗混叠滤波步骤;预加重步骤;加窗分帧步骤和端点检测步骤。
3.根据权利要求1所述的一种语音控制准确率的调整方法,其特征在于,步骤S3对信号执行预处理步骤具体为:
抗混叠滤波步骤:设低通滤波器的截止频率为fc,它与采用频率fs的关系为:
预加重步骤:将语音信号通过一个预加重滤波器,其中预加重滤波器的传递函数公式如下:H(z)=1-az-1式中,a为预加重系数,是预加重前的语音信号,T(n)是经过预加重滤波器后得到的信号,其关系可用一阶差分方程表示如下:系数a取0.95;
加窗分帧步骤:将采集到的语音信号分为短时的语音片段进行分析,片段长度为10ms~30ms,为抑制分帧产生的Gibbs效应,利用汉宁窗在语音信号上进行滑动将语音信号分成若干帧;
端点检测步骤:计算每帧信号的短时过零率和短时平均能量;设语音信号的前m帧为静音段,计算噪声的平均能量和平均过零率;分别为短时平均能量设置高低两个门限,给短时过零率设置一个阈值;用之前设置的高低门限确定语音信号的起始点和终止点,然后再用短时过零率进行修正。
4.根据权利要求1所述的一种语音控制准确率的调整方法,其特征在于,步骤S4中特征提取步骤具体为:
对预处理后的语音信号进行FFT变换得到频谱;对得到的频谱进行平方运算,再将得到的能量谱通过若干Mel带通滤波器进行滤波;将信号通过Mel滤波器后再对其取对数,获得相应的对数功率谱;最后再对得到的功率谱进行DCT反离散余弦变换,即可得到MFCC特征提取系数,若对其做一阶和二阶差分,可以得到动态MFCC特征参数。
5.根据权利要求1所述的一种语音控制准确率的调整方法,其特征在于,步骤S4中:
使用Softmax分类器对语音输入信号进行概率判断,选取输出值最大的神经元所对应的类别作为分类的识别结果。
6.一种语音控制准确率的调整系统,包括监听模块,语音识别模块,指令集存储模块,匹配模块,准确率调整模块,执行模块,其特征在于:监听模块,用于获得所在环境声音信号,将时域信号转化为频域信号,计算信号的能量谱;将信号的能量谱与背景噪声能量谱比较,判断是否存在用户语音控制信号输入;若存在用户语音控制信号输入,执行之后步骤;否则,继续监听环境声音信号;
指令集存储模块,用于根据控制系统的功能和控制需求,设置语音控制指令集;
语音识别模块,用于在初始化阶段,根据语音控制的特点,选择特定的神经网络模型,采集用户的语音信息经特征提取后对模型进行训练,使用已经训练好的参数对网络的权值初始化;在识别阶段,将预处理后的用户语音控制信号作为输入,经过特征提取后,送入训练好的神经网络中,得到分类的识别结果即用户的语音控制命令;
匹配模块,用于判断上述识别结果与指令集存储模块预存的语音控制指令是否匹配,当用户语音控制命令与预存的控制指令匹配时,系统控制执行部件执行相应的控制操作;当用户语音控制命令与预存的控制命令不匹配时,计算语音控制准确率;
准确率调整模块,当语音控制准确率低于预定值或用户启动调整过程时,系统进入准确率调整模式,系统输出标准语段,提示用户跟读,系统采集用户语音输入,对模型进行训练;再次测量语音控制准确率,当准确率高于阈值时,结束调整过程;若准确率低于阈值,重复调整过程;
执行模块,用于控制执行部件执行相应的控制操作。
7.根据权利要求6所述的一种语音控制准确率的调整系统,其特征在于,语音识别模块模型训练时执行:
设在t时刻,网络的输入向量为x(t),隐含向量是h(t),网络的输出向量是o(t)。用V表示输入层与隐含层之间的连接权值,U表示隐含层与隐含层之间的连接权值,W表示隐含层与输出层之间的连接权值,b和a分别表示隐含层和输出层的偏置;
hl(t)表示第l个样本在t时刻的隐含变量;ol(t)表示第l个样本在t时刻的输出变量;vl(t)表示第l个样本在t时刻输出层输出;ul(t)表示第l个样本在t时刻隐含层输出;δl(vl(t))表示第l个样本在t时刻输出层的误差反向信号变量;δl(ul(t))表示第l个样本在t时刻隐含层的误差反向信号向量, 和分别表示对权值W、V和U的偏导;分别表示对偏置a和b的偏导;首先随机初始化所有的权值和偏置,初始化
时间t从1到T正向传播,对第l个样本在t时刻的隐含变量和输出变量进行定义;在t=0时刻,定义隐含变量都为0,随着时间的展开,更新样本在t时刻的隐含变化量和输出变量;
hl(t)=f(ul(t))=f(Vxl(t)+Uhl(t-1)+b),(1≤t≤T);
ol(t)=g(ul(t))=f(Whl(t)+a),随着时间t从T到1反向传播,计算第l个样本在t时刻输出层的误差反向信号变量和隐含层的误差反向信号变量,对权值w、v、u和偏置a、b的偏导进行更新;
δl(vl(t))=ol(t)-vl(t)·g'(vl(t))
δl(ul(t))=[(W)Tδl(vl(t))]·f'(vl(t))
每次更新网络中的所有权值和偏置。
8.根据权利要求6所述的一种语音控制准确率的调整系统,其特征在于,
系统还包括预处理模块,用于获取监听模块输入的用户语音控制信号,对该信号执行预处理操作,预处理模块包括:抗混叠滤波单元;预加重单元;加窗分帧单元和端点检测单元;
预处理模块包括:抗混叠滤波单元,预加重单元,加窗分帧单元和端点检测单元;
抗混叠滤波单元:由于采集的声音信号谱不是规则的矩形截止,设低通滤波器的截止频率为fc,它与采用频率fs的关系为:
预加重单元:将语音信号通过一个预加重滤波器,其中预加重滤波器的传递函数公式如下:
H(z)=1-az-1式中,a为预加重系数,是预加重前的语音信号,T(n)是经过预加重滤波器后得到的信号,其关系可用一阶差分方程表示如下:通常系数a在0.9至l之间选取,如可取0.95;
加窗分帧单元:将采集到的语音信号分为短时的语音片段进行分析,片段长度为10ms~30ms,为抑制分帧产生的Gibbs效应,利用汉宁窗在语音信号上进行滑动将语音信号分成若干帧;
端点检测单元:计算每帧信号的短时过零率和短时平均能量;设语音信号的前m帧为静音段,计算噪声的平均能量和平均过零率;分别为短时平均能量设置高低两个门限,给短时过零率设置一个阈值;用之前设置的高低门限确定语音信号的起始点和终止点,然后再用短时过零率进行修正。
9.一种语音控制系统,包括存储器、处理器和至少一个被存储在所述存储器中并被配置为由所述处理器执行的应用程序,其特征在于,所述应用程序被配置为用于执行权利要求1至5任一项所述的语音控制准确率的调整方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有语音控制程序,所述语音控制程序被处理器执行时,实现如权利要求1至5中任一项所述的语音控制准确率的调整方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910030821.2A CN109448726A (zh) | 2019-01-14 | 2019-01-14 | 一种语音控制准确率的调整方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910030821.2A CN109448726A (zh) | 2019-01-14 | 2019-01-14 | 一种语音控制准确率的调整方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109448726A true CN109448726A (zh) | 2019-03-08 |
Family
ID=65544195
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910030821.2A Pending CN109448726A (zh) | 2019-01-14 | 2019-01-14 | 一种语音控制准确率的调整方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109448726A (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110827808A (zh) * | 2019-12-06 | 2020-02-21 | 北京明略软件系统有限公司 | 语音识别方法、装置、电子设备和计算机可读存储介质 |
CN110824006A (zh) * | 2019-11-08 | 2020-02-21 | 南通大学 | 一种基于智能声信息识别的焊后焊缝冲击质量判别方法 |
CN111292748A (zh) * | 2020-02-07 | 2020-06-16 | 普强时代(珠海横琴)信息技术有限公司 | 一种可适应多种频率的语音录入系统 |
CN112259113A (zh) * | 2020-09-30 | 2021-01-22 | 清华大学苏州汽车研究院(相城) | 一种提高车内语音识别准确率的前处理系统及其控制方法 |
CN112634946A (zh) * | 2020-12-25 | 2021-04-09 | 深圳市博瑞得科技有限公司 | 一种语音质量分类预测方法、计算机设备及存储介质 |
CN113488052A (zh) * | 2021-07-22 | 2021-10-08 | 深圳鑫思威科技有限公司 | 无线语音传输和ai语音识别互操控方法 |
CN113518500A (zh) * | 2021-04-16 | 2021-10-19 | 江苏力行电力电子科技有限公司 | 一种基于情境识别的智能灯光自动调节方法及调控系统 |
CN113643692A (zh) * | 2021-03-25 | 2021-11-12 | 河南省机械设计研究院有限公司 | 基于机器学习的plc语音识别方法 |
CN115631746A (zh) * | 2022-12-20 | 2023-01-20 | 深圳元象信息科技有限公司 | 热词识别方法、装置、计算机设备及存储介质 |
WO2023169378A1 (zh) * | 2022-03-07 | 2023-09-14 | 维沃移动通信有限公司 | 模型的准确度确定方法、装置及网络侧设备 |
CN118692448A (zh) * | 2024-08-26 | 2024-09-24 | 浙江智加信息科技有限公司 | 一种电子纸阅读器的语音识别系统及方法 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102201241A (zh) * | 2011-04-11 | 2011-09-28 | 深圳市华新微声学技术有限公司 | 语音信号处理方法及装置 |
CN102456351A (zh) * | 2010-10-14 | 2012-05-16 | 清华大学 | 一种语音增强的系统 |
CN102572839A (zh) * | 2010-12-14 | 2012-07-11 | 中国移动通信集团四川有限公司 | 一种控制语音通信的方法和系统 |
CN103117066A (zh) * | 2013-01-17 | 2013-05-22 | 杭州电子科技大学 | 基于时频瞬时能量谱的低信噪比语音端点检测方法 |
US20150019214A1 (en) * | 2013-07-10 | 2015-01-15 | Tencent Technology (Shenzhen) Company Limited | Method and device for parallel processing in model training |
CN105261356A (zh) * | 2015-10-30 | 2016-01-20 | 桂林信通科技有限公司 | 一种语音识别系统及方法 |
CN107527620A (zh) * | 2017-07-25 | 2017-12-29 | 平安科技(深圳)有限公司 | 电子装置、身份验证的方法及计算机可读存储介质 |
CN107808659A (zh) * | 2017-12-02 | 2018-03-16 | 宫文峰 | 智能语音信号模式识别系统装置 |
CN107895572A (zh) * | 2016-09-30 | 2018-04-10 | 法乐第(北京)网络科技有限公司 | 一种语音识别训练方法及系统 |
CN108022589A (zh) * | 2017-10-31 | 2018-05-11 | 努比亚技术有限公司 | 目标域分类器训练方法、样本识别方法、终端及存储介质 |
CN108388942A (zh) * | 2018-02-27 | 2018-08-10 | 四川云淞源科技有限公司 | 基于大数据的信息智能处理方法 |
CN108564940A (zh) * | 2018-03-20 | 2018-09-21 | 平安科技(深圳)有限公司 | 语音识别方法、服务器及计算机可读存储介质 |
CN108682418A (zh) * | 2018-06-26 | 2018-10-19 | 北京理工大学 | 一种基于预训练和双向lstm的语音识别方法 |
CN108922515A (zh) * | 2018-05-31 | 2018-11-30 | 平安科技(深圳)有限公司 | 语音模型训练方法、语音识别方法、装置、设备及介质 |
CN109036387A (zh) * | 2018-07-16 | 2018-12-18 | 中央民族大学 | 视频语音识别方法及系统 |
-
2019
- 2019-01-14 CN CN201910030821.2A patent/CN109448726A/zh active Pending
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102456351A (zh) * | 2010-10-14 | 2012-05-16 | 清华大学 | 一种语音增强的系统 |
CN102572839A (zh) * | 2010-12-14 | 2012-07-11 | 中国移动通信集团四川有限公司 | 一种控制语音通信的方法和系统 |
CN102201241A (zh) * | 2011-04-11 | 2011-09-28 | 深圳市华新微声学技术有限公司 | 语音信号处理方法及装置 |
CN103117066A (zh) * | 2013-01-17 | 2013-05-22 | 杭州电子科技大学 | 基于时频瞬时能量谱的低信噪比语音端点检测方法 |
US20150019214A1 (en) * | 2013-07-10 | 2015-01-15 | Tencent Technology (Shenzhen) Company Limited | Method and device for parallel processing in model training |
CN105261356A (zh) * | 2015-10-30 | 2016-01-20 | 桂林信通科技有限公司 | 一种语音识别系统及方法 |
CN107895572A (zh) * | 2016-09-30 | 2018-04-10 | 法乐第(北京)网络科技有限公司 | 一种语音识别训练方法及系统 |
CN107527620A (zh) * | 2017-07-25 | 2017-12-29 | 平安科技(深圳)有限公司 | 电子装置、身份验证的方法及计算机可读存储介质 |
CN108022589A (zh) * | 2017-10-31 | 2018-05-11 | 努比亚技术有限公司 | 目标域分类器训练方法、样本识别方法、终端及存储介质 |
CN107808659A (zh) * | 2017-12-02 | 2018-03-16 | 宫文峰 | 智能语音信号模式识别系统装置 |
CN108388942A (zh) * | 2018-02-27 | 2018-08-10 | 四川云淞源科技有限公司 | 基于大数据的信息智能处理方法 |
CN108564940A (zh) * | 2018-03-20 | 2018-09-21 | 平安科技(深圳)有限公司 | 语音识别方法、服务器及计算机可读存储介质 |
CN108922515A (zh) * | 2018-05-31 | 2018-11-30 | 平安科技(深圳)有限公司 | 语音模型训练方法、语音识别方法、装置、设备及介质 |
CN108682418A (zh) * | 2018-06-26 | 2018-10-19 | 北京理工大学 | 一种基于预训练和双向lstm的语音识别方法 |
CN109036387A (zh) * | 2018-07-16 | 2018-12-18 | 中央民族大学 | 视频语音识别方法及系统 |
Non-Patent Citations (1)
Title |
---|
赵淑芳 等: ""基于改进的LSTM深度神经网络语音识别研究"", 《郑州大学学报(工学版)》 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110824006B (zh) * | 2019-11-08 | 2021-12-28 | 南通大学 | 一种基于智能声信息识别的焊后焊缝冲击质量判别方法 |
CN110824006A (zh) * | 2019-11-08 | 2020-02-21 | 南通大学 | 一种基于智能声信息识别的焊后焊缝冲击质量判别方法 |
CN110827808A (zh) * | 2019-12-06 | 2020-02-21 | 北京明略软件系统有限公司 | 语音识别方法、装置、电子设备和计算机可读存储介质 |
CN111292748A (zh) * | 2020-02-07 | 2020-06-16 | 普强时代(珠海横琴)信息技术有限公司 | 一种可适应多种频率的语音录入系统 |
CN111292748B (zh) * | 2020-02-07 | 2023-07-28 | 普强时代(珠海横琴)信息技术有限公司 | 一种可适应多种频率的语音录入系统 |
CN112259113A (zh) * | 2020-09-30 | 2021-01-22 | 清华大学苏州汽车研究院(相城) | 一种提高车内语音识别准确率的前处理系统及其控制方法 |
CN112634946A (zh) * | 2020-12-25 | 2021-04-09 | 深圳市博瑞得科技有限公司 | 一种语音质量分类预测方法、计算机设备及存储介质 |
CN112634946B (zh) * | 2020-12-25 | 2022-04-12 | 博瑞得科技有限公司 | 一种语音质量分类预测方法、计算机设备及存储介质 |
CN113643692A (zh) * | 2021-03-25 | 2021-11-12 | 河南省机械设计研究院有限公司 | 基于机器学习的plc语音识别方法 |
CN113643692B (zh) * | 2021-03-25 | 2024-03-26 | 河南省机械设计研究院有限公司 | 基于机器学习的plc语音识别方法 |
CN113518500A (zh) * | 2021-04-16 | 2021-10-19 | 江苏力行电力电子科技有限公司 | 一种基于情境识别的智能灯光自动调节方法及调控系统 |
CN113518500B (zh) * | 2021-04-16 | 2024-06-18 | 江苏力行电力电子科技有限公司 | 一种基于情境识别的智能灯光自动调节方法及调控系统 |
CN113488052A (zh) * | 2021-07-22 | 2021-10-08 | 深圳鑫思威科技有限公司 | 无线语音传输和ai语音识别互操控方法 |
WO2023169378A1 (zh) * | 2022-03-07 | 2023-09-14 | 维沃移动通信有限公司 | 模型的准确度确定方法、装置及网络侧设备 |
CN115631746A (zh) * | 2022-12-20 | 2023-01-20 | 深圳元象信息科技有限公司 | 热词识别方法、装置、计算机设备及存储介质 |
CN118692448A (zh) * | 2024-08-26 | 2024-09-24 | 浙江智加信息科技有限公司 | 一种电子纸阅读器的语音识别系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109448726A (zh) | 一种语音控制准确率的调整方法及系统 | |
CN108922513B (zh) | 语音区分方法、装置、计算机设备及存储介质 | |
CN108305639B (zh) | 语音情感识别方法、计算机可读存储介质、终端 | |
CN112581979A (zh) | 一种基于语谱图的语音情绪识别方法 | |
CN104078039A (zh) | 基于隐马尔科夫模型的家用服务机器人语音识别系统 | |
CN109034046A (zh) | 一种基于声学检测的电能表内异物自动识别方法 | |
CN108682432B (zh) | 语音情感识别装置 | |
CN109036470B (zh) | 语音区分方法、装置、计算机设备及存储介质 | |
CN113539294A (zh) | 一种生猪异常状态声音采集及识别方法 | |
CN110265063A (zh) | 一种基于固定时长语音情感识别序列分析的测谎方法 | |
Labied et al. | An overview of automatic speech recognition preprocessing techniques | |
CN118486297B (zh) | 一种基于语音情感识别的响应方法及智能语音助手系统 | |
CN112735477A (zh) | 语音情感分析方法和装置 | |
Rahman et al. | Dynamic time warping assisted svm classifier for bangla speech recognition | |
Warohma et al. | Identification of regional dialects using mel frequency cepstral coefficients (MFCCs) and neural network | |
CN118016106A (zh) | 老年人情感健康分析与支持系统 | |
CN118173092A (zh) | 一种基于ai语音交互的在线客服平台 | |
Narayanan et al. | Speech rate estimation via temporal correlation and selected sub-band correlation | |
CN114283835A (zh) | 一种适用于实际通信条件下的语音增强与检测方法 | |
Hess | Pitch and voicing determination of speech with an extension toward music signals | |
Nasr et al. | Arabic speech recognition by bionic wavelet transform and mfcc using a multi layer perceptron | |
CN112116921A (zh) | 一种基于整合优化器的单声道语音分离方法 | |
Varela et al. | Combining pulse-based features for rejecting far-field speech in a HMM-based voice activity detector | |
CN112786068B (zh) | 一种音频音源分离方法、装置及存储介质 | |
Khanum et al. | Speech based gender identification using feed forward neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190308 |