CN112270933A - 一种音频识别方法和装置 - Google Patents
一种音频识别方法和装置 Download PDFInfo
- Publication number
- CN112270933A CN112270933A CN202011260050.5A CN202011260050A CN112270933A CN 112270933 A CN112270933 A CN 112270933A CN 202011260050 A CN202011260050 A CN 202011260050A CN 112270933 A CN112270933 A CN 112270933A
- Authority
- CN
- China
- Prior art keywords
- audio
- sub
- probability
- voice
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 230000011218 segmentation Effects 0.000 claims abstract description 24
- 238000013528 artificial neural network Methods 0.000 claims abstract description 12
- 238000001914 filtration Methods 0.000 claims description 12
- 230000001105 regulatory effect Effects 0.000 claims description 4
- 230000001755 vocal effect Effects 0.000 claims description 4
- 230000003993 interaction Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 11
- 238000007781 pre-processing Methods 0.000 description 11
- 210000003128 head Anatomy 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000012937 correction Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000011176 pooling Methods 0.000 description 7
- 235000019580 granularity Nutrition 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000013145 classification model Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000012896 Statistical algorithm Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000009423 ventilation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Abstract
本申请是关于一种音频识别方法和装置。所述方法包括:获得原始音频,在所述原始音频头部之前添加第一时长的空数据,以及在所述原始音频尾部之后添加第二时长的空数据,得到扩展后的音频;以第一时长与第二时长之和的第三时长为切分窗口,以第一步长从所述扩展后的音频的首部开始,依次分窗后获得多个子音频;分别计算得到所述子音频的时频特征序列;神经网络根据所述时频特征序列得到子音频属于特定分类的概率;将所述概率分别与判决门限进行比较判决子音频是否为特定分类。本申请提供的方案,能够在保证用户的互动性和交互效率的前提下,节省统计时间提高反馈效率,增加开口时间节点统计的功能并提升其精度。
Description
技术领域
本申请涉及数据处理技术领域,尤其涉及一种音频识别方法和装置。
背景技术
随着互联网技术的发展,线上教育等类似行业蓬勃发展,在线学习人数剧增,老师通过人为主观感受和统计同学的开口时长,评估学生课堂参与度,并给予反馈,提高教学效果。
目前,现有技术中有几种统计用户开口时长的方案。
基于开关式的开口时长统计,即在用户客户端设置可开启、关闭的录制按钮,用户需按下按钮之后再开口说话。该方案的出发点是为了实现简单直接的时长统计,但当受众是低龄的幼儿群体时,该群体的特点就是服从性差、行动不循章法,为此点击按钮并说话的方式显得效率低下,全程开启麦克风的方案更适合此场景。同时,用户在交互发生的过程中,必须手动进行操作然后才能传达信息,这一定程度上减少了用户的互动性,且时长统计的有效性完全取决于用户的自觉性。
基于音频能量分析的开口时长统计,声音产生于声源的震动,是一种能量的表示方式。因此,可对音频的能量进行分析,切除掉“静音”后即为用户的有效开口时长。该方法在相对安静的环境下具备较好的效果,但是当周围存在较为强烈的噪声和混响时效果会有所下降,因为噪声本身也涵盖能量。
基于语音识别的开口时长统计算法,基于混合高斯和隐式马尔科夫、神经网络和隐式马尔科夫和Connectionist temporal classification(CTC)等语音识别算法,可以得到音频中包含的文本以及对应的时间点。基于此统计用户的开口时长,理想情况下该方案应具备最好的性能结果,但该方案往往存在以下缺点:1)语音识别模型一般计算复杂度较高,不适合在高并发的线上环境使用。2)统计开口的效果依赖于语音识别模型的精度。针对于不同的语种(包含混合语种、方言等),需训练不同的识别模型,而模型的性能提升需要大量标注数据,因此该方案的泛化性较差且前期的标注成本过高。
Vggish是Google提出的用于音频分类的技术。使用了Oxford的Visual GeometryGroup在ILSVRC 2014上提出的图像识别领域的VGG网络结构,该方案使用Youtube-100M视频数据集。vggish的方案采用的音频的分类依据来自线上视频的标题、字幕、评论等,例如歌曲、音乐、运动、演讲等等。这种方案下,分类质量依赖于人工审核,否则类别标准将存在较多错误;另一方面,如果将该方案中与人声相关的分类归于人声类别,其余归为非人声部分,最终的模型性能较差。
发明内容
本申请提供一种音频识别方法。包括:获得原始音频,在所述原始音频头部之前添加第一时长的空数据,以及在所述原始音频尾部之后添加第二时长的空数据,得到扩展后的音频;以第一时长与第二时长之和的第三时长为切分窗口,以第一步长从所述扩展后的音频的首部开始,依次分窗后获得多个子音频;分别计算得到所述子音频的时频特征序列;神经网络根据所述时频特征序列得到子音频属于特定分类的概率;将所述概率分别与判决门限进行比较判决子音频是否为特定分类。
其中,所述子音频的时频特征序列为梅尔频率倒谱系数特征序列;
以及,所述神经网络根据梅尔频率倒谱系数特征序列得到子音频的人声概率;以及,将所述人声概率分别与判决门限进行比较判决子音频是否为人声。
上述方法中,所述获得子音频属于人声概率之后,还包括:获得所述原始音频所有子音频的人声概率的数组;以第一数量作为窗口对所述数组中的概率值进行滤波,得到滤波后的人声概率。
其中,采用中值滤波的方法对所述人声概率数组进行滤波。
上述方法中,获取原始音频中所述子音频中确定时刻点的音频能量值;以及根据所述能量值设置人声概率调节因子,包括:若音频能量值大于能量上限,该子音频的人声概率调节因子置为1;若音频能量值小于能量下限,该子音频的人声概率调节因子置为0;若音频能量值不大于能量上限且不小于能量下限,则根据能量值将所述人声概率调节因子归一化为0至1之间;将子音频的人声概率调节因子乘以所述子音频人声概率,得到修正后的子音频人声概率;以及,将所述修正后的子音频人声概率分别与判决门限进行比较判决子音频是否为人声。
所述方法还包括:获取原始音频中连续判决为人声的子音频;获取所述连续判决为人声的子音频的所述确定时刻点的组成的音频片段;输出所述音频片段。
上述方法中,所述第一时长与第二时长相等;以及,所述子音频中确定时刻点的音频能量值具体为子音频中心时刻点的音频能量值;所述获取所述连续判决为人声的子音频的所述确定时刻点的组成的音频片段具体为获取所述连续判决为人声的子音频中心时刻点的组成的音频片段。
以及,所述输出音频之前还包括:若相邻的所述音频片段之间的时间间隔小于第三门限,则获取相邻音频片段间的音频片段。
上述方法还包括:统计所述输出的音频的时长。
本申请提供一种音频识别装置,包括:
处理器;以及
存储器,其上存储有可执行代码,当所述可执行代码被所述处理器执行时,使所述处理器执行如上所述的方法。
本申请通过在原始音频前后添加空数据,并以所述空数据时长的2倍对原始音频以第一步长进行分窗,切分得到多个子音频,进而基于这种对原始音频的细粒度切分,分别对子音频计算MFCC,得到声音信号的时频二维图。该方法在原始音频数据开始和结尾阶段也能够得到音频是否识别为某种类型的概率值,近似子音频的概率为其中心时间点所对应的概率,进而得到原始音频时间点粒度的概率数组,可以实现较为准确的开口片段检测。
另一方面,本申请通过深度学习算法分辨人声和非人声。以及进一步的,对神经网络得到的概率值进行滤波,有效去除音频识别结果中的噪点,这些噪点基于前步骤的细粒度切分、模型性能或/和原始音频中的噪声原因而产生。因而通过这种合理的滑动窗口和平滑机制统使得音频识别结果更加平滑。
本申请的细粒度的子音频切分和子音频大幅重叠策略导致一小部分非人声的音频概率被周围点修正得更倾向于人声。因而进一步的,本申请基于噪声或者静音的能量相比人声弱的特征,通过计算原始音频的能量进一步对申请网络的概率值进行修正,进一步提高识别精度。
进一步,本申请根据最终的音频人声概率数组进行开口片段切分统计时给予一定的宽容度用以保持语音片段的前后连续性。这样切分既能提供较好的精度,也可以提供更高内容质量的语料。
综上,通过本申请的方法能够在保证用户的互动性和交互效率的前提下,节省统计时间提高反馈效率,增加开口时间节点统计的功能并提升其精度,增加泛化性,更精准的统计用户开口时长。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
通过结合附图对本申请示例性实施方式进行更详细的描述,本申请的上述以及其它目的、特征和优势将变得更加明显,其中,在本申请示例性实施方式中,相同的参考标号通常代表相同部件。
图1是本申请实施例示出的一种音频识别方法的流程示意图;
图2是本申请实施例示出的原始音频切分预处理示意图;
图3a是现有神经网络结构示意图;
图3b是本申请实施例神经网络结构示意图;
图4是本申请实施例示出的滑动平均前音频人声概率分布图;
图5是本申请实施例示出的滑动平均后音频人声概率分布图;
图6是宽容合并处理示意图。
具体实施方式
下面将参照附图更详细地描述本申请的优选实施方式。虽然附图中显示了本申请的优选实施方式,然而应该理解,可以以各种形式实现本申请而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了使本申请更加透彻和完整,并且能够将本申请的范围完整地传达给本领域的技术人员。
在本申请使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本申请和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请可能采用术语“第一”、“第二”、“第三”等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本申请的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
本申请提供一种音频识别方法,用于从一段原始音频中识别出属于某种音频分类的音频。例如,从一段原始音频中准确识别出人声的部分,从而可以统计人声的时长,或/和进一步输出原始音频中的人声音频。
以下实施例以人声识别在在线教育场景下的应用为例进行说明。
教育领域中有开口时长统计的概念。例如在线下日常教育中,由老师作为统计的执行者和评估者,通过人为主观感受和统计同学的开口时长,评估学生课堂参与度,并给予反馈,提高教学效果。随着线上教育的发展,在线学习人数剧增,开口时长的统计依然是在线教育评估学生参与度的指标之一,因而需要一种技术方案准确有效的统计学生的开口时长。
本发明的思路在于通过对原始音频进行细粒度分窗的得到子音频,近似子音频的概率为其中心时间点所对应的概率,进而通过计算子音频的MFCC,得到声音信号的时频二维图,并通过深度学习算法分辨人声和非人声,并通过设计合理的滑动窗口和平滑机制统计有效开口时长。
参照图1说明本发明具体实施例。
步骤11:获得原始音频。
获得原始音频文件,例如学生在线学习时,根据学习软件的提示进行语音的作答,智能设备通过麦克风获取学生语音作答时的原始音频。该原始音频可能既包含了所需的人声,还包括背景声、噪音等其他非人声的音频。
步骤12:分别在所述原始音频头部之前以及尾部之后添加空数据,得到扩展后的音频;
在一种实施方式中,对原始音频进行细分度切分处理,将原始音频切分为更小的子音频,对原始音频首尾各增加一段空音频,得到扩展后的音频,对扩展后的音频基于切分窗口值进行子音频切分,空音频数值与切分窗口值保持1:2的比例。
如图2所示为本发明实施例提供的一种音频扩展较优实现方法。
本实施例中,为了实现开口时间节点的精确统计,子音频需要有更小的切分粒度。如图所示,a为原始的音频数组,首先在原始音频a的首、尾部各添加等时长的空数据,即480毫秒(ms)的零,得到扩展后的音频b。所述480ms中0的个数根据音频的采样频率而定,即480ms中的数据频率与采样频率相同。
本实施例中在原始音频首部之前和尾部之后添加的空数据时长为480ms仅为示例性的,本发明并不限制该时长的其他取值。
步骤13:以2倍上述时长为切分窗口,以第一步长从所述扩展后的音频的首部开始顺序获得多个子音频;
如图2所示,本实施例中,对原始音频切分获得子音频时,切分窗口采用960ms,即所述480ms的2倍。切分步长采用10ms,从而子音频的最小切分粒度为10ms。
按照以上切分方法,得到了数个子音频,相邻子音频之间相差10ms,每个子音频的时长为960ms。
假设某一个子音频的起始时刻和截止时刻在原始音频中分别表示为ti,ti+0.96s,则在本发明实施例,将后续步骤中计算得到的该子音频特征图的人声概率作为时间点ti+0.48s时刻音频对应的人声概率。因此,本方案根据第一个子音频计算得到的人声概率即作为原始音频起始时刻的人声概率;最后一个子音频计算得到的人声概率即作为原始音频结束时刻的人声概率。
可以看出,由于在原始音频头部之前和尾部之后添加了空数据,进而结合切分窗口一半时间的数据,即本发明通过这种方式近似计算某个时间点的人声概率,因此可以实现较为准确的开口片段检测。
本发明实施例中第一步长即切分粒度为10ms,本发明不限制其他切分粒度的选择。
步骤14:分别计算得到所述子音频的时序特征序列;
对于人声的识别,人类声带震动、口腔的闭合等具有普遍规律,该规律直接表现在声音的频域特征。本发明实施例中采用梅尔频率倒谱系数(MFCC),是基于声音频率的非线性梅尔刻度(mel scale)的对数能量频谱的线性变换得到的谱系数,符合人耳对于声音频率的感受特性,可以表征声音所具备的频域特性。
对于每个切分得到的子音频,采用预设的窗口长度以及步长,计算其短时傅立叶变换的结果,得到梅尔频率倒谱系数特征序列。本发明实施例中采用窗口长度25ms,步长10ms,计算其短时傅立叶变换的结果,得到MFCC特性。
步骤15:神经网络根据所述时序特征序列得到子音频属于特定分类的概率。
将梅尔频率倒谱系数特征序列输入已训练的神经网络模型,并获得神经网络模型输出的各音频片段对应的概率,在该实施例中,将得到的各音频片段按照时间顺序输入已训练的神经网络模型中,由已训练的神经网络模型预测各音频片段对应的概率。这个概率的取值范围可以在0到1之间。
例如,如图3所示,已训练的神经网络模型采用3x3的卷积核和pool层简化模型参数。神经网路的训练包括预训练和微调两个阶段。左图为500类分类模型,先使用声音数据集训练了500分类的音频分类模型。右图为二分类模型,该网络复用了500分类模型的底层网络结构和参数,通过反向传播算法使得模型收敛。通过此二分类模型来识别音频片段是否存在人声,则模型会输出当前音频片段存在人声的音频的概率。通过引入预训练和微调两个,使得本发明所训练的网络更加聚焦于人声、非人声的分类场景,提高了模型性能。
如图3在进行音频的人声识别时,本发明实施例经过训练的卷积神经网络(CNN):由输入和输出层以及多个隐藏层组成,其中隐藏层主要由一系列卷积层、池化层和全连接层组成。
卷积层一般会定义一个卷积核,卷积核的大小表征该层网络的感受野,通过在输入特征图上滑动不同的卷积核并于特征图进行点积运算将感受野内的信息投影到下层的某一个元素,达到信息富集的作用。一般,卷积核的尺寸要比输入特征图小得多,且重叠或平行地作用于输入特征图中。
池化层实际上是一种非线性形式的降采样运算,有多种不同形式的非线性池化函数例如最大值池化、均值池化等。通常来说,CNN的网络结构中的卷积层之间都会周期性地插入池化层。
全连接层则是将卷积层、池化层抽象出的高层特征信息进行融合交汇,并最终达到分类效果。
步骤16:将所述概率分别与判决门限进行比较判决子音频是否为特定分类。
设置所述判决门限作为判决是否为人声的依据,若所述概率大于判决门限,则判决为人声,若概率小于判决门限则判决为非人声。
经过以上步骤,原始音频a被分成了一个个人声或非人声的片段。通过累加所有片段的时长即可得到原始音频中人声的时长,即用户的开口时长信息。并且,可以按照各开口片段的信息将原始音频进行切分,方便后续输出人声音频,用于例如对学习状况的评估。
在本发明的又一实施例中,在步骤15神经网络根据所述时序特征序列得到子音频属于特定分类的概率后,还可以利用如下方法对所得到的概率值进行预处理,达到对概率值进行优化的目的。
1)对当前获得的概率进行滑动平均预处理。
由于切分粒度和噪声的原因,导致按照上文记载的方法得到的原始音频的人声概率数组中包含噪点。体现在如图4所示200毫秒的人声概率分布图中,纵坐标表示该音频点为人声的概率,横坐标代表时间,每个点表示10ms。在横轴时间轴所对应的0-1的概率值分布上存在很多概率值的突变,即毛刺。因此,需要对当前获得的概率进行滑动平均预处理,使得概率分布更加平滑,得到如图5所示的200毫秒的人声概率分布图。
滑动平均预处理,采用中值滑动滤波法,中值滤波后的第i个子音频为人声的概率为:
其中,原始音频中的所有子音频的人声概率数组
P={p1,p2,p3,...,pi...,pn},其中n为原始音频切分得到的子音频总数,pi代表第i个子音频为人声的概率。
w_smooth是选定窗口大小。例如本实施例中选取所述窗口为31,即窗口为所述子音频的人声概率数组中的31个值。
针对于pi,确定滑动平均的上、下限索引。
下限索引为:Lo=max(0,i-15),表示数组中的第一个概率值;
上限索引为:Hi=min(n,i+15),表示数组中的最后一个概率值。
本实施例中,中值滤波即是以相邻31个点的概率值进行平均后作为中间点的概率值;按照该方法,以步长为1,重新计算每个点的概率值。
对比图4和图5,可以看出经过滑动平均后子音频人声概率图的毛刺被有效修正,在一定程度上提高了开口片段切分的精度。
以上中值滤波为本发明的一种实现方式,本发明并不限制其他滤波方法的采用。
经过滤波预处理后,利用判决算法判别人声与非人声,确定人声开口片段,统计用户开口时长。
2)能量修正预处理。
经过滑动平均预处理后,由于本发明实施例中采用细粒度的子音频切分,以及由于子音频大幅重叠的策略导致一小部分非人声的音频概率在经过滤波时被周围点修正得更倾向于人声,即人声概率增加,但其本质为非人声。
为解决上述问题,本发明实施例利用噪声或者静音的能量相对人声较弱的特性,利用原始音频的能量对人声概率进行进一步修正,以提高精度。
经过滑动平均的音频人声概率数组为:
以10ms为窗口大小,10ms为步长,计算得到原始音频的能量数组:
Power={w1,w2,w3,...,wi,..wn}
由于上文记载的实施例中,采用步长10ms对原始音频进行切片得到子音频,进而得到10ms为间隔的人声概率,因而,此处采用10ms的步长计算得到原始音频的能量数组,从而使得原始音频的能量数组的时刻与原始音频的人声概率数组时刻相应。
将Power数组的值归一化到0~1之间,确定能量上限Pup和能量下限Pdown,则wi可以按照以下方式归一化:
数组Pf和数组对应值进行点积运算,得到能量修正后的音频人声概率值数组PT。经过该运算,当某时刻音频能量大于所述能量上限Pup时,则该时刻人声概率值不变;若某时刻音频能量小于所述能量下限Pdown时,则该时刻人声概率值取值为0。
在实施例中,若所述音频能量介于所述能量下限和能量上限之间(包含能量上限值和能量下限值),则取得的概率调整因子介于0和1之间,通过该概率调整因子调整对应时刻点的人声概率值,最终得到能量修正后的音频人声概率值数组PT。
以上可以看出,通过利用原始音频的能量矩阵,若某时刻音频能量低于能量下限,则认为该时刻音频为非人声,从而将该时刻的人声概率变为零,通过这种方法进一步去除了非人声的部分音频。
以上实施例将获得的概率先经过滑动平均预处理,再经过能量修正预处理,最后利用判决算法判别人声与非人声,确定人声开口片段,统计用户开口时长;对于对当前获取的概率进行能量修正和滑动平均两种预处理,没有先后顺序,亦可先进行能量修正预处理,再进行滑动平均预处理。
本发明也可以采用上述两种预处理方法中的其中一种达到提高人声识别准确率的目的。
作为对以上实施例的进一步优化,在统计人声时长或输出人声音频之前,还可以对上述方法得到的人声音频进行宽容合并处理。
具体的,考虑到人类说话的前后延续性,尤其是儿童、青少年线上学习的场景,表达完整意思句子的单词间往往有短暂的停顿,通常用以换气或者表征某种情绪。本实施例中,根据最终的音频人声概率数组进行开口片段切分统计时并不严格按照上文记载的步骤所得到的识别结果,而是给予一定的宽容度用以保持语音片段的前后连续性。这样切分既能提供较好的精度,也可以为教师提供更高内容质量的评价语料,方便老师评估学生的学习效果。
宽容合并的方法具体如下。
设置判决门限作为判决是否为人声的依据。
通过以上步骤,原始音频a被分成了一个个人声或非人声的片段。如果判决为人声的两个子音频之间间隔的判决为非人声的子音频数量小于第三门限,则进一步获取所述判决为人声的两个子音频中心时刻之间的音频。
经过宽容合并的处理,通过累加所有片段的时长所得到的用户的开口时长信息相比不采用宽容合并处理所得到的用户开口时长信息更加合理;并且得到的人声音频保持了语音片段的前后连续性。
上文记载的实施例中,步骤12具体采用在原始音频头部之前以及尾部之后添加时间长度相等的空数据,例如均为480毫秒;以及步骤13中采用2倍480毫秒即960毫秒时长的窗口对原始音频进行切分得到多个子音频。
在本发明的其他实施例中,在原始音频头部之前以及尾部之后添加的空数据时间长度可以不相等。即在所述原始音频头部之前添加第一时长的空数据,以及在所述原始音频尾部之后添加第二时长的空数据;并且以第一时长与第二时长之和的第三时长为切分窗口对原始音频进行切分得到子音频。
例如,第一时长为240毫秒,第二时长为720毫秒,切分窗口为第一时长与第二时长之和,即为960毫秒。可见,利用本方式得到的子音频时长与上文实施例相同,依然为960ms。
使用此种切分方式,将计算得到的子音频人声概率近似的作为子音频中在1/4时刻的人声概率值。假设某一个子音频的起始时刻和截止时刻在原始音频中分别表示为ti,ti+0.96s,则将子音频人声概率值近似作为子音频中ti+0.24s时刻的人声概率值。进一步,在输出人声音频时,获得连续判决为人声的各子音频中第1/4时刻点组成的音频片段。可知,由于采用第一步长对原始音频切分得到子音频,因而相邻的子音频的第1/4时刻之间相隔第一步长,例如上述实施例中采用的10ms。
可采用上文记载相同的方法对得到的子音频的人声概率数组进行滤波。
在对得到的子音频的人声概率数组进行音频能量修正预处理时,较优的方式是计算子音频中前1/4时刻的能量值。例如,假设某一个子音频的起始时刻和截止时刻在原始音频中分别表示为ti,ti+0.96s,则计算ti+0.24s时刻的能量值,并根据该能量值得到该子音频(ti,ti+0.96s)的概率修正因子。
与前述应用功能实现方法实施例相对应,本申请还提供了一种音频识别装置。该装置包括:
处理器;以及
存储器,其上存储有可执行代码,当所述可执行代码被所述处理器执行时,使所述处理器执行上文记载的方法。关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不再做详细阐述说明。
本领域技术人员还将明白的是,结合这里的申请所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。
附图中的流程图和框图显示了根据本申请的多个实施例的系统和方法的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标记的功能也可以以不同于附图中所标记的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本申请的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (10)
1.一种音频识别方法,其特征在于,包括:
获得原始音频,在所述原始音频头部之前添加第一时长的空数据,以及在所述原始音频尾部之后添加第二时长的空数据,得到扩展后的音频;
以第一时长与第二时长之和的第三时长为切分窗口,以第一步长从所述扩展后的音频的首部开始,依次分窗后获得多个子音频;
分别计算得到所述子音频的时频特征序列;
神经网络根据所述时频特征序列得到子音频属于特定分类的概率;
将所述概率分别与判决门限进行比较判决子音频是否为特定分类。
2.根据权利要求1所述的方法,其特征在于,
所述子音频的时频特征序列为梅尔频率倒谱系数特征序列;
以及,所述神经网络根据梅尔频率倒谱系数特征序列得到子音频的人声概率;
以及,将所述人声概率分别与判决门限进行比较判决子音频是否为人声。
3.根据权利要求2所述的方法,其特征在于,所述获得子音频的人声概率之后,还包括:
获得所述原始音频所有子音频属于人声概率的数组;
以第一数量作为窗口对所述数组中的概率值进行滤波,得到滤波后的概率。
4.根据权利要求3所述的方法,其特征在于,采用中值滤波的方法对所述人声概率的数组进行滤波。
5.根据权利要求2或者3所述的方法,其特征在于,所述按照预置的规则,根据所述人声概率判决子音频是否为人声包括:
获取原始音频中所述子音频中确定时刻点的音频能量值;以及根据所述能量值设置人声概率调节因子,包括,
若能量值大于能量上限,该子音频的人声概率调节因子置为1;
若能量值小于能量下限,该子音频的人声概率调节因子置为0;
若能量值不大于能量上限且不小于能量下限,则根据能量值将所述人声概率调节因子归一化为0至1之间;
将子音频的人声概率调节因子乘以所述子音频人声概率,得到修正后的子音频人声概率;
以及,将所述修正后的子音频人声概率分别与判决门限进行比较判决子音频是否为人声。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
获取原始音频中连续判决为人声的子音频;
获取所述连续判决为人声的子音频的所述确定时刻点的组成的音频片段;
输出所述音频片段。
7.根据权利要求6所述的方法,其特征在于:
所述第一时长与第二时长相等;
以及,所述子音频中确定时刻点的音频能量值具体为子音频中心时刻点的音频能量值;
所述获取所述连续判决为人声的子音频的所述确定时刻点的组成的音频片段具体为获取所述连续判决为人声的子音频中心时刻点的组成的音频片段。
8.根据权利要求6或7所述的方法,其特征在于,所述输出音频之前还包括:
若相邻的所述音频片段之间的时间间隔小于第三门限,则获取相邻音频片段间的音频片段。
9.根据权利要求8所述的方法,其特征在于,还包括:
统计所述输出的音频的时长。
10.一种音频识别的装置,其特征在于,包括:
处理器;以及
存储器,其上存储有可执行代码,当所述可执行代码被所述处理器执行时,使所述处理器执行如权利要求1-9中任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011260050.5A CN112270933B (zh) | 2020-11-12 | 2020-11-12 | 一种音频识别方法和装置 |
PCT/CN2021/130304 WO2022100691A1 (zh) | 2020-11-12 | 2021-11-12 | 音频识别方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011260050.5A CN112270933B (zh) | 2020-11-12 | 2020-11-12 | 一种音频识别方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112270933A true CN112270933A (zh) | 2021-01-26 |
CN112270933B CN112270933B (zh) | 2024-03-12 |
Family
ID=74339924
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011260050.5A Active CN112270933B (zh) | 2020-11-12 | 2020-11-12 | 一种音频识别方法和装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112270933B (zh) |
WO (1) | WO2022100691A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113593603A (zh) * | 2021-07-27 | 2021-11-02 | 浙江大华技术股份有限公司 | 音频类别的确定方法、装置、存储介质及电子装置 |
WO2022100691A1 (zh) * | 2020-11-12 | 2022-05-19 | 北京猿力未来科技有限公司 | 音频识别方法和装置 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115840877B (zh) * | 2022-12-06 | 2023-07-07 | 中国科学院空间应用工程与技术中心 | Mfcc提取的分布式流处理方法、系统、存储介质及计算机 |
CN115579022B (zh) * | 2022-12-09 | 2023-06-30 | 南方电网数字电网研究院有限公司 | 叠音检测方法、装置、计算机设备和存储介质 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030088411A1 (en) * | 2001-11-05 | 2003-05-08 | Changxue Ma | Speech recognition by dynamical noise model adaptation |
CN1666252A (zh) * | 2002-07-08 | 2005-09-07 | 里昂中央理工学院 | 为声音信号分配声级的方法和装置 |
CN107527626A (zh) * | 2017-08-30 | 2017-12-29 | 北京嘉楠捷思信息技术有限公司 | 一种音频识别系统 |
WO2018107810A1 (zh) * | 2016-12-15 | 2018-06-21 | 平安科技(深圳)有限公司 | 声纹识别方法、装置、电子设备及介质 |
CN108288465A (zh) * | 2018-01-29 | 2018-07-17 | 中译语通科技股份有限公司 | 智能语音切轴的方法、信息数据处理终端、计算机程序 |
CN109712641A (zh) * | 2018-12-24 | 2019-05-03 | 重庆第二师范学院 | 一种基于支持向量机的音频分类和分段的处理方法 |
CN109859771A (zh) * | 2019-01-15 | 2019-06-07 | 华南理工大学 | 一种联合优化深层变换特征与聚类过程的声场景聚类方法 |
CN110085251A (zh) * | 2019-04-26 | 2019-08-02 | 腾讯音乐娱乐科技(深圳)有限公司 | 人声提取方法、人声提取装置及相关产品 |
CN110349597A (zh) * | 2019-07-03 | 2019-10-18 | 山东师范大学 | 一种语音检测方法及装置 |
CN110782920A (zh) * | 2019-11-05 | 2020-02-11 | 广州虎牙科技有限公司 | 音频识别方法、装置及数据处理设备 |
CN110782872A (zh) * | 2019-11-11 | 2020-02-11 | 复旦大学 | 基于深度卷积循环神经网络的语种识别方法及装置 |
CN110827798A (zh) * | 2019-11-12 | 2020-02-21 | 广州欢聊网络科技有限公司 | 一种音频信号处理的方法及装置 |
US20200074997A1 (en) * | 2018-08-31 | 2020-03-05 | CloudMinds Technology, Inc. | Method and system for detecting voice activity in noisy conditions |
CN111145763A (zh) * | 2019-12-17 | 2020-05-12 | 厦门快商通科技股份有限公司 | 一种基于gru的音频中的人声识别方法及系统 |
CN111613213A (zh) * | 2020-04-29 | 2020-09-01 | 广州三人行壹佰教育科技有限公司 | 音频分类的方法、装置、设备以及存储介质 |
CN111883182A (zh) * | 2020-07-24 | 2020-11-03 | 平安科技(深圳)有限公司 | 人声检测方法、装置、设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112270933B (zh) * | 2020-11-12 | 2024-03-12 | 北京猿力未来科技有限公司 | 一种音频识别方法和装置 |
-
2020
- 2020-11-12 CN CN202011260050.5A patent/CN112270933B/zh active Active
-
2021
- 2021-11-12 WO PCT/CN2021/130304 patent/WO2022100691A1/zh active Application Filing
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030088411A1 (en) * | 2001-11-05 | 2003-05-08 | Changxue Ma | Speech recognition by dynamical noise model adaptation |
CN1666252A (zh) * | 2002-07-08 | 2005-09-07 | 里昂中央理工学院 | 为声音信号分配声级的方法和装置 |
WO2018107810A1 (zh) * | 2016-12-15 | 2018-06-21 | 平安科技(深圳)有限公司 | 声纹识别方法、装置、电子设备及介质 |
CN107527626A (zh) * | 2017-08-30 | 2017-12-29 | 北京嘉楠捷思信息技术有限公司 | 一种音频识别系统 |
CN108288465A (zh) * | 2018-01-29 | 2018-07-17 | 中译语通科技股份有限公司 | 智能语音切轴的方法、信息数据处理终端、计算机程序 |
US20200074997A1 (en) * | 2018-08-31 | 2020-03-05 | CloudMinds Technology, Inc. | Method and system for detecting voice activity in noisy conditions |
CN109712641A (zh) * | 2018-12-24 | 2019-05-03 | 重庆第二师范学院 | 一种基于支持向量机的音频分类和分段的处理方法 |
CN109859771A (zh) * | 2019-01-15 | 2019-06-07 | 华南理工大学 | 一种联合优化深层变换特征与聚类过程的声场景聚类方法 |
CN110085251A (zh) * | 2019-04-26 | 2019-08-02 | 腾讯音乐娱乐科技(深圳)有限公司 | 人声提取方法、人声提取装置及相关产品 |
CN110349597A (zh) * | 2019-07-03 | 2019-10-18 | 山东师范大学 | 一种语音检测方法及装置 |
CN110782920A (zh) * | 2019-11-05 | 2020-02-11 | 广州虎牙科技有限公司 | 音频识别方法、装置及数据处理设备 |
CN110782872A (zh) * | 2019-11-11 | 2020-02-11 | 复旦大学 | 基于深度卷积循环神经网络的语种识别方法及装置 |
CN110827798A (zh) * | 2019-11-12 | 2020-02-21 | 广州欢聊网络科技有限公司 | 一种音频信号处理的方法及装置 |
CN111145763A (zh) * | 2019-12-17 | 2020-05-12 | 厦门快商通科技股份有限公司 | 一种基于gru的音频中的人声识别方法及系统 |
CN111613213A (zh) * | 2020-04-29 | 2020-09-01 | 广州三人行壹佰教育科技有限公司 | 音频分类的方法、装置、设备以及存储介质 |
CN111883182A (zh) * | 2020-07-24 | 2020-11-03 | 平安科技(深圳)有限公司 | 人声检测方法、装置、设备及存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022100691A1 (zh) * | 2020-11-12 | 2022-05-19 | 北京猿力未来科技有限公司 | 音频识别方法和装置 |
CN113593603A (zh) * | 2021-07-27 | 2021-11-02 | 浙江大华技术股份有限公司 | 音频类别的确定方法、装置、存储介质及电子装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112270933B (zh) | 2024-03-12 |
WO2022100691A1 (zh) | 2022-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108564942B (zh) | 一种基于敏感度可调的语音情感识别方法及系统 | |
US20200402497A1 (en) | Systems and Methods for Speech Generation | |
CN112270933B (zh) | 一种音频识别方法和装置 | |
CN110021308B (zh) | 语音情绪识别方法、装置、计算机设备和存储介质 | |
US5867816A (en) | Operator interactions for developing phoneme recognition by neural networks | |
CN112382310B (zh) | 一种人声音频录制方法和装置 | |
JP2654917B2 (ja) | ニューラル・ネットワークを使用する話者独立孤立単語音声認識システム | |
CN110544481B (zh) | 一种基于声纹识别的s-t分类方法、装置及设备终端 | |
CN113488063B (zh) | 一种基于混合特征及编码解码的音频分离方法 | |
CN114023300A (zh) | 一种基于扩散概率模型的中文语音合成方法 | |
Airaksinen et al. | Data augmentation strategies for neural network F0 estimation | |
CN112735404A (zh) | 一种语音反讽检测方法、系统、终端设备和存储介质 | |
Xiao et al. | Hierarchical classification of emotional speech | |
CN113823323A (zh) | 一种基于卷积神经网络的音频处理方法、装置及相关设备 | |
Ohnaka et al. | Visual onoma-to-wave: environmental sound synthesis from visual onomatopoeias and sound-source images | |
Mandel et al. | Audio super-resolution using concatenative resynthesis | |
CN114512134A (zh) | 声纹信息提取、模型训练与声纹识别的方法和装置 | |
CN110299133A (zh) | 基于关键字判定非法广播的方法 | |
CN116259312A (zh) | 一种针对语音自动剪辑任务的方法及神经网络模型训练方法 | |
CN111402887A (zh) | 一种语音转义文字的方法及装置 | |
CN111061909B (zh) | 一种伴奏分类方法和装置 | |
Yousfi et al. | Isolated Iqlab checking rules based on speech recognition system | |
Sabu et al. | Improving the Noise Robustness of Prominence Detection for Children's Oral Reading Assessment | |
Novakovic | Speaker identification in smart environments with multilayer perceptron | |
Mital | Speech enhancement for automatic analysis of child-centered audio recordings |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |