CN101625857A - 一种自适应的语音端点检测方法 - Google Patents
一种自适应的语音端点检测方法 Download PDFInfo
- Publication number
- CN101625857A CN101625857A CN200810116450A CN200810116450A CN101625857A CN 101625857 A CN101625857 A CN 101625857A CN 200810116450 A CN200810116450 A CN 200810116450A CN 200810116450 A CN200810116450 A CN 200810116450A CN 101625857 A CN101625857 A CN 101625857A
- Authority
- CN
- China
- Prior art keywords
- short
- frame
- time energy
- voice
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Telephonic Communication Services (AREA)
Abstract
本发明涉及自动字幕生成系统中的语音检测技术,具体涉及一种自适应的语音端点监测方法。该方法将音频采样序列分成固定长度的帧,并形成一个帧序列,针对每一帧数据提取短时能量、短时过零率和短时信息熵三个音频特征参数;根据音频特征参数计算每一帧数据的短时能频值,并形成一个短时能频值序列;从第一帧数据开始,分析短时能频值序列,并找出一对语音起点和终点;分析背景噪声,如果发现背景噪声发生改变,则重新计算背景噪声的音频特征参数,并更新短时能频值序列;重复此过程直到检测结束。本发明可以在背景噪声经常发生变化的情况下,对连续语音进行语音端点检测,从而提高在复杂噪声背景下的语音端点检测效率。
Description
技术领域
本发明涉及自动字幕生成系统中的语音检测技术,具体涉及一种自适应的语音端点监测方法。
背景技术
语音端点检测技术是语音技术研究的一个新的领域,其应用于自动字幕生成系统中。当前的字幕制作方法首先需要准备好字幕文稿,这种字幕文稿是指在制作电视节目之前,事先写好的一个文本文件,记录着节目的标题、主持人要说的话,以及被采访人所讲的话等内容。在制作电视节目时,编辑人员把音、视频素材添加到非线性编辑软件的故事板上,然后按照节目的主旨,对其进行编辑。编辑操作一般包括对素材位置的修改,添加一些特技,添加字幕等等。添加字幕时,一般是先在字幕文稿中选择多段文字(每一段就是一句话),然后以这些文字生成一个新的字幕文件,将这个文件拖上非线性编辑软件的轨道,此时字幕中的每一句话就会按顺序播出,但是往往会出现“声画不同步”的现象,即字幕出现的时刻和音频文件中播出的声音对不上。这时就需要编辑人员一边听声音,一边一句句地修改字幕的入点和出点的值。这就非常耗费人力和时间,影响唱词文件生成的质量和效率。
从复杂背景噪声中找出语音的起始点和结束点,即语音端点检测技术,一直是语音信号处理中的基本问题。由于语音端点检测的重要性,人们已经提出了很多种语音端点检测方法。这些方法大致可以分为基于模型的方法和基于门限的方法两类。
基于模型的方法可以使用多维的特征如Mel倒普等,但是这种方法非常依赖于建立模型并进行数据训练,计算量非常大;因为采用的特征维数较多,对环境进行自适应就需要大量的数据,因此实现起来有相当的难度。
基于门限的语音端点检测方法则是根据语音的特点,选择合适的特征参数,然后将该特征参数与预先设定的门限值进行比较,或者是先对特征参数进行一系列的后期处理然后再与门限进行比较。在传统的基于门限方法中,基本上都使用了短时能量、短时过零率和短时信息熵等语音参数,分别判断它们是否超过一个阀值,然后再通过“与”或者“或”运算来做出是否为语音起点或终点的判断。
现有的基于门限的端点检测方法中,一般会首先选取音频最初的10-20ms作为背景噪声进行分析,并通过分析来设定两个门限值:一个用于确定语音起点,另一个用于确定语音的终点。当发现所观察的参数值大于起点门限,则将该点标识为语音的起点。语音起点确定后,当所观察的参数值小于终点门限时,将该点标识语音终点。这种方法具有一定的限制:首先,这种方法要求在整个语音端点检测的过程中,背景噪声不发生大的变化;其次,由于不同的说话人所对应的特征门限不同,这种检测算法的门限值很难确定。
对于基于门限的语音端点检测方法,影响检测结果的因素主要有两个:1.特征参数的提取;2.门限值的确定以及调整。
现有的基于门限的端点检测参数主要有:
1)能量:以声音的强度作为判断参数。这种方法在高信噪比的情况下会有很好的效果。但是,在信噪比低的情况下,如在汽车引擎声、关门声等噪声的干扰下,这种方法的准确率很低。
2)频率:采用频率域的特征作为判断依据。这种方法可以准确的区分语音和汽车引擎、关门声等噪声,但是,对于语音和乐音的区别效果较差。
传统的基于门限的语音端点检测方法主要存在以下几点不足:
首先,无论采用哪种音频参数,传统的语音端点检测方法在特定的噪声环境下都存在很大的不足。比如,基于能量的方法在低SNR的环境中表现不好;基于信息熵的算法在音乐背景下则会失效。
另外,传统的语音端点检测方法主要应用在语音识别、语音拨号、指令控制以及嵌入式系统中。在这些应用环境中,语音只会持续很短一段时间,一般是几秒钟。而且背景噪声在端点检测过程中基本上不发生大的变化,因此这些方法一般取音频的前5帧来分析噪音。但是如果语音持续较长的一段时间,并且背景噪声在检测过程中频繁变化,那么上述方法并不能很好的工作。
最后,传统的语音端点检测方法着重于从背景噪声中精确地提取出单个的字(词)的语音端点。与之相比,自动唱词生成系统对精度的要求相对较低,而侧重于在连续的语音中,进行连续的语音端点检测,并且最终检测出语句的端点。
因此,有必要引入一种音频参数,能够在多种噪声条件下保证语音端点检测的准确性。并提出一种新的语音端点检测方法,能够应对突然变化的背景噪声,并能够在复杂的背景噪声环境下,对连续语音进行端点检测,并最终检测出语句的端点。
发明内容
本发明的目的在于针对自动字幕生成系统的特点以及现有语音端点检测方法的缺陷,提供一种自适应的语音端点检测方法,可以在背景噪声经常发生变化的情况下,对连续语音进行语音端点检测,从而提高在复杂噪声背景下的语音端点检测效率。
本发明的技术方案如下:一种自适应的语音端点检测方法,包括如下步骤:
(1)音频数据输入后,解析音频文件并提取数字采样值,对获取到的音频采样序列进行带通滤波;
(2)将音频采样序列分成固定长度的帧,并形成一个帧序列,针对每一帧数据提取短时能量、短时过零率和短时信息熵三个音频特征参数;
(3)根据上述音频特征参数计算每一帧数据的短时能频值,并形成一个短时能频值序列;
(4)从第一帧数据开始,分析短时能频值序列,并找出一对语音起点和终点;
(5)分析背景噪声,如果发现背景噪声发生改变,则重新计算背景噪声的音频特征参数,并更新短时能频值序列;
(6)返回步骤(4),继续寻找下一对语音起点和终点,重复此过程直到检测结束,并输出语音端点检测结果。
进一步,在上述自适应的语音端点检测方法中,当步骤(6)输出语音端点检测结果后,遍历这个语音端点序列,依次寻找一个语音终点Fe,以及下一个语音起点Fe,如果Fe和Fb相距超过规定的时间间隔,则确定Fe和Fb之间为语句的间隔,将Fe和Fb标记为语句端点,重复此过程确定所有的语句端点。上述判断语句端点所规定的时间间隔为100ms。
进一步,如上所述的自适应的语音端点检测方法,在步骤(1)中,所述的带通滤波的带宽为400Hz~3500Hz。
进一步,如上所述的自适应的语音端点检测方法,在步骤(2)中,将音频采样序列分成10ms长度的帧。
进一步,如上所述的自适应的语音端点检测方法,在步骤(2)中,所提取的第i帧的短时能量为:
其中,N表示第i帧中所包含的音频采样数量;Sn表示第n个采样的取样值。
进一步,如上所述的自适应的语音端点检测方法,在步骤(2)中,所提取的第i帧的短时过零率为:
其中,N表示第i帧中所包含的音频采样数量;Sn表示第n个采样的取样值;sgn()为符号函数,定义为
进一步,如上所述的自适应的语音端点检测方法,在步骤(2)中,提取短时信息熵的步骤如下:
(a)利用短时傅里叶变换(FFT)对每一帧的信号进行由时域向频域的转换:
其中,Sn表示第n个音频采样, N为总采样数;
(b)计算每一频率的出现概率:
其中,s(fi)表示频率f的频谱能量,pi表示相应频率的出现概率,M表示傅里叶变换计算得出的频率的总数,即窗口宽度,
所规定的约束条件为:
s(fi)=0 if fi≤250HZ or fi≥3750HZ
pi=0 if pi≥0.9
(c)计算语音信息熵:
其中,M表示傅里叶变换计算得出的频率的总数,即窗口宽度,pi表示相应频率的出现概率,Hi表示第i帧的短时信息熵。
进一步,如上所述的自适应的语音端点检测方法,在步骤(3)中,第i帧的短时能频值为:
EZE-featurei=(Ei-Eb)·(Zi-Zb)·(Hi-Hb)
其中,EZE-featurei表示第i帧的短时能频值;Ei、Zi和Hi分别表示第i帧的短时能量、短时过零率和短时信息熵;Eb、Zb和Hb分别表示当前背景噪声的短时能量、短时过零率和短时信息熵。
更进一步,在步骤(3)中,对每一帧的短时能频值进行平滑处理,处理中对短时能量、短时过零率和短时信息熵三个音频特征参数分别进行平滑,通常采用5帧平滑的方式,对于某一帧Fn,设它的某个音频特征参数是Xn,找到它左右相邻的4帧Fn-2、Fn-1、Fn+1、Fn+2,并找出它们相应的音频特征参数Xn-2、Xn-1、Xn+1、Xn+2,则平滑后得到的音频特征参数Xn-smoothed为:
对于第一帧和最后一帧采用3帧平滑的方式,平滑后得到的音频特征参数分别为:
对于第二帧和倒数第二帧采用4帧平滑的方式,平滑后得到的音频特征参数分别为:
进一步,如上所述的自适应的语音端点检测方法,在步骤(4)中,寻找语音起点的步骤如下:
(a)从第t帧开始寻找,检测第t帧之后每一帧的短时能频值,直至找到一帧j,使得
Xt≤Xt+1≤Xt+2≤......≤Xj且Xj+1≥Xj+2
即寻找从第t帧开始的短时能频值序列的上升区间,记为At;
(b)计算所找到的上升区间At的短时能频值序列波形的平均斜率Rt:
其中,Xt为第t帧的短时能频值,Xj为第j帧的短时能频值;
(c)设定一个门限值Rm来确定语音起始点,如果Rt≥Rm,且第t帧之前的区间没有被认为是语音区间,则将第t帧记为语音的起点,然后令t=j+1,去寻找与之相匹配的语音终点;如果Rt<Rm,则令t=j+1,重复步骤(a)的操作。
更进一步,如上所述的自适应的语音端点检测方法,在步骤(4)中,寻找语音终点的步骤如下:
(I)从第t帧开始寻找,检测第t帧之后每一帧的短时能频值,直至找到一帧j,使得
Xt≥Xt+1≥Xt+2≥......≥Xj且Xj+1≤Xj+2
即寻找从第t帧开始的短时能频值序列的下降区间,记为Dt;
(II)计算所找到的下降区间Dt的短时能频值序列波形的平均斜率Rt:
其中,Xt为第t帧的短时能频值,Xj为第j帧的短时能频值;
(III)通过设定的门限值Rm来判断语音信号的终点,如果Rt≥Rm,在已经找到一个语音起点的情况下,将第t帧记为与前一个语音起点相对应的语音终点;如果Rt<Rm,则令t=j+1,重复步骤(I)的操作。
更进一步,在上述寻找语音终点的过程中,步骤(III)中如果Rt≥Rm,且第t帧之前还没有找到一个单独的语音起点,即找到了一个不对应任何语音起点的下降区间Dt,则该下降区间Dt为一段单独的语音区间,此时将第t帧记为语音起点,将第j帧记为语音终点。
更进一步,如上所述的自适应的语音端点检测方法,在步骤(4)中,寻找语音起点和终点的过程中,如果一个不属于语音部分的下降区间D1位于两个属于语音部分的上升区间A1、A2之间,或者一个不属于语音部分的上升区间A3位于两个属于语音部分的下降区间D2、D3之间,则将下降区间D1和上升区间A3均视为属于语音部分。
进一步,如上所述的自适应的语音端点检测方法,在步骤(4)中,寻找一对语音起点和终点时,确定门限值Rm的步骤如下:
(i)分析当前的短时能频值序列,找出其最小值,记为EZE-featuremin;找出其最大值,记为EZE-featuremax,然后计算EZE-featuremax/100;
(ii)比较EZE-featuremin和EZE-featuremax/100,取其中较大者,记为EZE-featureslope;
(iii)确定门限值Rm=EZE-featureslope×2。
进一步,如上所述的自适应的语音端点检测方法,在步骤(5)中,重新计算背景噪声的音频特征参数,并更新短时能频值序列的步骤如下:
(a)针对当前找到的语音起点,记为第Fh帧,判断Fh帧与上一个语音终点所在的Ft帧相距的时间间隔,当在300ms以上时,进行环境噪声的提取;
(b)从第Ft帧开始,取接下来的10帧当作背景噪声,重新计算背景噪声的短时能量Eb,短时过零率Zb和短时信息熵Hb的值,计算方法采用取10帧中的算术平均值;
(c)从第Ft+1帧开始,使用更新后的背景噪声的短时能量Eb,短时过零率Zb和短时信息熵Hb,重新计算每一帧的短时能频值,得到新的短时能频值序列。
本发明的有益效果如下:本发明所提供的自适应的语音端点检测方法可以根据发音人语音的停顿,准确的找出每一句字幕所对应的入点和出点的时间,节目制作人员只需要将文件拖上非线性编辑软件的轨道即可,大大节省了唱词文件生成过程中的人力和物力资源。另外,本发明综合考虑了语音的时域和频域特征,能够通过对背景噪声的实时分析来应对突然变化的背景噪声,并能够在复杂的背景噪声环境下,对连续语音进行端点检测,并最终检测出语句的端点。与传统方法相比,本发明的语音端点检测效率更高、质量更好。
附图说明
图1为本发明语音端点检测的总体流程图。
图2为自动字幕生成系统的示意图。
图3为短时能频值的提取流程图。
图4为短时能频值的波形图。
图5为短时能频值的平滑处理流程图。
图6为短时能频值平滑处理前后的波形对比图。
图7为检测语音起点和终点的流程图。
图8为语音、音乐和噪声波形对比图。
图9为短时能频值波形特殊情况示意图。
图10为寻找语句端点的流程图。
图11为噪声反馈的对比图。
图12短时能频值波形的标示图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细的描述。
本发明所提供的自适应的语音端点检测方法应用于自动字幕生成系统中,自动字幕生成系统接受用户输入一个采用PCM音频压缩格式、采样频率48k、采样位数16位、声道数目2(立体声)、文件格式为wav的音频文件,以及相应的字幕文稿;输出为一个srt格式的字幕文件,内容是字幕文稿中的每一句话及其所对应的开始时间点和结束时间点。整个系统结构如图2所示。
本发明所提供的语音端点检测流程如图1所示,可以根据背景噪声的变化对语音参数进行及时的调整,从而提高在复杂噪声背景下的语音端点检测效率。其具体步骤如下:
(1)音频数据输入后,采用常规方法解析音频文件并提取数字采样值,模拟到数字的转换过程分为采样和量化,采样是把连续的时间离散化,量化是把采样幅度的连续取值离散化,采样波形能够表示为:
s(n)=sa(nT),-∞<n<∞
式中Sa是模拟波形,n是整数,T是采样周期或者说是两个相邻样品之间的时间差,它是由输入信号的带宽或它的最大频率确定;
对获取到的音频采样序列进行带通滤波,带宽为400hz~3500hz,其主要目的是让信号在规定频率范围内通过,把人发音的频段以外的噪声或者音乐滤除,此步骤可以大大降低背景音乐对语音端点检测的影响;
(2)对音频采样序列进行窗口处理,将其分成10ms长度的帧,并形成一个帧序列,针对每一帧数据提取短时能量、短时过零率和短时信息熵三个音频特征参数;
(3)根据上述音频特征参数计算每一帧数据的短时能频值,并形成一个短时能频值序列;
(4)从第一帧数据开始,分析短时能频值序列,并找出一对语音起点和终点;
(5)分析背景噪声(包括背景音乐),如果发现背景噪声发生改变,则重新计算背景噪声的音频特征参数,并更新短时能频值序列;
(6)返回步骤(4),继续寻找下一对语音起点和终点,重复此过程直到检测结束,并输出语音端点检测结果;
(7)遍历这个语音端点序列,依次寻找一个语音终点Fe,以及下一个语音起点Fb,如果Fe和Fb相距超过规定的时间间隔100ms,则确定Fe和Fb之间为语句的间隔,将Fe和Fb标记为语句端点,重复此过程确定所有的语句端点。
下面对上述各步骤中所涉及到的技术解决方案进行详细的描述。
(一)短时能量、短时过零率和短时信息熵三个音频特征参数的提取
1.短时能量
能量是最经常使用的音频特征参数之一,是对语音信号最直观的表示。语音信号的能量分析基于语音信号幅度随时间有相当的变化这一现象。能量可以用于区别发音的清音段和浊音段,能量值较大的对应于清音段,能量值较小的对应于浊音段。对于高信噪比的信号,可以用能量来判断有无语音。无语音信号的噪声能量较小,而有语音信号时能量会显著增大,由此可以粗略区分语音信号的起始点和中止点。另外,能量还可以用来区分声母和韵母的分界、以及连字的分界等。
在本发明中,采用“短时能量”作为主要的特征参数之一。所谓短时能量,就是先对音频信号进行分帧处理,然后对每一帧求其能量,它被定义为一帧中所有采样值平方的和。第i帧的短时能量定义为:
其中,N表示第i帧中所包含的音频采样数量;Sn表示第n个采样的取样值。
2.短时过零率
过零率是声音信号处理过程中一个常用的音频特征参数。当离散语音信号的时域波形通过时间横轴时,相邻时刻的采样值如果具有不同的符号,称为“过零”。单位时间的过零次数称为“过零率”,即单位时间内音频采样值符号变换的次数。同上,在本发明中将单位时间限定为一帧,每一帧的过零率就是“短时过零率”。第i帧的短时过零率定义如下:
其中,Sn表示第n个采样的取样值;sgn()为符号函数,定义为
过零分析是语音的时域分析中最简单的一种分析。它可以区别语音的发音是清音还是浊音。由于清音语音的多数能量出现在较高的频率上,因此清音的过零率较高;而浊音语音具有高频跌落的频谱,因此浊音的过零率低。利用短时过零率还可以从背景噪声中找出语音信号。在孤立词的语音识别中,必须要在一串连续的语音信号中进行适当分割,用以确定每个单词语音的信号,也即找出每个单词的开始和终止位置。用平均过零率来确定单词的起始点时,判断依据是语音开始点以前的过零率低,而开始点以后的过零率有明显的数值。在有背景噪声的情况下,一般背景噪声的平均过零率较低,而单词起始段的平均过零率急剧增大,由此可判定此单词的起始点。
3.短时信息熵
语音的感知过程与人类听觉系统具有频谱分析功能是紧密相关的。因此,对语音信号进行频谱分析,是认识语音信号和处理语音信号的重要方法。语音信号是一种典型的非平稳信号,但是其非平稳性是由发音器官的物理运动过程而产生的,由此可以假定其频域也是短时平稳的。
信息熵是频域的重要音频参数,它反应了语音信号所传达的信息量的大小。信息熵在语音编解码中经常被使用,J.L.Shen首次将它应用在语音端点检测技术中。本发明同样对每一帧都计算其信息熵,称为短时信息熵,计算方法如下:
(a)利用短时傅里叶变换(FFT)对每一帧的信号进行由时域向频域的转换:
其中,Sn表示第n个音频采样, N为总采样数;
由于此处的傅立叶变换都是对某一帧进行的,因此相当于对傅立叶变换加上了一个窗口函数w(n-k)。k的取值取决于要对哪一帧进行短时傅立叶变换。
(b)计算每一频率的出现概率:
其中,s(fi)表示频率f的频谱能量,pi表示相应频率的出现概率,M表示傅里叶变换计算得出的频率的总数,即窗口宽度,此处取480。
所规定的约束条件为:
s(fi)=0 if fi≤250HZ or fi≥3750HZ
pi=0 if pi≥0.9
第一个约束公式用来保证语音信号的频率范围。因为人的发音频率基本集中在250Hz到3750Hz之间,所以我们把频率限定在这个范围之内。第二个约束公式用来滤除在某些频率上持续发生的噪声。
(c)计算语音信息熵:
其中,M表示傅里叶变换计算得出的频率的总数,即窗口宽度,pi表示相应频率的出现概率,Hi表示第i帧的短时信息熵。
试验证明,语音信号的信息熵和非语音信号的信息熵之间存在很大的差别,由此可以用来寻找语音端点的位置。在很多情况下,尤其是当背景噪声主要是机械噪声时,使用信息熵作为特征参数比单纯使用能量更加可靠。
但是,在连续不断的背景噪声或者音乐背景下,使用信息熵来进行语音端点检测会非常不可靠。因为同语音一样,连续的背景噪声或者背景音乐也含有很多信息。相对而言,在这种情况下使用能量作为特征参数反而会取得较好的效果,因为语音与背景噪声的叠加总会大过单纯的背景噪声。
(二)短时能频值的确定
在上述三个音频特征参数的基础上,本发明提出了一个结合时域和频域的语音特征参数,称作短时能频值,记做EZE-feature。
1.短时能频值的定义
第i帧的短时能频值EZE-featurei的定义如下:
EZE-featurei=(Ei-Eb)·(Zi-Zb)·(Hi-Hb)
其中,EZE-featurei表示第i帧的短时能频值;Ei、Zi和Hi分别表示第i帧的短时能量、短时过零率和短时信息熵;而Eb、Zb和Hb则分别表示了当前背景噪声的短时能量、短时过零率和短时信息熵。典型的短时能频值波形如图4所示,截取自一段新闻的短时能频值波形。
短时能频值同时结合了时域和频域的语音特征。短时能量和短时过零率属于时域的音频特征参数,短时信息熵则属于频域的音频特征参数。将时域和频域的音频特征参数结合在一起,能够发挥它们各自的长处,同时又可以在一定程度上规避它们各自的缺点,从而能够有效的应对各种不同类型的背景噪声。
2.短时能频值的提取过程
在语音端点检测过程中,我们需要求得每一帧的短时能频值。求第i帧的短时能频值,就要用到第i帧的短时能量、短时过零率和短时信息熵。其提取过程如图3所示。
步骤1:首先对音频信号序列进行分帧处理,得到一个音频帧序列。在本发明中将10ms规定为一帧。例如,如果音频文件的采样率是48k/s,那么每帧就应该包含480个采样。
步骤2:从步骤1中得到的帧序列里的第一帧开始直到最后,计算每一帧的三个音频特征参数,得到短时能量序列、短时过零率序列和短时信息熵序列。
步骤3:从帧序列里的第一帧开始直到最后,应用步骤2里求得的三个音频特征参数序列,并应用每一帧所对应的背景噪声的相应音频特征参数,按照短时能频值的定义公式进行计算。重复此过程直到所有帧的短时能频值都计算完成。最后得到一个与帧序列相对应的短时能频值序列。
3.短时能频值的平滑处理
人的语音在字(词)之间具有一定的相关性,字(词)之间不会产生非常突兀的变化。因此,可以对上述三个语音特征参数进行平滑处理。一方面,由于噪声的影响,音频信号中可能出现突兀的毛刺现象,主要表现为在一系列平缓的音频波形中突然出现剧烈震动的单个波(正常情况为一系列的震动波)。使用平滑处理可以有效地去除一些由噪声引起的毛刺现象。另一方面,也对语音参数的有效性做出一定的优化。语音信号是连续的,语音前后之间具有一定的相关性,将语音信号分割成一系列间断帧的处理方式破坏了这种相关性,而平滑处理则可以在一定程度上弥补由于分帧处理带来的影响。
平滑处理可在时域上进行,也可以在频域上进行。本发明对音频信号主要采取时域平滑的处理方式。
因为本发明中需要用到3个音频特征参数:短时能量、短时过零率和短时信息熵都是直接使用音频信号的取样值求得的,因此在进行平滑处理时也要对3个特征参数分别进行平滑。
对于某一帧Fn进行平滑处理,设它的某个音频特征参数是Xn。采用5帧平滑的方式,找到它左右相邻的4帧Fn-2、Fn-1、Fn+1、Fn+2,并找出它们相应的音频特征参数Xn-2、Xn-1、Xn+1、Xn+2。则平滑后得到的音频特征参数Xn-smoothed为:
整个平滑处理的过程如图5所示。在进行语音端点检测之前,我们需要对音频信号中的每一帧都按照上述方法进行平滑处理。
对于音频信号中的开始两帧以及最后两帧,无法进行5帧平滑。在音频文件中,一般在开始的两帧和最后的两帧中很少有语音出现,因此对这些边界帧进行异常处理并不会对语音端点检测的准确度产生大的影响。从而可以相应的采取4帧或3帧进行平滑处理。
对第一帧,我们可以同时使用第1、2、3帧来进行3帧平滑;而对于第二帧,我们可以使用第1、2、3和4帧来进行4帧平滑。类似的,对于最后两帧,我们可以使用相同的方法进行3帧或4帧平滑处理。
对于第一帧和最后一帧采用3帧平滑的方式,平滑后得到的音频特征参数分别为:
对于第二帧和倒数第二帧采用4帧平滑的方式,平滑后得到的音频特征参数分别为:
图6显示了一段新闻的短时能频值波形片断,可以看出在平滑处理后,毛刺现象明显减少,但是波形的大体轮廓保持不变。其中a图为未平滑的波形,b图为平滑后的波形。
(三)基于短时能频值的语音端点检测
短时能频值充分考虑了背景噪声对语音端点检测造成的影响,应用这个参数,本发明文提出了自适应的语音端点检测算法。可以通过不断调整Eb和Zb的值来有效应对背景噪声突发性改变所带来的不确定性。
通过仿真工具软件matlab对很多音频文件的短时能频值波形研究后发现:在语音和音乐叠加的时间段中,或者在只有语音的时间段中,短时能频值波形的变化非常剧烈,变化频率很高,而且变化的幅度非常大。而在既没有语音又没有音乐,只有背景噪声的时间段中,短时能频值基本保持很小的变化幅度,而且变化的频率比较小。另外,在只有音乐没有语音的时间段中,不管有没有背景噪声出现,由于经过了滤波器滤波后,音乐的高频部分已经被滤掉,所以虽然短时能频值变化的幅度仍然非常大,但是,其变化的频率却比有语音时要缓和的多。语音、音乐和噪声波形对比如图8所示。
图8为一段新闻联播节目的短时能频值波形片断,从第3400帧到第3540帧左右属于背景音乐的短时能频值波形,从第3820帧到第4030帧左右属于语音的短时能频值波形,而从4230帧到4280帧则属于一段背景噪声的短时能频值波形。
因此,通过计算一个音频文件的短时能频值序列,并研究其波形,找出其中变化剧烈而且变化幅度较大的部分,就能够找到此音频文件中的语音部分,从而可以找到其语音端点。所以,寻找语音端点的重点就是找出短时能频值序列波形中斜率比较大的那些部分,并判断出它们是否是语音的端点。
1.语音起点和终点的检测流程
本方法从音频的第一帧开始检测,对短时能频值序列的波形进行分析,依次寻找每一对相匹配的语音起点和语音终点,直到检测完最后一帧。如图7所示,该方法主要包括以下4个步骤:
步骤1:计算音频文件中每一帧的短时能频值,形成一个短时能频值序列
X1X2X3X4.......Xn
在算法开始时首先要计算所有音频帧的短时能频值,作为初始值。但是并不是所有初始值序列中的值都会被使用到。随着分析的进行,在分析到后面的帧的时候可能会发现背景噪声发生了变化,此时背景噪声的音频特征参数Eb、Zb等的值就需要进行调整。从而短时能频值序列也就相应的需要进行调整。从发现背景噪声改变的那一帧开始,之前的短时能频值不用调整,之后的都需要重新计算。重新计算得到的短时能频值序列也仍然只是暂时的,直到分析完最后一帧之前,短时能频值序列有可能不断被修改。
步骤2:寻找语音的起点
1)假设从第t帧(对应短时能频值Xt)开始寻找,检测第t帧之后每一帧的短时能频值,直到找到一帧j(对应短时能频值Xj),使得
Xt≤Xt+1≤Xt+2≤......≤Xj且Xj+1≥Xj+2
即寻找从第t帧开始的短时能频值序列的上升区间,记为At。
2)计算刚找到的上升区间At的短时能频值序列波形的平均斜率
在上升区间At中,由于人语音的特点,其短时能频值序列波形不可能平稳上升,其斜率可能会不断变化,时大时小。因此虽然在区间At中短时能频值波形一直保持上升的趋势,却只能计算其平均斜率。
3)设定一个门限值Rm,如果有Rt≥Rm,即斜率Rt非常的陡峭,则认为上升区间At属于语音部分。此时有两种情况,一种是如果第t帧之前的区间已经被认为是语音区间了,那就说明已经找到了一个语音起点,现在需要寻找与之相对应的语音终点,因此令t=j+1,进入步骤3。另一种情况是第t帧之前的区间没有被认为是语音区间,则将第t帧记为语音的起点,然后令t=j+1,进入步骤3去寻找与之相匹配的语音终点。
反之,如果Rt<Rm,即斜率Rt比较平缓。此时也有两种可能,一种是Rt远远小于Rm,主要是因为Xt、Xj等短时能频值都比较小,说明上升区间At属于背景噪声。另一种情况是Rt的值比较大,仅略小于Rm,这说明上升区间At很有可能属于背景音乐。上述两种情况之间没有严格的界限,就是说无法确定非语音区间到底属于噪声还是背景音乐,不过在这两种情况下,都认为区间At不是语音,因此令t=j+1,循环执行步骤2。
需要特别指出的是,斜率门限值Rm也是人工设定的值,因此在实际判断过程语音、背景音乐和背景噪声的短时能频值波形之间都没有明确的界限,设定不同的门限值会得到不同的语音端点检测结果。由此可见,门限值设定得是否合适将直接影响语音端点检测的准确性。下文会提供一种分析整个短时能频值序列以设定斜率门限值的算法。但是如果根据情况进行人工设定的话,会使检测的结果更加准确。
步骤3:寻找语音终点
1)假设从第t帧(对应短时能频值Xt)开始寻找,检测第t帧之后每一帧的短时能频值,直到找到一帧j(对应短时能频值Xj),使得
Xt≥Xt+1≥Xt+2≥......≥Xj且Xj+1≤Xj+2
即寻找从第t帧开始的短时能频值序列的下降区间,记为Dt。
2)计算刚找到的下降区间Dt的短时能频值序列波形的平均斜率
与步骤2的情况类似,在下降区间Dt中,由于人语音的特点,其短时能频值序列波形也不可能平稳下降。因此虽然在下降区间Dt中短时能频值波形一直保持下降的趋势,也只能计算其平均斜率。对下降区间Dt而言,其平均斜率Rt应该是负值,但为了方便起见,使用Xt-Xj来使Rt变成正值。
3)与步骤2类似,通过设定的门限值Rm进行判断,如果有Rt≥Rm,即斜率Rt非常的陡峭,则认为下降区间Dt属于语音部分。此时有两种情况,一种是如果第t帧之前已经找到了一个语音起点,则现在找到了与之相对应的语音终点,因此将第t帧记为语音的终点,然后令t=j+1,进入步骤2,再去寻找下一个语音起点。另一种情况是第t帧之前还没有找到一个单独的语音起点,即找到了一个不对应任何语音起点的下降区间,则下降区间Dt为一段单独的语音区间。此时将第t帧记为语音起点,将第j帧记为语音终点。然后令t=t+1,回到步骤2,继续寻找下一个语音起点。
反之,如果Rt<Rm,即斜率Rt比较平缓。同步骤2中所论述的一样,认为区间Dt属于背景噪声或者背景音乐,此时令t=j+1,循环执行步骤2。
关于斜率门限值Rm对于检测结果的影响,步骤2中已经详细论述,在此不再重复。
步骤4:按照步骤2和步骤3所述循环检测,直到检测到最后一帧
如果最后检测到了一个语音起点,而没有与之相对应的语音终点,则认为在音频文件的最后,语音突然中断。这可能是由于音频文件在压制过程中丢失了某些内容或者其它原因造成的。
2.检测过程中的特殊情况分析
在分析短时能频值序列时,可能遇到各种各样的波形。
比如找到一个上升区间A1属于语音部分,紧接着的下降区间D1却不属于语音部分,然后又紧接着上升区间A2属于语音部分。也可能是找到一个下降区间D2属于语音部分,紧接着的上升区间A3却不属于语音部分,然后又紧接着下降区间D3属于语音部分。上面两种情况中的D1和A3区间,虽然其短时能频值波形的斜率较小,但是因为它们都处在2段语音区间之间,而且一般只持续极短的一段时间,经过分析发现它们属于人的发音中元音和复音结合部分的微小停顿,因此不应被视作是非语音部分。如图9a所示。
另外一种情况是,在找到一对语音起点和终点(对应上升区间A1和下降区间D1)之后,紧接着是一个不属于语音的上升区间A2,然后是一个属于语音的下降区间D2。此时下降区间D2就没有与只配对的上升区间,即由D2寻找到的语音终点没有与之配对的语音起点。此时应将下降区间D2的起始点视为语音起点,与D2的终点(作为语音终点)配对。如图9b所示。
3.语句端点的检测
检测语句的端点是本发明的主要目的之一,因此本发明并不是非常注重单个字词的端点检测的精确性,而是注重找准语句的起止点。
在进行完上述的语音端点检测过程后,能够找出字或者词的语音端点。在此我们提出了寻找语句端点的算法。
对于一般人正常的语速而言,语句间的时间间隔大概在100ms左右,而词语间的时间间隔一般较小,只有几十毫秒。因此有理由认为相隔大于100ms的语音终点和起点之间,就是语句间的间隔。
因为找到的语音起点和终点都是成对出现的,所以要遍历这个语音端点序列,首先寻找一个语音终点Fe,然后找到下一个语音起点Fb,如果Fe和Fb相距超过100ms,则认为Fe和Fb之间为语句的间隔;如果Fe和Fb之间相距不到100ms,则认为Fe和Fb不是语句间的间隔,此时将Fe和Fb标记为非语音端点。整个检测过程结束后,就找到了所有的语句端点。检测流程如图10所示。
4.门限值选取
通过使用matlab进行了大量仿真试验,观察短时能频值序列的波形后发现:在一般的新闻访谈类等背景音乐较少的音频节目中,短时能频值的极大值和极小值相比一般相差80倍左右,如图12所示。
图12是一段访谈类节目的短时能频值波形片段。从中可以看到,短时能频值的极大值EZE-featurea出现在第1650ms、第1850ms、2100ms以及2260ms左右的时间段。而极小值EZE-featurei则出现在第1750ms、第1910ms、第1990ms以及第2210ms左右的时间段。对比EZE-featurea和EZE-featurei可以发现,两者相差大概80倍左右。
经过分析,本发明提出以下算法来计算短时能频值波形斜率的门限:
步骤1:分析短时能频值序列,找出其最小值,记为EZE-featuremin;找出其最大值,记为EZE-featuremax,然后计算EZE-featuremax/100。
纵观整个短时能频值波形可以发现,其最大值EZE-featuremax比那些极大值EZE-featurea(即波形中每个波的峰值)要稍微大一些。而短时能频值的最小值EZE-featuremin和极小值EZE-featurei(即波形中比较平缓的部分)则相差不大,因为两者都是非常小的值,因此其差别可以忽略不计。因此采用最大值EZE-featuremax的1/100与最小值EZE-featuremin进行比较。
步骤2:比较EZE-featuremin和EZE-featuremax/100,取其中较大者,记为EZE-featureslope。
步骤3:短时能频值斜率的门限定为:Rm=EZE-featureslope×2。
使用上述方法找到的短时能频值斜率门限对于整个短时能频值序列都有效,因此在语音端点检测过程中不需要再次进行修改。在没有或者较少出现背景音乐的情况下,使用该方法基本可以满足寻找语句端点的需要,在寻找词语端点时的精确性稍差。但是当背景音乐在音频中持续出现时,短时能频值序列的波形将变得非常复杂,此时使用该方法就得不到满足要求的斜率门限值,因此需要人工设定。不论在哪种情况下,由人手工设定和调整短时能频值斜率的门限,都将大大提高语音端点检测的准确性。
(四)自适应机制及人工交互式反馈机制
1.主动自适应机制
接受端点检测的语音中可能混杂有各种各样的背景噪声。背景噪声可能是热噪声、机械噪声、嘈杂的人声或者音乐(对于语音端点检测来说,由于音乐会严重干扰端点检测的准确性,因此也被看作是一种噪声)。不管是哪种背景噪声,都会对语音端点检测产生干扰,因此必须对它们进行处理。
在低信噪比的情况下,短时能频值能够较精确的区分噪声部分和语音部分,因此本发明提出的语音端点检测方法可以很好的识别噪声和语音。
但是在高信噪比的情况下,也就是当噪声信号的能量较高时,可能会出现它的短时能频值也较大,且变化较剧烈的情况。在人语音的开始和结束部分,有时发音非常轻,导致语音的短时能频值较小,此时噪声与语音的短时能频值可能出现无法区分的情况。反映在短时能频值的波形上,就是噪声部分波形的斜率较大,而语音部分波形的斜率并没有足够大到与噪声有明显的差别,这会大大影响语音端点检测的准确性。这就需要相应的方法能够对噪声进行必要的处理,以降低它们对语音端点检测的影响。
在传统的语音端点检测方法中,一般是取音频信号的前几帧进行分析,并将其作为背景噪声,并在后续的分析过程中一直使用。
但是,一个语音文件的长度可能从数分钟到数小时不等,在这么长的时间中,背景噪声不可能维持不变,可能会出现一些意想不到的突发性噪声,或者是噪声突然产生变化。而背景音乐在语音持续过程中一般都会发生巨大的变化,比如在一段时间内有而在另一段时间内没有,或者在一段时间内是小提琴演奏而另一段时间内是鼓点等。
鉴于背景噪声和背景音乐的这种不确定性,我们不可能一直使用音频信号的前几帧作为背景噪声。而是应该在端点检测过程中,根据检测出的语音情况,自动选取新的音频帧作为背景噪声进行处理。
首先,默认音频文件最初的10ms为环境音,将这10ms的音频信号的短时能量平均值、短时过零率平均值和短时信息熵平均值作为最初的背景噪声的短时能量Eb、短时过零率Zb和短时信息熵Hb。自适应的语音端点检测算法对于噪声采取了一种反馈机制:当发现背景噪声可能已经发生变化时,算法要回退到噪声发生变化之前的语音帧,重新进行检测。其过程如下所述:
1)找到了某个语音起点,记为第Fh帧,当Fh与上一个语音终点Ft帧相距300ms以上时,则进行环境噪声的提取。
2)从第Ft帧开始,取接下来的10帧当作背景噪声,重新计算Eb、Zb和Hb的值。计算方法为取算术平均,以Eb为例:
3)从第Ft+1帧开始,使用更新后的Eb、Zb和Hb,重新计算每一帧的短时能频值,得到新的短时能频值序列。
4)从第Ft+1帧开始,使用新的短时能频值序列重新执行端点检测过程。
图11为一段新闻的短时能频值波形片断,a为未经过噪声反馈过程,b为则经过了噪声反馈过程,对比可以发现噪声反馈处理过程起了很大的效果。
需要指出的是,上述的噪声反馈算法需要不断进行回溯,导致本语音端点检测算法不能进行实时端点检测,因此对算法的应用造成了一定的局限性。
2.人工交互式反馈机制
本发明除了进行噪声反馈之外,还可以由人工进行主动干预。如果发现语音端点检测的结果有较大的误差,无法满足需求,则可以通过修改短时能频值斜率的门限来调整检测的结果。
如果发现检测得到的语音端点中,语音起点普遍提前,而语音终点普遍延迟出现,则说明有可能是斜率门限的值选取的过小,导致一部分背景噪声也被认为是语音。此时只需将斜率门限的值适当调大,即可得到令人满意的结果。
相反,如果发现语音起点普遍延迟,而语音终点普遍提前出现,则说明有可能是斜率门限的值选取的过大,导致一部分语音也被认为是背景噪声。此时则需要将斜率门限的值适当调小。
必须注意,由于背景噪声或者背景音乐的存在,通过本发明所述语音端点检测方法得到的语音端点不可能完全精确。但是,由于人对于微小时间误差的感知是有极限的,因此在50ms之内的语音端点检测误差可以接受。通过选取适当的短时能频值斜率门限,可以将语音端点检测的误差控制在50ms以内。
另外,语句端点的时间间隔门限值也可以由人工进行调整。不同的人说话有不同的语速,因此语句间也有不同的时间间隔,人工对语句端点时间间隔进行调整,可以提高语句端点检测的精度。
本发明所述的方法并不限于具体实施方式中所述的实施例,本领域技术人员根据本发明的技术方案得出其他的实施方式,同样属于本发明的技术创新范围。
Claims (16)
1.一种自适应的语音端点检测方法,包括如下步骤:
(1)音频数据输入后,解析音频文件并提取数字采样值,对获取到的音频采样序列进行带通滤波;
(2)将音频采样序列分成固定长度的帧,并形成一个帧序列,针对每一帧数据提取短时能量、短时过零率和短时信息熵三个音频特征参数;
(3)根据上述音频特征参数计算每一帧数据的短时能频值,并形成一个短时能频值序列;
(4)从第一帧数据开始,分析短时能频值序列,并找出一对语音起点和终点;
(5)分析背景噪声,如果发现背景噪声发生改变,则重新计算背景噪声的音频特征参数,并更新短时能频值序列;
(6)返回步骤(4),继续寻找下一对语音起点和终点,重复此过程直到检测结束,并输出语音端点检测结果。
2.如权利要求1所述的自适应的语音端点检测方法,其特征在于:当步骤(6)输出语音端点检测结果后,遍历这个语音端点序列,依次寻找一个语音终点Fe,以及下一个语音起点Fb,如果Fe和Fb相距超过规定的时间间隔,则确定Fe和Fb之间为语句的间隔,将Fe和Fb标记为语句端点,重复此过程确定所有的语句端点。
3.如权利要求2所述的自适应的语音端点检测方法,其特征在于:所述判断语句端点所规定的时间间隔为100ms。
4.如权利要求1或2所述的自适应的语音端点检测方法,其特征在于:在步骤(1)中,所述的带通滤波的带宽为400Hz~3500Hz。
5.如权利要求1或2所述的自适应的语音端点检测方法,其特征在于:在步骤(2)中,将音频采样序列分成10ms长度的帧。
6.如权利要求1或2所述的自适应的语音端点检测方法,其特征在于:在步骤(2)中,所提取的第i帧的短时能量为:
其中,N表示第i帧中所包含的音频采样数量;Sn表示第n个采样的取样值。
7.如权利要求1或2所述的自适应的语音端点检测方法,其特征在于:在步骤(2)中,所提取的第i帧的短时过零率为:
其中,N表示第i帧中所包含的音频采样数量;Sn表示第n个采样的取样值;sgn()为符号函数,定义为
8.如权利要求1或2所述的自适应的语音端点检测方法,其特征在于:在步骤(2)中,提取短时信息熵的步骤如下:
(a)利用短时傅里叶变换对每一帧的信号进行由时域向频域的转换:
其中,Sn表示第n个音频采样, N为总采样数;
(b)计算每一频率的出现概率:
其中,s(fi)表示频率f的频谱能量,pi表示相应频率的出现概率,M表示傅里叶变换计算得出的频率的总数,即窗口宽度,
所规定的约束条件为:
s(fi)=0 if fi≤250HZ or fi≥3750HZ
pi=0 if pi≥0.9
(c)计算语音信息熵:
其中,M表示傅里叶变换计算得出的频率的总数,即窗口宽度,pi表示相应频率的出现概率,Hi表示第i帧的短时信息熵。
9.如权利要求1或2所述的自适应的语音端点检测方法,其特征在于:在步骤(3)中,第i帧的短时能频值为:
EZE-featurei=(Ei-Eb)·(Zi-Zb)·(Hi-Hb)
其中,EZE-featurei表示第i帧的短时能频值;Ei、Zi和Hi分别表示第i帧的短时能量、短时过零率和短时信息熵;Eb、Zb和Hb分别表示当前背景噪声的短时能量、短时过零率和短时信息熵。
10.如权利要求9所述的自适应的语音端点检测方法,其特征在于:在步骤(3)中,对每一帧的短时能频值进行平滑处理,处理中对短时能量、短时过零率和短时信息熵三个音频特征参数分别进行平滑,通常采用5帧平滑的方式,对于某一帧Fn,设它的某个音频特征参数是Xn,找到它左右相邻的4帧Fn-2、Fn-1、Fn+1、Fn+2,并找出它们相应的音频特征参数Xn-2、Xn-1、Xn+1、Xn+2,则平滑后得到的音频特征参数Xn-smoothed为:
对于第一帧和最后一帧采用3帧平滑的方式,平滑后得到的音频特征参数分别为:
对于第二帧和倒数第二帧采用4帧平滑的方式,平滑后得到的音频特征参数分别为:
11.如权利要求1所述的自适应的语音端点检测方法,其特征在于:在步骤(4)中,寻找语音起点的步骤如下:
(a)从第t帧开始寻找,检测第t帧之后每一帧的短时能频值,直至找到一帧j,使得
Xt≤Xt+1≤Xt+2≤......≤Xj且Xj+1≥Xj+2
即寻找从第t帧开始的短时能频值序列的上升区间,记为At;
(b)计算所找到的上升区间At的短时能频值序列波形的平均斜率Rt:
其中,Xt为第t帧的短时能频值,Xj为第j帧的短时能频值;
(c)设定一个门限值Rm来确定语音起始点,如果Rt≥Rm,且第t帧之前的区间没有被认为是语音区间,则将第t帧记为语音的起点,然后令t=j+1,去寻找与之相匹配的语音终点;如果Rt<Rm,则令t=j+1,重复步骤(a)的操作。
12.如权利要求11所述的自适应的语音端点检测方法,其特征在于:在步骤(4)中,寻找语音终点的步骤如下:
(I)从第t帧开始寻找,检测第t帧之后每一帧的短时能频值,直至找到一帧j,使得
Xt≥Xt+1≥Xt+2≥......≥Xj且Xj+1≤Xj+2
即寻找从第t帧开始的短时能频值序列的下降区间,记为Dt;
(II)计算所找到的下降区间Dt的短时能频值序列波形的平均斜率Rt:
其中,Xt为第t帧的短时能频值,Xj为第j帧的短时能频值;
(III)通过设定的门限值Rm来判断语音信号的终点,如果Rt≥Rm,在已经找到一个语音起点的情况下,将第t帧记为与前一个语音起点相对应的语音终点;如果Rt<Rm,则令t=j+1,重复步骤(I)的操作。
13.如权利要求12所述的自适应的语音端点检测方法,其特征在于:在寻找语音终点的过程中,步骤(III)中如果Rt≥Rm,且第t帧之前还没有找到一个单独的语音起点,即找到了一个不对应任何语音起点的下降区间Dt,则该下降区间Dt为一段单独的语音区间,此时将第t帧记为语音起点,将第j帧记为语音终点。
14.如权利要求11或12所述的自适应的语音端点检测方法,其特征在于:在步骤(4)中,寻找语音起点和终点的过程中,如果一个不属于语音部分的下降区间D1位于两个属于语音部分的上升区间A1、A2之间,或者一个不属于语音部分的上升区间A3位于两个属于语音部分的下降区间D2、D3之间,则将下降区间D1和上升区间A3均视为属于语音部分。
15.如权利要求11或12所述的自适应的语音端点检测方法,其特征在于:在步骤(4)中,寻找一对语音起点和终点时,确定门限值Rm的步骤如下:
(i)分析当前的短时能频值序列,找出其最小值,记为EZE-featuremin;找出其最大值,记为EZE-featuremax,然后计算EZE-featuremax/100;
(ii)比较EZE-featuremin和EZE-featuremax/100,取其中较大者,记为EZE-featureslope;
(iii)确定门限值Rm=EZE-featureslope×2。
16.如权利要求1或2所述的自适应的语音端点检测方法,其特征在于:在步骤(5)中,重新计算背景噪声的音频特征参数,并更新短时能频值序列的步骤如下:
(a)针对当前找到的语音起点,记为第Fh帧,判断Fh帧与上一个语音终点所在的Ft帧相距的时间间隔,当在300ms以上时,进行环境噪声的提取;
(b)从第Ft帧开始,取接下来的10帧当作背景噪声,重新计算背景噪声的短时能量Eb,短时过零率Zb和短时信息熵Hb的值,计算方法采用取10帧中的算术平均值;
(c)从第Ft+1帧开始,使用更新后的背景噪声的短时能量Eb,短时过零率Zb和短时信息熵Hb,重新计算每一帧的短时能频值,得到新的短时能频值序列。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2008101164501A CN101625857B (zh) | 2008-07-10 | 2008-07-10 | 一种自适应的语音端点检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2008101164501A CN101625857B (zh) | 2008-07-10 | 2008-07-10 | 一种自适应的语音端点检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101625857A true CN101625857A (zh) | 2010-01-13 |
CN101625857B CN101625857B (zh) | 2012-05-09 |
Family
ID=41521676
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2008101164501A Expired - Fee Related CN101625857B (zh) | 2008-07-10 | 2008-07-10 | 一种自适应的语音端点检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101625857B (zh) |
Cited By (58)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101820310B (zh) * | 2010-02-08 | 2012-08-29 | 北京邮电大学 | 基于端点检测的无线音频传感器网络音频媒体的同步方法 |
CN103236260A (zh) * | 2013-03-29 | 2013-08-07 | 京东方科技集团股份有限公司 | 语音识别系统 |
CN103366739A (zh) * | 2012-03-28 | 2013-10-23 | 郑州市科学技术情报研究所 | 面向孤立词语音识别的自适应端点检测方法及其系统 |
CN103366743A (zh) * | 2012-03-30 | 2013-10-23 | 北京千橡网景科技发展有限公司 | 操作语音命令的方法和装置 |
CN103378933A (zh) * | 2012-04-26 | 2013-10-30 | 国民技术股份有限公司 | 解码方法、解码模块及信号处理方法、信号处理装置 |
CN103824555A (zh) * | 2012-11-19 | 2014-05-28 | 腾讯科技(深圳)有限公司 | 音频段提取方法及提取装置 |
CN104021789A (zh) * | 2014-06-25 | 2014-09-03 | 厦门大学 | 一种利用短时时频值的自适应端点检测方法 |
CN104143324A (zh) * | 2014-07-14 | 2014-11-12 | 电子科技大学 | 一种乐音音符识别方法 |
CN104159152A (zh) * | 2014-08-26 | 2014-11-19 | 中译语通科技(北京)有限公司 | 一种针对影视视频的时间轴自动产生方法 |
CN104464722A (zh) * | 2014-11-13 | 2015-03-25 | 北京云知声信息技术有限公司 | 基于时域和频域的语音活性检测方法和设备 |
CN104835496A (zh) * | 2015-05-30 | 2015-08-12 | 宁波摩米创新工场电子科技有限公司 | 一种基于线性驱动的高清语音识别系统 |
CN105185386A (zh) * | 2015-09-28 | 2015-12-23 | 河海大学常州校区 | 基于两步排列熵的语音活动检测方法 |
CN106228984A (zh) * | 2016-10-18 | 2016-12-14 | 江西博瑞彤芸科技有限公司 | 语音识别信息获取方法 |
CN106448655A (zh) * | 2016-10-18 | 2017-02-22 | 江西博瑞彤芸科技有限公司 | 语音识别方法 |
CN106448659A (zh) * | 2016-12-19 | 2017-02-22 | 广东工业大学 | 一种基于短时能量和分形维数的语音端点检测方法 |
CN106486136A (zh) * | 2016-11-18 | 2017-03-08 | 腾讯科技(深圳)有限公司 | 一种声音识别方法、装置及语音交互方法 |
CN106531193A (zh) * | 2016-10-31 | 2017-03-22 | 济南中维世纪科技有限公司 | 一种背景噪声自适应的异常声音检测方法及系统 |
CN106601233A (zh) * | 2016-12-22 | 2017-04-26 | 北京元心科技有限公司 | 语音命令识别方法、装置及电子设备 |
CN106714058A (zh) * | 2015-11-13 | 2017-05-24 | 钰太芯微电子科技(上海)有限公司 | Mems麦克风及基于mems麦克风的移动终端唤醒方法 |
CN106920543A (zh) * | 2015-12-25 | 2017-07-04 | 展讯通信(上海)有限公司 | 语音识别方法及装置 |
CN107045870A (zh) * | 2017-05-23 | 2017-08-15 | 南京理工大学 | 一种基于特征值编码的语音信号端点检测方法 |
CN107068147A (zh) * | 2015-10-19 | 2017-08-18 | 谷歌公司 | 语音端点确定 |
CN107103916A (zh) * | 2017-04-20 | 2017-08-29 | 深圳市蓝海华腾技术股份有限公司 | 一种应用于音乐喷泉的音乐开始和结束检测方法及系统 |
CN107146633A (zh) * | 2017-05-09 | 2017-09-08 | 广东工业大学 | 一种完整的语音数据获得方法及装置 |
WO2017181772A1 (zh) * | 2016-04-22 | 2017-10-26 | 腾讯科技(深圳)有限公司 | 语音检测方法、装置及存储介质 |
CN107393558A (zh) * | 2017-07-14 | 2017-11-24 | 深圳永顺智信息科技有限公司 | 语音活动检测方法及装置 |
CN107392106A (zh) * | 2017-06-26 | 2017-11-24 | 辽宁大学 | 一种基于双门限的人体活动端点检测方法 |
CN107481738A (zh) * | 2017-06-27 | 2017-12-15 | 中央电视台 | 实时音频比对方法及装置 |
CN107731223A (zh) * | 2017-11-22 | 2018-02-23 | 腾讯科技(深圳)有限公司 | 语音活性检测方法、相关装置和设备 |
CN107799126A (zh) * | 2017-10-16 | 2018-03-13 | 深圳狗尾草智能科技有限公司 | 基于有监督机器学习的语音端点检测方法及装置 |
CN107910017A (zh) * | 2017-12-19 | 2018-04-13 | 河海大学 | 一种带噪语音端点检测中阈值设定的方法 |
CN108199937A (zh) * | 2018-02-09 | 2018-06-22 | 杭州智仁建筑工程有限公司 | 一种自动控制的智能家具 |
WO2018145584A1 (zh) * | 2017-02-13 | 2018-08-16 | 芋头科技(杭州)有限公司 | 一种语音端点检测方法及语音识别方法 |
CN108680768A (zh) * | 2018-06-28 | 2018-10-19 | 北京理工大学 | 一种探测旋转体角加速度的方法与装置 |
CN108831508A (zh) * | 2018-06-13 | 2018-11-16 | 百度在线网络技术(北京)有限公司 | 语音活动检测方法、装置和设备 |
CN108847218A (zh) * | 2018-06-27 | 2018-11-20 | 郑州云海信息技术有限公司 | 一种自适应门限整定语音端点检测方法,设备及可读存储介质 |
CN108922540A (zh) * | 2018-07-27 | 2018-11-30 | 重庆柚瓣家科技有限公司 | 与老人用户进行连续ai对话的方法及系统 |
CN108962225A (zh) * | 2018-06-27 | 2018-12-07 | 西安理工大学 | 一种多尺度自适应语音端点检测方法 |
CN109300481A (zh) * | 2018-10-19 | 2019-02-01 | 武汉轻工大学 | 基于信息熵及时间趋势分析的音频关注度计算方法及系统 |
CN109377982A (zh) * | 2018-08-21 | 2019-02-22 | 广州市保伦电子有限公司 | 一种有效语音获取方法 |
WO2019100327A1 (zh) * | 2017-11-24 | 2019-05-31 | 深圳传音通讯有限公司 | 一种信号处理方法、装置及终端 |
CN110070885A (zh) * | 2019-02-28 | 2019-07-30 | 北京字节跳动网络技术有限公司 | 音频起始点检测方法和装置 |
CN110085264A (zh) * | 2019-04-30 | 2019-08-02 | 北京儒博科技有限公司 | 语音信号检测方法、装置、设备及存储介质 |
WO2019183747A1 (zh) * | 2018-03-26 | 2019-10-03 | 深圳市汇顶科技股份有限公司 | 语音检测的方法和装置 |
CN111147669A (zh) * | 2019-12-30 | 2020-05-12 | 科讯嘉联信息技术有限公司 | 一种全量实时自动服务质检系统和方法 |
CN111276156A (zh) * | 2020-01-20 | 2020-06-12 | 深圳市数字星河科技有限公司 | 一种实时语音流监控的方法 |
CN111292729A (zh) * | 2020-02-06 | 2020-06-16 | 北京声智科技有限公司 | 音频数据流的处理方法和装置 |
CN111429929A (zh) * | 2020-03-03 | 2020-07-17 | 厦门快商通科技股份有限公司 | 一种语音去噪方法、语音识别方法及计算机可读存储介质 |
CN111613223A (zh) * | 2020-04-03 | 2020-09-01 | 厦门快商通科技股份有限公司 | 语音识别方法、系统、移动终端及存储介质 |
CN111883169A (zh) * | 2019-12-12 | 2020-11-03 | 马上消费金融股份有限公司 | 一种音频文件切割位置处理方法及装置 |
CN112185390A (zh) * | 2020-09-27 | 2021-01-05 | 中国商用飞机有限责任公司北京民用飞机技术研究中心 | 机上信息辅助方法及装置 |
CN113160853A (zh) * | 2021-03-31 | 2021-07-23 | 深圳鱼亮科技有限公司 | 一种基于实时人脸辅助的语音端点检测方法 |
CN113314153A (zh) * | 2021-06-22 | 2021-08-27 | 北京华捷艾米科技有限公司 | 语音端点检测的方法、装置、设备和存储介质 |
CN113345423A (zh) * | 2021-06-24 | 2021-09-03 | 科大讯飞股份有限公司 | 语音端点检测方法、装置、电子设备和存储介质 |
CN113421558A (zh) * | 2021-08-25 | 2021-09-21 | 北京新河科技有限公司 | 一种语音识别系统及方法 |
CN113470623A (zh) * | 2021-08-12 | 2021-10-01 | 成都启英泰伦科技有限公司 | 一种自适应语音端点检测方法及检测电路 |
CN113539300A (zh) * | 2020-04-10 | 2021-10-22 | 宇龙计算机通信科技(深圳)有限公司 | 基于噪声抑制的语音检测方法、装置、存储介质以及终端 |
CN116743925A (zh) * | 2023-08-15 | 2023-09-12 | 天津朝发网络技术有限公司 | 一种手机铃声的生产系统及方法 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108172242B (zh) * | 2018-01-08 | 2021-06-01 | 深圳市芯中芯科技有限公司 | 一种改进的蓝牙智能云音箱语音交互端点检测方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5774849A (en) * | 1996-01-22 | 1998-06-30 | Rockwell International Corporation | Method and apparatus for generating frame voicing decisions of an incoming speech signal |
US6480823B1 (en) * | 1998-03-24 | 2002-11-12 | Matsushita Electric Industrial Co., Ltd. | Speech detection for noisy conditions |
CN100580770C (zh) * | 2005-08-08 | 2010-01-13 | 中国科学院声学研究所 | 基于能量及谐波的语音端点检测方法 |
-
2008
- 2008-07-10 CN CN2008101164501A patent/CN101625857B/zh not_active Expired - Fee Related
Cited By (91)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101820310B (zh) * | 2010-02-08 | 2012-08-29 | 北京邮电大学 | 基于端点检测的无线音频传感器网络音频媒体的同步方法 |
CN103366739B (zh) * | 2012-03-28 | 2015-12-09 | 郑州市科学技术情报研究所 | 面向孤立词语音识别的自适应端点检测方法及其系统 |
CN103366739A (zh) * | 2012-03-28 | 2013-10-23 | 郑州市科学技术情报研究所 | 面向孤立词语音识别的自适应端点检测方法及其系统 |
CN103366743A (zh) * | 2012-03-30 | 2013-10-23 | 北京千橡网景科技发展有限公司 | 操作语音命令的方法和装置 |
CN103378933A (zh) * | 2012-04-26 | 2013-10-30 | 国民技术股份有限公司 | 解码方法、解码模块及信号处理方法、信号处理装置 |
CN103378933B (zh) * | 2012-04-26 | 2016-12-14 | 国民技术股份有限公司 | 解码方法、解码模块及信号处理方法、信号处理装置 |
CN103824555A (zh) * | 2012-11-19 | 2014-05-28 | 腾讯科技(深圳)有限公司 | 音频段提取方法及提取装置 |
CN103824555B (zh) * | 2012-11-19 | 2015-11-18 | 腾讯科技(深圳)有限公司 | 音频段提取方法及提取装置 |
CN103236260B (zh) * | 2013-03-29 | 2015-08-12 | 京东方科技集团股份有限公司 | 语音识别系统 |
CN103236260A (zh) * | 2013-03-29 | 2013-08-07 | 京东方科技集团股份有限公司 | 语音识别系统 |
CN104021789A (zh) * | 2014-06-25 | 2014-09-03 | 厦门大学 | 一种利用短时时频值的自适应端点检测方法 |
CN104143324A (zh) * | 2014-07-14 | 2014-11-12 | 电子科技大学 | 一种乐音音符识别方法 |
CN104143324B (zh) * | 2014-07-14 | 2018-01-12 | 电子科技大学 | 一种乐音音符识别方法 |
CN104159152A (zh) * | 2014-08-26 | 2014-11-19 | 中译语通科技(北京)有限公司 | 一种针对影视视频的时间轴自动产生方法 |
CN104159152B (zh) * | 2014-08-26 | 2017-10-13 | 中译语通科技(北京)有限公司 | 一种针对影视视频的时间轴自动产生方法 |
CN104464722A (zh) * | 2014-11-13 | 2015-03-25 | 北京云知声信息技术有限公司 | 基于时域和频域的语音活性检测方法和设备 |
CN104464722B (zh) * | 2014-11-13 | 2018-05-25 | 北京云知声信息技术有限公司 | 基于时域和频域的语音活性检测方法和设备 |
CN104835496A (zh) * | 2015-05-30 | 2015-08-12 | 宁波摩米创新工场电子科技有限公司 | 一种基于线性驱动的高清语音识别系统 |
CN105185386A (zh) * | 2015-09-28 | 2015-12-23 | 河海大学常州校区 | 基于两步排列熵的语音活动检测方法 |
CN105185386B (zh) * | 2015-09-28 | 2018-08-24 | 河海大学常州校区 | 基于两步排列熵的语音活动检测方法 |
CN107068147A (zh) * | 2015-10-19 | 2017-08-18 | 谷歌公司 | 语音端点确定 |
CN106714058B (zh) * | 2015-11-13 | 2024-03-29 | 钰太芯微电子科技(上海)有限公司 | Mems麦克风及基于mems麦克风的移动终端唤醒方法 |
CN106714058A (zh) * | 2015-11-13 | 2017-05-24 | 钰太芯微电子科技(上海)有限公司 | Mems麦克风及基于mems麦克风的移动终端唤醒方法 |
CN106920543A (zh) * | 2015-12-25 | 2017-07-04 | 展讯通信(上海)有限公司 | 语音识别方法及装置 |
CN106920543B (zh) * | 2015-12-25 | 2019-09-06 | 展讯通信(上海)有限公司 | 语音识别方法及装置 |
US10872620B2 (en) | 2016-04-22 | 2020-12-22 | Tencent Technology (Shenzhen) Company Limited | Voice detection method and apparatus, and storage medium |
JP2018532155A (ja) * | 2016-04-22 | 2018-11-01 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | 音声検出方法、装置及び記憶媒体 |
WO2017181772A1 (zh) * | 2016-04-22 | 2017-10-26 | 腾讯科技(深圳)有限公司 | 语音检测方法、装置及存储介质 |
CN107305774A (zh) * | 2016-04-22 | 2017-10-31 | 腾讯科技(深圳)有限公司 | 语音检测方法和装置 |
CN106228984A (zh) * | 2016-10-18 | 2016-12-14 | 江西博瑞彤芸科技有限公司 | 语音识别信息获取方法 |
CN106448655A (zh) * | 2016-10-18 | 2017-02-22 | 江西博瑞彤芸科技有限公司 | 语音识别方法 |
CN106531193A (zh) * | 2016-10-31 | 2017-03-22 | 济南中维世纪科技有限公司 | 一种背景噪声自适应的异常声音检测方法及系统 |
CN106486136A (zh) * | 2016-11-18 | 2017-03-08 | 腾讯科技(深圳)有限公司 | 一种声音识别方法、装置及语音交互方法 |
CN106448659A (zh) * | 2016-12-19 | 2017-02-22 | 广东工业大学 | 一种基于短时能量和分形维数的语音端点检测方法 |
CN106601233A (zh) * | 2016-12-22 | 2017-04-26 | 北京元心科技有限公司 | 语音命令识别方法、装置及电子设备 |
WO2018145584A1 (zh) * | 2017-02-13 | 2018-08-16 | 芋头科技(杭州)有限公司 | 一种语音端点检测方法及语音识别方法 |
CN108428448A (zh) * | 2017-02-13 | 2018-08-21 | 芋头科技(杭州)有限公司 | 一种语音端点检测方法及语音识别方法 |
CN107103916A (zh) * | 2017-04-20 | 2017-08-29 | 深圳市蓝海华腾技术股份有限公司 | 一种应用于音乐喷泉的音乐开始和结束检测方法及系统 |
CN107146633A (zh) * | 2017-05-09 | 2017-09-08 | 广东工业大学 | 一种完整的语音数据获得方法及装置 |
CN107045870A (zh) * | 2017-05-23 | 2017-08-15 | 南京理工大学 | 一种基于特征值编码的语音信号端点检测方法 |
CN107392106B (zh) * | 2017-06-26 | 2021-03-02 | 辽宁大学 | 一种基于双门限的人体活动端点检测方法 |
CN107392106A (zh) * | 2017-06-26 | 2017-11-24 | 辽宁大学 | 一种基于双门限的人体活动端点检测方法 |
CN107481738B (zh) * | 2017-06-27 | 2021-06-08 | 中央电视台 | 实时音频比对方法及装置 |
CN107481738A (zh) * | 2017-06-27 | 2017-12-15 | 中央电视台 | 实时音频比对方法及装置 |
CN107393558A (zh) * | 2017-07-14 | 2017-11-24 | 深圳永顺智信息科技有限公司 | 语音活动检测方法及装置 |
CN107393558B (zh) * | 2017-07-14 | 2020-09-11 | 深圳永顺智信息科技有限公司 | 语音活动检测方法及装置 |
CN107799126A (zh) * | 2017-10-16 | 2018-03-13 | 深圳狗尾草智能科技有限公司 | 基于有监督机器学习的语音端点检测方法及装置 |
CN107799126B (zh) * | 2017-10-16 | 2020-10-16 | 苏州狗尾草智能科技有限公司 | 基于有监督机器学习的语音端点检测方法及装置 |
US11138992B2 (en) | 2017-11-22 | 2021-10-05 | Tencent Technology (Shenzhen) Company Limited | Voice activity detection based on entropy-energy feature |
CN107731223A (zh) * | 2017-11-22 | 2018-02-23 | 腾讯科技(深圳)有限公司 | 语音活性检测方法、相关装置和设备 |
WO2019100327A1 (zh) * | 2017-11-24 | 2019-05-31 | 深圳传音通讯有限公司 | 一种信号处理方法、装置及终端 |
CN107910017A (zh) * | 2017-12-19 | 2018-04-13 | 河海大学 | 一种带噪语音端点检测中阈值设定的方法 |
CN108199937A (zh) * | 2018-02-09 | 2018-06-22 | 杭州智仁建筑工程有限公司 | 一种自动控制的智能家具 |
CN110537223B (zh) * | 2018-03-26 | 2022-07-05 | 深圳市汇顶科技股份有限公司 | 语音检测的方法和装置 |
CN110537223A (zh) * | 2018-03-26 | 2019-12-03 | 深圳市汇顶科技股份有限公司 | 语音检测的方法和装置 |
WO2019183747A1 (zh) * | 2018-03-26 | 2019-10-03 | 深圳市汇顶科技股份有限公司 | 语音检测的方法和装置 |
CN108831508A (zh) * | 2018-06-13 | 2018-11-16 | 百度在线网络技术(北京)有限公司 | 语音活动检测方法、装置和设备 |
CN108962225A (zh) * | 2018-06-27 | 2018-12-07 | 西安理工大学 | 一种多尺度自适应语音端点检测方法 |
CN108847218A (zh) * | 2018-06-27 | 2018-11-20 | 郑州云海信息技术有限公司 | 一种自适应门限整定语音端点检测方法,设备及可读存储介质 |
CN108847218B (zh) * | 2018-06-27 | 2020-07-21 | 苏州浪潮智能科技有限公司 | 一种自适应门限整定语音端点检测方法,设备及可读存储介质 |
CN108680768A (zh) * | 2018-06-28 | 2018-10-19 | 北京理工大学 | 一种探测旋转体角加速度的方法与装置 |
CN108922540A (zh) * | 2018-07-27 | 2018-11-30 | 重庆柚瓣家科技有限公司 | 与老人用户进行连续ai对话的方法及系统 |
CN109377982A (zh) * | 2018-08-21 | 2019-02-22 | 广州市保伦电子有限公司 | 一种有效语音获取方法 |
CN109300481B (zh) * | 2018-10-19 | 2022-01-11 | 武汉轻工大学 | 基于信息熵及时间趋势分析的音频关注度计算方法及系统 |
CN109300481A (zh) * | 2018-10-19 | 2019-02-01 | 武汉轻工大学 | 基于信息熵及时间趋势分析的音频关注度计算方法及系统 |
CN110070885B (zh) * | 2019-02-28 | 2021-12-24 | 北京字节跳动网络技术有限公司 | 音频起始点检测方法和装置 |
CN110070885A (zh) * | 2019-02-28 | 2019-07-30 | 北京字节跳动网络技术有限公司 | 音频起始点检测方法和装置 |
CN110085264A (zh) * | 2019-04-30 | 2019-08-02 | 北京儒博科技有限公司 | 语音信号检测方法、装置、设备及存储介质 |
CN110085264B (zh) * | 2019-04-30 | 2021-10-15 | 北京如布科技有限公司 | 语音信号检测方法、装置、设备及存储介质 |
CN111883169A (zh) * | 2019-12-12 | 2020-11-03 | 马上消费金融股份有限公司 | 一种音频文件切割位置处理方法及装置 |
CN111883169B (zh) * | 2019-12-12 | 2021-11-23 | 马上消费金融股份有限公司 | 一种音频文件切割位置处理方法及装置 |
CN111147669A (zh) * | 2019-12-30 | 2020-05-12 | 科讯嘉联信息技术有限公司 | 一种全量实时自动服务质检系统和方法 |
CN111276156A (zh) * | 2020-01-20 | 2020-06-12 | 深圳市数字星河科技有限公司 | 一种实时语音流监控的方法 |
CN111292729A (zh) * | 2020-02-06 | 2020-06-16 | 北京声智科技有限公司 | 音频数据流的处理方法和装置 |
CN111429929B (zh) * | 2020-03-03 | 2023-01-03 | 厦门快商通科技股份有限公司 | 一种语音去噪方法、语音识别方法及计算机可读存储介质 |
CN111429929A (zh) * | 2020-03-03 | 2020-07-17 | 厦门快商通科技股份有限公司 | 一种语音去噪方法、语音识别方法及计算机可读存储介质 |
CN111613223A (zh) * | 2020-04-03 | 2020-09-01 | 厦门快商通科技股份有限公司 | 语音识别方法、系统、移动终端及存储介质 |
CN113539300A (zh) * | 2020-04-10 | 2021-10-22 | 宇龙计算机通信科技(深圳)有限公司 | 基于噪声抑制的语音检测方法、装置、存储介质以及终端 |
WO2022062195A1 (zh) * | 2020-09-27 | 2022-03-31 | 中国商用飞机有限责任公司北京民用飞机技术研究中心 | 机上信息辅助方法及装置 |
CN112185390B (zh) * | 2020-09-27 | 2023-10-03 | 中国商用飞机有限责任公司北京民用飞机技术研究中心 | 机上信息辅助方法及装置 |
CN112185390A (zh) * | 2020-09-27 | 2021-01-05 | 中国商用飞机有限责任公司北京民用飞机技术研究中心 | 机上信息辅助方法及装置 |
CN113160853A (zh) * | 2021-03-31 | 2021-07-23 | 深圳鱼亮科技有限公司 | 一种基于实时人脸辅助的语音端点检测方法 |
CN113314153A (zh) * | 2021-06-22 | 2021-08-27 | 北京华捷艾米科技有限公司 | 语音端点检测的方法、装置、设备和存储介质 |
CN113314153B (zh) * | 2021-06-22 | 2023-09-01 | 北京华捷艾米科技有限公司 | 语音端点检测的方法、装置、设备和存储介质 |
CN113345423A (zh) * | 2021-06-24 | 2021-09-03 | 科大讯飞股份有限公司 | 语音端点检测方法、装置、电子设备和存储介质 |
CN113345423B (zh) * | 2021-06-24 | 2024-02-13 | 中国科学技术大学 | 语音端点检测方法、装置、电子设备和存储介质 |
CN113470623A (zh) * | 2021-08-12 | 2021-10-01 | 成都启英泰伦科技有限公司 | 一种自适应语音端点检测方法及检测电路 |
CN113470623B (zh) * | 2021-08-12 | 2023-05-16 | 成都启英泰伦科技有限公司 | 一种自适应语音端点检测方法及检测电路 |
CN113421558A (zh) * | 2021-08-25 | 2021-09-21 | 北京新河科技有限公司 | 一种语音识别系统及方法 |
CN116743925A (zh) * | 2023-08-15 | 2023-09-12 | 天津朝发网络技术有限公司 | 一种手机铃声的生产系统及方法 |
CN116743925B (zh) * | 2023-08-15 | 2024-01-26 | 天津朝发网络技术有限公司 | 一种手机铃声的生产系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN101625857B (zh) | 2012-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101625857B (zh) | 一种自适应的语音端点检测方法 | |
CN101625860B (zh) | 语音端点检测中的背景噪声自适应调整方法 | |
CN101625862B (zh) | 自动字幕生成系统中语音区间的检测方法 | |
CN108564942B (zh) | 一种基于敏感度可调的语音情感识别方法及系统 | |
CN101625858B (zh) | 语音端点检测中短时能频值的提取方法 | |
Wang et al. | Speaker identification by combining MFCC and phase information in noisy environments | |
Yeh et al. | Segment-based emotion recognition from continuous Mandarin Chinese speech | |
Mishra et al. | Robust features for connected Hindi digits recognition | |
CN1815552B (zh) | 基于线谱频率及其阶间差分参数的频谱建模与语音增强方法 | |
CN104021789A (zh) | 一种利用短时时频值的自适应端点检测方法 | |
CN109767756A (zh) | 一种基于动态分割逆离散余弦变换倒谱系数的音声特征提取算法 | |
CN1967657B (zh) | 节目制作中的说话人声音自动跟踪变调系统和方法 | |
CN106782508A (zh) | 语音音频的切分方法和语音音频的切分装置 | |
Zhou et al. | Classification of speech under stress based on features derived from the nonlinear Teager energy operator | |
CN103985390A (zh) | 一种基于伽马通相关图语音特征参数提取方法 | |
CN108986844B (zh) | 一种基于说话人语音特征的语音端点检测方法 | |
AU2014395554B2 (en) | Method for forming the excitation signal for a glottal pulse model based parametric speech synthesis system | |
US20050246172A1 (en) | Acoustic model training method and system | |
Sorin et al. | The ETSI extended distributed speech recognition (DSR) standards: client side processing and tonal language recognition evaluation | |
CN101625859B (zh) | 语音端点检测中的短时能频值波形斜率门限的确定方法 | |
Prakash et al. | Analysis of acoustic events in speech signals using Bessel series expansion | |
Cui | Vocal music performance evaluation system based on neural network and its application in piano teaching | |
WO2009055718A1 (en) | Producing phonitos based on feature vectors | |
Moneykumar et al. | Isolated word recognition system for Malayalam using machine learning | |
Prasad et al. | Identification of F1 and F2 in Speech Using Modified Zero Frequency Filtering. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20120509 Termination date: 20170710 |
|
CF01 | Termination of patent right due to non-payment of annual fee |