CN1675684A - 具有后端声音活动检测的分布式语音识别设备和方法 - Google Patents

具有后端声音活动检测的分布式语音识别设备和方法 Download PDF

Info

Publication number
CN1675684A
CN1675684A CNA038194147A CN03819414A CN1675684A CN 1675684 A CN1675684 A CN 1675684A CN A038194147 A CNA038194147 A CN A038194147A CN 03819414 A CN03819414 A CN 03819414A CN 1675684 A CN1675684 A CN 1675684A
Authority
CN
China
Prior art keywords
speech recognition
voice
recognition features
input
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CNA038194147A
Other languages
English (en)
Inventor
滕卡西·拉马巴德兰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motorola Solutions Inc
Original Assignee
Motorola Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motorola Inc filed Critical Motorola Inc
Publication of CN1675684A publication Critical patent/CN1675684A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications

Abstract

在分布式语音识别系统中,可以向后端模式匹配单元(27)传递用后端声音活动检测器(25)得到的声音活动检测信息。虽然系统的前端并没有得到或传递任何特定的声音活动检测信息,但是声音活动检测器可以使用后端得到的原始信息相对准确地确定是否存在由系统前端抽取的对应的声音识别特征中的声音。

Description

具有后端声音活动检测的分布式语音识别设备和方法
技术领域
本发明通常涉及语音识别,且尤其涉及分布式语音识别。
背景技术
在本领域语音识别是众所周知的。通常,先语音音频输入数字化,然后进行处理,帮助鉴别包含在语音输入中的特定的口语单词。依照一种方法,从数字化后的语音中抽取所谓的特征,然后与预先存储的模式进行对比实现语音内容的识别。同样众所周知的是通过两个不同的处理单元解析或分布特征抽取和模式匹配行为。例如,欧洲技术标准组织(ETSI)已经于2000年4月在标准ES 201 108 Ver.1.12中提出了一种分布式语音识别系统,其中诸如蜂窝手持设备的便携式设备执行特征抽取功能,并将得到的特征传输给便于完成模式匹配功能的固定端平台。
同样众所周知的是,通常情况下当输入可以准确地区分为语音或非语音音频输入的时候,模式匹配可以更加成功地完成。例如,当有足够的信息确定一段给定的音频输入为非语音信号时,该信息可以通过诸如减少对于特定的非语音信号段进行模式匹配行为的方式有效地影响模式匹配行为的功能。不幸的是,声音活动检测的优点在诸如上面提及的ETSI标准中的分布式语音识别系统中并未得到体现。相反,在没有任何声音信号检测信息的情况下将语音内容特征传输给远程的模式匹配平台。
附图说明
通过下面详细实施方式描述的具有后端声音活动检测的分布式语音识别设备和方法,可以部分地满足上面的需求,尤其是在结合附图进行研究的时候,其中:
图1包含现有技术中分布式语音识别系统的前端特征抽取器的描述。
图2包含具有依照本发明不同实施例配置的声音活动检测的后端模式匹配平台的结构图描述;
图3包含依照本发明实施例配置的声音活动检测器的结构图。
本领域技术人员将意识到,附图中的元素是为了阐述得更加简单和清楚,并不需要按照比例绘制。例如,为了更加全面地展现本发明这些不同实施例,商业上可行的实施例中有用或必要的一些普通但公知的组件通常未被图示。
具体实施方式
一般而言,依照这些不同的实施例,对多个语音识别的特征进行处理,提供至少一份产生这些语音识别特征的原始信息的近似。随后对这些原始信息进行处理,检测可能对应于语音的部分,从而提供相应的鉴定。然后使用这些语音检测信息帮助语音识别特征的识别过程。
在一种实施例中,语音识别特征包括Mel频率倒谱系数。在一种实施例中,通过反离散余弦变换对语音识别特征进行处理,产生用于提供原始信息近似的结果值。如果需要,这些结果值本身可以通过求幂运算进行处理,提供原始信息。在另一种实施例中,对语音识别特征进行处理确定信噪比信息,此信息可以单独或者与其他声音活动信息一起帮助语音识别特征的识别过程。
如此配置下,尽管初始时前端特征抽取部分并没有传送声音活动检测信息,分布式语音识别系统中的模式匹配行为可以得益于声音活动检测信息。这样可以提高识别和/或减少功率和/或处理的需求。
在说明依照本发明的不同实施例之前,首先说明分布式语音识别系统的前端特征抽取器的解说示例。这个示例将为说明一些特定的实施例提供有益的上下文。现在参考图1,诸如语音的音频输入在模数转换器11进行数字化(可选,如本领域所公知的那样,数字化后的语音随后通过直流偏置移除滤波器(未图示))。分帧单元12随后将数字化后的语音解析成对应的帧。帧的大小通常取决于采样频率。例如,早期参考的ETSI分布式语音识别标准采用三种不同的采样频率,即8、11和16KHz。对应这三种采样频率的合适的帧的大小分别为200,256和400个采样点。随后对数(log)能量单元13计算每一帧全部能量的自然对数,提供Log-E参数,该参数包括一个最终提供给分布式语音识别系统后端的语音识别特征。
分帧后的信息提供给滤波器和快速傅立叶变换(FFT)单元14。特别地,一个预加重过滤器对语音内容的高频分量进行加强。随后采用同样大小的海明窗(Hamming window)对这些经过预加重的帧进行加窗处理。加窗后的帧在频域上进行快速傅立叶变换。FFT的大小取决于采样频率,即对应于8和11KHz的256点以及对应于16KHz的512点。FFT频率幅值在64Hz和Fs/2之间,其中Fs是采样频率,随后进行Mel滤波15。
Mel滤波可以按照如下方式完成。首先采用下面的表达式将上述范围内的频率转换到Mel频率标度:
Mel ( f ) = 2595.0 * lo g 10 ( 1 + f 700.0 ) .
随后将转换后的频率划分为23个相同大小的,半交迭的频带(也叫做通道或栅格)。例如,如果Fs为8000Hz,在64Hz到4000HZ之间的频率范围转换为98.6到2146.1之间的Mel频率标度,并将其划分为23个频带,每个频带宽170.6,频带中心距离为85.3。第一个频带的中心频率位于98.6+85.3=183.9,而最后一个频带的中心频率位于2146.1-85.3=2060.8。这些中心随后进行反变换并取舍到最近的FFT栅格频率。在线性频域中,这23个频带的大小不再一致,且通常每个频带的大小随着频率的增加而增加。然后采用三角加权窗(中心权重为1.0而每端权重接近0.0)将每个频带内的FFT幅值混合在一起。
随后Mel滤波器组的输出经过(自然)对数功能单元16。对这23个对数值采用离散余弦变换(DCT)17进行变换,获得13个Mel频率倒谱系数C0到C12。在这个实施例中,舍去了C13到C22的值,也就是说并没有对其进行计算,这是因为它们并不传输或提供给后端模式匹配行为。
随后对Mel频率倒谱系数参数和log-E参数进行量化,并在编码器18进行适当编码,提供给作为传输选择的无线发送装置发送给远程后端模式识别平台。
上述特征抽取的功能可以很容易地集成在诸如蜂窝手持设备地无线收发平台中。在这样的配置下,提供给手持设备的可听语音能在其中为后续的远程处理过程提取语音识别特征。在上面提及的示例中,语音识别特征包括Mel频率倒谱系数和log-E参数。需要理解的是,这个示例仅仅是为了说明,但是是实现本发明的一些实施例的详细实施方式的有益的基础。有多个其他的可供提取的语音识别特征,既可以作为补充,也可以替代上面的特征。本发明的范围同样适用于这些可选的实施例。
图2提供了适合使用上述前端特征提取平台的后端模式识别平台的结构图的概述。合适的无线接收装置21接收从上述前端平台传输的语音识别特征信息。解码器22对所接收的信息进行解码,恢复出上述的语音识别特征信息。这些信息随后提供给反离散余弦变换单元23,如下面等式描述:
D i = C 0 23 + 2 23 Σ j = 1 12 C j cos ( ( 2 i + 1 ) jπ 2 * 23 ) ; i = 0,1 , . . . , 22 .
(注意上面的等式中倒谱系数C13到C22假定为0)。得到的Di值随后在加幂单元24进行加幂,获得如下的滤波器组输出:
Fi=exp(Di);i=0,1,...,22。
当然,由于前面的切除操作(即舍弃值C13到C22)和Mel频率倒谱值C0到C12的量化,上面获得的滤波器频带输出F0到F22仅仅是在前端计算的原始滤波器组输出的近似值。这些滤波器的输出表示了可用于获取语音识别特征的原始信息的近似。
将该原始信息提供给声音活动检测器25,检测器用于检测原始信息是否可能包括至少一定的语音。分割单元26随后使用这个信息,向模式匹配单元27提供一个或多个信号,确定由解码器22向模式匹配单元27提供的片断中哪一个可能包括语音内容。
如此配置,模式匹配单元27由此可以处理语音识别特征,从而可能提高识别质量和准确性和/或减少获得类似结果的功率/处理需求。
如果需要,声音活动检测器25可以对所恢复的原始信息进行处理,获得对应于原始音频输入的表示信噪比(SNR)的信号。对于模式匹配单元27,该信息在上面提及的类似的目的方面潜在地是有用的。
现在参考图3,提供了对示例性的声音活动检测器25更加详细的描述。上面提及的滤波器组输出F0到F22可以认为是当前输入帧的不同频带或通道的平均频谱幅值的估计值。我们将用F(m,i)表示第m帧和第i通道的滤波器组输出,并且在没有特定的通道特别重要的时候,采用F(m)表示第m帧的所有滤波器组输出。采用这些值作为输入,通道能量估计单元30提供了如下的通道能量的平滑后的估计值:
Ech(m,i)=max{Emin,αch(m)Ech(m-1,i)+(1-αch(m))(λiF(m,i))2};i=1,...,22
其中Ech(m,i)是第m帧和第i通道平滑后的通道能量的估计值,Emin是允许的最小通道能量,{i,i=0,1,...,22}是补偿预加重滤波器和在Mel滤波中三角加权窗不同窗宽的修正系数,而ch(m)是如下定义的通道能量平滑系数:
α ch ( m ) = 0 ; m ≤ 1 0.45 ; m >
它表示对于第1帧(m=1)设定为0的值,而对所有后续的帧设定0.45。这保证了第一帧未滤波通道能量的通道能量估计值的初始化。在优选的实施例中,Emin=5000,修正系数i的值(对应于8kHz采样频率)由23个元素的表格中第i个值给出:{3.2811,2.2510,1.4051,1.1038,0.8867,0.6487,0.5482,0.4163,0.3234,0.2820,0.2505,0.2036,0.1680,0.1397,0.1179,0.1080,0.0931,0.0763,0.0674,0.0636,0.0546,0.0478,0.0046}。根据通道能量估计值,峰值均值比率估算单元31按照如下方式估算当前帧m的峰值均值比,用P2A(m)表示:
P 2 A ( m ) 10 lo g 10 ( max ( E ch ( m , i ) | i = 4 22 ) ( 1 / 23 ) Σ i = 0 22 E ch ( m , i ) ) .
与通道能量估计类似,在优选的实施例中,通道噪音能量估计(如下定义)可以按照如下方式进行初始化:
if((m≤INIT_FRAMES)OR(fupdate_flag==TRUE))
{
    if(P2A(m)<PEAK_TO_AVE_THLD)
    {
E n ( m , i ) = E ch ( m , i ) ; m = 1,0 ≤ i ≤ 22 ; 0.7 E n ( m - 1 , i ) + 0.3 E ch ( m , i ) ; 2 ≤ m ≤ INIT _ FRAMES , 0 ≤ i ≤ 22 ;
    }
    else
    {
        En(m,i)=Emin;0≤i≤22;
    }
}
其中En(m,i)是第m帧和第i通道的平滑后的噪音能量估计值,INIT_FRAMES是假定为只是噪音帧的初始帧的数量,而fupdate_flag是如下定义的强制更新标志位。在优选的实施例中,INIT_FRAMES=10,而PEAK_TO_AVE_THLD=10。
分别用Ech(m)和En(m)表示所有23个通道的当前帧m的通道能量估计值和通道噪音估计值。通道能量估计值Ech(m)和通道噪音估计值En(m)用于在通道SNR估算单元32估算量化后的信噪比(SNR)指数:
σ q ( m , i ) = max ( 0 , min ( 89 , round ( 10 lo g 10 ( E ch ( m , i ) E n ( m , i ) ) / 0.375 ) ) ) ; 0 ≤ i ≤ 22
其中值{q(m,i),i=0,1,...,22}限制在0到89之间,并包含这两个数。
根据当前帧的通道SNR估计值q(m)可以在声音衡量指标计算单元33以求和的形式计算当前帧的声音衡量指标V(m):
V ( m ) = Σ i = 0 22 v ( σ q ( i ) )
其中v(k)是如下定义的90个元素的声音衡量指标表v中第k个值:
v={1,1,1,1,1,1,2,2,2,2,2,3,3,3,3,3,4,4,4,5,5,5,6,6,7,7,7,8,8,9,9,
10,10,11,12,12,13,13,14,15,15,16,17,17,18,19,20,20,21,
22,23,24,24,25,26,27,28,28,29,30,31,32,33,34,35,36,37,
37,38,39,40,41,42,43,44,45,46,47,48,49,50,50,50,50,50,
50,50,50,50,50}
当前帧的通道能量估计值Ech(m)也用作为频谱偏差估算单元34的输入,该估算单元按照如下方式估计当前帧的频谱偏差E(m)。首先,按照如下公式估计对数能量频谱:
EdB(m,i)=10log10(Ech(m,i));i=0,1,...,22。
然后,用当前对数能量频谱和用 EdB(m)表示的平均长期对数能量频谱的绝对值差的总和估计频谱偏差E(m),即:
Δ E ( m ) = Σ i = 0 22 | E dB ( m , i ) - E ‾ dB ( m , i ) | .
平均长期对数能量频谱按照如下方式进行初始化:
if((m≤INIT_FRAMES)OR(fupdate_flag==TRUE))
{
     EdB(m,i)=EdB(m,i);0≤i≤22;
}
平均长期对数能量频谱按照如下方式更新:
E ‾ dB ( m + 1 , i ) = 0.9 E ‾ dB ( m , i ) + 0.1 E dB ( m , i ) ; V ( m ) > SIG _ THLD ( m ) 0.7 E ‾ dB ( m , i ) + 0.3 E dB ( m , i ) ; V ( m ) ≤ SIG _ THLD ( m )
其中参数SIG_THLD(m)取决于下面描述的量化后的信号信噪比。
信号信噪比估算单元35按照如下方式估算语音信号的信噪比。首先,用通道噪音能量的总和计算当前帧的全部噪音能量Etn(m),即:
E tn ( m ) = Σ i = 0 22 E n ( m , i ) .
然后,按照如下方式计算瞬时全部信号能量Ets,inst(m):
if(V(m)>SIG_THLD(m))
{
E ts , inst ( m ) = Σ i = 0 22 max ( E ch ( m , i ) , E n ( m , i ) )
}
瞬时全部信号能量Ets,inst(m)仅在当前帧通过核对V(m)是否大于SIG_THLD(m)确定为信号帧的时候才按照如上方式更新。同样需要指明的是,上述估算的信号能量在严格意义下实际是(信号+噪音)能量。Ets,inst(m)按照如下方式完成初始化:
if((m≤INIT_FRAMES)OR(fupdate_flag==TRUE))
{
    Ets,inst(m)=INIT_SIG_ENRG;
}
其中在优选的实施例中INIT_SIG_ENRG的值为1.0E+09。
一旦计算了全部瞬时信号能量和全部噪音能量,表示为SNRinst(m)的当前帧的瞬时信噪比可以计算如下:
SNRinst=max(0.0,10log10(Ets,inst(m)/Etn(m)))。
从瞬时SNR可以按照如下方式估算平滑后的SNR:
  if((m≤INIT_FRAMES)OR(fupdate_flag==TRUE))

  {

      SNR(m)=SNRinst(m);

  }

  else

  {

      if(V(m)>SIG_THLD(m))

      {

          SNR(m)=βSNR(m-1)+(1-β)SNRinst(m);

          β=min(β+0.003,HI_BETA);

      }

      else

      {

          β=max(β-0.003,LO_BETA);

      }

  }
在优选的实施例中,平滑系数β的上下限分别为LO_BETA=0.950和HI_BETA=0.998。因为我们用(信号+噪音)能量与信号能量的比率估算信噪比,所以估算的SNR的最低值为0。估算值在SNR较高时比较准确,而随着SNR值减少,估算值也越来越不精确。信号的SNR随后量化成如下20个不同的值:
SNRq(m)=max(0,min(round(SNR(m)/1.5),19))。
量化后的信号SNR用于确定不同的阈值。例如,在优选的实施例中,采用SNRq(m)的值作为索引在20个元素的表格{36,43,52,62,73,86,101,117,134,153,173,194,217,242,268,295,295,295,295,295}中确定下一帧SIG_THLD(m+1)的信号阈值。
此时,声音衡量指标V(m)、频谱偏差E(m)、峰值均值比P2A(m)和量化后的信号信噪比SNRq(m)作为更新决策判定单元36的输入。下面伪码表示的逻辑说明了如何决定更新噪音估计。此外,还说明了如何决定进行强制更新(强制更新策略通过突然增加背景噪声的等级使得声音活动检测器从将背景噪声划分为语音的错误中恢复)。
首先,在优选的实施例中,采用SNRq(m)作为索引在20个元素的表格{31,32,33,34,35,36,37,37,37,37,37,37,37,37,37,38,38,38,38,38}中确定当前帧的更新阈值UPDATE_THLD(m)。通过清空更新标志位(update_flag)和强制更新标志位(fupdate_flag)开始更新决定判定过程。如果满足如下伪码描述的一定条件,则设置这些标志位:
  update_flag=FALSE;

  fupdate_flag=FALSE;

  if((m>INIT_FRAMES)AND(V(m)<UPDATE_THLD(m))AND

      (P2A(m)<PEAK_TO_AVE_THLD)

  {

      update_flag=TRUE;

      update_cnt=0;

  }

  else

  {

      if((P2A(m)<PEAK_TO_AVE_THLD)AND(E(m)<
DEV_THLD))

      {

          update_cnt=update_cnt+1;

          if(update_cnt≥UPDATE_CNT_THLD)

          {

              update_flag=TRUE;

              fupdate_flag=TRUE;

          }

      }
				
				<dp n="d10"/>
  }
为了避免在上面的伪码中更新计数器(update_cnt)长期“爬行”对强制更新标志位(fupdate_flag)错误地设置,采用如下描述实现的滞后逻辑方法:
  if(update_cnt==last_update_cnt)

  {

      hyster_cnt=hyster_cnt+1;

  }

  else

  {

      hyster_cnt=0;

      last_update_cnt=update_cnt;

  }

  if(hyster_cnt>HYSTER_CNT_THLD)

  {

      update_cnt=0;

  }
在优选的实施例中,上面使用的常数(先前未定义)的数值如下:
DEV_THLD=70
UPDATE_CNT_THLD=500
HYSTER_CNT_THLD=9
只要对于给定的帧设置了上面提及的更新标志位,下一帧的通道噪音估计值在噪音能量平滑单元37使用如下公式进行更新:
En(m+1,i)=0.9En(m,i)+0.1Ech(m,i));i=0,1,...,22。
更新后的通道噪音估计值存储在噪音能量估计存储单元38以备所有后来的帧所用,直到下一次更新发生。噪音能量估计存储单元38的输出En(m)用作前面描述的通道SNR估算单元32的输入。
现在说明声音活动判定单元39的操作。声音衡量指标V(m)和量化后信号SNR值SNRq(m)作为声音活动判定单元39的输入。对于最初的INIT_FRAMES帧,由于这些帧只作为噪音帧,所以用VAD_FLAG表示的声音活动判定单元的输出设置为FALSE(否)。对于后续的帧,声音活动判决单元按照如下方式进行操作。首先,利用量化后的SNR值确定当前帧的声音衡量指标阈值Vth、时滞数阈值Hcnt和突发数阈值Bcnt,如下:
Vth(m)=Vtable[SNRq(m)],Hcnt(m)=Htable[SNRq(m)],Bcnt(m)=Btable[SNRq(m)],
其中SNRq(m)用于在各自的表格中进行索引。在优选的实施例中,这些表格定义如下:
Vtable={33,35,36,37,38,40,42,44,46,48,50,52,54,56,58,58,58,58,58,58},
Htable={54,52,50,48,46,44,42,40,38,36,34,32,30,28,26,24,22,20,18,16},and
Btable={3,3,3,4,4,4,4,4,5,5,5,5,5,5,6,6,6,6,6,6}。
随后,当前帧的声音活动通过测试声音衡量指标是否超过声音活动衡量指标阈值进行判定。如果测试的输出是TRUE(是),则声明当前帧为“具有声音活动”。否则,对时滞数变量(hangover_count)进行测试,判定其是大于还是等于0。如果该测试的输出是TRUE(是),则同样声明当前帧为“具有声音活动”。如果两个测试的输出都是FALSE(否),则声明当前帧为“无声音活动”。“时滞”机制通常用于包括慢衰变的语音,否则这些语音可能会被划分为噪音,并且在主动的声音活动检测削弱的语音中桥接一些小的间隙或暂停。如果连续的“具有声音活动”的帧的数量(用burst_count计数)至少等于突发数阈值Bcnt,则激活时滞机制。为了激活该机制,时滞帧的数量设置为时滞数阈值Hcnt,。下面描述了声音活动判定单元的伪码:
  if(V(m)>Vth(m))

  {

      VAD_LOCAL=TRUE;

      burst_count=burst_count+1;

      if(burst_count>=Bcnt(m))

      {

          hangover_count=Hcnt(m);

      }

  }

  else

  {

      VAD_LOCAL=FALSE:

      burst_count=0;

      if(hangover_count>=0)

      {

          hangover_count=hangover_count-1;

      }

  }

  if((VAD_LOCAL==TRUE)OR(hangover_count>=0))

  {

      VAD_FLAG=TRUE;

  }

  else

  {

  VAD_FLAG=FALSE;

  }
来自310的变量VAD_FLAG作为每一帧语音活动信息的输出。可选地,也可以将来自于306的SNR值SNR(m)作为输出。
如此配置下,由分布式语音识别系统中远程前端提供的语音识别特征得到的原始信息的近似可以用于帮助鉴定其对应于语音和非语音的语音识别特征信息的部分。依照本技术领域公知的方法,该信息易于依次用于向后端模式匹配过程传递行为和功能,有助于提高识别和/或提高逻辑操作。简言之,声音活动检测的优点是体现在分布式语音识别系统的后端,尽管该信息并不是在前端初始时就得到然后提供给后端。相反,至少部分地对前端提供的信息进行反向处理,获得与初始时前端显现的信息至少近似的信息,从而帮助声音活动检测行为。
本领域技术人员将意识到,在不违背本发明精神和范围的基础上可以参照上面描述的实施例进行各种修改、替代和组合,而且这些修改、替代和组合均在本发明概念的范围内。特别地,需要再次重申,这里提出的特定的实施例只是为了进行示例性的说明;本发明本质的概念适用于非常广泛的分布式语音识别系统和环境,且不应当视为局限于这里为了说明而提出的实施例中。

Claims (20)

1.一种有助于识别语音的方法,包括:
-接收多个语音识别特征;
-处理多个语音识别特征中的至少一些特征,至少提供对产生多个语音识别特征的原始信息的近似;
-对原始信息的至少近似进行处理,检测可能对应于语音的部分并提供语音部分的相应鉴定;
-处理多个语音特识别特征,至少部分地作为鉴定语音部分的功能,用于帮助识别由至少一些语音识别特征表示的语音内容。
2.如权利要求1所述的方法,其中,接收多个语音识别特征包括通过无线通道接收多个语音识别特征。
3.如权利要求1所述的设备,其中,接收多个语音识别特征包括接收包括至少一个Mel频率倒谱系数的多个语音识别特征。
4.如权利要求3所述的方法,其中,接收包括至少一个Mel频率倒谱系数的多个语音识别特征包括接收多个Mel频率倒谱系数。
5.如权利要求4所述的方法,其中,接收多个Mel频率倒谱系数包括接收对应原始信息的每个采样的至少13个Mel频率倒谱系数。
6.如权利要求1所述的方法,其中,处理多个语音识别特征中的至少一些特征,至少提供对来自于多个语音识别特征的原始信息的近似包括:采用反离散余弦变换的方式处理多个语音识别特征的至少一些特征,用以提供多个结果值。
7.如权利要求6所述的方法,其中,采用反离散余弦变化的方法处理多个语音识别特征中的至少一些特征进一步包括采用加幂的方式处理至少一个结果值。
8.如权利要求1所述的方法,进一步包括对原始信息的至少近似进行处理,确定可能对应于产生多个语音识别特征的语音的信噪比值。
9.如权利要求1所述的方法,其中,处理多个语音特识别特征,至少部分地作为鉴定语音部分的功能,用于帮助识别由至少一些语音识别特征表示的语音内容的步骤进一步包括:处理多个语音识别特征,至少部分地作为鉴定语音部分和信噪比值的功能,用于帮助识别由至少一些语音识别特征表示的语音内容。
10.一种用于帮助分布式语音识别的设备,该设备包括:
-声音活动检测器,该检测器具有输入,连接以接收源自原始信息的语音识别特征,检测器还具有至少第一个输出,提供语音检测信号来鉴定可能对应语音的原始信息的至少近似的每个采样;
-分割单元,该分割单元具有输入,连接到声音活动检测器第一个输出,该分割单元还具有输出,提供语音检测信号来鉴定可能对应于语音的原始信息的至少近似的部分;和
-模式匹配单元,具有输入,连接以接收语音识别特征和语音检测信号,还具有输出,提供对应语音识别特征的已识别的语音。
11.如权利要求10所述的设备,其中,声音活动检测器进一步包括第二个输出,该输出提供对应于产生多个语音识别特征的语音的信噪比信号。
12.如权利要求11所述的设备,其中,模式识别单元进一步具有连接以接收信噪比信号的输入。
13.如权利要求10所述的设备,其中,语音识别特征包括多个Mel频率倒谱系数。
14.如权利要求13所述的设备,其中,声音活动检测器包括反离散余弦变换装置,该装置帮助使用多个Mel频率倒谱系数提供原始信息的至少近似。
15.如权利要求14所述的设备,其中,声音活动检测器进一步包括加幂装置,该装置进一步帮助使用多个Mel频率倒谱系数提供原始信息的至少近似。
16.如权利要求10所述的设备,进一步包括解码器,该解码器具有连接以接收已编码码流的输入以及提供语音识别特征的输出。
17.如权利要求16所述的设备,进一步包括连接到解码器的无线接收装置。
18.一种方法,包括:
-从无线信道接收信号,该信号包括包含源自多个输入采样的信息的码流;
-对此码流进行解码,恢复13个Mel频率倒谱系数以及对应输入采样每一帧的能量的对数值;
-采用反离散余弦变换和加幂单元将Mel频率倒谱系数转换为对应的频谱表示;
-利用这些频谱表示鉴定可能包括语音的部分;
-采用Mel频率倒谱系数、输入采样每一帧的对数值和鉴定可能包括语音部分的信息,帮助模式匹配过程识别输入中的语音内容。
19.如权利要求18所述的方法,进一步包括采用输入的频谱表示来判定信噪比值。
20.如权利要求19所述的方法,其中,采用Mel频率倒谱系数、输入采用每一帧的对数值和鉴定可能包括语音部分的信息,帮助模式匹配过程识别输入中的语音内容的步骤包括:采用Mel频率倒谱系数、输入采样每一帧的对数值,鉴定输入中可能包括语音的部分的信息和信噪比值,帮助模式匹配过程识别输入中的语音内容。
CNA038194147A 2002-08-09 2003-08-01 具有后端声音活动检测的分布式语音识别设备和方法 Pending CN1675684A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/215,810 US7024353B2 (en) 2002-08-09 2002-08-09 Distributed speech recognition with back-end voice activity detection apparatus and method
US10/215,810 2002-08-09

Publications (1)

Publication Number Publication Date
CN1675684A true CN1675684A (zh) 2005-09-28

Family

ID=31494940

Family Applications (1)

Application Number Title Priority Date Filing Date
CNA038194147A Pending CN1675684A (zh) 2002-08-09 2003-08-01 具有后端声音活动检测的分布式语音识别设备和方法

Country Status (10)

Country Link
US (1) US7024353B2 (zh)
EP (1) EP1540645A4 (zh)
JP (1) JP2005535920A (zh)
KR (1) KR20060007363A (zh)
CN (1) CN1675684A (zh)
AU (1) AU2003254288A1 (zh)
MX (1) MXPA05001593A (zh)
RU (1) RU2005106251A (zh)
WO (1) WO2004015685A2 (zh)
ZA (1) ZA200500792B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103778914A (zh) * 2014-01-27 2014-05-07 华南理工大学 基于信噪比加权模板特征匹配的抗噪语音识别方法及装置
CN105513589A (zh) * 2015-12-18 2016-04-20 百度在线网络技术(北京)有限公司 语音识别方法和装置

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6560445B1 (en) * 1999-10-22 2003-05-06 General Dynamics Decision Systems, Inc. Radio communication system and method of operation
GB2422279A (en) * 2004-09-29 2006-07-19 Fluency Voice Technology Ltd Determining Pattern End-Point in an Input Signal
US8175877B2 (en) * 2005-02-02 2012-05-08 At&T Intellectual Property Ii, L.P. Method and apparatus for predicting word accuracy in automatic speech recognition systems
KR100714721B1 (ko) * 2005-02-04 2007-05-04 삼성전자주식회사 음성 구간 검출 방법 및 장치
CA2612903C (en) * 2005-06-20 2015-04-21 Telecom Italia S.P.A. Method and apparatus for transmitting speech data to a remote device in a distributed speech recognition system
KR100791349B1 (ko) * 2005-12-08 2008-01-07 한국전자통신연구원 분산 음성 인식 시스템에서 음성 신호의 코딩 방법 및 그장치
WO2008108239A1 (ja) * 2007-02-27 2008-09-12 Nec Corporation 音声認識システム、方法およびプログラム
US8374851B2 (en) * 2007-07-30 2013-02-12 Texas Instruments Incorporated Voice activity detector and method
US20090150144A1 (en) * 2007-12-10 2009-06-11 Qnx Software Systems (Wavemakers), Inc. Robust voice detector for receive-side automatic gain control
JP5454469B2 (ja) * 2008-05-09 2014-03-26 富士通株式会社 音声認識辞書作成支援装置,処理プログラム,および処理方法
US9037474B2 (en) * 2008-09-06 2015-05-19 Huawei Technologies Co., Ltd. Method for classifying audio signal into fast signal or slow signal
EP2816560A1 (en) * 2009-10-19 2014-12-24 Telefonaktiebolaget L M Ericsson (PUBL) Method and background estimator for voice activity detection
US20110103370A1 (en) 2009-10-29 2011-05-05 General Instruments Corporation Call monitoring and hung call prevention
EP2561508A1 (en) 2010-04-22 2013-02-27 Qualcomm Incorporated Voice activity detection
US8898058B2 (en) * 2010-10-25 2014-11-25 Qualcomm Incorporated Systems, methods, and apparatus for voice activity detection
SI3493205T1 (sl) * 2010-12-24 2021-03-31 Huawei Technologies Co., Ltd. Postopek in naprava za adaptivno zaznavanje glasovne aktivnosti v vstopnem avdio signalu
KR101251373B1 (ko) 2011-10-27 2013-04-05 한국과학기술연구원 음원 분류 장치 및 그 방법
US8615221B1 (en) 2012-12-06 2013-12-24 Google Inc. System and method for selection of notification techniques in an electronic device
CN104715761B (zh) * 2013-12-16 2018-03-30 深圳市梦网百科信息技术有限公司 一种音频有效数据检测方法和系统
US9037455B1 (en) * 2014-01-08 2015-05-19 Google Inc. Limiting notification interruptions
EP3117210A4 (en) * 2014-03-12 2017-11-01 University Of Virginia Patent Foundation Compositions and methods for treating eye infections and disease
CN104916292B (zh) * 2014-03-12 2017-05-24 华为技术有限公司 检测音频信号的方法和装置
US9489958B2 (en) * 2014-07-31 2016-11-08 Nuance Communications, Inc. System and method to reduce transmission bandwidth via improved discontinuous transmission
US9691413B2 (en) * 2015-10-06 2017-06-27 Microsoft Technology Licensing, Llc Identifying sound from a source of interest based on multiple audio feeds
US10070220B2 (en) * 2015-10-30 2018-09-04 Dialog Semiconductor (Uk) Limited Method for equalization of microphone sensitivities
US10090005B2 (en) * 2016-03-10 2018-10-02 Aspinity, Inc. Analog voice activity detection
CN107919130B (zh) * 2017-11-06 2021-12-17 百度在线网络技术(北京)有限公司 基于云端的语音处理方法和装置
US10861484B2 (en) * 2018-12-10 2020-12-08 Cirrus Logic, Inc. Methods and systems for speech detection
CN112489692A (zh) * 2020-11-03 2021-03-12 北京捷通华声科技股份有限公司 语音端点检测方法和装置
CN113345473B (zh) * 2021-06-24 2024-02-13 中国科学技术大学 语音端点检测方法、装置、电子设备和存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08506434A (ja) * 1993-11-30 1996-07-09 エイ・ティ・アンド・ティ・コーポレーション 通信システムにおける伝送ノイズ低減
US6104993A (en) 1997-02-26 2000-08-15 Motorola, Inc. Apparatus and method for rate determination in a communication system
CN1134904C (zh) * 1997-09-10 2004-01-14 塞尔隆法国股份有限公司 通信系统和终端
US6003004A (en) * 1998-01-08 1999-12-14 Advanced Recognition Technologies, Inc. Speech recognition method and system using compressed speech data
US6453289B1 (en) * 1998-07-24 2002-09-17 Hughes Electronics Corporation Method of noise reduction for speech codecs
US6594629B1 (en) * 1999-08-06 2003-07-15 International Business Machines Corporation Methods and apparatus for audio-visual speech detection and recognition
JP2001236085A (ja) * 2000-02-25 2001-08-31 Matsushita Electric Ind Co Ltd 音声区間検出装置、定常雑音区間検出装置、非定常雑音区間検出装置、及び雑音区間検出装置
JP4244514B2 (ja) * 2000-10-23 2009-03-25 セイコーエプソン株式会社 音声認識方法および音声認識装置
US6633839B2 (en) * 2001-02-02 2003-10-14 Motorola, Inc. Method and apparatus for speech reconstruction in a distributed speech recognition system
US7941313B2 (en) * 2001-05-17 2011-05-10 Qualcomm Incorporated System and method for transmitting speech activity information ahead of speech features in a distributed voice recognition system
US7203643B2 (en) * 2001-06-14 2007-04-10 Qualcomm Incorporated Method and apparatus for transmitting speech activity in distributed voice recognition systems
US7089178B2 (en) * 2002-04-30 2006-08-08 Qualcomm Inc. Multistream network feature processing for a distributed speech recognition system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103778914A (zh) * 2014-01-27 2014-05-07 华南理工大学 基于信噪比加权模板特征匹配的抗噪语音识别方法及装置
CN103778914B (zh) * 2014-01-27 2017-02-15 华南理工大学 基于信噪比加权模板特征匹配的抗噪语音识别方法及装置
CN105513589A (zh) * 2015-12-18 2016-04-20 百度在线网络技术(北京)有限公司 语音识别方法和装置
CN105513589B (zh) * 2015-12-18 2020-04-28 百度在线网络技术(北京)有限公司 语音识别方法和装置

Also Published As

Publication number Publication date
EP1540645A2 (en) 2005-06-15
AU2003254288A1 (en) 2004-02-25
RU2005106251A (ru) 2005-10-10
US7024353B2 (en) 2006-04-04
JP2005535920A (ja) 2005-11-24
MXPA05001593A (es) 2005-09-20
AU2003254288A8 (en) 2004-02-25
EP1540645A4 (en) 2006-05-31
ZA200500792B (en) 2006-07-26
WO2004015685A3 (en) 2004-07-15
WO2004015685A2 (en) 2004-02-19
US20040030544A1 (en) 2004-02-12
KR20060007363A (ko) 2006-01-24

Similar Documents

Publication Publication Date Title
CN1675684A (zh) 具有后端声音活动检测的分布式语音识别设备和方法
CN1168071C (zh) 在速率可变的声码器中选择编码速率的方法和装置
CN1228761C (zh) 用于经噪声补偿的话音识别的系统和方法
US9047878B2 (en) Speech determination apparatus and speech determination method
CN1188831C (zh) 具有多个话音识别引擎的话音识别系统和方法
CN1265217A (zh) 在语音通信系统中语音增强的方法和装置
CN1205601C (zh) 用于与说话者无关的话音识别系统的构造话音模板的方法和设备
US20070027681A1 (en) Method and apparatus for extracting voiced/unvoiced classification information using harmonic component of voice signal
CN1552059A (zh) 分布式语音识别系统中语音识别的方法和设备
US20040128130A1 (en) Perceptual harmonic cepstral coefficients as the front-end for speech recognition
CN1969319A (zh) 信号编码
CN1295677C (zh) 用于估算语音调制解调器中的模拟高频段信号的方法和系统
CN1159691A (zh) 用于声频信号线性预测分析的方法
CN1285945A (zh) 一种用于对声音编码、同时抑制声学背景噪声的系统和方法
CN1746973A (zh) 分布式语音识别系统和方法
CN1735926A (zh) 语音处理中用于人工扩展带宽的方法和设备
CN1352787A (zh) 分布式语音识别系统
CN1210685C (zh) 语音编码中噪音鲁棒分类方法
CN1262570A (zh) 用于对语音说话方式进行断点的通信装置和方法
US20040148160A1 (en) Method and apparatus for noise suppression within a distributed speech recognition system
CN1193159A (zh) 语音编码译码方法和装置、电话装置、音调变换方法和介质
CN106716528B (zh) 对音频信号中的噪声进行估计的方法和装置以及传输音频信号的装置和系统
CN1623186A (zh) 用于噪声环境的话音活动检测器和验证器
CN1473323A (zh) 改进噪声环境和频率失谐条件下话音识别性能的系统和方法
Chen et al. Robust voice activity detection algorithm based on the perceptual wavelet packet transform

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication