CN100336102C - 采用增量贝叶斯学习进行噪声估计的方法 - Google Patents

采用增量贝叶斯学习进行噪声估计的方法 Download PDF

Info

Publication number
CN100336102C
CN100336102C CNB200410032437XA CN200410032437A CN100336102C CN 100336102 C CN100336102 C CN 100336102C CN B200410032437X A CNB200410032437X A CN B200410032437XA CN 200410032437 A CN200410032437 A CN 200410032437A CN 100336102 C CN100336102 C CN 100336102C
Authority
CN
China
Prior art keywords
noise
frame
estimation
signal
similar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CNB200410032437XA
Other languages
English (en)
Other versions
CN1534598A (zh
Inventor
A·阿塞罗
邓立
J·G·德罗坡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of CN1534598A publication Critical patent/CN1534598A/zh
Application granted granted Critical
Publication of CN100336102C publication Critical patent/CN100336102C/zh
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Noise Elimination (AREA)
  • Complex Calculations (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Picture Signal Circuits (AREA)

Abstract

一种采用增量贝叶斯学习来估计含噪声的信号中的附加噪声的方法和设备,其中,假定时变噪声先验分布,并采用前一时间步骤上计算所得的后验的近似来递归更新超参量(平均值和方差)。时域中的附加噪声在使用增量贝叶斯学习之前以对数谱或倒谱域来表示。使用每一独立帧的噪声的平均值和方差的估计结果来实现同一对数谱或倒谱域中的语音特性增强。

Description

采用增量贝叶斯学习进行噪声估计的方法
技术领域
本发明涉及噪声估计,尤其涉及模式识别中使用的信号的噪声估计。
背景技术
模式识别系统,如语音识别系统,接收输入信号,并尝试对该信号进行解码,以找出该信号代表的模式。例如,在语音识别系统中,语音信号(经常被称作为测试信号)由识别系统接收,并对其进行解码,以识别该语音信号所代表的字串。
通常输入信号被一些形式的噪声所破坏。为增强模式识别系统的性能,经常需要对有噪声的信号中的噪声进行估计。
过去,曾经采用一些框架来进行信号中的噪声估计。在一种框架中,采用了分批算法,对输入信号的每一帧中的噪声进行估计,而独立于信号的其它帧中发现的噪声。然后对个别噪声估计统计平均值,来构成所有帧的统一噪声值。在第二种框架中,采用一种递归算法,根据一个或多个先前或后续帧的噪声估计,来估计当前帧的噪声。这类递归技术考虑到噪声随时间变化较小。
在一种递归技术中,假定有噪声的信号是无噪声的信号和噪声信号的非线性函数。为便于计算,该非线性函数通常通过截断泰勒级数展开来近似,在某些展开点上进行计算。通常来说,泰勒级数展开在展开点上能提供对函数的最佳估计。因此,只有当展开点选取恰当时,泰勒级数近似才能表现良好。然而,在现有技术中,泰勒级数的展开点并不是在每一帧中进行优化。因此,采用递归算法进行的噪声估计并未达到理想的效果。
最大似然(ML)和最大后验(MAP)技术用于非平稳噪声的时序点估计,该估计使用声学环境的迭代线性化非线性模型。一般来说,对噪声的分布使用简单的高斯模型,MAP估计提供了较高质量的噪声估计。然而,在MAP技术中,同高斯噪声先验相关联的平均值和方差自每一不含语音的测试话语的一个分段起为固定值。对于非平稳噪声来说,这一近似可能无法正确反应真实的噪声先验统计信息。
根据以上情况,需要一种噪声估计技术,能够更有效地估计模式信号中的噪声。
发明内容
一种估计非平稳噪声的新方法采用了增量贝叶斯学习。在一方面,这一技术可以定义为假定一种时变噪声先验分布,其中使用在前一时间或帧步进计算所得的近似后验来对可由超参量(平均值和方差)定义的噪声估计进行递归更新。在另一方面,该技术可以定义为对于连续的每一帧,估计每一帧中的噪声,使得当前帧的噪声基于当前帧的数据似然性的高斯近似和先前帧序列中噪声的高斯近似。
附图说明
图1是一种可实践本发明的计算环境的结构图。
图2是可实践本发明的替代计算环境的结构图。
图3是在本发明的一个实施例中进行噪声估计的方法的流程图。
图4是可使用本发明的模式识别系统的结构图。
具体实施方式
图1描述了可实现本发明的合适的计算系统环境100的一个示例。该计算系统环境100只是合适的计算环境的一个示例,并非局限本发明的使用或功能范围。也不应认为计算环境100对示例操作环境100所描述的任一组件或其组合具有依赖性和需求。
本发明在其它众多通用或专用计算系统环境或配置中都是可操作的。适合使用本发明的众所周知的计算系统、环境、和/或配置的示例包括但不限于,个人计算机、服务器计算机、手持式或膝上设备、多处理器系统、基于微处理器的系统、机顶盒、可编程消费类电子产品、网络PC、小型计算机、大型机、电话系统、包括以上任何系统或设备的分布式计算系统等等。
在计算机可执行指令的通常环境下描述本发明,计算机可执行指令如程序模块,由计算机执行。程序模块通常包括例程、程序、对象、组件、数据结构等等,它们完成特定的任务或实现特定的抽象数据类型。程序和模块完成的任务在下文结合附图描述。本领域的技术人员可以将这里的描述和/或附图实现为计算机可执行指令,其可以配备在下文讨论的任意形式的计算机可读介质上。
本发明也可以在分布式计算环境中实践,在该环境中,任务由通过通信网络连接的远端处理装置来完成。在分布式计算环境中,程序模块可以同时位于本地和远端计算机存储介质中,包括存储器装置。
参考图1,实现本发明的一个示例系统包括以计算机110的形式表示的通用计算装置。计算机110的组件包括但不限于,处理单元120、系统存储器130以及将包括系统存储器在内的各种系统组件耦合至处理单元120的系统总线121。系统总线121可以是几种总线结构的任何一种,包括存储器总线或存储器控制器、外部总线,以及使用任意总线结构的本地总线。作为示例,但非局限,这类结构包括工业标准体系结构(ISA)总线、微通道结构(MCA)总线、扩展型ISA(EISA)总线、视频电子标准协会(VESA)本地总线、以及外围部件互联(PCI)总线,也称Mezzanine总线。
计算机110通常包括各种计算机可读介质。计算机可读介质可以是任何可由计算机110存取的可用介质,包括易失性介质和非易失性介质,可移除介质和不可移除介质。作为示例,并非局限,计算机可读介质可以包括计算机存储介质和通信介质。计算机存储介质包括在任意用于存储信息的方法或技术中实现的易失性介质和非易失性介质、可移除介质和不可移除介质,这些信息包括计算机可读指令、数据结构、程序模块或其它数据。计算机存储介质包括但不限于,RAM、ROM、EEPROM、按块擦除存储器或其它存储器技术、CD-ROM、数字多功能盘(DVD)或其它光盘存储、磁盒、磁带、磁盘存储或其它磁存储装置、或任何其它可以用于储存需要的信息并可由计算机110存取的介质。通信介质通常包括计算机可读指令、数据结构、程序模块或其它已调制数据信号如载波或其它传输机制中的数据,包括任何信息传送介质。术语“已调制数据信号”表示一种信号,该信号具有一个或多个通过对信号中的信息进行编码而设定或改变的特征。作为示例,并非局限,通信介质包括有线介质,如有线网络或直接连线连接,以及无线介质,如声学、RF、红外以及其它无线介质。上述介质的组合也应当包含在计算机可读介质的范围内。
系统存储器130包括易失性和/或非易失性存储器形式的计算机存储介质,如只读存储器(ROM)131和随机存取存储器(RAM)132。基本输入/输出系统133(BIOS)通常储存在ROM 131中,包含协助在计算机110内如启动时在元件之间进行信息传输的基本例程。RAM 132通常包含处理单元120立即可存取和/或当前正操作的程序模块。作为示例,并非局限,图1描述了操作系统134、应用程序135、其它程序模块136以及程序数据137。
计算机110也可包括其它可移除/不可移除的易失性/非易失性计算机存储介质。仅作示例,图1描述了硬盘驱动器141,对不可移除、非易失性磁介质进行读写;磁盘驱动器151,对可移除、非易失性磁盘152进行读写;以及光盘驱动器155,对可移除、非易失性光盘156如CD-ROM或其它光学介质进行读写。其它可在示例操作环境中使用的可移除/不可移除、易失性/非易失性计算机存储介质包括但不限于,磁带盒、闪存卡、数字多功能盘、数字视频磁带、固态RAM、固态ROM等等。硬盘驱动器141通常通过不可移除存储器接口,如接口140,连接至系统总线121。磁盘驱动器151和光盘驱动器155通常通过可移除存储器接口,如接口150,连接至系统总线121。
以上讨论并在图1中描述的驱动器连同其相关的计算机存储介质为计算机110提供了计算机可读指令、数据结构、程序模块和其它数据的存储。例如,在图1中,描述硬盘驱动器141储存操作系统144、应用程序145、其它程序模块146以及程序数据147。必须注意,这些组件可以与操作系统134、应用程序135、其它程序模块136以及程序数据137相同,也可以不同。此处为操作系统144、应用程序145、其它程序模块146以及程序数据147标上不同的号码,以至少表明它们是不同的副本。
用户可以通过输入设备,如键盘162、话筒163、以及定位设备161,如鼠标、跟踪球或触摸板,向计算机110输入命令和信息。其它输入设备(未标出)可包括操纵杆、游戏操纵杆、圆盘式卫星电视天线、扫描仪等等。这些或其它输入设备通常通过耦合至系统总线的用户输入接口连接至处理单元120,也可以通过其它接口和总线接口来连接,如并行端口、游戏端口或通用串行总线(USB)。监视器191或其它类型的显示设备也通过接口,如视频接口190,连接至系统总线121。除监视器之外,计算机也可以包括其它外围输出设备,如扬声器197和打印机196,通过输出外围接口190连接。
计算机110可以在建立网络的环境中操作,该网络环境采用逻辑连接至一个或多个远端计算机,如远端计算机180。远端计算机180可以是个人计算机、手持式设备、服务器、路由器、网络PC、对等装置或其它常见网络节点,通常包括上文描述的同计算机110相关的许多或所有元件。图1描述的逻辑连接包括局域网(LAN)171和广域网(WAN)173,也可以包括其它网络。这类常见的网络有办公室、企业范围计算机网络、企业内部互联网和因特网。
当在LAN网络环境中使用时,计算机110通过网络接口或适配器170同LAN 171相连接。当在WAN网络环境中使用时,计算机110通常包括调制解调器172或其它用于通过WAN 173,如因特网,建立通信的装置。调制解调器172可以是内置的,也可以是外置的,通过用户输入接口160或其它合适的机制连接至系统总线121。在建立网络的环境中,所述的同计算机110或其部分相关的程序模块可以储存在远端存储器设备中。作为示例,并非限制,图1描述远端应用程序185驻留于远程计算机180中。此处所示的网络连接是示例性的,也可使用其它在计算机之间建立通信链路的装置。
图2是一种移动装置200的结构图,该移动装置是一个示例计算环境。移动装置200包括微处理器202、存储器204、输入/输出(I/O)组件206、以及用于同远程计算机或其它移动装置进行通信的通信接口208。在一个实施例中,上述组件通过合适的总线210相互耦合用于通信。
存储器204作为非易失性电子存储器,如随机存取存储器(RAM)实现,具有电池备份模块(未标出)使得移动装置200的普通电源关闭时保存在存储器204中的信息不会丢失。存储器204的一部分优先分配为用于程序执行的可取址存储器,而存储器204的另一部分优先用作存储,来模拟磁盘驱动器上的存储。
存储器204包括操作系统212、应用程序214以及其它对象存储216。在操作过程中,操作系统优先由处理器202从存储器204中执行。在一个较佳实施例中,操作系统212是WINDOWSCE商标的操作系统,可向微软公司购得。操作系统212优先为移动装置设计,并实现了可以由应用214通过一组所述的应用编程接口和方法来使用的数据库特性。对象存储216中的对象由应用214和操作系统212维护,至少能部分响应对所述的应用编程接口和方法的调用。
通信接口208代表了多种使得移动装置200可以发送和接收信息的装置和技术。该装置包括诸如有线和无线调制解调器、卫星接收器和广播调谐器。移动装置200也可以直接连接至计算机以同其进行数据交换。在这一情况下,通信接口208可以是红外收发器或串行或并行通信连接,所有这些都可以传输流信息。
输入/输出组件206包括各类输入设备,如触摸屏、按钮、滚轮、话筒以及各类输出设备,包括音频发生器、振动设备以及显示器。上文列出的设备作为示例,移动装置200并不需要具备所有。另外,移动装置200也可配备或已具备本发明范围内的其它输入/输出设备。
在本发明的一个方面,提供了一种系统和方法,用于估计模式识别信号中的噪声。为实现这一目的,本发明采用一种递归算法,部分地根据至少一个相邻帧中噪声估计,来估计含噪声的信号的每一帧的噪声。在本发明中,通过使用增量贝叶斯学习来对单个帧进行噪声估计,其中,假定一种时变信号先验分布,并使用前一帧中计算所得的后验噪声的近似来递归更新噪声估计。通过这一递归过程,噪声估计可以追踪非平稳噪声。
y 1 t = y 1 , y 2 , · · · , y r , · · · , y t 为一列含噪声的语音观测数据,在对数域中表示(如对数谱或倒谱),并不失一般性,假定标量化该列数据。数据y1 t用于循序估计具有相同的数据长度t的破坏性的噪声序列 n 1 t = n 1 , n 2 , · · · , · · · , n t . 在贝叶斯学习框架中,假定噪声n的知识(视为未知参数)包含在已知先验分布p(n)中。如果噪声序列是平稳的,即,噪声的统计特性不随时间变化而变化,则任意时刻噪声参数n的常规贝叶斯推论(即,计算后验)可通过“批量型”贝叶斯法则实现:
p ( n | y 1 t ) = p ( y 1 t | n ) p ( n ) ∫ Θ p ( y 1 t | n ) p ( n ) dn ,
此处,Θ是噪声参数空间的允许区域。已知p(n|y1 t),噪声n的任何估计在原理上都是可行的。例如,可计算后验p(n|y1 t)的最大或极大值作为噪声n的常规MAP点估计。最小均方误差(MMSE)估计是对后验p(n|y1 t)的期望值。
然而,如在大多数实际语音特性增强应用中,当噪声序列是非平稳的,且含噪声的语音y1 t的训练数据循序给出,则需要新的估计技术来跟踪随时间变化而变化的噪声统计。在一种迭代应用中,贝叶斯法则可以写成以下形式:
p ( n t | y 1 t ) = 1 C t p ( yt | y 1 r - 1 , nt ) p ( n t | y 1 t - 1 ) ,
其中 C t = p ( y 1 t | y 1 t - 1 ) = ∫ Θ p ( yt | y 1 t - 1 , nt ) p ( nt | y 1 t - 1 ) dnt ·
已知nt p ( y t | y 1 t - 1 , n t ) = p ( y t | n t ) , 假定含噪声的语音yt及之前y1 t-1之间的条件独立性,并假定后验中的平滑性: p ( n t | y 1 t - 1 ) ≈ p ( n t - 1 | y 1 t - 1 ) , 则上述等式可写成:
p ( n t | y 1 t ) ≈ 1 C t p ( y t | n t ) p ( n t - 1 | y 1 t - 1 ) · - - - ( 1 )
现在可以通过如下重复使用等式1来建立非平稳噪声的增量学习。首先,在没有语音数据y的情况下,后验PDF从已知先验p(n0|y0)=p(n0)中获得,其中,p(n0)从已知的纯噪声帧和假定的高斯型中获得。然后对t=1使用等式1,得:
p ( n 1 | y 1 ) ≈ 1 C 1 p ( y 1 | n 1 ) p ( n 0 ) , - - - ( 2 )
对t=2,得:
p ( n 2 | y 1 , y 2 ) ≈ 1 C 2 p ( y 2 | n 2 ) p ( n 1 | y 1 ) ,
使用等式2中计算所得的p(n1|y1)。对t=3,等式1变为:
p ( n 3 | y 1 3 ) ≈ 1 C 3 p ( y 3 | n 3 ) p ( n 2 | y 1 , y 2 ) ,
等等。由此,这一过程递归地产生一列后验(假设p(nt|yt)是有效的):
p(n1|y1),p(n2|y1 2),…,p(nτ|y1 τ),…,p(nt|y1 t),…(3)
其中提供了在非平稳噪声序列n1 t上进行增量贝叶斯推论的基础。现在,将目前为止所讨论的增量贝叶斯推论的一般原理应用到特定的声学失真模型中,该模型提供了逐帧的数据PDF p(yt|nt),并是在简单假定噪声先验是高斯型的的情况下。
当应用于噪声,增量贝叶斯学习使用最近的观察数据的后验来更新噪声的当前“先验”分布,因为该后验是有关当前时间之前参数的最完整信息。图3描述了这一方法,其中,第一步,将信号300划分为帧。在步骤302,对每一帧使用增量贝叶斯学习,其中,每一帧的噪声估计假定时变噪声先验分布,且使用在前一时间帧计算所得的后验噪声的近似来对噪声估计进行递归更新。因此,等式3中的后验序列变为所需要的噪声分布参数的时变先验序列(即,先验演变)(带有一个帧大小的时移)。在一个示例实施例中,步骤302可以包括计算当前帧的数据似然性p(yt|nt),同时对之前的帧使用噪声估计,较佳地是紧接的前一帧,噪声估计假定由等式1所表示的后验中的平滑性。
对非高斯型(将简要描述)的数据似然性p(yt|nt),后验也必须是非高斯型的。等式1的后续应用将导致之前后验的迅速扩大组合并变为难以处理的形式。需要用近似来克服这一难处理性。所采用的近似是使用第一阶泰勒级数展开来线性化yt和nt之间的非线性关系。这将得到p(yt|nt)的高斯形式。因此,从前面的数据历史p(nτ|y1 τ)的后验所继承的时变噪声先验PDF p(nτ+1),可以由高斯型来近似:
p ( n τ | y 1 τ ) = 1 ( 2 π ) 1 / 2 σ n τ exp [ - 1 2 ( n τ - μ n r σ n τ ) 2 ]
= · N [ n τ ; μ n τ , σ n τ 2 ] , - - - ( 4 )
其中,μ和σ 2被称为超参量(平均值和方差),表现了先验PDF的特征。随后,从递归贝叶斯法则等式1计算所得的等式3中的后验序列提供了一种确定超参量瞬时演变的原理性方法,将在下文描述。
现在描述用于计算数据似然性p(yt|nt)的声学失真和无噪声语音模型。首先假定无噪声语音x的对数谱的时变高斯混合模型:
p ( x ) = Σ m p ( m ) N [ x ; μ x ( m ) , σ x 2 ( m ) ] · - - - ( 5 )
然后可以使用对数谱域中的简单非线性声学失真模型:
exp(y)=exp(x)+exp(n),or y=x+g(n-x),(6)
其中非线性函数为:
                g(z)=log[1+exp(z)]。
为得到数据似然性p(yt|nt)的有用形式,采用泰勒级数展开来线性化等式6中的非线性函数g。可得线性化模型
y≈x+g(n0x(m0))+g′(n0x(m0))(n-n0),(7)
其中n0为泰勒级数展开点,可以方便地计算第一阶级数展开系数:
g ′ ( n 0 - μ x ( m 0 ) ) = exp ( n 0 ) exp [ μ x ( m 0 ) ] + exp ( n 0 ) ·
等式7的评估函数g和g′中,无噪声语音值x被用作“最佳”混合高斯分量m0的平均值(μx(m0))。
等式7定义了从随机变量x到y的线性变换(固定n之后)。根据这一变换,我们可以用拉普拉斯近似从关于x的PDF得到以下关于y的PDF:
p ( y t | n t ) = Σ m p ( m ) N [ y t ; μ y ( m , t ) , σ y 2 ( m , t ) ]
≈ N [ y t ; μ y ( m 0 , t ) , σ y 2 ( m 0 , t ) ] , - - - ( 8 )
其中最佳混合分量由以下确定:
m 0 = arg max m N [ y t ; μ y ( m , t ) , σ y 2 ( m , t ) ] ,
并且其中,近似高斯型的平均值和方差为
μ y ( m 0 , t ) = μ x ( m 0 ) + g m 0 + g m 0 ′ × ( n t - n 0 )
σ y 2 ( m 0 , t ) = σ x 2 ( m 0 ) + g m 0 ′ 2 σ n t 2 · - - - ( 9 )
如下文将要示出的,使用p(yt|nt)的高斯估计来扩展该算法。尽管上文采用了泰勒级数展开和拉普拉斯近似来提供p(yt|nt)的高斯估计,应该理解,也可使用不脱离本发明的其它技术来提供高斯估计。例如,除了采用等式8中的拉普拉斯近似外,也可采用对于近似的数字技术或高斯混合模型(具有少数分量)。
现在可以得出估计噪声先验中时变平均值和方差的算法。已知p(yt|nt)的近似高斯形式,如等式8所示,及p(nτ|y1 τ)的近似高斯形式,如等式4所示,可以得到确定噪声先验演变的算法,其表示为平均值μ和方差σ 2的时变超参量的顺序估计来说明。将等式4和等式8代入等式1中,可得:
N ( n t ; μ n t , σ n t 2 )
∝ N [ y t ; μ y ( m 0 , t ) , σ y 2 ( m 0 , t ) ] N ( n t - 1 ; μ n t - 1 , σ n t - 1 2 )
≈ N [ g m 0 ′ n t - 1 ; μ 1 , σ y 2 ( m 0 , t ) ] N ( n t - 1 ; μ n t - 1 , σ n t - 1 2 ) - - - ( 10 )
其中,μ1=ytx(m0)-gm0+g′m0n0,并假定噪声的平滑性。等式10中左边的平均值和方差分别和右边的平均值和方差相匹配,得先验演变公式:
μ n t = g m 0 ′ μ ‾ 1 σ n t - 1 2 + μ n t - 1 σ y 2 ( m 0 , t - 1 ) g m 0 ′ 2 σ n t - 1 2 + σ y 2 ( m 0 , t - 1 ) , - - - ( 11 )
σ n t 2 = σ y 2 ( m 0 , t - 1 ) σ n t - 1 2 g m 0 ′ 2 σ n t - 1 2 + σ y 2 ( m 0 , t - 1 ) ,
其中, μ1=ytx(m0)-gm0+g′m0μnt-1。在建立等式11时,使用前一时间的先验平均值,作为噪声的泰勒级数展开点,即, n 0 = μ n t - 1 . 也使用了高斯计算(设a1=g′m0)中准确建立的结果:
N ( αx ; μ 1 , σ 1 2 ) N ( x ; μ 2 , σ 2 2 ) = 1 2 π σ 1 σ 2 exp [ - 1 2 ( x - μ σ ) 2 + K ] ,
其中 μ = α μ 1 σ 2 2 + μ 2 σ 1 2 α 2 σ 2 2 + σ 1 2 ; σ 2 = σ 1 2 σ 2 2 α 2 σ 2 2 + σ 1 2 ·
在一组简化但有效的假设的基础上,采用近似递归贝叶斯法则的二次项匹配来成功导出噪声先验演变公式,如等式11所归纳。可以发现平均值噪声估计能够更精确地由RMS误差缩减测得,并且可以使用方差信息来提供可靠性的测量。
以上描述的噪声估计技术可以用于如2002年4月5日提交的申请号10/117,142题为“METHOD OF NOISE REDUCTION USING CORRECTION VECTORS BASEDON DYNAMIC ASPECTS OF SPEECH AND NOISE NORMALIZATION”的专利申请中描述的噪声归一化技术或噪声去除。本发明也可以更直接地作为噪声减少系统的一部分来使用,在该系统中,对每一帧的所标识的估计噪声从含噪声的信号中去除以产生无噪声的信号,如2002年9月26日提交的申请号为10/237,163题为“NON-LINEAROBSERVATION MODEL FOR REMOVING NOISE FROM CORRUPTED SIGNALS”的专利申请中所描述的。
图4提供了可使用本发明的噪声估计技术来实现噪声减少的环境的结构图。特别地,图4描述了一种语音识别系统,在该系统中,可以使用本发明的噪声估计技术来减少用于训练声学模型的训练信号中的噪声和/或降低用于声学模型以识别测试信号语言内容的测试信号中的噪声。
在图4中,说话者400,可以是培训者,也可以是用户,对话筒404说话。话筒404也从一个或多个噪声源402接收附加的噪声。话筒404测得的音频信号转化为电信号,并输至模拟-数字转换器406。
尽管在图4的实施例中显示附加的噪声信号402通过话筒404进入,但是在其他实施例中,噪声402也可以在模-数转换器406之后作为数字信号添加到输入语音信号中。
模-数转换器406将来自话筒404的模拟信号转换成一列数字值。在几种实施例中,模-数转换器以16KHz的频率对模拟信号进行采样,每一采样值为16比特,因而每秒能产生32千字节的语音数据。这些数字值输至帧构造器407中,在一个实施例中,该帧构造器将数字值分组成为25毫秒的帧,开始间隔为10毫秒。
帧构造器407产生的数据帧输至特征提取器408,它将每一帧的特征提取出来。特征提取器模块的示例包括用于实现线性预测编码(LPC)、LPC导出倒谱、感知线性预测(PLP)、听觉模型特征提取、以及Mel倒谱系数(MFCC)特征提取的模块。必须注意,本发明并不局限于这些特征提取模块,可以在本发明的环境下使用别的模块。
特征提取模块可以产生特征矢量流,每一特征矢量都同语音信号的一个帧相关联。该特征矢量流输至噪声减少模块410,该模块采用本发明的噪声估计技术来估计每一帧中的噪声。
噪声减少模块410的输出是一系列“干净”特征矢量。如果输入信号是训练信号,则该“干净”特征矢量序列输至训练器424,该训练器使用“干净”特征矢量和训练文本426来训练声学模型418。训练这类模型的技术在本领域中是已知的,对于本发明的理解不是必需的。
如果输入信号是测试信号,则“干净”特征矢量输至解码器412,该解码器能够根据特征矢量流、词典414、语言模型416和声学模型418来识别出最相似的字序列。解码所使用的特定方法对本发明不重要,也可采用几种已知的解码方法中的任一种。
可能性最高的假定字序列输至置信度测量模块420。置信度测量模块420能够部分地根据第二声学模型(未标出)来识别哪些单词最有可能被语音识别器错误地识别。接着置信度测量模块420将假定字序列连同表明哪些单词被错误识别的标识符一起输至输出模块。对本领域的技术人员来说,可以认为置信度测量模块420对于本发明的实践来说不是必需的。
尽管图4描述了一种语音识别系统,但是本发明可以用于任何识别系统中,并不局限于语音。
尽管本发明是参考特定实施例来描述的,对本领域的熟练技术人员来说,可以在不背离本发明精神和范围的情况下以任何形式和细节作出改变。

Claims (36)

1.一种估计含噪声信号中的噪声的方法,该方法包括:
将含噪声的信号划分为帧;以及
采用增量贝叶斯学习来确定帧的噪声估计,包括平均值和方差,其中,假定时变噪声先验分布,并采用在前一帧中计算所得的后验噪声的近似来递归地更新噪声估计。
2.如权利要求1所述的方法,其特征在于,所述确定噪声估计包括:
采用在前一帧中计算所得的后验噪声的近似来确定含噪声的信号的第一帧的噪声估计;
确定含噪声信号的第二帧的数据似然性估计;以及
使用第二帧的数据似然性估计和第一帧的噪声估计来确定第二帧的噪声估计。
3.如权利要求2所述的方法,其特征在于,所述确定第二帧的数据似然性估计包括在等式中使用第二帧的数据似然性估计,该等式部分地基于将含噪声的信号定义为无噪声信号和噪声信号的非线性函数。
4.如权利要求3所述的方法,其特征在于,所述等式更进一步基于所述非线性函数的近似。
5.如权利要求2、3或4所述的方法,其特征在于,所述近似等于在部分由第一帧的噪声估计定义的点上的所述非线性函数。
6.如权利要求5所述的方法,其特征在于,所述近似是泰勒级数展开。
7.如权利要求6所述的方法,其特征在于,所述近似更进一步包括采用拉普拉斯近似。
8.如权利要求2、3或4所述的方法,其特征在于,所述使用第二帧的数据似然性估计包括采用第一帧的噪声估计作为非线性函数的泰勒级数展开的一个展开点。
9.如权利要求1、2、3或4所述的方法,其特征在于,所述使用后验噪声的近似包括使用高斯近似。
10.如权利要求1、2、3或4所述的方法,其特征在于,所述每一噪声估计基于高斯近似。
11.如权利要求10所述的方法,其特征在于,所述确定噪声估计包括连续地确定每一帧的噪声估计。
12.一种估计含噪声的信号中噪声的方法,该方法包括:
将含噪声的信号划分成帧;以及
对连续的每一帧,估计每一帧中的噪声,使得当前帧的噪声估计基于当前帧的数据似然性的高斯近似和先验帧序列中噪声的高斯近似。
13.如权利要求12所述的方法,其特征在于,所述估计每一帧的噪声包括使用一等式来确定当前帧中数据似然性的近似,该等式部分地基于将含噪声的信号定义为无噪声信号和噪声信号的非线性函数。
14.如权利要求13所述的方法,其特征在于,所述等式更进一步基于所述非线性函数的近似。
15.如权利要求14所述的方法,其特征在于,所述近似等于在部分由前一帧的噪声估计所定义的点上的所述非线性函数。
16.如权利要求15所述的方法,其特征在于,所述近似是泰勒级数展开。
17.如权利要求16所述的方法,所述近似更进一步包括拉普拉斯近似。
18.如权利要求12、13、14、15、16或17所述的方法,其特征,所述噪声估计包括噪声平均值估计和噪声方差估计。
19.一种用于估计含噪声的信号中的噪声的系统,该系统包括:
用于将含噪声的信号划分为帧的装置;以及
采用增量贝叶斯学习来确定帧的包括平均值和方差的噪声估计的装置,其中,假定时变噪声先验分布,并采用在前一帧中计算所得的后验噪声的近似来递归地更新噪声估计。
20.如权利要求19所述的系统,其特征在于,所述确定噪声估计的装置包括:
采用在前一帧中计算所得的后验噪声的近似来确定含噪声的信号的第一帧的噪声估计的装置;
确定含噪声信号的第二帧的数据似然性估计的装置;以及
使用第二帧的数据似然性估计和第一帧的噪声估计来确定第二帧的噪声估计的装置。
21.如权利要求20所述的系统,其特征在于,所述确定第二帧的数据似然性估计的装置包括在等式中使用第二帧的数据似然性估计的装置,该等式部分地基于将含噪声的信号定义为无噪声信号和噪声信号的非线性函数。
22.如权利要求21所述的系统,其特征在于,所述等式更进一步基于所述非线性函数的近似。
23.如权利要求20、21或22所述的系统,其特征在于,所述近似等于在部分由第一帧的噪声估计定义的点上的所述非线性函数。
24.如权利要求23所述的系统,其特征在于,所述近似是泰勒级数展开。
25.如权利要求24所述的系统,其特征在于,所述近似更进一步包括采用拉普拉斯近似。
26.如权利要求20、21或22所述的系统,其特征在于,所述使用第二帧的数据似然性估计的装置包括采用第一帧的噪声估计作为非线性函数的泰勒级数展开的一个展开点的装置。
27.如权利要求19、20、21或22所述的系统,其特征在于,所述使用后验噪声的近似包括使用高斯近似。
28.如权利要求19、20、21或22所述的系统,其特征在于,所述每一噪声估计基于高斯近似。
29.如权利要求28所述的系统,其特征在于,所述确定噪声估计的装置包括连续地确定每一帧的噪声估计。
30.一种估计含噪声的信号中噪声的系统,该系统包括:
将含噪声的信号划分成帧的装置;以及
估计每一帧中的噪声,使得当前帧的噪声估计基于当前帧的数据似然性的高斯近似和先验帧序列中噪声的高斯近似的装置,其中所述估计装置是连续对每个帧进行操作。
31.如权利要求30所述的系统,其特征在于,所述估计每一帧的噪声的装置包括使用一等式来确定当前帧中数据似然性的近似的装置,该等式部分地基于将含噪声的信号定义为无噪声信号和噪声信号的非线性函数。
32.如权利要求31所述的系统,其特征在于,所述等式更进一步基于所述非线性函数的近似。
33.如权利要求32所述的系统,其特征在于,所述近似等于在部分由前一帧的噪声估计所定义的点上的所述非线性函数。
34.如权利要求33所述的系统,其特征在于,所述近似是泰勒级数展开。
35.如权利要求34所述的系统,所述近似更进一步包括拉普拉斯近似。
36.如权利要求20、21、22、23、24或25所述的系统,其特征在于,所述噪声估计包括噪声平均值估计和噪声方差估计。
CNB200410032437XA 2003-03-31 2004-03-31 采用增量贝叶斯学习进行噪声估计的方法 Expired - Fee Related CN100336102C (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/403,638 US7165026B2 (en) 2003-03-31 2003-03-31 Method of noise estimation using incremental bayes learning
US10/403,638 2003-03-31

Publications (2)

Publication Number Publication Date
CN1534598A CN1534598A (zh) 2004-10-06
CN100336102C true CN100336102C (zh) 2007-09-05

Family

ID=32850571

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB200410032437XA Expired - Fee Related CN100336102C (zh) 2003-03-31 2004-03-31 采用增量贝叶斯学习进行噪声估计的方法

Country Status (12)

Country Link
US (1) US7165026B2 (zh)
EP (1) EP1465160B1 (zh)
JP (1) JP4824286B2 (zh)
KR (1) KR101004495B1 (zh)
CN (1) CN100336102C (zh)
AT (1) ATE526664T1 (zh)
AU (1) AU2004201076B2 (zh)
BR (1) BRPI0400793A (zh)
CA (1) CA2461083C (zh)
ES (1) ES2371548T3 (zh)
MX (1) MXPA04002919A (zh)
RU (1) RU2370831C2 (zh)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7103540B2 (en) * 2002-05-20 2006-09-05 Microsoft Corporation Method of pattern recognition using noise reduction uncertainty
US6957226B2 (en) * 2002-06-27 2005-10-18 Microsoft Corporation Searching multi-media databases using multi-media queries
US7729908B2 (en) * 2005-03-04 2010-06-01 Panasonic Corporation Joint signal and model based noise matching noise robustness method for automatic speech recognition
KR100755678B1 (ko) * 2005-10-28 2007-09-05 삼성전자주식회사 개체명 검출 장치 및 방법
US8949120B1 (en) 2006-05-25 2015-02-03 Audience, Inc. Adaptive noise cancelation
JP4868999B2 (ja) * 2006-09-22 2012-02-01 富士通株式会社 音声認識方法、音声認識装置及びコンピュータプログラム
US8423364B2 (en) * 2007-02-20 2013-04-16 Microsoft Corporation Generic framework for large-margin MCE training in speech recognition
US7925502B2 (en) * 2007-03-01 2011-04-12 Microsoft Corporation Pitch model for noise estimation
US7626889B2 (en) * 2007-04-06 2009-12-01 Microsoft Corporation Sensor array post-filter for tracking spatial distributions of signals and noise
US8214215B2 (en) 2008-09-24 2012-07-03 Microsoft Corporation Phase sensitive model adaptation for noisy speech recognition
GB2464093B (en) * 2008-09-29 2011-03-09 Toshiba Res Europ Ltd A speech recognition method
KR100901367B1 (ko) 2008-10-09 2009-06-05 인하대학교 산학협력단 조건 사후 최대 확률 기반 최소값 제어 재귀평균기법을 이용한 음성 향상 방법
KR101597752B1 (ko) * 2008-10-10 2016-02-24 삼성전자주식회사 잡음 추정 장치 및 방법과, 이를 이용한 잡음 감소 장치
US8639502B1 (en) 2009-02-16 2014-01-28 Arrowhead Center, Inc. Speaker model-based speech enhancement system
CA2774158A1 (en) * 2009-09-15 2011-03-24 The University Of Sydney A method and system for multiple dataset gaussian process modeling
US20110178800A1 (en) * 2010-01-19 2011-07-21 Lloyd Watts Distortion Measurement for Noise Suppression System
US9558755B1 (en) 2010-05-20 2017-01-31 Knowles Electronics, Llc Noise suppression assisted automatic speech recognition
CN102543092B (zh) * 2010-12-29 2014-02-05 联芯科技有限公司 一种噪声估计方法及装置
CN102185661B (zh) * 2010-12-31 2013-08-21 哈尔滨工业大学深圳研究生院 基于梯度法贝叶斯准则下的噪声增强分布检测方法及系统
US20120245927A1 (en) * 2011-03-21 2012-09-27 On Semiconductor Trading Ltd. System and method for monaural audio processing based preserving speech information
US8880393B2 (en) * 2012-01-27 2014-11-04 Mitsubishi Electric Research Laboratories, Inc. Indirect model-based speech enhancement
CN103295582B (zh) * 2012-03-02 2016-04-20 联芯科技有限公司 噪声抑制方法及其系统
US9258653B2 (en) 2012-03-21 2016-02-09 Semiconductor Components Industries, Llc Method and system for parameter based adaptation of clock speeds to listening devices and audio applications
US9640194B1 (en) 2012-10-04 2017-05-02 Knowles Electronics, Llc Noise suppression for speech processing based on machine-learning mask estimation
CN104253650B (zh) * 2013-06-27 2016-12-28 富士通株式会社 信道内非线性损伤的估计装置及方法
US9536540B2 (en) 2013-07-19 2017-01-03 Knowles Electronics, Llc Speech signal separation and synthesis based on auditory scene analysis and speech modeling
CN103854662B (zh) * 2014-03-04 2017-03-15 中央军委装备发展部第六十三研究所 基于多域联合估计的自适应语音检测方法
DE112015003945T5 (de) 2014-08-28 2017-05-11 Knowles Electronics, Llc Mehrquellen-Rauschunterdrückung
CN105099618A (zh) * 2015-06-03 2015-11-25 香港中文大学深圳研究院 一种基于物理层网络编码的解码方法及相应数据处理方法
US10474950B2 (en) * 2015-06-29 2019-11-12 Microsoft Technology Licensing, Llc Training and operation of computational models
CN109657273B (zh) * 2018-11-16 2023-07-04 重庆大学 一种基于噪声增强的贝叶斯参数估计方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002008014A1 (en) * 2000-07-21 2002-01-31 Mario Zanchini A pliable container device for waste material for motor vehicles, with a self-sticking structure and with replaceable bags

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4852181A (en) 1985-09-26 1989-07-25 Oki Electric Industry Co., Ltd. Speech recognition for recognizing the catagory of an input speech pattern
IL84948A0 (en) 1987-12-25 1988-06-30 D S P Group Israel Ltd Noise reduction system
US5148489A (en) * 1990-02-28 1992-09-15 Sri International Method for spectral estimation to improve noise robustness for speech recognition
US5727124A (en) * 1994-06-21 1998-03-10 Lucent Technologies, Inc. Method of and apparatus for signal recognition that compensates for mismatching
US5604839A (en) 1994-07-29 1997-02-18 Microsoft Corporation Method and system for improving speech recognition through front-end normalization of feature vectors
US5924065A (en) * 1997-06-16 1999-07-13 Digital Equipment Corporation Environmently compensated speech processing
CA2216224A1 (en) 1997-09-19 1999-03-19 Peter R. Stubley Block algorithm for pattern recognition
JPH11296515A (ja) * 1998-04-10 1999-10-29 Nippon Telegr & Teleph Corp <Ntt> 言語モデルの近似学習装置及び方法、並びに、近似学習プログラムを記録した記録媒体
US6343267B1 (en) 1998-04-30 2002-01-29 Matsushita Electric Industrial Co., Ltd. Dimensionality reduction for speaker normalization and speaker and environment adaptation using eigenvoice techniques
KR100304666B1 (ko) * 1999-08-28 2001-11-01 윤종용 음성 향상 방법
US6571208B1 (en) * 1999-11-29 2003-05-27 Matsushita Electric Industrial Co., Ltd. Context-dependent acoustic models for medium and large vocabulary speech recognition with eigenvoice training
GB2363557A (en) * 2000-06-16 2001-12-19 At & T Lab Cambridge Ltd Method of extracting a signal from a contaminated signal
CN1395780A (zh) * 2000-09-11 2003-02-05 福克斯数码公司 用于使用能够利用自适应信道均衡器中的目标权重矢量的稀疏性的自适应算法的设备和方法
JP2002123285A (ja) * 2000-10-13 2002-04-26 Sony Corp 話者適応装置および話者適応方法、記録媒体、並びに音声認識装置
US20030055640A1 (en) 2001-05-01 2003-03-20 Ramot University Authority For Applied Research & Industrial Development Ltd. System and method for parameter estimation for pattern recognition
US6944590B2 (en) 2002-04-05 2005-09-13 Microsoft Corporation Method of iterative noise estimation in a recursive framework
US7107210B2 (en) 2002-05-20 2006-09-12 Microsoft Corporation Method of noise reduction based on dynamic aspects of speech
US20040064314A1 (en) * 2002-09-27 2004-04-01 Aubert Nicolas De Saint Methods and apparatus for speech end-point detection
JP3523243B1 (ja) * 2002-10-01 2004-04-26 沖電気工業株式会社 ノイズ低減装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002008014A1 (en) * 2000-07-21 2002-01-31 Mario Zanchini A pliable container device for waste material for motor vehicles, with a self-sticking structure and with replaceable bags

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Recursive noise estimation using iterative stochasticapproximation for stereo-based robust speechrecognition" LI DENG ET AL,PROCEEDINGS IEEE WORKSHOP ON AUTOMATIC SPEECH 2001 *

Also Published As

Publication number Publication date
JP2004302470A (ja) 2004-10-28
AU2004201076B2 (en) 2009-08-13
EP1465160B1 (en) 2011-09-28
EP1465160A3 (en) 2005-01-12
KR101004495B1 (ko) 2010-12-31
RU2370831C2 (ru) 2009-10-20
ES2371548T3 (es) 2012-01-05
CN1534598A (zh) 2004-10-06
EP1465160A2 (en) 2004-10-06
RU2004109571A (ru) 2005-10-20
AU2004201076A1 (en) 2004-10-21
US7165026B2 (en) 2007-01-16
ATE526664T1 (de) 2011-10-15
CA2461083A1 (en) 2004-09-30
BRPI0400793A (pt) 2005-01-11
CA2461083C (en) 2013-01-29
KR20040088360A (ko) 2004-10-16
MXPA04002919A (es) 2005-06-17
US20040190732A1 (en) 2004-09-30
JP4824286B2 (ja) 2011-11-30

Similar Documents

Publication Publication Date Title
CN100336102C (zh) 采用增量贝叶斯学习进行噪声估计的方法
JP4491210B2 (ja) 再帰的構成における反復ノイズ推定法
JP4986393B2 (ja) 雑音低減値に対する推定値を決定する方法
US7725314B2 (en) Method and apparatus for constructing a speech filter using estimates of clean speech and noise
CN1760974B (zh) 用于标识至少一个语音单元的方法
US7769582B2 (en) Method of pattern recognition using noise reduction uncertainty
CN1653520A (zh) 确定和降噪相关联的不确定性的方法
KR101087319B1 (ko) 음성 인식을 위한 고조파 모델 기반 프론트 엔드를이용하는 방법 및 장치
CN1584984B (zh) 使用瞬时信噪比作为最优估计的主量的降噪方法
CN1419184A (zh) 用于调试与语言模型一起使用的类实体词典的方法和设备
US8271278B2 (en) Quantizing feature vectors in decision-making applications
CN1645476A (zh) 使用切换状态空间模型的多模变分推导的语音识别方法
US20040199386A1 (en) Method of speech recognition using variational inference with switching state space models
CN1521729A (zh) 使用隐轨迹和隐马尔可夫模型进行语音识别的方法
CN1534596A (zh) 使用残差模型用于共振峰追踪的方法和装置
JP3939955B2 (ja) ノイズ含有スピーチのドメインにおいて音響空間の区分、補正およびスケーリング・ベクトルを用いたノイズ低減方法
US20120173240A1 (en) Subspace Speech Adaptation
CN1624765A (zh) 使用分段线性逼近的连续值声道共振跟踪方法和装置
US11978464B2 (en) Trained generative model speech coding
JP3315956B2 (ja) 音声符号化装置及び音声符号化方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150504

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20150504

Address after: Washington State

Patentee after: Micro soft technique license Co., Ltd

Address before: Washington State

Patentee before: Microsoft Corp.

CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20070905

Termination date: 20160331

CF01 Termination of patent right due to non-payment of annual fee