JPWO2006123721A1 - 雑音抑圧方法およびその装置 - Google Patents

雑音抑圧方法およびその装置 Download PDF

Info

Publication number
JPWO2006123721A1
JPWO2006123721A1 JP2007516328A JP2007516328A JPWO2006123721A1 JP WO2006123721 A1 JPWO2006123721 A1 JP WO2006123721A1 JP 2007516328 A JP2007516328 A JP 2007516328A JP 2007516328 A JP2007516328 A JP 2007516328A JP WO2006123721 A1 JPWO2006123721 A1 JP WO2006123721A1
Authority
JP
Japan
Prior art keywords
spectrum
noise
signal
length
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007516328A
Other languages
English (en)
Other versions
JP4958303B2 (ja
Inventor
道子 風間
道子 風間
三樹夫 東山
三樹夫 東山
櫛田 孝司
孝司 櫛田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Waseda University
Yamaha Corp
Original Assignee
Waseda University
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Waseda University, Yamaha Corp filed Critical Waseda University
Priority to JP2007516328A priority Critical patent/JP4958303B2/ja
Publication of JPWO2006123721A1 publication Critical patent/JPWO2006123721A1/ja
Application granted granted Critical
Publication of JP4958303B2 publication Critical patent/JP4958303B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Noise Elimination (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

スペクトルサブトラクション法により雑音を抑圧する方法において、雑音推定用スペクトルに必要な周波数分解能と、雑音抑圧用スペクトルに必要な時間分解能を両立させて、雑音抑圧性能を向上させる。雑音のスペクトルの推定演算に用いる観測信号のスペクトルを分析するために切り出す該観測信号の信号長を、雑音のスペクトルとの減算を行う被減算値としての観測信号のスペクトルを分析するために切り出す該観測信号の信号長よりも長く設定する。

Description

この発明は、いわゆるスペクトルサブトラクション法により雑音を抑圧する方法およびその装置に関し、雑音抑圧性能を向上させたものである。
音声に含まれる雑音を抑圧する技術として、スペクトルサブトラクション法がある。スペクトルサブトラクション法は、音声に雑音が重畳した観測信号のスペクトル(以下「観測信号スペクトル」という。)を求め、該観測信号スペクトルから雑音のスペクトル(以下「雑音スペクトル」という。)を推定し、該観測信号スペクトルから該雑音スペクトルを減算することにより、雑音を抑圧した音声のスペクトル(以下「音声スペクトル」という。)を得て、該音声スペクトルを時間領域の信号に変換することにより、雑音を抑制した音声を得るようにしたものである。
スペクトルサブトラクション技術を開示した従来技術として、下記特許文献に記載されたものがある。
特開平11−3094号公報 特開2002−14694号公報 特開2003−223186号公報
従来のスペクトルサブトラクション法は、雑音スペクトルの推定演算に用いる観測信号スペクトル(以下「雑音推定用スペクトル」という。)と、雑音スペクトルとの減算に用いられる被減算値としての観測信号スペクトル(以下「雑音抑圧用スペクトル」という。)に共通の観測信号スペクトルを使用していた。
スペクトルサブトラクション法の抑圧対象である雑音は定常雑音等の時間変化が少ない雑音であることから、雑音推定用スペクトルは、時間分解能よりは周波数分解能が重要である。これに対し、スペクトルサブトラクション法の抽出対象である音声は時間変化が大きい信号であるから、雑音抑圧用スペクトルは、時間分解能が高いことが重要である。ところが、従来のスペクトルサブトラクション法は、雑音推定用スペクトルと、雑音抑圧用スペクトルに共通の観測信号スペクトルを使用していたため、雑音推定用スペクトルに必要な周波数分解能と、雑音抑圧用スペクトルに必要な時間分解能を両立させることができず、雑音抑圧性能が十分ではなかった。
この発明は、上述の点に鑑みてなされたもので、雑音推定用スペクトルに必要な周波数分解能と、雑音抑圧用スペクトルに必要な時間分解能を両立させて、雑音抑圧性能を向上させた雑音抑圧方法およびその装置を提供しようとするものである。
この発明の音声に雑音が重畳した観測信号から該雑音が抑圧された音声を得るための雑音抑圧方法は、観測信号から第1の観測信号を切り出し、第1の観測信号のスペクトルを分析し、第1の観測信号のスペクトルから雑音のスペクトルを推定演算し、観測信号から第2の観測信号を切り出し、第2の観測信号のスペクトルを分析し、第2の観測信号のスペクトルから前記雑音のスペクトルを減算し、音声のスペクトルを時間領域の信号に変換し、第1の観測信号の信号長(時間窓長)は、前記第2の観測信号の信号長よりも長いものである。
この発明の雑音抑圧方法によれば、雑音のスペクトルの推定演算に用いる観測信号のスペクトルを分析するために切り出す該観測信号の信号長を相対的に長く設定したので、雑音推定用スペクトルに必要な周波数分解能を高めることができる。また、雑音のスペクトルとの減算を行う被減算値としての観測信号のスペクトルを分析するために切り出す該観測信号の信号長を相対的に短く設定したので、雑音抑圧用スペクトルに必要な時間分解能を高めることができる。これにより、雑音推定用スペクトルに必要な周波数分解能と、雑音抑圧用スペクトルに必要な時間分解能が両立し、雑音抑圧性能を向上させることができる。
この発明の雑音抑圧方法は、より具体的には、音声に雑音が重畳して時間とともに進行する観測信号を、該観測信号が進行する所定の時間間隔毎に、該時間間隔と同じかまたは該時間間隔よりも長い第1の信号長で切り出し、前記第1の信号長で切り出された観測信号のスペクトルを第1のスペクトルとして分析し、前記観測信号を、前記所定の時間間隔毎または適宜の時間毎に、その先頭を前記第1の信号長で切り出される観測信号の先頭に揃えて、該第1の信号長よりも長い第2の信号長で切り出し、前記第2の信号長で切り出された観測信号のスペクトルを第2のスペクトルとして分析し、前記第2のスペクトルに基づいて、前記観測信号に含まれる雑音のスペクトルを推定演算し、雑音が抑圧された音声のスペクトルを求めるために、前記所定の時間間隔毎に、前記第1のスペクトルから前記雑音のスペクトルを減算し、前記所定の時間間隔毎に、前記求められた音声のスペクトルを時間領域の信号に変換し、前記変換された時間領域の信号を相互に連結して、雑音が抑圧された一連の音声を得るようにすることができる。
この発明の雑音抑圧方法では、前記第2のスペクトルを平滑化処理し、該平滑化処理された第2のスペクトルに基づき前記雑音のスペクトルを推定演算する。あるいは、前記推定された雑音のスペクトルを平滑化処理した後に前記減算処理を行う。この平滑化処理により、雑音のスペクトルの実質的な周波数分解能は、第1のスペクトルの実質的な周波数分解能に等しくなる(または近づく)。このように雑音推定用スペクトルを長時間のデータを使うことにより高分解能で求めておいてから平滑化することで、1つ1つの減算結果(音声スペクトルデータ)の精度(有効性)が向上する。
また、この発明の雑音抑圧方法では、前記推定演算処理は、前記第2のスペクトルを平滑化処理し、前記平滑化処理された第2のスペクトルと該平滑化処理する前の前記第2のスペクトルとを比較し、第2のスペクトルにおけるディップ(スペクトルにおける窪み)を除去するために、前記比較処理において周波数ポイント毎に大きい方の値を選択し、前記ディップが除去された第2のスペクトルに基づき前記雑音のスペクトルを推定演算する。あるいは、前記減算処理は、前記推定された雑音のスペクトルを平滑化処理し、前記平滑化処理された雑音のスペクトルと前記平滑化処理する前の雑音のスペクトルとを比較し、雑音のスペクトルにおけるディップを除去するために、前記比較処理において周波数ポイント毎に大きい方の値を選択し、前記ディップが除去された雑音のスペクトルを用いて前記第1のスペクトルとの減算を行う。すなわち、雑音のスペクトルの推定演算に用いる観測信号のスペクトルを分析すると、分析されたスペクトルに大きなディップが出て、これが処理雑音(信号処理に伴って新たに発生する雑音で、いわゆるミュージカルノイズ)となる場合がある。そこで、前記第2のスペクトルからディップを除去してから雑音のスペクトルを推定演算し、または、雑音のスペクトルからディップを除去してから前記第1のスペクトルとの減算を行うことにより、処理雑音の発生を抑制することができる。なお、この雑音のスペクトルの推定演算に用いる観測信号のスペクトルまたは雑音のスペクトルからディップを除去する手法は、雑音のスペクトルの推定演算に用いる観測信号のスペクトルを分析するために切り出す該観測信号の信号長を、雑音のスペクトルとの減算を行う被減算値としての観測信号のスペクトルを分析するために切り出す該観測信号の信号長よりも長く設定する場合に限らず、両信号長を等しく設定する場合にも適用することができる。
この発明の雑音抑圧方法は、前記第1のスペクトルの分析に使用する前記観測信号の信号長を、前記第2の信号長と同じ長さに揃えるために、前記第1の信号長で切り出された観測信号の末尾に後続して所定長の零信号を付加し、前記零信号が付加された観測信号について前記第1のスペクトルの分析を行い、前記分析された第1のスペクトルから前記雑音のスペクトルを減算し、前記減算処理により得られた音声のスペクトルを前記時間領域の信号へ変換し、前記時間領域の信号を前記第1の信号長に戻すために前記時間領域の信号の末尾から、前記零信号を付加した長さ分の信号を削除し、前記第1の信号長に戻された時間領域の信号を相互に連結する。
この発明の雑音抑圧方法は、前記所定の時間間隔を、例えば、前記第1の信号長の1/2の長さに設定することができる。この場合、前記時間領域の信号を前記所定の時間間隔毎に前記第1の信号長で得られる信号とし、該時間領域の信号に三角窓を掛け、該三角窓が掛けられた時間領域の信号を順次加算して前記信号相互の連結を行うことができる。
この発明の音声に雑音が重畳した観測信号から雑音が抑圧された音声を得るための雑音抑圧装置は、音声に雑音が重畳して時間とともに進行する観測信号を、該観測信号が進行する所定の時間間隔毎に、該時間間隔と同じかまたは該時間間隔よりも長い第1の信号長で切り出す第1の信号切り出し部と、前記第1の信号切り出し部で切り出された観測信号のスペクトルを第1のスペクトルとして分析する第1のスペクトル分析部と、前記観測信号を、前記所定の時間間隔毎または適宜の時間毎に、その先頭を前記第1の信号長で切り出される観測信号の先頭に揃えて、該第1の信号長よりも長い第2の信号長で切り出す第2の信号切り出し部と、前記第2の信号切り出し部で切り出された観測信号のスペクトルを第2のスペクトルとして分析する第2のスペクトル分析部と、前記第2のスペクトルに基づいて、前記観測信号に含まれる雑音のスペクトルを推定演算する雑音スペクトル推定演算部と、雑音が抑圧された音声のスペクトルを求めるために、前記所定の時間間隔毎に、前記第1のスペクトルから前記雑音のスペクトルを減算する減算部と、前記所定の時間間隔毎に、前記求められた音声のスペクトルを時間領域の信号に変換する時間領域変換部と、前記変換された時間領域の信号を相互に連結して、雑音が抑圧された一連の音声を得る出力合成部と、を具備してなる。
この発明の雑音抑圧装置は、より具体的には、音声に雑音が重畳して時間とともに進行する観測信号を、該観測信号が進行する所定の時間間隔毎に、該時間間隔と同じかまたは該時間間隔よりも長い第1の信号長で切り出す第1の信号切り出し部と、前記第1の信号切り出し部で切り出された観測信号のスペクトルを第1のスペクトルとして分析する第1のスペクトル分析部と、前記観測信号を、前記所定の時間間隔毎または適宜の時間毎に、その先頭を前記第1の信号長で切り出される観測信号の先頭に揃えて、該第1の信号長よりも長い第2の信号長で切り出す第2の信号切り出し部と、前記第2の信号切り出し部で切り出された観測信号のスペクトルを第2のスペクトルとして分析する第2のスペクトル分析部と、前記第2のスペクトルに基づいて、前記観測信号に含まれる雑音のスペクトルを推定演算する雑音スペクトル推定演算部と、雑音が抑圧された音声のスペクトルを求めるために、前記所定の時間間隔毎に、前記第1のスペクトルから前記雑音のスペクトルを減算する減算部と、前記所定の時間間隔毎に、前記求められた音声のスペクトルを時間領域の信号に変換する時間領域変換部と、前記変換された時間領域の信号を相互に連結して、雑音が抑圧された一連の音声を得る出力合成部と、を具備してなる。
この発明の音声に雑音が重畳した観測信号から該雑音が抑圧された音声を得るための雑音抑圧方法は、前記観測信号のスペクトルを分析し、前記観測信号のスペクトルを平滑化処理し、前記平滑化処理された観測信号のスペクトルと、前記平滑化処理する前の観測信号のスペクトルとを比較し、前記観測信号のスペクトルにおけるディップを除去するために、前記比較処理において周波数ポイント毎に大きい方の値を選択し、前記ディップが除去された観測信号のスペクトルに基づき雑音のスペクトルを推定演算し、前記雑音が抑圧された音声のスペクトルを求めるために、前記観測信号のスペクトルから前記雑音のスペクトルを減算し、前記音声のスペクトルを時間領域の信号に変換する。
この発明の音声に雑音が重畳した観測信号から該雑音が抑圧された音声を得るための雑音抑圧方法は、前記観測信号のスペクトルを分析し、前記観測信号のスペクトルから雑音のスペクトルを推定演算し、前記推定された雑音のスペクトルを平滑化処理し、前記平滑化処理された雑音のスペクトルと前記平滑化処理する前の雑音のスペクトルとを比較し、前記雑音のスペクトルにおけるディップを除去するために、前記比較処理において周波数ポイント毎に大きい方の値を選択し、前記雑音が抑圧された音声のスペクトルを求めるために、前記観測信号のスペクトルから前記雑音のスペクトルを減算し、前記音声のスペクトルを時間領域の信号に変換する。
この発明の雑音抑圧方法を利用した雑音抑圧処理の処理手順の概要を示すフローチャートである。 図1の雑音抑圧処理の動作説明図である。 図1の雑音抑圧処理を実行するための雑音抑圧装置の実施の形態を示す機能ブロックである。 図2ディップ除去部22の動作を説明するスペクトル線図である。 図3の雑音推定部28と抑圧演算部40の具体例を示すブロック図である。 従来のスペクトルサブトラクション法とこの発明によるスペクトルサブトラクション法について、定常雑音を入力したときの出力波形の違いを示す波形図である。 この発明の雑音抑圧装置に雑音付き音声を入力した場合の波形図である。
符号の説明
16…フレーム切出し部(第2の信号切り出し部)
18…高速フーリエ変換部(第2のスペクトル分析部)
22…ディップ除去部
24…平滑化処理部
28…雑音推定部(雑音スペクトル推定演算部)
32…フレーム切出し部(第1の信号切り出し部)
38…高速フーリエ変換部(第1のスペクトル分析部)
42…逆高速フーリエ変換部(時間領域変換部)
44…出力合成部(出力合成部)
60…スペクトル減算部(減算部)
この発明の実施の形態を以下説明する。図1は、この発明の雑音抑圧方法を利用した雑音抑圧処理の処理手順の概要を示す。図2は、図1の雑音抑圧処理の動作説明図である。図1において、雑音抑圧対象である観測信号x(n)(n=0,1,2,…)は、マイク等で収音された、雑音を含む音声信号(例えば、電話通信で受信された音声信号、音声認識のために入力された信号等)のサンプル列であり、目的とする話者等の音声に背景雑音等の定常雑音が混入した雑音付き音声信号である。観測信号x(n)は、雑音抑圧用スペクトルの分析用と、雑音推定用スペクトルの分析用とで別々のフレーム長(信号長すなわち時間窓長)でフレーム切り出し(信号切り出し)が行われる(S1,S2)。すなわち、雑音抑圧用スペクトルの分析用フレームの切り出し(S1)は、観測信号x(n)を相対的に短いフレーム長T1で切り出すことにより行われ(以下、この相対的に短いフレーム長T1を「雑音抑圧用フレーム長」、該フレーム長で切り出される観測信号x(n)のフレームを「雑音抑圧用フレーム」とそれぞれいう。)、雑音推定用スペクトルの分析用フレームの切り出し(S2)は、観測信号x(n)を相対的に長いフレーム長T2で切り出すことにより行われる(以下、この相対的に長いフレーム長T2を「雑音推定用フレーム長」、該フレーム長で切り出される観測信号x(n)のフレームを「雑音推定用フレーム」とそれぞれいう。)。これら雑音抑圧用フレームと雑音推定用フレームの切り出し(S1,S2)は、雑音抑圧用フレームと雑音推定用フレームの先頭を揃えて{つまり、両フレームの先頭に同一時刻の観測信号サンプル(最新のサンプル)を配置して}、観測信号が雑音抑圧用フレーム長T1の1/2の時間を進行する毎に繰り返し行われる。切り出された雑音抑圧用フレームの末尾(該フレーム中の最古のサンプル)には、該最古のサンプルに後続して所定長の零データ(信号値が零のサンプルデータすなわち零信号)が付加されて、そのフレーム長が、形式的(擬似的)に、雑音推定用フレーム長T2と同じ長さに揃えられる(S3)。この処理を行うのは、雑音抑圧用スペクトルから雑音スペクトルを減算するためには、これら両スペクトルのデータ数(周波数ポイント数)が揃っている必要があるためである。すなわち、雑音スペクトルのデータ数は雑音推定用スペクトルのデータ数に等しく、雑音抑圧用スペクトルのデータ数を雑音推定用スペクトルのデータ数に揃えるためには、周波数領域のデータに変換する前の時間領域でのデータ数(サンプル数)を、雑音抑圧用フレームと雑音推定用フレームとで揃える必要がある。なお、雑音抑圧用フレーム長T1は、抽出対象の音声が話者音声である場合には、例えば、20〜32msecに設定することができる。雑音推定用フレーム長T2は、抑圧対象の雑音が部屋の空調ノイズである場合には、例えば、雑音抑圧用フレーム長T1の8倍程度の長さ(例えば256msec)に設定することができる。
図2の「(a)雑音抑圧前の処理」は、上記ステップS1〜S3による動作を示す。すなわち、観測信号が新たにM/2サンプル入力される毎(T1/2時間毎)に、最新のMサンプルの観測信号が雑音抑圧用フレームとして切り出され(つまり、雑音抑圧用フレームは、M/2サンプルずつオーバーラップして切り出される。)、最新のNサンプル(N>M。図2では、N=8Mに設定した場合を示す。)の観測信号が雑音推定用フレームとして切り出される。雑音抑圧用フレームの末尾には、N−Mサンプル分の零データが付加されて、雑音抑圧用フレームのフレーム長が、形式的に、雑音推定用フレーム長T2と同じ長さに揃えられる。
図1において、零データが付加された雑音抑圧用フレームのデータは、該雑音抑圧用フレームのデータが切り出される毎(すなわち、観測信号のM/2サンプルの時間間隔毎)に高速フーリエ変換(FFT:Fast Fourier Transform)されて、周波数領域のデータすなわち雑音抑圧用スペクトルX(k)に変換される(S4)。また、雑音推定用フレームのデータは、該雑音推定用フレームのデータが切り出される毎(すなわち、観測信号のM/2サンプルの時間間隔毎)に高速フーリエ変換されて、周波数領域の信号すなわち雑音推定用スペクトルX(k)に変換される(S5)。そして、雑音推定用スペクトルX(k)が求められる都度(すなわち、観測信号のM/2サンプルの時間間隔毎に)、該雑音推定用スペクトルX(k)は適宜のディップ除去処理または平滑化処理が施される(S6)。さらに、このディップ除去処理または平滑化処理が施される毎(すなわち、観測信号のM/2サンプルの時間間隔毎)に、該ディップ除去処理または平滑化処理された雑音推定用スペクトルX’(k)と、前回の雑音スペクトルの推定値とに基づいて、今回の雑音スペクトルN(k)を推定する演算が行われる(S7)。
また、雑音抑圧用スペクトルX(k)と雑音スペクトルN(k)が求められる毎(すなわち、観測信号のM/2サンプルの時間間隔毎)に、雑音抑圧用スペクトルX(k)から雑音スペクトルN(k)が減算されて、雑音が抑圧された音声スペクトルG(k)が求められる(S8)。この音声スペクトルG(k)は、逆高速フーリエ変換(I−FFT)されて、時間領域の信号すなわち音声信号に変換される(S9)。観測信号のM/2サンプルの時間間隔毎に得られる各フレームの音声信号は、相互に連結されて(S10)、連続した音声信号g(n)となって出力され、スピーカからの発声や、話者の音声認識処理等に利用される。
図2の「(b)雑音抑圧後の処理」は、上記ステップS10のフレーム合成動作を示す。すなわち、逆高速フーリエ変換(S9)により得られたNサンプルのフレームの末尾から、零データを付加した分のN−Mサンプルを削除して、元のMサンプルのフレームに戻す。そして、観測信号のM/2サンプルの時間間隔毎に得られる各Mサンプルのフレームのデータに三角窓を掛けて{すなわち、1フレーム長(Mサンプル分の時間長)の前半の1/2フレームでゲインが0から1に直線的に上昇し、後半の1/2フレームでゲインが1から0に下降する特性のゲインを付与し}、フレームを相互に加算して(すなわち、1/2フレームずつオーバーラップして加算される)、連続した音声信号を作成する。これにより、フレーム間に切れ目や段差の無い連続した音声信号が得られる。
次に、以上説明した図1の雑音抑圧処理を実行するための雑音抑圧装置の実施の形態を説明する。この実施の形態では、
・サンプリング周波数=16kHz
・M(雑音抑圧用フレーム長T1)=512サンプル(32msec長に相当)
・N(雑音推定用フレーム長T2)=4096サンプル(256msec長に相当)
に設定した場合について説明する。図3に雑音抑圧装置の機能ブロックを示す。入力信号(雑音付き音声信号)x(n)は、雑音スペクトル出力部10と雑音抑圧部12に共通に入力される。雑音スペクトル出力部10に入力された雑音付き音声信号は、始めに雑音推定用スペクトル分析部14で、雑音推定用の周波数分析が行われる。すなわち、フレーム切出し部16は、新たにM/2サンプル(256サンプル)の入力信号が入力される毎に、最新のN(4096)サンプルの入力信号を切り出す。高速フーリエ変換部18は、切り出されたフレームを高速フーリエ変換して、周波数領域のデータすなわちスペクトルデータ(離散フーリエ変換)X(k)(k=0,1,2,…)に変換する。振幅スペクトル計算部20は、求められたスペクトルデータX(k)から、その振幅スペクトルを求める。
ディップ除去部22は、求められた振幅スペクトルのディップすなわち周波数特性上の窪みを除去する。ディップ除去処理は例えば次のようにして行われる。すなわち、始めに振幅スペクトルを平滑化処理部24で平滑化処理する。平滑化処理のアルゴリズムとしては、例えば移動平均法を用いることができる。移動平均法では、所定数の連続した周波数ポイント(すなわち所定の周波数帯域幅)における振幅の平均値を該周波数帯域の中央の周波数ポイントの振幅値として置き換える。1回の平均で使用する連続した周波数ポイントの点数(すなわち、平均値を求める周波数帯域幅)は、例えば8点とすれば、平滑化された振幅スペクトル(雑音推定用振幅スペクトル)の実質的な周波数分解能は、雑音抑圧用振幅スペクトルの実質的な周波数分解能に等しくなる。この平均値算出および振幅値の置き換えを、周波数ポイントを1ポイントずつずらして実行し、全周波数帯域にわたり平滑化した振幅スペクトルを求める。
平滑化処理部24における平滑化処理のアルゴリズムとしては、移動平均法のほかに、移動メディアン法を用いることもできる。移動メディアン法では、所定数(例えば8点)の連続した周波数ポイント(すなわち所定の周波数帯域幅)の中で、振幅値の中央値を該周波数帯域の中央の周波数ポイントの振幅値として置き換える。そして、この振幅値の中央値の抽出および振幅値の置き換えを、周波数ポイントを1ポイントずつずらして実行し、全周波数帯域にわたり平滑化した振幅スペクトルを求める。
ディップ除去部22において、比較部26は、平滑化処理部24で平滑化された振幅スペクトルと平滑化される前の振幅スペクトルとを比較して、周波数ポイント毎に大きい方の値を選択し、該選択した値を繋いで構成される一連の特性を、雑音推定用振幅スペクトル|X(k)|として出力する。これにより、ディップが除去された雑音推定用振幅スペクトル|X(k)|が得られる。
図4は、ディップ除去部22の動作を示す{全振幅スペクトルの一部の周波数領域(0〜100Hz)のみを拡大して示す。}。平滑化する前の振幅スペクトルAと移動平均法で平滑化した振幅スペクトルBが比較され、周波数ポイント毎に黒点で示す大きい方の値が選択されて、該選択された値を繋いで構成される一連の特性が、ディップが除去された振幅スペクトルとしてディップ除去部22から出力される。これにより、振幅スペクトルAのディップ(谷)が除去され、処理雑音が低減される。
なお、図3の比較部26をなくして、平滑化処理部24の出力信号(すなわち、移動平均法、移動メディアン法等で平滑化された振幅スペクトル)を雑音推定用振幅スペクトル|X(k)|として雑音推定用スペクトル分析部14から出力する(すなわち、ディップ除去部22に代えて、平滑化処理部24のみを配置する)こともできる。
図3において、雑音推定部28は、ディップが除去されあるいは平滑化された振幅スペクトルに基づき、任意の推定アルゴリズムで、観測信号に含まれる雑音の振幅スペクトル(以下「雑音振幅スペクトル」という。)を推定演算する。なお、ディップ除去部22(あるいは、ディップ除去部22に代えて平滑化処理部24)は、雑音推定部28の前に配置する代わりに、雑音推定部28の後に配置することもできる。
一方、雑音抑圧部12に入力された入力信号(雑音付き音声信号)x(n)は、始めに抑圧用スペクトル分析部30で雑音抑圧用(すなわち、雑音スペクトルが減算される被減算値としての観測信号スペクトルの作成用)の周波数分析が行われる。すなわち、フレーム切出し部32は、新たにM/2サンプル(256サンプル)の入力信号が入力される毎に、最新のM(512)サンプルの入力信号を切り出す。零データ発生部34は、N−M(3584)サンプル分の零データを発生する。加算部36は、フレーム切出し部32で切り出されたMサンプルの入力信号の末尾にN−Mサンプル分の零データを付加して、該切り出された入力信号を、形式的に、雑音推定用フレーム長T2と同じ長さに揃える。高速フーリエ変換部38は、この零データが付加されたデータを高速フーリエ変換して、周波数領域のデータすなわちスペクトルデータ(離散フーリエ変換)Xk)(k=0,1,2,…)に変換し、雑音抑圧用スペクトルとして出力する。
抑圧演算部40は、抑圧用スペクトル分析部30から出力される雑音抑圧用スペクトルX(k)と、雑音スペクトル出力部10から出力される雑音振幅スペクトル|N(k)|に基づき、任意の抑圧アルゴリズムで雑音抑圧処理を行う。抑圧演算部40から出力される雑音が抑圧された音声スペクトルG(k)は、逆高速フーリエ変換部42で逆高速フーリエ変換されて、時間領域の信号に戻される。逆高速フーリエ変換部42から出力される信号は、N(4096)サンプルのデータであるので、出力合成部44で、零データを付加した分の下位N−M(3584)サンプルが除去されて、元のM(512)サンプルのデータに戻され、さらにフレームどうしが連結されて、連続した音声信号g(n)として出力される。
雑音推定部28と抑圧演算部40の具体例を図5に示す。雑音推定部28において、スペクトル包絡線抽出部45は、図3の雑音推定用スペクトル分析部14から出力される雑音推定用振幅スペクトル|X(k)|に含まれる細かな凹凸特性を除去して、該雑音推定用振幅スペクトル|X(k)|の包絡線|X’(k)|を抽出するものである。これは、後述する相関値算出において、雑音推定用振幅スペクトル|X(k)|そのものを用いると、スペクトルの相関値が低くなり、「音声区間」と「雑音区間」の区別が明確でなくなるためである。すなわち、雑音は、長時間観測を繰り返してそのスペクトルを平均してみれば、そのスペクトルは広い帯域にわたってほぼ一様となる滑らかな分布となることが期待できる。しかし、短時間で見れば多くの山谷を有するスペクトルの変動が観察される。一方、音声は、雑音とは異なり、その全体的な周波数特性は特定の周波数帯域に大きな振幅値を持っており、全周波数帯域に一様に分布していない。この具体例では、この「全周波数帯域に一様に分布する雑音」と、「ある特定の周波数帯域に大きな振幅値を持つ音声」を、スペクトルの相関値の大小で区別して雑音スペクトルを推定するので、雑音振幅スペクトルが持っている細かな凹凸特性を除去する。
スペクトル包絡線抽出部45は、例えば、雑音推定用振幅スペクトル|X(k)|を時間波形と見立ててローパスフィルタ処理をすることにより、包絡線を抽出する。ローパスフィルタ処理は、例えば、雑音推定用振幅スペクトル|X(k)|を直接ローパスフィルタにかける、あるいは雑音推定用振幅スペクトル|X(k)|を周波数軸方向に移動平均処理をする等により行うことができる。また、スペクトル包絡線抽出部45により雑音推定用振幅スペクトル|X(k)|の包絡線|X’(k)|を抽出する別の方法として、雑音推定用振幅スペクトル|X(k)|をさらにフーリエ変換してケプストラムによって求める方法もある。
雑音振幅スペクトル初期値出力部46は雑音振幅スペクトルの初期値を出力する。すなわち、本装置の起動当初は、参照する雑音振幅スペクトルデータがないため、初期値を設定する。雑音振幅スペクトル初期値の設定方法としては、例えば、次の方法が考えられる。
(方法1)起動直後に入力された、音声の混入していない背景雑音のみのデータをフーリエ変換し、該フーリエ変換されたデータから求められる振幅スペクトルデータを雑音振幅スペクトル初期値として設定する。
(方法2)予め背景雑音に相当する振幅スペクトルデータをメモリに保持しておき、起動時にそれを読み出して雑音振幅スペクトル初期値として設定する。あるいは、予め背景雑音に相当する振幅スペクトルデータの包絡線データをメモリに保持しておき、起動時にそれを読み出して雑音振幅スペクトル包絡線データの初期値として設定する。
(方法3)ホワイトノイズやピンクノイズの振幅スペクトルデータを雑音振幅スペクトル初期値として設定する。
雑音振幅スペクトル更新部48は、後述する雑音振幅スペクトル算出部50で半フレーム(T1/2)ごとに求められる雑音振幅スペクトル|N(k)|を順次入力し、半フレーム分遅延して、前回(半フレーム前)観測された信号区間の観測信号について推定された雑音振幅スペクトル|N(k)|として順次出力するものである。起動当初は雑音振幅スペクトル|N(k)|は未だ推定されていないので、雑音振幅スペクトル更新部48は雑音振幅スペクトル初期値出力部46で設定された雑音振幅スペクトルの初期値を出力する。スペクトル包絡線抽出部52は、スペクトル包絡線抽出部45と同様の方法により、雑音振幅スペクトル|N(k)|の包絡線|N’(k)|を抽出する。
相関値算出部54は、スペクトル包絡線抽出部45で抽出された現フレームの雑音推定用振幅スペクトル包絡線|X’(k)|と、スペクトル包絡線抽出部52で抽出された雑音振幅スペクトル包絡線|N’(k)|の相関値(相関係数)ρを求める。相関値ρは、
雑音推定用振幅スペクトル包絡線|X’(k)|=x(但し、k=1,2,…,K)
雑音振幅スペクトル包絡線を|N’(k)|=y(但し、k=1,2,…,K)
とすると、(1)式により求められる。
Figure 2006123721
雑音振幅スペクトル算出部50は、求められた相関値ρに応じて、現在観測されている信号区間の音声信号について雑音振幅スペクトル|N(k)|を、(2)式により求める。
|N(k)|=[1−{ρ/(1+ρ)}]・|N(k)|+{ρ/(1+ρ)}・|X(k)| …(2)
但し、|N(k)|:現在観測されているフレームの音声信号について推定される雑音振幅スペクトル
|N(k)|:前回(半フレーム前)観測されたフレームの音声信号について推定された雑音振幅スペクトル
|X(k)|:現在観測されているフレームの雑音推定用振幅スペクトル
ρ:現在観測されているフレームの音声信号のスペクトルの包絡線と前回観測されたフレームの音声信号について推定された雑音のスペクトルの包絡線との相関値
l,m:定数(lは1以上の値、mは0以上の値)
(2)式は、前回{半フレーム(T1/2)前}推定した雑音振幅スペクトル|N(k)|と、今回算出した雑音推定用振幅スペクトル|X(k)|を、求められた相関値ρに応じた比率で加算して、新たな雑音振幅スペクトル|N(k)|を推定するものである。すなわち、相関値ρが低いときは、入力信号に含まれる音声成分が多い(つまり、有音区間)と判断されるので、前回推定した雑音振幅スペクトル|N(k)|の比率を高くし、今回算出した雑音推定用振幅スペクトル|X(k)|を比率を低くして加算する。つまり、雑音振幅スペクトル|N(k)|が音声成分の影響で変化しないようにする。これに対し、相関値ρが高いときは、入力信号に含まれる音声成分が少ない(つまり、無音区間)と判断されるので、前回推定した雑音振幅スペクトル|N(k)|の比率を低くし、今回算出した雑音推定用振幅スペクトル|X(k)|を比率を高くして加算する。つまり、雑音振幅スペクトル|N(k)|が、定常雑音の緩やかな変化に追従して変化するようにする。そして、相関値ρが限りなく1に近いときに、前回推定した雑音振幅スペクトル|N(k)|と、今回算出した雑音推定用振幅スペクトル|X(k)|を同じ比率(0.5:0.5)で加算する。このようにして、主に無音区間で雑音振幅スペクトルが更新される。
(2)式において、lは、低相関値に対する感度を調整するための定数である。l値が大きいほど低相関時の雑音振幅スペクトル推定値の更新量が少なくなる。また、(2)式において、mは、更新量を調整するための定数である。m値が大きいほど更新量が少なくなる。
抑圧演算部40に入力される雑音抑圧用スペクトルX(k)は、振幅スペクトル計算部56と位相スペクトル計算部58に入力される。振幅スペクトル計算部56は、(3)式により雑音抑圧用スペクトルX(k)の振幅スペクトル|X(k)|を求める。
|X(k)|={X(k)+X(k)1/2 …(3)
但し、X(k):X(k)の実数部
(k):X(k)の虚数部
また、位相スペクトル計算部58は、(4)式により雑音抑圧用スペクトルX(k)の位相スペクトルθ(k)を求める。
θ(k)=tan−1{X(k)/X(k)} …(4)
スペクトル減算部60は、(5)式により、振幅スペクトル計算部56で求めた現フレームの雑音抑圧用振幅スペクトル|X(k)|から、雑音推定部28で求めた現フレームの雑音振幅スペクトル|N(k)|を減算することにより、雑音振幅スペクトルを除去した現フレームの音声信号の振幅スペクトル|Y(k)|を求める。
|Y(k)|=|X(k)|−|N(k)| …(5)
なお、|X(k)|−|N(k)|が負の値となる周波数ポイントでは、引き過ぎであるので、減算値|Y(k)|を負の値のままとせずに、零とするのがよい。
再合成部62は、スペクトル減算部60で求めた現フレームの音声信号の振幅スペクトル|Y(k)|と、位相スペクトル計算部58で求めた現フレームの雑音抑圧用スペクトルX(k)の位相スペクトルθ(k)とを再合成して、(6)式に示す複素スペクトルすなわち雑音が抑圧された音声スペクトルG(k)を作成する。
G(k)=|Y(k)|eθ(k) …(6)
作成された音声スペクトルG(k)は、図3の逆高速フーリエ変換部42に供給される。
図6は、雑音抑圧装置に定常雑音を入力したときの出力波形を示す。(a)は原雑音である。(b)、(c)は、従来のスペクトルサブトラクションによる手法すなわち観測信号の切り出しフレーム長を雑音推定用と雑音抑圧用とで共通にしたときの雑音抑圧出力であり、(b)は、両切り出しフレーム長を32msecに設定したときのもの、(c)は、両切り出しフレーム長を256msecに設定したときのものである。(d)、(e)は、この発明による雑音抑圧方法による雑音抑圧出力であり、いずれも切り出しフレーム長を、雑音推定用(T2)を256msec、雑音抑圧用(T1)を32msecに設定したときのものである。(d)はディップ除去部22(図3)によるディップ除去処理を行わなかったときのもの、(c)は同ディップ除去処理を行ったときのものである。図6によれば、(a)の原雑音に対する減音量は、
(b)の従来手法の場合:20dB
(c)の従来手法の場合:19dB
(d)の本発明手法(ディップ除去処理無し)の場合:36dB
(e)の本発明手法(ディップ除去処理有り)の場合:64dB
であった。したがって、この発明によるスペクトルサブトラクション法(d)、(e)は、従来のスペクトルサブトラクション法(b)、(c)に比べて高い雑音抑圧効果が得られることがわかる。また、この発明による雑音抑圧方法では、ディップ除去処理を行った場合(e)の方が、ディップ除去処理を行わなかった場合(d)よりも高い雑音抑圧効果が得られることがわかる。
図7は、この発明の雑音抑圧装置に、雑音付き音声を入力した場合の波形図を示す。ここでは、雑音推定用フレーム長T2を256msecとし、雑音抑圧用フレーム長T1を32msecに設定した。(a)は原雑音付き音声である。(b)は雑音抑圧出力である。(c)は、抑圧音(消された音)である。図7によれば、(a)の雑音付き音声から、(c)の定常雑音が抑圧されて、(b)の音声が得られることがわかる。
前記実施の形態では、振幅スペクトルサブトラクション法を用いて、入力信号の振幅スペクトル|X(k)|の包絡線|X’(k)|に基づき雑音振幅スペクトル|N(k)|を推定し、入力信号の振幅スペクトル|X(k)|から雑音振幅スペクトル|N(k)|を減算して雑音抑圧を行ったが、これに代えて、パワースペクトルサブトラクション法を用いて、入力信号のパワースペクトル|X(k)|の包絡線|X’(k)|に基づき雑音のパワースペクトル|N(k)|を推定し、入力信号のパワースペクトル|X(k)|から雑音のパワースペクトル|N(k)|を減算して雑音抑圧を行うこともできる。
前記実施の形態では、雑音推定処理を所定時間間隔(T1/2時間毎)毎に必ず行うようにしたが、適宜の時間毎に行うようにしてもよい。例えば、無音声区間、微少音声区間等の雑音推定が容易な区間を実時間で検出し、該雑音推定が容易な区間でのみ雑音推定処理を行い、それ以外の区間では雑音推定処理を行わない(一時停止する)ことができる。また、雑音変動が少ない区間や処理負荷を減らしたい区間も雑音推定処理を行わない(一時停止する)ことができる。これらの場合、雑音推定処理を一時停止している区間では、雑音振幅スペクトル更新部48のデータ(雑音振幅スペクトル|N(k)|)の更新は行わず、この雑音振幅スペクトル更新部48に保持されている最新の(一時停止直前の)雑音振幅スペクトル|N(k)|に基づいて雑音抑圧処理を行うことができる。
前記実施の形態では周波数分析手法としてFFTを用いた場合について説明したが、この発明はFFT以外の周波数分析手法を用いることもできる。
前記実施の形態では、雑音抑圧用に観測信号を切り出す時間窓長(雑音抑圧用フレーム長T1すなわちMサンプル分の時間)を、該切り出しを行う時間間隔(M/2サンプル分の時間)よりも長く設定したが、これは出力合成の際にオーバーラップ処理を行うためであり、オーバーラップ処理を行わない場合は、これら両時間間隔を等しく設定することができる。
本発明を詳細にまた特定の実施態様を参照して説明してきたが、本発明の精神、範囲または意図の範囲を逸脱することなく様々な変更や修正を加えることができることは当業者にとって明らかである。
本発明は、2005年5月17日出願の日本特許出願(特願2005−144744)に基づくものであり、その内容はここに参照として取り込まれる。

Claims (13)

  1. 音声に雑音が重畳した観測信号から該雑音が抑圧された音声を得るための雑音抑圧方法は、
    前記観測信号から第1の観測信号を切り出し、
    前記第1の観測信号のスペクトルを分析し、
    前記第1の観測信号のスペクトルから雑音のスペクトルを推定演算し、
    前記観測信号から第2の観測信号を切り出し、
    前記第2の観測信号のスペクトルを分析し、
    前記第2の観測信号のスペクトルから前記雑音のスペクトルを減算し、
    前記音声のスペクトルを時間領域の信号に変換し、
    前記第1の観測信号の信号長は、前記第2の観測信号の信号長よりも長い。
  2. 雑音抑圧方法は、
    音声に雑音が重畳して時間とともに進行する観測信号を、該観測信号が進行する所定の時間間隔毎に、該時間間隔と同じかまたは該時間間隔よりも長い第1の信号長で切り出し、
    前記第1の信号長で切り出された観測信号のスペクトルを第1のスペクトルとして分析し、
    前記観測信号を、前記所定の時間間隔毎または適宜の時間毎に、その先頭を前記第1の信号長で切り出される観測信号の先頭に揃えて、該第1の信号長よりも長い第2の信号長で切り出し、
    前記第2の信号長で切り出された観測信号のスペクトルを第2のスペクトルとして分析し、
    前記第2のスペクトルに基づいて、前記観測信号に含まれる雑音のスペクトルを推定演算し、
    雑音が抑圧された音声のスペクトルを求めるために、前記所定の時間間隔毎に、前記第1のスペクトルから前記雑音のスペクトルを減算し、
    前記所定の時間間隔毎に、前記求められた音声のスペクトルを時間領域の信号に変換し、
    前記変換された時間領域の信号を相互に連結して、雑音が抑圧された一連の音声を得る。
  3. 請求項2記載の雑音抑圧方法であって、前記第2のスペクトルを平滑化処理し、該平滑化処理された第2のスペクトルに基づき前記雑音のスペクトルを推定演算する。
  4. 請求項2記載の雑音抑圧方法であって、前記推定された雑音のスペクトルを平滑化処理した後に前記減算処理を行う。
  5. 請求項2記載の雑音抑圧方法であって、前記推定演算処理は、
    前記第2のスペクトルを平滑化処理し、
    前記平滑化処理された第2のスペクトルと該平滑化処理する前の前記第2のスペクトルとを比較し、
    第2のスペクトルにおけるディップを除去するために、前記比較処理において周波数ポイント毎に大きい方の値を選択し、
    前記ディップが除去された第2のスペクトルに基づき前記雑音のスペクトルを推定演算する。
  6. 請求項2記載の雑音抑圧方法であって、前記減算処理は、
    前記推定された雑音のスペクトルを平滑化処理し、
    前記平滑化処理された雑音のスペクトルと前記平滑化処理する前の雑音のスペクトルとを比較し、
    雑音のスペクトルにおけるディップを除去するために、前記比較処理において周波数ポイント毎に大きい方の値を選択し、
    前記ディップが除去された雑音のスペクトルを用いて前記第1のスペクトルとの減算を行う。
  7. 請求項2に記載の雑音抑圧方法であって、前記第1のスペクトルの分析に使用する前記観測信号の信号長を、前記第2の信号長と同じ長さに揃えるために、前記第1の信号長で切り出された観測信号の末尾に後続して所定長の零信号を付加し、
    前記零信号が付加された観測信号について前記第1のスペクトルの分析を行い、
    前記分析された第1のスペクトルから前記雑音のスペクトルを減算し、
    前記減算処理により得られた音声のスペクトルを前記時間領域の信号へ変換し、
    前記時間領域の信号を前記第1の信号長に戻すために前記時間領域の信号の末尾から、前記零信号を付加した長さ分の信号を削除し、
    前記第1の信号長に戻された時間領域の信号を相互に連結する。
  8. 請求項2に記載の雑音抑圧方法であって、前記所定の時間間隔が、前記第1の信号長の1/2の長さである。
  9. 請求項8記載の雑音抑圧方法であって、前記時間領域の信号が前記所定の時間間隔毎に前記第1の信号長で得られる信号であり、該時間領域の信号に三角窓を掛け、該三角窓が掛けられた時間領域の信号を順次加算して前記信号相互の連結を行う。
  10. 音声に雑音が重畳した観測信号から雑音が抑圧された音声を得るための雑音抑圧装置は、
    第1の信号長を有する前記観測信号のスペクトルを分析する第1のスペクトル分析部と、
    第2の信号長を有する前記観測信号のスペクトルを分析する第2のスペクトル分析部と、
    前記第2のスペクトル分析部で分析された観測信号のスペクトルから雑音のスペクトルを推定演算する雑音スペクトル推定演算部と、
    雑音が抑圧された音声のスペクトルを求めるために、前記第1のスペクトル分析部で分析されたスペクトルから前記雑音のスペクトルを減算する減算部と、
    前記求められた音声のスペクトルを時間領域の信号に変換する時間領域変換部とを具備し、
    前記第2の信号長が、前記第1の信号長よりも長い。
  11. 雑音抑圧装置は、
    音声に雑音が重畳して時間とともに進行する観測信号を、該観測信号が進行する所定の時間間隔毎に、該時間間隔と同じかまたは該時間間隔よりも長い第1の信号長で切り出す第1の信号切り出し部と、
    前記第1の信号切り出し部で切り出された観測信号のスペクトルを第1のスペクトルとして分析する第1のスペクトル分析部と、
    前記観測信号を、前記所定の時間間隔毎または適宜の時間毎に、その先頭を前記第1の信号長で切り出される観測信号の先頭に揃えて、該第1の信号長よりも長い第2の信号長で切り出す第2の信号切り出し部と、
    前記第2の信号切り出し部で切り出された観測信号のスペクトルを第2のスペクトルとして分析する第2のスペクトル分析部と、
    前記第2のスペクトルに基づいて、前記観測信号に含まれる雑音のスペクトルを推定演算する雑音スペクトル推定演算部と、
    雑音が抑圧された音声のスペクトルを求めるために、前記所定の時間間隔毎に、前記第1のスペクトルから前記雑音のスペクトルを減算する減算部と、
    前記所定の時間間隔毎に、前記求められた音声のスペクトルを時間領域の信号に変換する時間領域変換部と、
    前記変換された時間領域の信号を相互に連結して、雑音が抑圧された一連の音声を得る出力合成部と、
    を具備してなる。
  12. 音声に雑音が重畳した観測信号から該雑音が抑圧された音声を得るための雑音抑圧方法は、
    前記観測信号のスペクトルを分析し、
    前記観測信号のスペクトルを平滑化処理し、
    前記平滑化処理された観測信号のスペクトルと、前記平滑化処理する前の観測信号のスペクトルとを比較し、
    前記観測信号のスペクトルにおけるディップを除去するために、前記比較処理において周波数ポイント毎に大きい方の値を選択し、
    前記ディップが除去された観測信号のスペクトルに基づき雑音のスペクトルを推定演算し、
    前記雑音が抑圧された音声のスペクトルを求めるために、前記観測信号のスペクトルから前記雑音のスペクトルを減算し、
    前記音声のスペクトルを時間領域の信号に変換する。
  13. 音声に雑音が重畳した観測信号から該雑音が抑圧された音声を得るための雑音抑圧方法は、
    前記観測信号のスペクトルを分析し、
    前記観測信号のスペクトルから雑音のスペクトルを推定演算し、
    前記推定された雑音のスペクトルを平滑化処理し、
    前記平滑化処理された雑音のスペクトルと前記平滑化処理する前の雑音のスペクトルとを比較し、
    前記雑音のスペクトルにおけるディップを除去するために、前記比較処理において周波数ポイント毎に大きい方の値を選択し、
    前記雑音が抑圧された音声のスペクトルを求めるために、前記観測信号のスペクトルから前記雑音のスペクトルを減算し、
    前記音声のスペクトルを時間領域の信号に変換する。
JP2007516328A 2005-05-17 2006-05-17 雑音抑圧方法およびその装置 Expired - Fee Related JP4958303B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007516328A JP4958303B2 (ja) 2005-05-17 2006-05-17 雑音抑圧方法およびその装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2005144744 2005-05-17
JP2005144744 2005-05-17
JP2007516328A JP4958303B2 (ja) 2005-05-17 2006-05-17 雑音抑圧方法およびその装置
PCT/JP2006/309867 WO2006123721A1 (ja) 2005-05-17 2006-05-17 雑音抑圧方法およびその装置

Publications (2)

Publication Number Publication Date
JPWO2006123721A1 true JPWO2006123721A1 (ja) 2008-12-25
JP4958303B2 JP4958303B2 (ja) 2012-06-20

Family

ID=37431294

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007516328A Expired - Fee Related JP4958303B2 (ja) 2005-05-17 2006-05-17 雑音抑圧方法およびその装置

Country Status (5)

Country Link
US (1) US8160732B2 (ja)
EP (1) EP1914727B1 (ja)
JP (1) JP4958303B2 (ja)
DE (1) DE602006008481D1 (ja)
WO (1) WO2006123721A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4454591B2 (ja) * 2006-02-09 2010-04-21 学校法人早稲田大学 雑音スペクトル推定方法、雑音抑圧方法及び雑音抑圧装置
JP4757158B2 (ja) * 2006-09-20 2011-08-24 富士通株式会社 音信号処理方法、音信号処理装置及びコンピュータプログラム
EP2192579A4 (en) * 2007-09-19 2016-06-08 Nec Corp NOISE SUPPRESSION DEVICE, ITS METHOD AND PROGRAM
US8027743B1 (en) * 2007-10-23 2011-09-27 Adobe Systems Incorporated Adaptive noise reduction
US8392181B2 (en) * 2008-09-10 2013-03-05 Texas Instruments Incorporated Subtraction of a shaped component of a noise reduction spectrum from a combined signal
JP2010078650A (ja) * 2008-09-24 2010-04-08 Toshiba Corp 音声認識装置及びその方法
US9838784B2 (en) 2009-12-02 2017-12-05 Knowles Electronics, Llc Directional audio capture
EP2363852B1 (en) * 2010-03-04 2012-05-16 Deutsche Telekom AG Computer-based method and system of assessing intelligibility of speech represented by a speech signal
CN102792373B (zh) * 2010-03-09 2014-05-07 三菱电机株式会社 噪音抑制装置
US8880396B1 (en) * 2010-04-28 2014-11-04 Audience, Inc. Spectrum reconstruction for automatic speech recognition
JP2012177828A (ja) * 2011-02-28 2012-09-13 Pioneer Electronic Corp ノイズ検出装置、ノイズ低減装置及びノイズ検出方法
CN102737643A (zh) * 2011-04-14 2012-10-17 东南大学 一种基于Gabor时频分析的耳语增强方法
US9536540B2 (en) 2013-07-19 2017-01-03 Knowles Electronics, Llc Speech signal separation and synthesis based on auditory scene analysis and speech modeling
JP6337519B2 (ja) * 2014-03-03 2018-06-06 富士通株式会社 音声処理装置、雑音抑圧方法、およびプログラム
WO2016040885A1 (en) 2014-09-12 2016-03-17 Audience, Inc. Systems and methods for restoration of speech components
US9549621B2 (en) * 2015-06-15 2017-01-24 Roseline Michael Neveling Crib mountable noise suppressor
JP6559576B2 (ja) * 2016-01-05 2019-08-14 株式会社東芝 雑音抑圧装置、雑音抑圧方法及びプログラム
US9820042B1 (en) 2016-05-02 2017-11-14 Knowles Electronics, Llc Stereo separation and directional suppression with omni-directional microphones
US11322127B2 (en) * 2019-07-17 2022-05-03 Silencer Devices, LLC. Noise cancellation with improved frequency resolution
US11489505B2 (en) 2020-08-10 2022-11-01 Cirrus Logic, Inc. Methods and systems for equalization

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3591068B2 (ja) 1995-06-30 2004-11-17 ソニー株式会社 音声信号の雑音低減方法
JPH113094A (ja) 1997-06-12 1999-01-06 Kobe Steel Ltd ノイズ除去装置
CA2291826A1 (en) * 1998-03-30 1999-10-07 Kazutaka Tomita Noise reduction device and a noise reduction method
US7209567B1 (en) * 1998-07-09 2007-04-24 Purdue Research Foundation Communication system with adaptive noise suppression
US6671667B1 (en) 2000-03-28 2003-12-30 Tellabs Operations, Inc. Speech presence measurement detection techniques
JP2002014694A (ja) 2000-06-30 2002-01-18 Toyota Central Res & Dev Lab Inc 音声認識装置
JP3693022B2 (ja) 2002-01-29 2005-09-07 株式会社豊田中央研究所 音声認識方法及び音声認識装置
JP2004109906A (ja) * 2002-09-20 2004-04-08 Advanced Telecommunication Research Institute International テキストクラスタリング方法および音声認識方法
JP4457221B2 (ja) * 2003-08-29 2010-04-28 学校法人早稲田大学 音源分離方法およびそのシステム、並びに音声認識方法およびそのシステム
US7742914B2 (en) * 2005-03-07 2010-06-22 Daniel A. Kosek Audio spectral noise reduction method and apparatus

Also Published As

Publication number Publication date
US20080192956A1 (en) 2008-08-14
DE602006008481D1 (de) 2009-09-24
WO2006123721A1 (ja) 2006-11-23
EP1914727A4 (en) 2008-11-19
JP4958303B2 (ja) 2012-06-20
EP1914727B1 (en) 2009-08-12
US8160732B2 (en) 2012-04-17
EP1914727A1 (en) 2008-04-23

Similar Documents

Publication Publication Date Title
JP4958303B2 (ja) 雑音抑圧方法およびその装置
US7957964B2 (en) Apparatus and methods for noise suppression in sound signals
JP5528538B2 (ja) 雑音抑圧装置
US10510363B2 (en) Pitch detection algorithm based on PWVT
KR101737824B1 (ko) 잡음 환경의 입력신호로부터 잡음을 제거하는 방법 및 그 장치
US20090076813A1 (en) Method for speech recognition using uncertainty information for sub-bands in noise environment and apparatus thereof
JP4454591B2 (ja) 雑音スペクトル推定方法、雑音抑圧方法及び雑音抑圧装置
JP4827661B2 (ja) 信号処理方法及び装置
US7917359B2 (en) Noise suppressor for removing irregular noise
JP4434813B2 (ja) 雑音スペクトル推定方法、雑音抑圧方法および雑音抑圧装置
JP2836271B2 (ja) 雑音除去装置
JPH08160994A (ja) 雑音抑圧装置
JP2004020679A (ja) 雑音抑圧装置および雑音抑圧方法
JP4419249B2 (ja) 音響信号分析方法及び装置並びに音響信号処理方法及び装置
JP3849679B2 (ja) 雑音除去方法、雑音除去装置およびプログラム
JP2020160290A (ja) 信号処理装置、信号処理システム及び信号処理方法
JP2014021307A (ja) 音声信号復元装置および音声信号復元方法
JP3279254B2 (ja) スペクトル雑音除去装置
KR100931487B1 (ko) 노이지 음성 신호의 처리 장치 및 그 장치를 포함하는 음성기반 어플리케이션 장치
Ayat et al. An improved spectral subtraction speech enhancement system by using an adaptive spectral estimator
JP4325044B2 (ja) 音声認識システム
JP2002244695A (ja) 音声スペクトル改善方法、音声スペクトル改善装置、音声スペクトル改善プログラム、プログラムを記憶した記憶媒体
KR20180010115A (ko) 스피치를 향상하는 장치
Gouhar et al. Speech enhancement using new iterative minimum statistics approach
US10109291B2 (en) Noise suppression device, noise suppression method, and computer program product

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120306

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120316

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150330

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees