JP2010124370A - 信号処理装置、信号処理方法、および信号処理プログラム - Google Patents

信号処理装置、信号処理方法、および信号処理プログラム Download PDF

Info

Publication number
JP2010124370A
JP2010124370A JP2008297815A JP2008297815A JP2010124370A JP 2010124370 A JP2010124370 A JP 2010124370A JP 2008297815 A JP2008297815 A JP 2008297815A JP 2008297815 A JP2008297815 A JP 2008297815A JP 2010124370 A JP2010124370 A JP 2010124370A
Authority
JP
Japan
Prior art keywords
signal
spectrum
sound
phase difference
signal processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008297815A
Other languages
English (en)
Inventor
Naoji Matsuo
直司 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2008297815A priority Critical patent/JP2010124370A/ja
Priority to DE102009052539.4A priority patent/DE102009052539B4/de
Priority to US12/621,706 priority patent/US8565445B2/en
Publication of JP2010124370A publication Critical patent/JP2010124370A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02165Two microphones, one receiving mainly the noise signal and the other one mainly the speech signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/4012D or 3D arrays of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Abstract

【課題】音信号を周波数領域で処理して雑音が相対的に低減された音信号を生成する。
【解決手段】信号処理装置10は、少なくとも2つの音入力部MIC1,MIC2から入力された時間軸上の音信号のうちの2つの音信号を用いて、それぞれ、周波数軸上のスペクトル信号に変換する直交変換部212,214と、変換された周波数軸上の2つのスペクトル信号間の位相差を求める位相差計算部222と、位相差が所定の範囲にある場合に、周波数毎に第1のスペクトル信号の各成分を移相して、移相したスペクトル信号を生成し、第2のスペクトル信号と移相したスペクトル信号とを合成して、濾波済みスペクトル信号を生成するフィルタ部300と、を具える。
【選択図】図3A

Description

本発明は、音信号の処理に関し、特に、周波数領域における音信号の処理に関する。
マイクロホン・アレイは、複数のマイクロホンからなるアレイを用い、受音して変換された音信号の処理によって音信号に指向性を与えることができる。
マイクロホン・アレイ装置においてS/N(信号対ノイズ)比を向上させるために、複数のマイクロホンからの音信号を処理することによって、目的音の受音方向と異なる方向または抑制方向から到来する音波中の不要な雑音を抑圧することができる。
既知の或る雑音成分抑圧装置には、複数位置で検出し得た受音位置別入力信号毎に周波数分析しチャネル別の周波数成分を得る或る手段、各チャネルの周波数成分につき所望方向外を低感度化するフィルタ係数によるフィルタ処理にて話者方向の雑音を抑圧し目的音声成分を得る第1ビームフォーマ処理手段、その或る手段での各チャネルの周波数成分につき所望方向外を低感度化するフィルタ処理で話者音声抑圧し雑音成分を得る第2ビームフォーマ処理手段、第1ビームフォーマ処理手段のフィルタ係数から雑音方向を推定し第2ビームフォーマ処理手段のフィルタ係数から目的音声方向を推定する推定手段、第1ビームフォーマ処理手段において入力対象の目的音声の到来方向を推定手段の推定目的音声方向に応じ修正し第2ビームフォーマ処理手段において入力対象の雑音の到来方向を推定手段の推定雑音方向に応じ修正する手段、第1ビームフォーマ処理手段と第2ビームフォーマ処理手段の出力に基づきスペクトルサブトラクション処理する手段、その或る手段の出力から到来音の時間差と振幅差に応じた方向性指標を得る手段、方向性指標とその或る手段の目的音声方向とに基づきスペクトルサブトラクション処理制御する手段を持つものがある。それによって、計算量が少なく、突発雑音除去も可能な雑音抑圧処理が可能になる。
既知の或る指向性集音装置では、複数方向に存在する音源からの音入力を受け付け、周波数軸上の信号に変換する。変換された周波数軸上の信号を抑制する抑制関数を算出し、算出された抑制関数を元の信号の周波数軸上の信号の振幅成分に乗算して、変換された周波数軸上の信号を補正する。変換された各周波数軸上の信号の位相成分を同じ周波数ごとに算出し、位相成分の差分を算出する。算出された差分に基づいて、所定の方向に音源が存在する確率を示す確率値を特定し、特定された確率値に基づいて、所定の方向の音源以外の音源からの音入力を抑制する抑制関数を算出する。それによって、複数の方向に存在する音源からの信号、雑音等を含む音声信号が入力された場合、多数のマイクロホンを設置する必要がなく、簡易な構成により所定の方向の音源が発する音声信号を強調して周囲の雑音を抑制することができる。
特開2001−100800号公報 特開2007−318528号公報 “小特集−マイクロホンアレー−”日本音響学会誌51巻5号、1995、pp.384−414
複数の音入力部を有する音声処理装置では、目的音の受音方向とは逆の方向に抑圧方向ができるように、各音信号を時間領域で処理して、各音信号のサンプル遅延および減算を行う。この処理では、その抑圧方向からの雑音は充分に抑圧することができる。しかし、例えば車内の走行雑音および雑踏の雑音などの背景雑音の到来方向が複数ある場合には抑圧方向からの背景雑音の到来方向も複数あるので、充分にその雑音を抑圧することができない。一方、音入力部の数を増やすと、雑音抑圧の能力が高くなるが、コストが上昇し、また音入力部のサイズが大きくなる。
発明者は、複数の音入力部を有する装置において、音入力部の音信号の音源方向に応じて周波数領域で2つの音信号を同期化して減算することによって雑音の抑圧を行えば、より正確に充分に雑音を抑圧することができる、と認識した。
本発明の目的は、音信号を周波数領域で処理して雑音が相対的に低減された音信号を生成することである。
本発明の特徴によれば、少なくとも2つの音入力部を有する信号処理装置は、少なくとも2つの音入力部から入力された時間軸上の音信号のうちの2つの音信号を用いて、それぞれ、周波数軸上のスペクトル信号に変換する直交変換部と、その変換された周波数軸上の2つのスペクトル信号間の位相差を求める位相差計算部と、その位相差が所定の範囲にある場合に、周波数毎に前記2つのスペクトル信号のうちの第1のスペクトル信号の各成分を移相して、移相されたスペクトル信号を生成し、その移相されたスペクトル信号とその2つのスペクトル信号のうちの第2のスペクトル信号とを合成して、濾波済みのスペクトル信号を生成するフィルタ部と、を具える。
また、本発明は、上述の信号処理装置を実現するための方法およびプログラムに関する。
本発明によれば、雑音が相対的に低減された音信号を生成することができる。
本発明の実施形態を、図面を参照して説明する。図面において、同様の構成要素には同じ参照番号が付されている。
図1は、本発明の実施形態において用いられる、それぞれ音入力部としての少なくとも2つのマイクロホンMIC1、MIC2、...のアレイの配置を示している。
一般的には、複数のマイクロホンMIC1、MIC2、...のアレイが、直線上に互いに既知の距離dだけ離して配置される。ここでは、典型例として、隣接する少なくとも2つのマイクロホンMIC1およびMIC2が直線上に互いに距離dだけ離して配置されているものとする。複数のマイクロホンの隣接間の距離は、等しい必要はなく、以下で説明するようにサンプリング定理を満たせば、既知の異なる距離であってもよい。
実施形態では、複数のマイクロホンの内のマイクロホンMIC1およびMIC2の2つのマイクロホンを用いた例について説明する。
図1において、目的音源SSは直線上のマイクロホンMIC1の左側にあり、目的音源SSの方向をマイクロホン・アレイMIC1、MIC2の受音方向または目的方向とする。典型的には、受音目的の音源SSは話者の口であり、受音方向は話者の口の方向である。受音角度方向付近の所定の角度範囲を受音角度範囲としてもよい。また、典型的には、受音方向とは逆の方向(+π)を雑音の主要抑圧方向とし、主要抑圧角度方向付近の所定の角度範囲を雑音の抑圧角度範囲としてもよい。雑音の抑圧角度範囲は周波数f毎に決定してもよい。
マイクロホンMIC1とMIC2の間の距離dは、サンプリング定理またはナイキスト定理を満たすように、距離d<音速c/サンプリング周波数fsの条件を満たすように設定されることが好ましい。図1において、マイクロホン・アレイMIC1、MIC2の指向特性または指向性パターン(例えば、カーディオイド形)が閉じた破線の曲線で示されている。マイクロホン・アレイMIC1、MIC2によって受音され処理される入力信号は、マイクロホン・アレイMIC1、MIC2が配置された直線に対する音波の入射角度θ(=−π/2〜+π/2)に依存し、その直線に垂直な平面上の半径方向の入射方向(0〜2π)には依存しない。
目的音源SSの音声は、右側のマイクロホンMIC2において、その左側のマイクロホンMIC1よりも遅延時間τ=d/cだけ遅延して検出される。一方、主要抑圧方向の雑音1は、左側のマイクロホンMIC1において、その右側のマイクロホンMIC2よりも遅延時間τ=d/cだけ遅延して検出される。その主要抑圧方向の抑圧範囲内のずれた抑圧方向の雑音2は、左側のマイクロホンMIC1において、その右側のマイクロホンMIC2よりも遅延時間τ=d・sinθ/cだけ遅延して検出される。角度θは、想定される抑圧方向の雑音2の到来方向である。図1において、一点鎖線は雑音2の波面を示している。θ=+π/2の場合の雑音1の到来方向が入力信号の抑圧方向である。
主要抑圧方向の雑音1(θ=+π/2)は、左側のマイクロホンMIC1の入力信号IN1(t)から、τ=d/cだけ遅延した右側の隣接のマイクロホンMIC2の入力信号IN2(t)を減算することによって、抑圧することができる。しかし、主要抑圧方向からずれた角度方向(0<θ<+π/2)から到来する雑音2を抑圧することはできない。
発明者は、マイクロホンMIC1、MIC2の入力信号のスペクトルの一方を周波数毎にその2つの入力信号の位相差に応じてその他方のスペクトルに位相同期化し、一方と他方のスペクトルの差をとることによって、抑圧範囲の方向の雑音を充分に抑圧することができる、と認識した。
図2は、本発明の実施形態による、図1の実際のマイクロホンMIC1、MIC2を含むマイクロホン・アレイ装置100の概略的構成を示している。マイクロホン・アレイ装置100は、マイクロホンMIC1、MIC2、増幅器122、124、低域通過フィルタ(LPF)142、144、ディジタル信号プロセッサ(DSP)200、および、例えばRAM等を含むメモリ202を具えている。マイクロホン・アレイ装置100は、例えば音声認識機能を有する車載装置またはカー・ナビゲーション装置、ハンズフリー電話機、または携帯電話機のような情報機器であってもよい。
任意追加構成として、マイクロホン・アレイ装置100は、話者方向検出用センサ192および方向決定部194に結合されていても、またはそれらの構成要素を含んでいてもよい。プロセッサ10およびメモリ12は、利用アプリケーション400を含む1つの装置に含まれていても、または別の情報処理装置に含まれていてもよい。
話者方向検出用センサ192は、例えば、ディジタル・カメラ、超音波センサまたは赤外線センサであってもよい。方向決定部194の代替構成として、メモリ12に格納された方向決定用のプログラムに従って動作するプロセッサ10上で実装されてもよい。
マイクロホンMIC1、MIC2によって音から変換されたアナログ入力信号は、増幅器(Amplifier)122、124にそれぞれ供給されて、増幅器122、124によって増幅される。増幅器122、124の出力は、例えば遮断周波数fc(例えば、3.9kHz)の低域通過フィルタ(Low Pass Filter)142、144の入力にそれぞれ結合されて、低域通過濾波される。ここでは、低域通過フィルタのみ用いているが、帯域通過フィルタを用いまたは高域通過フィルタを併用してもよい。
低域通過フィルタ142、144の出力は、サンプリング周波数fs(例えば、8kHz)(fs>2fc)のアナログ−ディジタル変換器162、164の入力にそれぞれ結合されて、ディジタル入力信号に変換される。アナログ−ディジタル変換器162、164からの時間領域のディジタル入力信号IN1(t)、IN2(t)は、ディジタル信号プロセッサ(DSP)200の入力にそれぞれ結合される。
ディジタル信号プロセッサ200は、メモリ202を用いて、時間領域のディジタル信号出力IN1(t)、IN2(t)を周波数領域の信号に変換して処理して、抑圧範囲の方向の雑音を抑圧し、処理済みの時間領域のディジタル出力信号INd(t)を生成する。
前述のように、ディジタル信号プロセッサ200は、方向決定部194またはプロセッサ10に結合されていてもよい。この場合、ディジタル信号プロセッサ200は、方向決定部194またはプロセッサ10からの受音範囲を表す情報に応じて、その反対側の抑圧範囲内の抑圧方向の雑音を抑圧する。
方向決定部194またはプロセッサ10は、ユーザによるキー入力によって入力された設定信号を処理して受音範囲を表す情報を生成してもよい。また、方向決定部194またはプロセッサ10は、センサ192によって捕捉された検出データまたは画像データに基づいて、話者の存在を検出しまたは認識して、話者の存在する方向を決定し、受音範囲を表す情報を生成してもよい。
ディジタル出力信号INd(t)の出力は、例えば、音声認識または携帯電話機の通話に用いられる。ディジタル出力信号INd(t)は、後続の利用アプリケーション400に供給され、そこで、例えば、ディジタル−アナログ変換器404でディジタル−アナログ変換され低域通過フィルタ406で低域通過濾波されてアナログ信号が生成され、またはメモリ414に格納されて音声認識部416で音声認識に使用される。音声認識部416は、ハードウェアとして実装されたプロセッサであっても、またはソフトウェアとして実装された例えばROMおよびRAMを含むメモリ414に格納されたプログラムに従って動作するプロセッサであってもよい。
ディジタル信号プロセッサ200は、ハードウェアとして実装された信号処理回路であっても、またはソフトウェアとして実装された例えばROMおよびRAMを含むメモリ202に格納されたプログラムに従って動作する信号処理回路であってもよい。
図1において、マイクロホン・アレイ装置100は、目的音源方向θ(=−π/2)付近の角度範囲、例えば−π/2≦θ<0を受音範囲とし、主要抑圧方向θ=+π/2付近の角度範囲、例えば+π/6<θ≦+π/2を抑圧範囲とする。また、マイクロホン・アレイ装置100は、受音範囲と抑圧範囲の間の角度範囲、例えば0≦θ≦+π/6を移行(切換)範囲とする。
図3Aおよび3Bは、図1のマイクロホンMIC1、MIC2のアレイの配置を用いた雑音の抑圧によって雑音を相対的に低減することができるマイクロホン・アレイ装置100の概略的構成の例を示している。
ディジタル信号プロセッサ200は、アナログ−ディジタル変換器162、164の出力に入力が結合された高速フーリエ変換器212、214、同期化係数生成部220、およびフィルタ部300を含んでいる。この実施形態では、周波数変換または直交変換に、高速フーリエ変換を用いたが、他の周波数変換可能な関数(例えば、離散コサイン変換またはウェーブレット変換、等)を用いてもよい。
同期化係数生成部220は、各周波数fの複素スペクトル間の位相差を計算する位相差計算部222、および同期化係数計算部224を含んでいる。フィルタ部300は、同期化部332および減算部334を含んでいる。
アナログ−ディジタル変換器162、164からの時間領域のディジタル入力信号IN1(t)、IN2(t)は、高速フーリエ変換器(FFT)212、214の入力にそれぞれ供給される。高速フーリエ変換器212、214は、既知の形態で、ディジタル入力信号IN1(t)、IN2(t)の各信号区間に、オーバラップ窓関数を乗算してその積をフーリエ変換または直交変換して、周波数領域の複素スペクトルIN1(f)、IN2(f)を生成する。ここで、IN1(f)=Aj(2πft+φ1(f))、IN2(f)=Aj(2πft+φ2(f))、fは周波数、AおよびAは振幅、jは単位虚数、φ1(f)およびφ2(f)は周波数fの関数である遅延位相である。オーバラップ窓関数として、例えば、ハミング窓関数、ハニング窓関数、 ブラックマン窓関数、3シグマガウス窓関数、または三角窓関数を用いることができる。
位相差計算部222は、距離dだけ離れた隣接の2つのマイクロホンMIC1とMIC2の間での周波数f毎の音源方向を示す位相スペクトル成分の位相差DIFF(f)(ラジアン、rad)を次の式で求める。
DIFF(f)=tan−1(IN2(f)/IN1(f))
=tan−1((Aj(2πft+φ2(f))/Aj(2πft+φ1(f))
=tan−1((A/A)ej(φ2(f)−φ1(f))
ここで、特定の周波数fの雑音の音源は1つの音源しかないものと近似する。また、マイクロホンMIC1とMIC2の入力信号の振幅(A、A)が同じであると近似できる場合には(|IN1(f)|=|IN2(f)|)、値A/Aを1と近似してもよい。
図4は、図1のマイクロホン・アレイMIC1、MIC2、...の配置による、位相差計算部222によって計算された各周波数に対する位相スペクトル成分の位相差DIFF(f)(−π≦DIFF(f)≦π)を示している。
位相差計算部222は、隣接する2つの入力信号IN1(f)、IN2(f)の間の周波数f毎の位相スペクトル成分の位相差DIFF(f)の値を同期化係数計算部224に供給する。
同期化係数計算部224は、特定の周波数fについて、マイクロホンMIC1の位置における入力信号中の抑圧範囲θ(例えば、+π/6<θ≦+π/2)の雑音は、マイクロホンMIC2の入力信号中の同じ雑音が位相差DIFF(f)だけ遅れて到達したものである、と推定する。また、同期化係数計算部224は、マイクロホンMIC1の位置における移行範囲θ(例えば、0≦θ≦+π/6)では、受音範囲における処理法と抑圧範囲における雑音抑圧処理レベルを徐々に変化させまたは切り換える。
同期化係数計算部224は、周波数f毎の位相スペクトル成分の位相差DIFF(f)に基づいて、次の式に従って同期化係数C(f)を計算する。
(a) 同期化係数計算部224は、高速フーリエ変換における時間的分析フレーム(窓)i毎の同期化係数C(f)を順次計算する。iは分析フレームの時間的順序番号(0、1、2、...)を表す。位相差DIFF(f)が抑圧範囲(例えば、+π/6<θ≦+π/2)の値である場合の同期化係数C(f,i)=Cn(f,i):
初期順序番号i=0に対して、
C(f,0)=Cn(f,0)
=IN1(f,0)/IN2(f,0)
順序番号i>0に対して、
C(f,i)=Cn(f,i)
=αC(f,i−1)+(1−α)IN1(f,i)/IN2(f,i)
ここで、IN1(f,i)/IN2(f,i)は、マイクロホンMIC2の入力信号の複素スペクトルに対するマイクロホンMIC1の入力信号の複素スペクトルの比、即ち振幅比と位相差を表している。また、IN1(f,i)/IN2(f,i)は、マイクロホンMIC1の入力信号の複素スペクトルに対するマイクロホンMIC2の入力信号の複素スペクトルの比の逆数を表しているともいえる。αは、同期化のための前の分析フレームの遅延移相量の加算割合または合成割合を示し、0≦α<1の範囲の定数である。1−αは、同期化のための加算される現在の分析フレームの遅延移相量の合成割合を示す。現在の同期化係数C(f,i)は、前の分析フレームの同期化係数と現在の分析フレームのマイクロホンMIC2に対するマイクロホンMIC1の入力信号の複素スペクトルの比を、比率α:(1−α)で加算したものである。
(b) 位相差DIFF(f)が受音範囲(例えば、−π/2≦θ<0)の値である場合の同期化係数C(f)=Cs(f):
C(f)=Cs(f)=exp(−j2πf/fs)または
C(f)=Cs(f)=0 (同期化減算しない場合)
(c) 位相差DIFF(f)が移行範囲内の角度θ(例えば、0≦θ≦+π/6)の値である場合の同期化係数C(f)=Ct(f)は、角度θに応じて上記(a)のCs(f)とCn(f)の加重平均:
C(f)=Ct(f)
=Cs(f)×(θ−θtmin)/(θtmax−θtmin)
+Cn(f)×(θtmax−θ)/(θtmax−θtmin)
ここで、θtmaxは移行範囲と抑圧範囲の間の境界の角度を表し、θtminは移行範囲と受音範囲の間の境界の角度を表す。
このようにして、位相差計算部222は、複素スペクトルIN1(f)およびIN2(f)に応じて同期化係数C(f)を生成して、複素スペクトルIN1(f)およびIN2(f)、および同期化係数C(f)をフィルタ部300に供給する。
フィルタ部300において、同期化部332は、次の式の乗算の計算を行って複素スペクトルIN2(f)を複素スペクトルIN1(f)に同期化して、同期化されたスペクトルINs2(f)を生成する。
INs2(f)=C(f)×IN2(f)
減算部334は、次の式に従って複素スペクトルIN1(f)から、係数β(f)を乗じた複素スペクトルINs2(f)を減算して、雑音が抑圧された複素スペクトルINd(f)を生成する。
INd(f)=IN1(f)−β(f)×INs2(f)
ここで、係数β(f)は0≦β(f)≦1の範囲の予め設定される値である。係数β(f)は、周波数fの関数であり、同期化係数の減算の度合いを調整するための係数である。例えば、受音範囲からの到来音である信号の歪みの発生を抑えつつ、抑圧範囲からの到来音である雑音を大きく抑圧するために、位相差DIFF(f)によって表される音の到来方向が抑圧範囲にある場合の方が受音範囲にある場合よりも大きくなるように係数β(f)を設定してもよい。
ディジタル信号プロセッサ200は、さらに逆高速フーリエ変換器(IFFT)382を含んでいる。逆高速フーリエ変換器382は、同期化係数計算部224からスペクトルINd(f)を受け取って逆フーリエ変換して、オーバラップ加算し、マイクロホンMIC1の位置における時間領域の出力信号INd(t)を生成する。
逆高速フーリエ変換器382の出力は、後段に位置する利用アプリケーション400の入力に結合される。
ディジタル出力信号INd(t)の出力は、例えば、音声認識または携帯電話機の通話に用いられる。ディジタル出力信号INd(t)は、後続の利用アプリケーション400に供給され、そこで、例えば、ディジタル−アナログ変換器404でディジタル−アナログ変換され低域通過フィルタ406で低域通過濾波されてアナログ信号が生成され、またはメモリ414に格納されて音声認識部416で音声認識に使用される。
図3Aおよび3Bの構成要素212、214、220〜224、300〜334および382は、集積回路として実装されたまたはプログラムで実装されたディジタル信号プロセッサ(DSP)200によって実行されるフロー図と見ることもできる。
図5は、メモリ202に格納されたプログラムに従って図3Aのディジタル信号プロセッサ(DSP)200によって実行される複素スペクトルの生成のためのフローチャートを示している。従って、このフローチャートは、図3Aの構成要素212、214、220、300および382によって実現される機能に対応する。
図3Aおよび5を参照すると、ステップ502において、ディジタル信号プロセッサ200(高速フーリエ変換部212、214)は、アナログ−ディジタル変換器162、164から供給された時間領域の2つのディジタル入力信号IN1(t)およびIN2(t)をそれぞれ入力し捕捉する。
ステップ504において、ディジタル信号プロセッサ200(高速フーリエ変換部212、214)は、2つのディジタル入力信号IN1(t)およびIN2(t)の各々にオーバラップ窓関数を乗算する。
ステップ506において、ディジタル信号プロセッサ200(高速フーリエ変換部212、214)は、ディジタル入力信号IN1(t)およびIN2(t)をフーリエ変換して周波数領域の複素スペクトルIN1(f)およびIN2(f)を生成する。
ステップ508において、ディジタル信号プロセッサ200(同期化係数生成部220の位相差計算部222)は、スペクトルIN1(f)とIN2(f)の間の位相差DIFF(f)=tan−1(IN2(f)/IN1(f))を計算する。
ステップ510において、ディジタル信号プロセッサ200(同期化係数生成部220の同期化係数計算部224)は、位相差DIFF(f)に基づいて、マイクロホンMIC2の入力信号に対するマイクロホンMIC1の入力信号の複素スペクトルの比C(f)を前述のように次の式に従って計算する。
(a) 位相差DIFF(f)が抑圧角度範囲の値である場合、同期化係数C(f,i)=Cn(f,i)=αC(f,i−1)+(1−α)IN1(f,i)/IN2(f,i)。
(b) 位相差DIFF(f)が受音角度範囲の値である場合、同期化係数C(f)=Cs(f)=exp(−j2πf/fs)またはC(f)=Cs(f)=0。
(c) 位相差DIFF(f)が移行角度範囲内の値である場合、同期化係数C(f)=Ct(f)、Cs(f)とCn(f)の加重平均。
ステップ514において、ディジタル信号プロセッサ200(フィルタ部300の同期化部332)は、式:INs2(f)=C(f)IN2(f)を計算して複素スペクトルIN2(f)を複素スペクトルIN1(f)に同期化して、同期化されたスペクトルINs2(f)を生成する。
ステップ516において、ディジタル信号プロセッサ200(フィルタ部300の減算部334)は、複素スペクトルIN1(f)から、係数β(f)を乗じた複素スペクトルINs2(f)を減算し(INd(f)=IN1(f)−β(f)×INs2(f))、雑音が抑圧された複素スペクトルINd(f)を生成する。
ステップ518において、ディジタル信号プロセッサ200(逆高速フーリエ変換部382)は、同期化係数計算部224からスペクトルINd(f)を受け取って逆フーリエ変換して、オーバラップ加算し、マイクロホンMIC1の位置における時間領域の出力信号INd(t)を生成する。
その後、手順はステップ502に戻る。ステップ502〜518は、所要の期間の入力を処理するために所要の時間期間だけ繰り返される。
このようにして、上述の実施形態によれば、マイクロホンMIC1、MIC2の入力信号を周波数領域で処理して入力信号中の雑音を相対的に低減することができる。上述のように入力信号を周波数領域で処理するほうが、入力信号を時間領域で処理するよりも、より高い精度で位相差を検出することができ、従って雑音が低減されたより高い品質の音声を生成することができる。上述の2つのマイクロホンからの入力信号の処理は、複数のマイクロホン(図1)の中の任意の2つマイクロホンの組み合わせに適用できる。
上述の実施形態によれば、背景雑音を含む或る録音した音声データを処理した場合、通常の抑圧ゲイン約3dBと比較して、約6dBの抑圧ゲインが得られるであろう。
図6Aおよび6Bは、センサ192のデータまたはキー入力データに基づいて設定された受音範囲、抑圧範囲および移行範囲の設定状態を示している。センサ192は話者の身体の位置を検出する。方向決定部194はその検出位置に応じて話者の身体をカバーするように受音範囲を設定する。方向決定部194は、その受音範囲に応じて移行範囲および抑圧範囲を設定する。その設定情報は、同期化係数生成部220の同期化係数計算部224に供給される。同期化係数計算部224は、前述のように、設定された受音範囲、抑圧範囲および移行範囲に応じて同期化係数を計算する。
図6Aにおいて、話者の顔はセンサ192の左側に位置し、センサ192は、例えば受音範囲における角度位置として角度θ=θ1=−π/4に話者の顔領域Aの中心位置θを検出する。この場合、方向決定部194は、その検出データθ=θ1に基づいて、顔領域A全体を含むように受音範囲の角度範囲を角度πより狭く設定する。方向決定部194は、受音範囲に隣接する各移行範囲のそれぞれの全体の角度範囲を、例えば所定の角度π/4に設定する。方向決定部194は、さらに受音範囲の反対側に位置する抑圧範囲全体の角度を残りの角度に設定する。
図6Bにおいて、話者の顔はセンサ192の下側または正面側に位置し、センサ192は、例えば受音範囲における角度位置として角度θ=θ2=0に話者の顔領域Aの中心位置θを検出する。この場合、方向決定部194は、その検出データθ=θ2に基づいて、顔領域A全体を含むように受音範囲の角度範囲を角度πより狭く設定する。方向決定部194は、受音範囲に隣接する各移行範囲のそれぞれの全体の角度範囲を、例えば所定の角度π/4に設定する。方向決定部194は、さらに受音範囲の反対側に位置する抑圧範囲全体の角度を残りの角度に設定する。顔の位置の代わりに、話者の身体の位置が検出されてもよい。
センサ192がディジタル・カメラの場合、方向決定部194は、そのディジタル・カメラから取り込んだ画像データを画像認識して、顔領域Aとその中心位置θを判定する。方向決定部194は、顔領域Aとその中心位置θに基づいて受音範囲、移行範囲および抑圧範囲を設定する。
このようにして、方向決定部194は、センサ192によって検出された話者の顔または身体の検出位置に従って受音範囲、抑圧範囲および移行範囲を可変設定することができる。代替構成として、方向決定部194は、キー入力に従って受音範囲、抑圧範囲および移行範囲を可変設定してもよい。そのように受音範囲および抑圧範囲を可変設定することによって、受音範囲をできるだけ狭くして、できるだけ広い抑圧範囲における各周波数の不要な雑音を抑圧することができる。
以上説明した実施形態は典型例として挙げたに過ぎず、その各実施形態の構成要素を組み合わせること、その変形およびバリエーションは当業者にとって明らかであり、当業者であれば本発明の原理および請求の範囲に記載した発明の範囲を逸脱することなく上述の実施形態の種々の変形を行えることは明らかである。
図1は、本発明の実施形態において用いられる、それぞれ音入力部としての少なくとも2つのマイクロホンのアレイの配置を示している。 図2は、本発明の実施形態による、図1の実際のマイクロホンを含むマイクロホン・アレイ装置の概略的構成を示している。 図3Aおよび3Bは、図1のマイクロホンのアレイの配置を用いた雑音の抑圧によって雑音を相対的に低減することができるマイクロホン・アレイ装置の概略的構成の例を示している。 (図3Aで説明) 図4は、図1のマイクロホン・アレイの配置による、位相差計算部によって計算された各周波数に対する位相スペクトル成分の位相差を示している。 図5は、メモリに格納されたプログラムに従って図3Aのディジタル信号プロセッサ(DSP)によって実行される複素スペクトルの生成のためのフローチャートを示している。 図6Aおよび6Bは、センサ・データまたはキー入力データに基づいて設定された受音範囲、抑圧範囲および移行範囲の設定状態を示している。
符号の説明
100 マイクロホン・アレイ装置
MIC1、MIC2 マイクロホン
122、124 増幅器
142、144 低域通過フィルタ
162、164 アナログ−ディジタル変換器
212、214 高速フーリエ変換器
200 ディジタル信号プロセッサ
220 同期化係数生成部
222 位相差計算部
224 同期化係数計算部
300 フィルタ部
332 同期化部
334 減算部
382 逆高速フーリエ変換器

Claims (10)

  1. 少なくとも2つの音入力部を有する信号処理装置であって、
    少なくとも2つの音入力部から入力された時間軸上の音信号のうちの2つの音信号を用いて、それぞれ、周波数軸上のスペクトル信号に変換する直交変換部と、
    前記変換された周波数軸上の2つのスペクトル信号間の位相差を求める位相差計算部と、
    前記位相差が所定の範囲にある場合に、周波数毎に前記2つのスペクトル信号のうちの第1のスペクトル信号の各成分を移相して、移相されたスペクトル信号を生成し、前記移相されたスペクトル信号と前記2つのスペクトル信号のうちの第2のスペクトル信号とを合成して、濾波済みのスペクトル信号を生成するフィルタ部と、
    を具える信号処理装置。
  2. 前記位相差は前記2つの音入力部における音の到来方向を表し、
    前記信号処理装置は、さらに、前記位相差に応じて、周波数毎に前記第1のスペクトル信号の各成分の移相量を表す同期化係数を計算する同期化係数計算部を含むものであることを特徴とする、請求項1に記載の信号処理装置。
  3. 前記同期化係数計算部は、前記位相差が目的音の方向または雑音の方向のいずれに対応するかに応じて、前記2つのスペクトル信号の間の位相差を表す前記同期化係数を計算するものであることを特徴とする、請求項2に記載の信号処理装置。
  4. 前記同期化係数計算部は、前記位相差が雑音の方向に対応する場合、周波数毎に時間フレーム毎の前記2つのスペクトル信号の比に基づいて前記同期化係数を計算するものであることを特徴とする、請求項2または3に記載の信号処理装置。
  5. 前記同期化係数計算部は、前記位相差が目的音の方向に対応する場合、前記同期化係数を一定値または周波数に比例する位相差を表す関数とするものであることを特徴とする、請求項2または3に記載の信号処理装置。
  6. 前記フィルタ部は、前記2つのスペクトル信号のうちの前記第2のスペクトル信号から周波数に応じた所定の割合の前記移相されたスペクトル信号を減じて、前記濾波済みのスペクトル信号を生成するものであることを特徴とする、請求項1乃至5のいずれかに記載の信号処理装置。
  7. 前記フィルタ部は、前記位相差が目的音の方向または雑音の方向のいずれに対応するかに応じて、前記所定の割合を計算するものであることを特徴とする、請求項6に記載の信号処理装置。
  8. 前記同期化係数計算部は、話者の方向を表す情報に基づいて、前記位相差に関する前記所定の範囲としての目的音の方向の範囲を設定するものであることを特徴とする、請求項1乃至5のいずれかに記載の信号処理装置。
  9. 少なくとも2つの音入力部を有する信号処理装置における信号処理方法であって、
    少なくとも2つの音入力部から入力された時間軸上の音信号のうちの2つの音信号を、それぞれ、周波数軸上のスペクトル信号に変換する工程と、
    前記変換された周波数軸上の2つのスペクトル信号間の位相差を求める工程と、
    前記位相差が所定の範囲にある場合に、周波数毎に前記2つのスペクトル信号のうちの第1のスペクトル信号の各成分を移相して、移相されたスペクトル信号を生成し、前記移相されたスペクトル信号と前記2つのスペクトル信号のうちの第2のスペクトル信号とを合成して、濾波済みのスペクトル信号を生成する工程と、
    を含む信号処理方法。
  10. 少なくとも2つの音入力部を有する信号処理装置用の信号処理プログラムであって、
    少なくとも2つの音入力部から入力された時間軸上の音信号のうちの2つの音信号を、それぞれ、周波数軸上のスペクトル信号に変換するステップと、
    前記変換された周波数軸上の2つのスペクトル信号間の位相差を求めるステップと、
    前記位相差が所定の範囲にある場合に、周波数毎に前記2つのスペクトル信号のうちの第1のスペクトル信号の各成分を移相して、移相されたスペクトル信号を生成し、前記移相されたスペクトル信号と前記2つのスペクトル信号のうちの第2のスペクトル信号とを合成して、濾波済みのスペクトル信号を生成するステップと、
    を前記信号処理装置に実行させるための信号処理プログラム。
JP2008297815A 2008-11-21 2008-11-21 信号処理装置、信号処理方法、および信号処理プログラム Pending JP2010124370A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008297815A JP2010124370A (ja) 2008-11-21 2008-11-21 信号処理装置、信号処理方法、および信号処理プログラム
DE102009052539.4A DE102009052539B4 (de) 2008-11-21 2009-11-11 Signalverarbeitungseinheit und Signalverarbeitungsverfahren
US12/621,706 US8565445B2 (en) 2008-11-21 2009-11-19 Combining audio signals based on ranges of phase difference

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008297815A JP2010124370A (ja) 2008-11-21 2008-11-21 信号処理装置、信号処理方法、および信号処理プログラム

Publications (1)

Publication Number Publication Date
JP2010124370A true JP2010124370A (ja) 2010-06-03

Family

ID=42196290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008297815A Pending JP2010124370A (ja) 2008-11-21 2008-11-21 信号処理装置、信号処理方法、および信号処理プログラム

Country Status (3)

Country Link
US (1) US8565445B2 (ja)
JP (1) JP2010124370A (ja)
DE (1) DE102009052539B4 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011139378A (ja) * 2009-12-28 2011-07-14 Fujitsu Ltd 信号処理装置、マイクロホン・アレイ装置、信号処理方法、および信号処理プログラム
JP2014123952A (ja) * 2012-12-21 2014-07-03 Intel Corp 統合された音響位相アレイ
US8775173B2 (en) 2011-03-18 2014-07-08 Fujitsu Limited Erroneous detection determination device, erroneous detection determination method, and storage medium storing erroneous detection determination program
US8891780B2 (en) 2010-05-19 2014-11-18 Fujitsu Limited Microphone array device

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5810903B2 (ja) * 2011-12-27 2015-11-11 富士通株式会社 音声処理装置、音声処理方法及び音声処理用コンピュータプログラム
US9769552B2 (en) * 2014-08-19 2017-09-19 Apple Inc. Method and apparatus for estimating talker distance
CN109391926B (zh) * 2018-01-10 2021-11-19 展讯通信(上海)有限公司 无线音频设备的数据处理方法及无线音频设备
US11276388B2 (en) * 2020-03-31 2022-03-15 Nuvoton Technology Corporation Beamforming system based on delay distribution model using high frequency phase difference

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001100800A (ja) * 1999-09-27 2001-04-13 Toshiba Corp 雑音成分抑圧処理装置および雑音成分抑圧処理方法
JP2005229420A (ja) * 2004-02-13 2005-08-25 Toshiba Corp 音声入力装置
JP2007028391A (ja) * 2005-07-20 2007-02-01 Sanyo Electric Co Ltd マイクロホンアレー装置
JP2007248534A (ja) * 2006-03-13 2007-09-27 Nara Institute Of Science & Technology 音声認識装置、周波数スペクトル取得装置および音声認識方法
JP2007318528A (ja) * 2006-05-26 2007-12-06 Fujitsu Ltd 指向性集音装置、指向性集音方法、及びコンピュータプログラム
JP2008145574A (ja) * 2006-12-07 2008-06-26 Nec Access Technica Ltd 音源方向推定装置、音源方向推定方法、及びロボット装置
JP2008185834A (ja) * 2007-01-30 2008-08-14 Fujitsu Ltd 音響判定方法、音響判定装置及びコンピュータプログラム
JP2008227595A (ja) * 2007-03-08 2008-09-25 Sony Corp 信号処理装置、信号処理方法、プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6766029B1 (en) * 1997-07-16 2004-07-20 Phonak Ag Method for electronically selecting the dependency of an output signal from the spatial angle of acoustic signal impingement and hearing aid apparatus
EP0802699A3 (en) * 1997-07-16 1998-02-25 Phonak Ag Method for electronically enlarging the distance between two acoustical/electrical transducers and hearing aid apparatus
US20070047743A1 (en) * 2005-08-26 2007-03-01 Step Communications Corporation, A Nevada Corporation Method and apparatus for improving noise discrimination using enhanced phase difference value

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001100800A (ja) * 1999-09-27 2001-04-13 Toshiba Corp 雑音成分抑圧処理装置および雑音成分抑圧処理方法
JP2005229420A (ja) * 2004-02-13 2005-08-25 Toshiba Corp 音声入力装置
JP2007028391A (ja) * 2005-07-20 2007-02-01 Sanyo Electric Co Ltd マイクロホンアレー装置
JP2007248534A (ja) * 2006-03-13 2007-09-27 Nara Institute Of Science & Technology 音声認識装置、周波数スペクトル取得装置および音声認識方法
JP2007318528A (ja) * 2006-05-26 2007-12-06 Fujitsu Ltd 指向性集音装置、指向性集音方法、及びコンピュータプログラム
JP2008145574A (ja) * 2006-12-07 2008-06-26 Nec Access Technica Ltd 音源方向推定装置、音源方向推定方法、及びロボット装置
JP2008185834A (ja) * 2007-01-30 2008-08-14 Fujitsu Ltd 音響判定方法、音響判定装置及びコンピュータプログラム
JP2008227595A (ja) * 2007-03-08 2008-09-25 Sony Corp 信号処理装置、信号処理方法、プログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011139378A (ja) * 2009-12-28 2011-07-14 Fujitsu Ltd 信号処理装置、マイクロホン・アレイ装置、信号処理方法、および信号処理プログラム
US8891780B2 (en) 2010-05-19 2014-11-18 Fujitsu Limited Microphone array device
US10140969B2 (en) 2010-05-19 2018-11-27 Fujitsu Limited Microphone array device
US8775173B2 (en) 2011-03-18 2014-07-08 Fujitsu Limited Erroneous detection determination device, erroneous detection determination method, and storage medium storing erroneous detection determination program
JP2014123952A (ja) * 2012-12-21 2014-07-03 Intel Corp 統合された音響位相アレイ

Also Published As

Publication number Publication date
US20100128895A1 (en) 2010-05-27
DE102009052539B4 (de) 2014-01-02
DE102009052539A1 (de) 2010-07-01
US8565445B2 (en) 2013-10-22

Similar Documents

Publication Publication Date Title
JP5493850B2 (ja) 信号処理装置、マイクロホン・アレイ装置、信号処理方法、および信号処理プログラム
JP5272920B2 (ja) 信号処理装置、信号処理方法、および信号処理プログラム
JP5338259B2 (ja) 信号処理装置、信号処理方法、および信号処理プログラム
US8654990B2 (en) Multiple microphone based directional sound filter
JP2010124370A (ja) 信号処理装置、信号処理方法、および信号処理プログラム
JP4286637B2 (ja) マイクロホン装置および再生装置
EP3185243B1 (en) Voice processing device, voice processing method, and program
JP5446745B2 (ja) 音信号処理方法および音信号処理装置
JP6107151B2 (ja) 雑音抑圧装置、方法、及びプログラム
US10140969B2 (en) Microphone array device
JP2008054071A (ja) 紙擦れ音除去装置
JP5635024B2 (ja) 音響信号強調装置、遠近判定装置、それらの方法、及びプログラム
US10951978B2 (en) Output control of sounds from sources respectively positioned in priority and nonpriority directions
JP5105336B2 (ja) 音源分離装置、プログラム及び方法
JP6638248B2 (ja) 音声判定装置、方法及びプログラム、並びに、音声信号処理装置
JP3540988B2 (ja) 発音体指向性補正方法およびその装置
JP6263890B2 (ja) 音声信号処理装置及びプログラム
EP3764660B1 (en) Signal processing methods and systems for adaptive beam forming
JP6221463B2 (ja) 音声信号処理装置及びプログラム
JP2012109799A (ja) 雑音抑圧型マイクロホン

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130906

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140218