JP2004334218A - マイクロホンアレイ方法及びシステム、並びにこれを用いた音声認識方法及び装置 - Google Patents

マイクロホンアレイ方法及びシステム、並びにこれを用いた音声認識方法及び装置 Download PDF

Info

Publication number
JP2004334218A
JP2004334218A JP2004137875A JP2004137875A JP2004334218A JP 2004334218 A JP2004334218 A JP 2004334218A JP 2004137875 A JP2004137875 A JP 2004137875A JP 2004137875 A JP2004137875 A JP 2004137875A JP 2004334218 A JP2004334218 A JP 2004334218A
Authority
JP
Japan
Prior art keywords
signal
sound signal
unit
separated
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004137875A
Other languages
English (en)
Other versions
JP4248445B2 (ja
Inventor
Dong-Geon Kong
棟 建 孔
Shokei Sai
昌 圭 崔
Seok-Won Bang
錫 元 方
Bon-Young Lee
本 容 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020040013029A external-priority patent/KR100621076B1/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2004334218A publication Critical patent/JP2004334218A/ja
Application granted granted Critical
Publication of JP4248445B2 publication Critical patent/JP4248445B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/4012D or 3D arrays of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/403Linear arrays of transducers

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Abstract

【課題】 室内環境のように反響が存在する環境で音声認識を高めるためのマイクロホンアレイ方法及びシステムと、これを用いた音声認識方法及び装置を提供する。
【解決手段】 サウンド信号を入力されるためにマイクロホンアレイを用いる入力部101と、入力された信号を周波数成分別に分離する離散フーリエ変換部102と、前記アレイをサブアレイの集合と見なしてサブアレイの広域空間共分散行列を求め、これらの平均を求める平均空間共分散行列推定部104と、推定された共分散行列を通じて信号源の位置を決定する広域MUSIC部105と、推定された共分散行列を用いて信号の歪曲を補正する広域MV部106と、周波数領域の信号を時間領域に復元する逆離散フーリエ変換部107と、を含むように、マイクロホンアレイシステムを構成する。
【選択図】図2





Description

本発明はマイクロホンアレイ方法及びシステムに係り、より詳細にはマイクロホンアレイに入力される信号のうちから目的信号を効率よく受信するためのマイクロホンアレイ方法及びシステムに関する。また、本発明は前記マイクロホンアレイ方法及びシステムで用いられるMUSICアルゴリズム演算量を減らす方法に関する。
また、本発明は前記マイクロホンアレイ方法及びシステムを用いた音声認識方法及び音声認識装置に関する。
マルチメディア技術の発展とさらに便利な生活を追求する人間の欲求によって、TV、DVDをはじめとする家電製品を音声で制御しようとする研究が新たに浮び上がっている。このように便利なHMI(Human-Machine Interface)のためにはユーザの音声を受け入れる音声入力モジュール及びそれを認識する音声認識モジュールが必要である。
実際の環境でHMIのための音声インターフェースを構成する場合、話者の音声だけでなく音楽、TV、背景雑音などの干渉信号も存在する。このような実際の生活環境でHMIのための音声インターフェースを構成しようとすれば、周辺の雑音や干渉に関係なく高品質の音声信号を取得できる音声入力モジュールが必要である。
マイクロホンアレイ方法は、空間的に所望の信号方向に対して多くの利得を与え、そうでない方向に対しては少ない利得を与える空間フィルタリングを通じて高品質の音声信号の取得を可能にする。音声認識では、このようなマイクロホンアレイ方法を用いて高品質の音声信号を取得することによって、音声認識の性能を高めようとする研究が活発に進行しつつある。しかし、アレイ信号処理技術の基本仮定である狭域条件に比べて広い帯域幅を有する音声信号を用いなければならない問題と室内環境での反響などにより発生する問題によって実際の適用には難点が多い。
これを解決するためにGriffthsとJimらがGSC(Generalized Sidelobe Canceller)に基づく適応マイクロホンアレイ法を提案した。適応マイクロホンアレイ法の場合、比較的簡単な構造を持ち、かつ高いSINR(Signal to Interface and Noise Ratio)利得を得られる長所を有している。しかし、入射角推定誤差に対する影響と室内環境での反響により性能低下が発生するために推定誤差と反響とに強靭な適応アルゴリズムの開発を必要としている。
また、Caponらが提案したMVDR(Minimum Variance Distortionless Response)を広域信号を対象として拡張した広域MV方法がある。広域MV方法は、信号の自己相関行列を構成する方法によってMV方法とML(Maximum Likelihood)方法とに区分され、各方法でも自己相関行列を構成する多様な方法が提案されている。このような広域MVに基づいたマイクロホンアレイはAsano、Ward、Friedlanderらにより提案された。
次いで、従来の技術によるマイクロホンアレイ方法について説明する。まず、M個のセンサーを有しているマイクロホンアレイにD個の信号源がθ=[θ1、θ2,...,θd]の方向から入射される場合にθ1が目的信号の方向であり、残りは干渉信号の方向であると仮定する。アレイに受信されたデータを離散フーリエ変換した後、各周波数成分別に集めたベクトルを次の数式(3)のように表現して信号をモデリングする。この際、前記ベクトルを以下では周波数ビンと表する。
Figure 2004334218
また、ak(θd)は、次のように表現しうる。
Figure 2004334218
広域信号の入射角推定には、アレイ入力信号を離散フーリエ変換した後、各周波数成分毎にMUSIC(Multiple Signal Classification)アルゴリズムを適用し、関心のある周波数帯域で平均を取る方法が使われる。k番目の周波数成分に対する類似空間スペクトルは次のように定義される。
Figure 2004334218
この際、各信号源の入射角と一致すれば、指向ベクトルと雑音副空間とは直交するという性質により分母が0になるので、類似空間スペクトルは無限大のピーク値を有し、これに対応する角度が入射方向となる。
この際、平均化された類似空間スペクトルは次のように求められる。
Figure 2004334218
広域MVアルゴリズムは広域信号である音声を離散フーリエ変換した後、各周波数成分毎に狭域MVアルゴリズムを適用する。その加重値ベクトルを求めるための最適化問題は各周波数別に異なる線形制限条件を有するビーム形成方法から誘導される。
Figure 2004334218
ここで、空間共分散行列Rkは次の通りである。
Figure 2004334218
ラグランジュマルチプライヤ(Lagrange Multiplier)を用いて数式(8)を解けば加重値ベクトルは次の通りである。
Figure 2004334218
このような広域MVは数式(9)でRkを推定する方法によって2つに区分される。目的信号と雑音とが同時に存在する区間で加重値を求める方法をMVビーム形成方法と称し、雑音だけが存在する区間で加重値を求める方法をSINRビーム形成方法またはML(Maximum Likelihood)方法と称する。
図1は、従来に提案されたマイクロホンアレイシステムを示す。従来のマイクロホンアレイシステムは前述した入射角推定方法と広域ビーム形成方法とを統合した。図1のマイクロホンアレイシステムは、複数のマイクロホンで構成された入力部1に入力されたサウンド信号を離散フーリエ変換部2で複数の狭域信号に分解した後、雑音と音声区間とを区分する音声信号検出器3を用いて空間共分散行列推定部4でそれぞれの狭域信号に対する空間共分散行列を推定する。推定された空間共分散行列は、広域MUSICモジュール5で固有値分解を通じて雑音副空間に該当する固有ベクトルを求めた後、数式(6)を用いて平均類似空間スペクトルを計算して目的信号の方向情報を得る。それから広域MVモジュール6で数式(9)を用いて各周波数成分に該当する加重値ベクトルを求め、これを各周波数成分に掛け合わせる。逆離散フーリエ変換部7は補正された各周波数成分をサウンド信号に復元する。
このような従来のシステムは干渉信号だけが存在する区間で空間共分散行列を推定する場合には安定した動作を示す。しかし、もし目的信号が存在する区間で空間共分散行列を求めれば、干渉信号だけでなく目的信号まで除去してしまう問題が発生する。このような現象が発生することは目的信号が直接経路だけでなく反響による多重経路を通じて伝送されるからである。すなわち、目的信号の方向以外の方向に伝送された目的信号は何れも干渉信号と見なされて相関度のある目的信号まで除去されてしまう。
前述したように反響による影響をあまり受けずに目的信号を効率よく入力されうる方法やシステムが必要である。
また、広域MUSICモジュール5ではそれぞれの周波数ビンに対してMUSICアルゴリズムの演算が行われるが、前記演算はシステム動作において多くの負荷として作用するところ、MUSICアルゴリズムの演算量を減らす方法が必要となった。
本発明は前記必要性のために案出されたものであって、本発明は反響環境に強靭なマイクロホンアレイ方法及びシステムを提供することをその技術的課題とする。
また、提供されたマイクロホンアレイ方法及びシステムを用いて反響環境に強靭な音声認識方法及び装置を提供することを他の技術的課題とする。
また、周波数ビンの数を減少させることによって音声の方向を認識するために使われるMUSICアルゴリズムの演算量を減らす方法を提供することをさらに他の技術的課題とする。
前記目的を達成するために本発明に係るマイクロホンアレイシステムは、サウンド信号を入力されるために複数のマイクロホンを用いる入力部と、前記入力部に入力された各サウンド信号を狭域の信号に分離する周波数分離部と、前記入力部の複数のマイクロホンを仮想のサブアレイの結合と仮定して各サブアレイ別に空間共分散行列を求め、これらを平均して平均空間共分散行列を算出する空間平滑法を用いて、前記周波数分離部を通じて分離されたサウンド信号の各周波数成分に対する空間共分散行列を求める平均空間共分散行列推定部と、空間平滑法を通じて求められた平均共分散行列を通じて前記サウンド信号の入射角を決定する信号位置決定部と、前記信号源位置決定部を通じて得たサウンド信号の入射角に基づいて前記サウンド信号の各周波数成分に掛け合わせる加重値を求め、これを掛け合わせる信号歪曲補正部、及び補正された各周波数成分を用いてサウンド信号を復元する信号復元部を含む。一方、本発明によるマイクロホンアレイシステムの前記周波数分離部は離散フーリエ変換を用いて周波数を分離し、前記信号復元部は逆離散フーリエ変換を通じてサウンド信号を復元するように具現しうる。
前記他の目的を達成するために本発明による音声認識装置は、前記具現されたマイクロホンアレイシステムと、前記マイクロホンアレイシステムで入力されたサウンド信号の特徴を抽出する特徴抽出部、前記抽出された特徴と比較されるパターンを保存している基準パターン保存部、前記基準パターン保存部のパターンと前記抽出された特徴とを比較する比較部、及び前記比較された結果で音声認識如何を判定する決定部を含む。
このためのマイクロホンアレイ方法は、複数のマイクロホンで構成されたアレイから広域のサウンド信号を入力される段階、入力された信号を複数の狭域に分離する段階、前記アレイを複数のマイクロホンで構成されたサブアレイの集合と仮定してサブアレイ別に前記分離された帯域別に所定の方式で空間共分散行列を求め、これを各帯域別に平均して帯域別に平均空間共分散行列を求める段階、前記平均空間共分散行列で前記サウンド信号の入射角を所定の公式で求める段階、前記求められた入射角に基づいて前記狭域に分離された信号に掛け合わせる加重値を計算し、これを前記狭域に分離された信号に掛け合わせる段階、及び前記加重値を掛け合わせた狭域信号を広域信号に復元する段階を含む。本発明によるマイクロホンアレイ方法は、前記入力された信号を狭域に分離する段階は離散フーリエ変換により、前記加重値を掛け合わせた狭域信号を広域信号に復元する段階は逆離散フーリエ変換により具現しうる。
また、音声認識方法は、前記マイクロホンアレイ方法により入力された信号の特徴を抽出する段階、前記抽出された特徴と基準パターンとを比較する段階、及び前記特徴と基準パターンとを比較した結果で音声認識如何を決定する段階を含む。
本発明によれば、室内環境のように反響が存在する所でも広域の目的信号が除去される現象を減少させることによって、目的信号を最大限生かせる。また、本発明による音声認識装置は、このような目的信号除去現象を減少させるマイクロホンアレイを用いることによって高い音声認識率を達成しうる。また、本発明によって広域MUSICアルゴリズムの演算量を減らすことによってマイクロホンアレイシステムの性能向上を図れる。
以下、添付図面に基づいて本発明に係る望ましい実施形態を詳細に説明する。
図2は、本発明の一実施形態によって具現されたマイクロホンアレイシステムのブロック図である。
マイクロホンアレイシステムは、サブアレイを含むM個のマイクロホンを用いる入力部101からサウンド信号を入力される。この際、M個のマイクロホンアレイはL個のマイクロホンで構成された仮想のサブアレイよりなるものと仮定するが、サブアレイを構成する方法については図4を通じて詳述する。M個のマイクロホンを通じて入力されたM個のサウンド信号は、狭域周波数信号に分離されるように、周波数分離部たる離散フーリエ変換部102に入力される。本発明の望ましい実施形態においては離散フーリエ変換を通じて音声のような広域のサウンド信号をN個の狭域の周波数成分に分離するが、これに限定されるものではない。離散フーリエ変換部102を通じて各サウンド信号はN個の周波数成分に分けられる。平均空間共分散行列推定部104は、M個のサウンド信号を所定の数よりなるサブアレイを基準として空間共分散行列を求め、これを平均して各周波数成分に対するN個の平均空間共分散行列を求める。これについては図5を通じて詳述する。推定された空間共分散行列を用いて信号源の位置を決定するための信号源位置検索部たる広域MUSIC部105が、信号源の位置を計算し、この結果に基づいて信号歪曲補正部たる広域MV部106は各周波数成分に掛け合わせる加重値行列を求め、これを通じて雑音と目的信号との反響による歪曲を補正する。補正されたN個の周波数成分は信号復元部たる逆離散フーリエ変換部107によりサウンド信号に復元される。
図3は、本発明の一実施形態によって具現されたマイクロホンアレイシステム(信号歪曲補正モジュール)と音声認識モジュールとを含む音声認識装置を示す。
音声認識モジュールについて説明すれば次の通りである。まず、特徴抽出部201は逆離散フーリエ変換部107を通じて受けたデジタルサウンド信号に基づいて信号源の特徴を抽出する。抽出された特徴ベクトルはパターン比較部202に入力され、パターン比較部202はこれと類似したサウンドを探すためのパターンが保存されている基準パターン保存部203に保存されているパターンと特徴ベクトルとを比較する。両者を比較してマッチングされる程度の最も大きいパターン(相関度の最も大きいパターン)の相関度(マッチング点数)を決定部204に送る。決定部204はマッチング点数が一定程度以上であれば該当サウンド情報に該当する情報を決定する。
図4は、空間平滑法(Spatial Smoothing、以下"SS"と称する。)の概念を説明するための図面である。全体アレイが幾つかのサブアレイで構成されたものと仮定して各副配列センサー出力の空間共分散行列に対して平均を取ることによって、新しい空間共分散行列を作る前処理方法である。この時に作られた空間共分散行列は全体アレイにより現れる指向行列と同じ特性を有する新しい指向行列と相関関係が除去された新しい信号源よりなる。M個のセンサーで構成された等間隔アレイマイクロホンの数がL個であるp個のサブアレイを次のように定義する。
Figure 2004334218
i番目サブアレイ入力ベクトルは、
Figure 2004334218
と与えられ、D(i-1)は、
Figure 2004334218
であり、
τ(θd)はd番目信号源のセンサー間遅延時間を意味する。
また、Bは全体等間隔線形アレイのM次元指向ベクトルより減ったL次元サブアレイ指向ベクトルよりなる指向行列であって、次式で表される。
Figure 2004334218
各サブアレイで空間共分散行列を求め、平均化を取れば次の通りである。
Figure 2004334218
この際、p≧Dであれば、
Figure 2004334218
のrankはDとなる。
Figure 2004334218
のrankがDになれば、信号副空間次元がDとなるので残りの固有ベクトルと直交され、結果的に干渉信号の方向に ナル(null)を形成する。もし、K個のコヒーレントな信号を分離するためには、信号源数より1つ以上多いセンサー数より構成されたサブアレイセンサーがK個あるべきなので、少なくとも全体アレイセンサーの数は2K以上にならねばならない。
図5は、本発明により拡張された広域SSを説明するためのブロック図である。本発明では実際環境で発生する反響の問題を解決するために前述したSSを広域信号源に適用可能に拡張した。このために広域に入力される信号を望ましくは離散フーリエ変換によって狭域信号に分離した後、各狭域信号毎にSSを適用した。次のように、p個のサブアレイマイクロホンを定義すれば、k番目の周波数成分での1次元サブアレイマイクロホンの入力信号は次のように定義しうる。
Figure 2004334218
各サブアレイマイクロホンで空間共分散行列を求め、その平均を取れば次のようである。
Figure 2004334218
Figure 2004334218
と、数式(5)、数式(6)、及び数式(9)とを用いて目的信号源の入射角推定とビーム形成とが可能である。本発明は
Figure 2004334218
を目的信号源の入射角推定とビーム形成方法に用いることによって反響環境で現れる性能低下を防止しうる。
図6は、本発明の一実施形態によって反響による歪曲を補正するアレイ方法を示すフローチャートである。
まず、M個のマイクロホンアレイからサウンド信号を入力される(S1)。入力されたM個のサウンド信号に対してNポイント離散フーリエ変換を行う(S2)。離散フーリエ変換を通じて広域のサウンド信号の周波数を狭域のN個の周波数成分に分ける。次いで、狭域の各周波数成分に対して空間共分散行列を求める。空間共分散行列を求める時、M個の信号全部を対象として計算せず、L個のマイクロホンで構成された仮想サブアレイ各々に対してt周波数成分別に空間共分散行列を求め(S3)、各サブアレイから求められた空間共分散行列の平均を周波数成分別に求める(S4)。平均空間共分散行列が求められれば、これに基づいて目的信号源の位置(信号源の入射角度)を検索する(S5)。目的信号源の位置は、望ましくはMUSIC法を用いる。信号源の位置(入射角)を探せば、これに基づいて信号源の各周波数成分に対して信号歪曲を補正するための加重値を計算し、これを掛け合わせる(S6)。信号源に加重値を与える望ましい方法は広域MV法である。加重値が与えられた信号源の各周波数成分を合わせて本来のサウンド信号に復元する(S7)。望ましい復元方法は逆離散フーリエ変換を用いる。
図7は、本発明の一実施形態に係る音声を認識する方法を示すフローチャートである。図6で説明した過程を通じて反響による信号歪曲を補正したサウンド信号、例えば人の音声を入力される(S10)。入力されたサウンド信号に対してその特徴点を抽出して特徴ベクトルを生成する(S11)。生成された特徴ベクトルを保存されている基準パターンと比較する(S12)。比較された両者の相関度が一定の基準を超えればその結果を出力し、そうでなければ新しいサウンド入力を有する(S13)。
図8は、マイクロホンアレイを実験した室内環境を示す。大体仮定で数m2規模の大きさでTVのような家電機器と壁面とが存在し、複数の人が有り得る。このような物体や壁面または人々によってサウンド信号はマイクロホンアレイに直接伝達される以外に、反射されて伝達されることもある。図9は、実際に具現したマイクロホンアレイ構造を示す。本発明のための実験では9個のマイクロホンを用いてアレイシステムを構築した。本発明で提案したサウンド信号に適した空間平滑法はマイクロホン数によって性能が変化する。サブアレイのマイクロホン数が減少すれば、サブアレイの数が増加して目的信号除去現象が減るが、分解能の減少によって干渉信号の除去性能が低下する。適切な数のマイクロホンでサブアレイを構成せねばならない。表1は、9個のマイクロホンアレイシステムでサブアレイのマイクロホン数に係るSINRと音声認識率とを実験した結果である。
Figure 2004334218
表1の結果に基づいてサブアレイの最適のマイクロホン数を6つに決定した。図10(A)は既存の方法による基準信号に対する出力信号を示す波形図であり、図10(B)は本発明による基準信号に対する出力信号を示す波形図である。
各々(a)は基準信号であり、(b)は最初のマイクロホンに入力された信号であり、(c)は最終の出力信号である。図面から確認できるように、本発明を用いて目的信号減衰現象が克服可能なのを確認できる。
従来の技術による音声認識率と本発明による音声認識率とを比較するために多様な雑音環境で実験した平均音声認識率は次の通りである。
Figure 2004334218
従来の技術は音声信号検出器の性能により全体システムの性能が左右される一方、本発明は空間平滑法を適用して目的信号の存在有無に関係なく安定した性能を保証しうる。
一方、本発明の場合、前記図2で示した広域MUSIC部105では全ての周波数ビンに対してMUSICアルゴリズム演算が行われるが、これは前述したように音声信号の方向を認識するシステムにおいては相当なシステム負荷として作用する。すなわち、マイクロホンアレイを構成するマイクロホンの数がM個である場合、狭域MUSICアルゴリズムの大部分の演算量はM*Mとも分散行列から雑音副領域を探すために行う固有値分解で求められるが、この際、演算量はマイク数の3乗に比例し、Nポイント−離散フーリエ変換を行う場合、広域MUSICアルゴリズム演算量はO(M3)*NFFT/2のように示しうる。したがって、全体的なシステム性能の向上のために広域MUSICアルゴリズム演算量を減らす方法が必要となった。
図11は、本発明の実施によってMUSICアルゴリズムの計算量を減らすためのマイクロホンアレイシステムのブロック図を示す例示図である。
一般に、広域MUSIC部105で行われるMUSICアルゴリズムは前述したように全ての周波数ビンに対して演算を行うので、MUSICアルゴリズムを用いる音声認識システムの計算に手間がたくさんかかる問題点がある。したがって、本発明では多数のマイクロホンで構成されるマイクロホンアレイから信号を受信した後、所定の基準によって受信した信号のうち音声信号が存在する可能性が高い周波数ビンを選択し、広域MUSIC部105をして前記選択された周波数ビンに対してのみMUSICアルゴリズム演算を行わせる周波数ビン選択部1110を前記図11で示したように信号歪曲補正モジュールに追加することによって、MUSICアルゴリズムの演算減少によるシステムの性能向上を図れる。また、共分散行列生成部1120は、前記図2で示した広域SS法を用いた空間共分散行列推定部104でもよいし、共分散行列を生成する他の形態の論理ブロックである場合も有り得る。この際、離散フーリエ変換部102では高速フーリエ変換も可能である。
一方、広域MUSIC部105を構成する論理的ブロック図を図12で具体的に例示している。前記図12で示しているように、広域MUSIC部105にある共分散行列選択部1210は前記周波数ビン選択部1110により選択された周波数ビンに該当する共分散行列だけを選択する。したがって、例えば、NFFTポイント−離散フーリエ変換をする場合、NFFT/2個の周波数ビンが形成されうる。この際、共分散行列選択部1210で形成されたNFFT/2個の周波数ビン全部に対してMUSICアルゴリズム演算が行われるものではなく、周波数ビン選択部1110により選択されたL個の周波数ビンに対してのみMUSICアルゴリズム演算が行われるものである。したがって、MUSICアルゴリズム演算量が従来のO(M3)*NFFT/2からO(M3)*Lに減少する。一方、それぞれのMUSICアルゴリズム演算結果は、スペクトル平均過程1230を経た後、ピーク値検出部1240で音声信号の方向値を得る。この際、前記スペクトル平均及びピーク値検出演算は従来のMUSICアルゴリズム方法を用いられる。
図13は、本発明の一実施形態にかかる周波数ビン選択部をさらに具体的に示した論理的ブロック図である。特に、図13では直接周波数ビンの数を選択することでなく、選択されたチャンネル数により間接的に周波数ビンの数が決定される方法を示している。この際、前記‘チャンネル'の意味については後述する図13の動作過程を説明しつつ定義する。
M個のマイクロホンで構成されるマイクロホンアレイから受信した信号を合わせた後(1310)、従来の公示技術を用いた音声信号検出器(Voice Activity Detector、以下‘VAD'と称する)1320から音声信号が検出されれば、前記VAD1320はそれぞれのチャンネル別に音声信号が存在する確率を出力値として提供する。この際、前記’チャンネル'とは、一定数の周波数ビンを束ねた束単位をいう。すなわち、音声が高周波へ行くほどパワーが減少する傾向があるために音声信号の処理をそれぞれの周波数ビンごとに行わず、チャンネル単位で行うことである。したがって、高周波へ行くほど1つのチャンネルを構成する周波数ビンの数は多くなる。
図14では、本発明の実施において前記VAD1320で使われるチャンネルと周波数ビンとの関係を示すが、横軸は周波数ビンを、縦軸はチャンネルを示している。この際、本発明の実施では128ポイント−離散フーリエ変換を行ったので、周波数ビンの数は64個となる。しかし、実際には62個の周波数ビンが使われるが、これは最初の周波数ビンは直流成分の信号であり、2番目の周波数ビンは非常に低い低周波成分であるために、2つの周波数ビンを除いたものである。
前記図14に示したように、高周波成分の信号であるほど幾つかの周波数ビンが1つのチャンネルを形成することが分かる。例えば、6番目のチャンネルには2つの周波数ビンが属しているが、16番目のチャンネルには8つの周波数ビンが属している。
一方、本発明ではチャンネルの数を16個としたので、前記VAD1320は全て16個のチャンネル別に音声が存在する確率を出力する。次いで、チャンネル選択部1330は16個の確率値を整列して確率が高い上位K個のチャンネルだけを選択してチャンネル−ビンコンバータ1340に伝達し、前記チャンネル−ビンコンバータ1340は前記選択されたK個のチャンネルを周波数ビンに転換し、転換された周波数ビンにのみ前記図12で示した広域MUSIC部105にある共分散行列選択部1210で選択される。
例えば、図14に示した5番目のチャンネルと10番目のチャンネルで音声が存在する確率が最も高いと仮定すれば、チャンネル選択部で音声存在の確率の高い上位2つのチャンネルだけを選択させる場合(すなわち、K=2)、全て6個の周波数ビンに対してのみMUSICアルゴリズム演算が行われる。
図15では、1.33dB程度のファン雑音が存在する時、前記図13に示したVAD1320で演算されたそれぞれのチャンネルに対する平均音声存在確率分布を示している。この際、K=6とすれば、チャンネル選択部1330では前記図15に示したように、2ないし6番目のチャンネルと、12、13番目のチャンネルを選択する。
前記図15の右側上段にあるグラフは経時的な信号の大きさを示したものであって、サンプリング周波数を8kHzとして測定した信号を16ビットサンプリング値の大きさに示している。また、前記図15の右側下段にあるグラフはスペクトログラムを示したものであって、前記図14を参照すれば、前記選択された6個のチャンネルに属する周波数ビンに該当する部分はスペクトログラム上で四角形部分に該当し、雑音より音声が多く存在する部分であることが分かる。
図16は、本発明の一実施形態にかかる周波数ビン選択部をさらに具体的に示した論理的ブロック図であって、前記図13で示す論理的ブロック図とは違って直接周波数ビンの数を選択する方法を示している。
前記図14に示したように、それぞれのチャンネルには相異なる数の周波数ビンが属しているために音声が存在する確率の高い上位K個のチャンネルを選択しても、MUSICアルゴリズム演算を行う周波数ビンの数は変わる。したがって、MUSICアルゴリズム演算を行う周波数ビンの数を一定に保つための方法が必要であり、前記図16ではこれを示している。
すなわち、周波数ビン数決定部1610でL個の周波数ビンを選択するように決定されれば、チャンネル選択部1620では音声が存在する確率の高い順に整列されたチャンネルでL番目の周波数ビンが属するK番目のチャンネルを決定する。この際、(K−1)番目のチャンネルまでは第1チャンネル-ビンコンバータ1630でM個の周波数ビンに変換され、広域MUSIC部105にある共分散行列選択部1210で変換されたM個の周波数ビンが選択される。
一方、L番目の周波数ビンが属するK番目のチャンネルでは(L−M)個の周波数ビンが選択されるべきであるが、選択する方法としてK番目のチャンネル内で周波数ビンのパワーの高い順に(L−M)個の周波数ビンを選択する方法が用いられる。すなわち、第2チャンネル−ビンコンバータ1650でK番目のチャンネルを周波数ビンに変換し、残余ビン選択部1650では前記変換された周波数ビンのうちパワーの高い順に(L−M)個の周波数ビンを選択することによって、広域MUSIC部105にある共分散行列選択部1210が変換された(L−M)個の周波数ビンを選択してMUSICアルゴリズム演算を行わせる。この際、パワー測定部1660はVAD1320に入力される信号に対してそれぞれの周波数ビン別にパワーを測定した後、測定結果を残余ビン選択部1650に伝達することによって残余ビン選択部1650が(L−M)個の周波数ビンを選択可能にする。
図17は、本発明の実施による実験環境を示す例示図であって、音声スピーカ1710と雑音スピーカ1720、及び信号処理するロボット1730で構成される。この際、前記音声スピーカ1710と前記雑音スピーカ1720とは、前記ロボット1730を基準に90°方向に位置する。雑音はファン雑音を利用し、信号対雑音比(Signal to Noise Ratio、以下‘SNR'と称する)は12.54dB、5.88dB、1.33dBの3つの場合に分けて実験した。雑音スピーカ1720はロボットから4m、270°に位置させた。また、前記音声スピーカ1710はロボット1730から1m、2m、3m、4m、5m離れた場合について逆時計回り方向に0°、45°、90°、135°、180°に移動しつつ測定した。但し、実験環境の制約によって5mの場合、45°と135°回転した場合にのみ測定した。
一方、マイクロホンアレイ構造は、図18に示しているが、マイクロホンはすべて8個を利用し、前記8個のマイクロホンは前記ロボット1730の背面に付着させた。
また、本実験では音声の存在確率の高い上位6つのチャンネルを選択するものとしてMUSICアルゴリズム演算を行わせたが、前記図15に示したように、2ないし6番目のチャンネルと、12、13番目のチャンネルとが選択されることによって全て62個の周波数ビンのうち前記選択されたチャンネルに対する21個の周波数ビンに対してMUSICアルゴリズム演算が行われた。
前記図17及び前記図18のような実験環境で、本発明の実施による音声方向の認識実験を行った結果は次の通りである。この際、従来の方法とは、あらゆる周波数ビンに対してMUSICアルゴリズム演算を行う方法をいう。また、エラーの限界を外れた場合にはアンダーラインで表示した。
(1) SNR=12.54dBである場合(エラーの限界:±5°)
(A) 従来の方法による実験結果
Figure 2004334218
(B) 本発明の実施による実験結果(計算量70.0%減少)
Figure 2004334218
(2) SNR=5.88dBである場合(エラーの限界:±5°)
(A) 従来の方法による実験結果
Figure 2004334218
(B) 本発明の実施による実験結果(計算量63.5%減少)
Figure 2004334218
(3) SNR=1.33dBである場合(エラーの限界:±5°)
(A) 従来の方法による実験結果
Figure 2004334218
(B) 本発明の実施による実験結果
Figure 2004334218
前記(1)ないし(3)の結果を分析してみれば、全体計算量は平均約66%減少されたと現れるが、これは周波数ビンの数が減少した比率とほぼ同一であると見られる。但し、計算量が減少しただけ音声スピーカ1710の方向を示す成功率が多少落ちることがあるが、これを表9で示している。しかし、表9を見れば計算量減少に係る成功率の減少は僅かであることが分かる。
Figure 2004334218
図19(A)ないし図19(B)は本発明の実施によって雑音方向のスペクトルが改善されたことを示す例示図である。この際、前記図19(A)は、従来の方法によってあらゆる周波数ビンに対してMUSICアルゴリズム演算を行った結果を示すスペクトルであり、前記図19(B)は本発明の実施によって選択された周波数ビンに対してMUSICアルゴリズム演算を行った結果を示すスペクトルである。前記図19(A)に示したようにあらゆる周波数ビンを用いる場合には雑音方向にもスペクトルが大きく現れるが、前記図19(B)に示したように本発明の実施によって音声存在確率値に基づいて周波数ビンを選択すれば、雑音方向のスペクトルを多く減らせる。すなわち、チャンネル数を音声存在確率値に基づいて選択することによってMUSICアルゴリズムの演算量を減らす効果以外にもスペクトル改善効果も得られる。
当業者ならば本発明がその技術的思想や必須特徴を変更せずとも他の具体的な形に実施されうるということが理解できるであろう。したがって、前述した実施形態はあらゆる面で例示的なものであり、限定的なものと理解してはならない。本発明の範囲は前述した詳細な説明よりは特許請求の範囲によって現れ、特許請求の範囲の意味及び範囲、そしてその等価概念から導かれるあらゆる変更または変形された形が本発明の範囲に含まれると解釈せねばならない。
本発明によるマイクロホンアレイ方法及びシステム、並びにそれを用いた音声認識方法及び音声認識装置は、HMIを具現するための全ての製品に適用されうる。
従来のマイクロホンアレイシステムブロック図である。 本発明の一実施形態によって具現されたマイクロホンアレイシステムのブロック図である。 本発明の一実施形態によって具現されたマイクロホンアレイシステムを用いた音声認識装置のブロック図である。 狭域信号に対する空間平滑法の概念を説明するための図面である。 本発明によって広域の信号源にまで拡張された広域SSの概念を説明するための図面である。 本発明の一実施形態に係る反響による歪曲を補正する方法を示すフローチャートである。 本発明の一実施形態に係る音声を認識する方法を示すフローチャートである。 マイクロホンアレイを実験した室内環境を示す例示図である。 実際に具現したマイクロホンアレイを示す例示図である。 (A)は従来の方法による基準信号に対する出力信号を示す波形図であり、(B)は本発明による基準信号に対する出力信号を示す波形図である。 本発明の実施によってMUSICアルゴリズムの計算量を減らすためのマイクロホンアレイシステムのブロック図を示す例示図である。 本発明の実施による広域MUSIC部の論理的ブロック図を示す例示図である。 本発明の一実施形態にかかる周波数ビン選択部をさらに具体的に示した論理的ブロック図である。 本発明の実施によるチャンネルと周波数ビンとの関係を示す例示図である。 本発明の実施によるチャンネル別平均音声存在確率分布を示す例示図である。 本発明の一実施形態にかかる周波数ビン選択部をさらに具体的に示した論理的ブロック図である。 本発明の実施による実験環境を示す例示図である。 本発明の実施によるマイクロホンアレイ構造を示す例示図である。 (A)及び(B)は本発明の実施によって雑音方向のスペクトルが改善されたことを示す例示図である。
符号の説明
101 入力部
102 離散フーリエ変換部
104 平均空間共分散行列推定部
105 広域MUSIC部
106 広域MV部
107 逆離散フーリエ変換部


Claims (25)

  1. サウンド信号を入力されるために複数のマイクロホンを用いる入力部と、
    前記入力部に入力された各サウンド信号を狭域の信号に分離する周波数分離部と、
    前記入力部の複数のマイクロホンを仮想のサブアレイの結合と仮定して各サブアレイ別に空間共分散行列を求め、これらを平均して平均空間共分散行列を算出する空間平滑法を用いて、前記周波数分離部を通じて分離されたサウンド信号の各周波数成分に対する空間共分散行列を求める平均空間共分散行列推定部と、
    前記空間平滑法を通じて求められた平均空間共分散行列に基づいて前記サウンド信号の入射角を決定する信号源位置決定部と、
    前記信号源位置決定部を通じて得たサウンド信号の入射角に基づいて前記サウンド信号の各周波数成分に掛け合わせる加重値を求め、これを掛け合わせる信号歪曲補正部と、
    補正された各周波数成分を用いてサウンド信号を復元する信号復元部と、を含むことを特徴とするマイクロホンアレイシステム。
  2. 前記周波数分離部は離散フーリエ変換を用いて周波数を分離し、前記信号復元部は逆離散フーリエ変換を通じてサウンド信号を復元することを特徴とする請求項1に記載のマイクロホンアレイシステム。
  3. 前記空間平滑法は数式(1)によってなされ、この平均空間共分散行列を用いてMUSIC法により信号の入射角θ1を求めた後、この入射角θ1を数式(2)に代入して前記入力されたサウンド信号に掛け合わせる加重値を計算することを特徴とする請求項1に記載のマイクロホンアレイシステム。
    Figure 2004334218
    Figure 2004334218
  4. 前記信号源位置決定部は、前記入力部から受信したサウンド信号を前記周波数分離部により分離されたサウンド信号の各周波数成分に分離し、前記分離された周波数成分のうちから所定の基準によって選択された周波数成分に対してのみMUSICアルゴリズム演算を行うことによって前記サウンド信号の入射角を決定することを特徴とする請求項1に記載のマイクロホンアレイシステム。
  5. 前記信号源位置決定部は、前記入力部から受信したサウンド信号を前記周波数分離部により分離されたサウンド信号の各周波数成分に分離し、前記分離されたサウンド信号を同じ周波数成分ごとに複数のグループに分けて各グループ別に音声の存在する可能性を測定する音声信号検出部と、
    前記グループのうちから前記可能性が高い順に所定数だけのグループを選択するグループ選択部と、
    前記選択されたグループに属する周波数成分に対してMUSICアルゴリズム演算を行う演算部と、を含むことを特徴とする請求項4に記載のマイクロホンアレイシステム。
  6. サウンド信号を入力されるために複数のマイクロホンを用いる入力部、前記入力部に入力された各サウンド信号を狭域の信号に分離する周波数分離部、前記入力部の複数のマイクロホンを仮想のサブアレイの結合と仮定して各サブアレイ別に空間共分散行列を求め、これらを平均して平均空間共分散行列を算出する空間平滑法を用いて、前記周波数分離部を通じて分離されたサウンド信号の各周波数成分に対する空間共分散行列を求める平均空間共分散行列推定部、前記空間平滑法を通じて求められた平均共分散行列に基づいて前記サウンド信号の入射角を決定する信号源位置検索部、前記信号源位置検索部を通じて得たサウンド信号の入射角に基づいて前記サウンド信号の各周波数成分に掛け合わせる加重値を求め、これを掛け合わせる信号歪曲補正部、及び補正された各周波数成分を用いてサウンド信号を復元する信号復元部を含むマイクロホンアレイシステムと、
    前記マイクロホンアレイシステムから入力されたサウンド信号の特徴を抽出する特徴抽出部と、
    前記抽出された特徴と比較されるパターンを保存する基準パターン保存部と、
    前記基準パターン保存部のパターンと前記抽出された特徴とを比較する比較部と、
    前記比較された結果で音声認識の如何を判定する決定部と、を含むことを特徴とする音声認識装置。
  7. 前記空間平滑法は数式(1)によってなされ、この平均空間共分散行列を用いてMUSIC法により信号の入射角θ1を求めた後、この入射角θ1を数式(2)に代入して前記入力されたサウンド信号に掛け合わせる加重値を計算することを特徴とする請求項6に記載の音声認識装置。
    Figure 2004334218
    Figure 2004334218
  8. 前記信号源位置決定部は前記入力部から受信したサウンド信号を前記周波数分離部により分離されたサウンド信号の各周波数成分に分離し、前記分離された周波数成分のうちから所定の基準によって選択された周波数成分に対してのみMUSICアルゴリズム演算を行うことによって前記サウンド信号の入射角を決定することを特徴とする請求項6に記載の音声認識装置。
  9. 前記信号源位置決定部は、
    前記入力部から受信したサウンド信号を前記周波数分離部により分離されたサウンド信号の各周波数成分に分離し、前記分離されたサウンド信号を同じ周波数成分ごとに複数のグループに分けて各グループ別に音声の存在可能性を測定する音声信号検出部と、
    前記グループのうちから前記可能性が高い順に所定数だけのグループを選択するグループ選択部と、
    前記選択されたグループに属する周波数成分に対してMUSICアルゴリズム演算を行う演算部と、を含むことを特徴とする請求項8に記載の音声認識装置。
  10. 複数のマイクロホンで構成されたアレイから広域のサウンド信号を入力される第1段階と、
    入力された信号を複数の狭域に分離する第2段階と、
    前記アレイを複数のマイクロホンで構成されたサブアレイの集合と仮定してサブアレイ別に前記分離された帯域別に所定の方式で空間共分散行列を求め、これを各帯域別に平均して帯域別に平均空間共分散行列を求める第3段階と、
    前記平均空間共分散行列で前記サウンド信号の入射角を所定の公式で求める第4段階と、
    前記求められた入射角に基づいて前記狭域に分離された信号に掛け合わせる加重値を計算し、これを前記狭域に分離された信号に掛け合わせる第5段階と、
    前記加重値を掛け合わせた狭域信号から広域信号に復元する第6段階と、を含むことを特徴とするマイクロホンアレイ方法。
  11. 前記第2段階は離散フーリエ変換により、第6段階は逆離散フーリエ変換によることを特徴とする請求項10に記載のマイクロホンアレイ方法。
  12. 前記第3段階は平均空間共分散行列を数式(1)により求め、前記第4段階は前記平均空間共分散行列を用いてMUSIC法により信号の入射角θ1を求め、前記第5段階は前記第3段階で求められた平均空間共分散行列と前記第4段階で求められたθ1とを数式(2)に代入してk番目の周波数成分に対する加重値を求め、これを各周波数成分に掛け合わせることを特徴とする請求項10に記載のマイクロホンアレイ方法。
    Figure 2004334218
    Figure 2004334218
  13. 前記第4段階は、前記第1段階で受信したサウンド信号を前記第2段階で分離されたサウンド信号の各周波数成分に分離し、前記分離された周波数成分のうちから所定の基準によって選択された周波数成分に対してのみMUSICアルゴリズム演算を行うことによって前記サウンド信号の入射角を決定する段階を含むことを特徴とする請求項10に記載のマイクロホンアレイ方法。
  14. 前記第4段階は前記第1段階で受信したサウンド信号を前記第2段階で分離されたサウンド信号の各周波数成分に分離する段階、前記分離された各周波数成分を複数のグループに分けて各グループ別に音声の存在可能性を測定する段階、前記可能性の高い順に所定数だけのグループを選択する段階、前記選択されたグループに属する周波数成分に対してMUSICアルゴリズム演算を行う段階を含むことを特徴とする請求項13に記載のマイクロホンアレイ方法。
  15. 複数のマイクロホンで構成されたアレイから広域のサウンド信号を入力される第1段階と、
    入力された信号を複数の狭域に分離する第2段階と、
    前記アレイを複数のマイクロホンで構成されたサブアレイの集合と仮定してサブアレイ別に前記分離された帯域別に所定の方式で空間共分散行列を求め、これを各帯域別に平均して帯域別に平均空間共分散行列を求める第3段階と、
    前記平均空間共分散行列で前記サウンド信号の入射角を所定の公式で求める第4段階と、
    前記求められた入射角に基づいて前記狭域に分離された信号に掛け合わせる加重値を計算し、これを前記狭域に分離された信号に掛け合わせる第5段階と、
    前記加重値を掛け合わせた狭域信号から広域信号に復元する第6段階と、
    前記復元された広域信号の特徴を抽出する第7段階と、
    前記抽出された特徴と基準パターンとを比較する第8段階と、
    前記特徴と基準パターンとを比較した結果で音声認識如何を決定する第9段階と、を含むことを特徴とする音声認識方法。
  16. 前記第2段階は離散フーリエ変換により、第6段階は逆離散フーリエ変換によることを特徴とする請求項15に記載の音声認識方法
  17. 前記第3段階は平均空間共分散行列を数式(1)により求め、前記第4段階は前記平均空間共分散行列を用いてMUSIC法により信号の入射角θ1を求め、前記第5段階は前記第3段階で求められた平均空間共分散行列と前記第4段階で求められたθ1とを数式(2)に代入してk番目の周波数成分に対する加重値を求め、これを各周波数成分に掛け合わせることを特徴とする請求項15に記載の音声認識方法。
    Figure 2004334218
    Figure 2004334218
  18. 前記第4段階は、前記第1段階で受信したサウンド信号を前記第2段階で分離されたサウンド信号の各周波数成分に分離し、前記分離された周波数成分のうちから所定の基準によって選択された周波数成分に対してのみMUSICアルゴリズム演算を行うことによって前記サウンド信号の入射角を決定する段階を含むことを特徴とする請求項15に記載の音声認識方法。
  19. 前記第4段階は、前記第1段階で受信したサウンド信号を前記第2段階で分離されたサウンド信号の各周波数成分に分離する段階、前記分離されたサウンド信号を同じ周波数成分ごとに複数のグループに分けて各グループ別に音声の存在する可能性を測定する段階、前記可能性の高い順に所定数だけのグループを選択する段階、前記選択されたグループに属する周波数成分に対してMUSICアルゴリズム演算を行う段階を含む請求項18に記載の音声認識方法。
  20. サウンド信号を入力される複数のマイクロホンを含む信号入力部と、
    前記信号入力部に入力されたサウンド信号を狭域の信号に分離する周波数分離部と、
    前記周波数分離部により分離されたサウンド信号の各周波数成分のうちから所定の基準によって選択された周波数成分に対してMUSICアルゴリズム演算を行う信号処理部と、
    前記信号処理部の処理結果を用いて音声信号の方向を検出する方向検出部と、を含むことを特徴とする音声認識装置。
  21. 前記周波数分離部は離散フーリエ変換を用いて周波数を分離することを特徴とする請求項20に記載の音声認識装置。
  22. 前記信号処理部は、前記信号入力部から受信したサウンド信号を前記周波数分離部により分離されたサウンド信号の各周波数成分に分離し、前記分離された各周波数成分を複数のグループに分けて各グループ別に音声の存在可能性を測定する音声信号検出部と、
    前記グループのうちから前記可能性の高い順に所定数だけのグループを選択するグループ選択部と、
    前記選択されたグループに属する周波数成分に対してMUSICアルゴリズム演算を行う演算部と、を含むことを特徴とする請求項20に記載の音声認識装置。
  23. 複数のマイクロホンからサウンド信号を受信する(a)段階と、
    前記受信したサウンド信号を狭域の信号に分離する(b)段階と、
    前記分離されたサウンド信号の各周波数成分のうちから所定の基準によって選択された周波数成分に対してMUSICアルゴリズム演算を行う(c)段階と、
    前記(c)段階の演算結果を用いて音声信号の方向を検出する(d)段階と、を含むことを特徴とする音声認識装置。
  24. 前記(b)段階は離散フーリエ変換を用いて周波数を分離する段階であることを特徴とする請求項23に記載の音声認識方法。
  25. 前記(c)段階は、前記(a)段階から受信したサウンド信号を前記(b)段階により分離されたサウンド信号の各周波数成分に分離し、前記分離されたサウンド信号を同じ周波数成分ごとに複数のグループに分けて各グループ別に音声の存在する可能性を測定する段階と、
    前記グループのうちから前記可能性の高い順に所定数だけのグループを選択する段階と、
    前記選択されたグループに属する周波数成分に対してMUSICアルゴリズム演算を行う段階と、を含むことを特徴とする請求項23に記載の音声認識方法。

JP2004137875A 2003-05-02 2004-05-06 マイクロホンアレイ方法及びシステム、並びにこれを用いた音声認識方法及び装置 Expired - Fee Related JP4248445B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20030028340 2003-05-02
KR1020040013029A KR100621076B1 (ko) 2003-05-02 2004-02-26 마이크로폰 어레이 방법 및 시스템 및 이를 이용한 음성인식 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2004334218A true JP2004334218A (ja) 2004-11-25
JP4248445B2 JP4248445B2 (ja) 2009-04-02

Family

ID=32993173

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004137875A Expired - Fee Related JP4248445B2 (ja) 2003-05-02 2004-05-06 マイクロホンアレイ方法及びシステム、並びにこれを用いた音声認識方法及び装置

Country Status (3)

Country Link
US (1) US7567678B2 (ja)
EP (1) EP1473964A3 (ja)
JP (1) JP4248445B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005253071A (ja) * 2004-03-02 2005-09-15 Microsoft Corp マイクロフォン・アレイを使用するビーム・フォーミングのシステムおよび方法
WO2006077745A1 (ja) * 2005-01-20 2006-07-27 Nec Corporation 信号除去方法、信号除去システムおよび信号除去プログラム
JP2011518358A (ja) * 2008-04-22 2011-06-23 ボーズ・コーポレーション ヒアリングアシスタンス装置
US9078077B2 (en) 2010-10-21 2015-07-07 Bose Corporation Estimation of synthetic audio prototypes with frequency-based input signal decomposition
JP2017505461A (ja) * 2014-04-30 2017-02-16 ホアウェイ・テクノロジーズ・カンパニー・リミテッド いくつかの入力オーディオ信号の残響を除去するための信号処理の装置、方法、およびコンピュータプログラム
US10665249B2 (en) 2017-06-23 2020-05-26 Casio Computer Co., Ltd. Sound source separation for robot from target voice direction and noise voice direction
CN111983357A (zh) * 2020-08-21 2020-11-24 国网重庆市电力公司电力科学研究院 一种结合声纹检测功能的超声可视化故障检测方法

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100657912B1 (ko) * 2004-11-18 2006-12-14 삼성전자주식회사 잡음 제거 방법 및 장치
JP4873913B2 (ja) * 2004-12-17 2012-02-08 学校法人早稲田大学 音源分離システムおよび音源分離方法、並びに音響信号取得装置
EP1736964A1 (en) * 2005-06-24 2006-12-27 Nederlandse Organisatie voor toegepast-natuurwetenschappelijk Onderzoek TNO System and method for extracting acoustic signals from signals emitted by a plurality of sources
US20080130914A1 (en) * 2006-04-25 2008-06-05 Incel Vision Inc. Noise reduction system and method
US8949120B1 (en) 2006-05-25 2015-02-03 Audience, Inc. Adaptive noise cancelation
JP4867516B2 (ja) * 2006-08-01 2012-02-01 ヤマハ株式会社 音声会議システム
US8073681B2 (en) 2006-10-16 2011-12-06 Voicebox Technologies, Inc. System and method for a cooperative conversational voice user interface
US7818176B2 (en) 2007-02-06 2010-10-19 Voicebox Technologies, Inc. System and method for selecting and presenting advertisements based on natural language processing of voice-based input
US8249867B2 (en) * 2007-12-11 2012-08-21 Electronics And Telecommunications Research Institute Microphone array based speech recognition system and target speech extracting method of the system
TWI474690B (zh) * 2008-02-15 2015-02-21 Koninkl Philips Electronics Nv 偵測無線麥克風訊號的無線電感測器及其方法
US8144896B2 (en) * 2008-02-22 2012-03-27 Microsoft Corporation Speech separation with microphone arrays
US9305548B2 (en) 2008-05-27 2016-04-05 Voicebox Technologies Corporation System and method for an integrated, multi-modal, multi-device natural language voice services environment
US8325909B2 (en) * 2008-06-25 2012-12-04 Microsoft Corporation Acoustic echo suppression
KR101178801B1 (ko) * 2008-12-09 2012-08-31 한국전자통신연구원 음원분리 및 음원식별을 이용한 음성인식 장치 및 방법
JP5277887B2 (ja) * 2008-11-14 2013-08-28 ヤマハ株式会社 信号処理装置およびプログラム
US8326637B2 (en) 2009-02-20 2012-12-04 Voicebox Technologies, Inc. System and method for processing multi-modal device interactions in a natural language voice services environment
FR2948484B1 (fr) * 2009-07-23 2011-07-29 Parrot Procede de filtrage des bruits lateraux non-stationnaires pour un dispositif audio multi-microphone, notamment un dispositif telephonique "mains libres" pour vehicule automobile
CN102111697B (zh) * 2009-12-28 2015-03-25 歌尔声学股份有限公司 一种麦克风阵列降噪控制方法及装置
US8718290B2 (en) 2010-01-26 2014-05-06 Audience, Inc. Adaptive noise reduction using level cues
US20110200205A1 (en) * 2010-02-17 2011-08-18 Panasonic Corporation Sound pickup apparatus, portable communication apparatus, and image pickup apparatus
US8473287B2 (en) 2010-04-19 2013-06-25 Audience, Inc. Method for jointly optimizing noise reduction and voice quality in a mono or multi-microphone system
US9378754B1 (en) * 2010-04-28 2016-06-28 Knowles Electronics, Llc Adaptive spatial classifier for multi-microphone systems
US10726861B2 (en) * 2010-11-15 2020-07-28 Microsoft Technology Licensing, Llc Semi-private communication in open environments
JP5629249B2 (ja) * 2011-08-24 2014-11-19 本田技研工業株式会社 音源定位システム及び音源定位方法
US9373338B1 (en) * 2012-06-25 2016-06-21 Amazon Technologies, Inc. Acoustic echo cancellation processing based on feedback from speech recognizer
US9076450B1 (en) * 2012-09-21 2015-07-07 Amazon Technologies, Inc. Directed audio for speech recognition
CN105230044A (zh) 2013-03-20 2016-01-06 诺基亚技术有限公司 空间音频装置
CN104091598A (zh) * 2013-04-18 2014-10-08 腾讯科技(深圳)有限公司 一种音频文件的相似计算方法及装置
CN104090876B (zh) * 2013-04-18 2016-10-19 腾讯科技(深圳)有限公司 一种音频文件的分类方法及装置
US9812150B2 (en) 2013-08-28 2017-11-07 Accusonus, Inc. Methods and systems for improved signal decomposition
US20150264505A1 (en) 2014-03-13 2015-09-17 Accusonus S.A. Wireless exchange of data between devices in live events
US10468036B2 (en) 2014-04-30 2019-11-05 Accusonus, Inc. Methods and systems for processing and mixing signals using signal decomposition
EP3195145A4 (en) 2014-09-16 2018-01-24 VoiceBox Technologies Corporation Voice commerce
CN110895929B (zh) * 2015-01-30 2022-08-12 展讯通信(上海)有限公司 语音识别方法及装置
CN104599679A (zh) * 2015-01-30 2015-05-06 华为技术有限公司 一种基于语音信号构造聚焦协方差矩阵的方法及装置
WO2016159395A1 (ko) * 2015-03-27 2016-10-06 알피니언메디칼시스템 주식회사 공간 스무딩 연산이 간단한 빔포밍 장치, 초음파 이미징 장치 및 빔포밍 방법
US10013981B2 (en) 2015-06-06 2018-07-03 Apple Inc. Multi-microphone speech recognition systems and related techniques
US9865265B2 (en) 2015-06-06 2018-01-09 Apple Inc. Multi-microphone speech recognition systems and related techniques
US9734845B1 (en) * 2015-06-26 2017-08-15 Amazon Technologies, Inc. Mitigating effects of electronic audio sources in expression detection
CN105204001A (zh) * 2015-10-12 2015-12-30 Tcl集团股份有限公司 一种声源定位的方法及系统
KR102476600B1 (ko) 2015-10-21 2022-12-12 삼성전자주식회사 전자 장치, 그의 음성 인식 방법 및 비일시적 컴퓨터 판독가능 기록매체
US9721582B1 (en) * 2016-02-03 2017-08-01 Google Inc. Globally optimized least-squares post-filtering for speech enhancement
CN106548783B (zh) * 2016-12-09 2020-07-14 西安Tcl软件开发有限公司 语音增强方法、装置及智能音箱、智能电视
EP4184950A1 (en) * 2017-06-09 2023-05-24 Oticon A/s A microphone system and a hearing device comprising a microphone system
CN109887494B (zh) 2017-12-01 2022-08-16 腾讯科技(深圳)有限公司 重构语音信号的方法和装置
US10979805B2 (en) * 2018-01-04 2021-04-13 Stmicroelectronics, Inc. Microphone array auto-directive adaptive wideband beamforming using orientation information from MEMS sensors
US10755728B1 (en) * 2018-02-27 2020-08-25 Amazon Technologies, Inc. Multichannel noise cancellation using frequency domain spectrum masking
CN109712626B (zh) * 2019-03-04 2021-04-30 腾讯科技(深圳)有限公司 一种语音数据处理方法及装置
CN110265020B (zh) * 2019-07-12 2021-07-06 大象声科(深圳)科技有限公司 语音唤醒方法、装置及电子设备、存储介质
CN110412509A (zh) * 2019-08-21 2019-11-05 西北工业大学 一种基于mems麦克风阵列的声源定位系统
CN112820310B (zh) * 2019-11-15 2022-09-23 北京声智科技有限公司 一种来波方向估计方法及装置
CN113138367A (zh) * 2020-01-20 2021-07-20 中国科学院上海微系统与信息技术研究所 一种目标定位方法、装置、电子设备及存储介质
CN113284504A (zh) * 2020-02-20 2021-08-20 北京三星通信技术研究有限公司 姿态检测方法、装置、电子设备及计算机可读存储介质
CN112786069B (zh) * 2020-12-24 2023-03-21 北京有竹居网络技术有限公司 语音提取方法、装置和电子设备
CN113096684A (zh) * 2021-06-07 2021-07-09 成都启英泰伦科技有限公司 一种基于双麦克风阵列的目标语音提取方法
CN113362856A (zh) * 2021-06-21 2021-09-07 国网上海市电力公司 一种应用于电力物联网的声音故障检测方法以及装置
CN115201753B (zh) * 2022-09-19 2022-11-29 泉州市音符算子科技有限公司 一种低功耗多频谱分辨的语音定位方法
CN117636858B (zh) * 2024-01-25 2024-03-29 深圳市一么么科技有限公司 一种智能家具控制器及控制方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4882755A (en) * 1986-08-21 1989-11-21 Oki Electric Industry Co., Ltd. Speech recognition system which avoids ambiguity when matching frequency spectra by employing an additional verbal feature
FR2687496B1 (fr) * 1992-02-18 1994-04-01 Alcatel Radiotelephone Procede de reduction de bruit acoustique dans un signal de parole.
JP3302300B2 (ja) 1997-07-18 2002-07-15 株式会社東芝 信号処理装置および信号処理方法
JP3677143B2 (ja) 1997-07-31 2005-07-27 株式会社東芝 音声処理方法および装置
JPH11164389A (ja) 1997-11-26 1999-06-18 Matsushita Electric Ind Co Ltd 適応ノイズキャンセラ装置
US6049607A (en) * 1998-09-18 2000-04-11 Lamar Signal Processing Interference canceling method and apparatus
US6289309B1 (en) * 1998-12-16 2001-09-11 Sarnoff Corporation Noise spectrum tracking for speech enhancement
JP2000221999A (ja) 1999-01-29 2000-08-11 Toshiba Corp 雑音除去機能付き音声入力装置及び音声入出力装置
US6594367B1 (en) * 1999-10-25 2003-07-15 Andrea Electronics Corporation Super directional beamforming design and implementation
US6952482B2 (en) * 2001-10-02 2005-10-04 Siemens Corporation Research, Inc. Method and apparatus for noise filtering
US7084801B2 (en) * 2002-06-05 2006-08-01 Siemens Corporate Research, Inc. Apparatus and method for estimating the direction of arrival of a source signal using a microphone array
US7146315B2 (en) * 2002-08-30 2006-12-05 Siemens Corporate Research, Inc. Multichannel voice detection in adverse environments

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005253071A (ja) * 2004-03-02 2005-09-15 Microsoft Corp マイクロフォン・アレイを使用するビーム・フォーミングのシステムおよび方法
JP4690072B2 (ja) * 2004-03-02 2011-06-01 マイクロソフト コーポレーション マイクロフォン・アレイを使用するビーム・フォーミングのシステムおよび方法
WO2006077745A1 (ja) * 2005-01-20 2006-07-27 Nec Corporation 信号除去方法、信号除去システムおよび信号除去プログラム
US7925504B2 (en) 2005-01-20 2011-04-12 Nec Corporation System, method, device, and program for removing one or more signals incoming from one or more directions
JP2011518358A (ja) * 2008-04-22 2011-06-23 ボーズ・コーポレーション ヒアリングアシスタンス装置
US8611554B2 (en) 2008-04-22 2013-12-17 Bose Corporation Hearing assistance apparatus
US9078077B2 (en) 2010-10-21 2015-07-07 Bose Corporation Estimation of synthetic audio prototypes with frequency-based input signal decomposition
JP2017505461A (ja) * 2014-04-30 2017-02-16 ホアウェイ・テクノロジーズ・カンパニー・リミテッド いくつかの入力オーディオ信号の残響を除去するための信号処理の装置、方法、およびコンピュータプログラム
US9830926B2 (en) 2014-04-30 2017-11-28 Huawei Technologies Co., Ltd. Signal processing apparatus, method and computer program for dereverberating a number of input audio signals
US10665249B2 (en) 2017-06-23 2020-05-26 Casio Computer Co., Ltd. Sound source separation for robot from target voice direction and noise voice direction
CN111983357A (zh) * 2020-08-21 2020-11-24 国网重庆市电力公司电力科学研究院 一种结合声纹检测功能的超声可视化故障检测方法

Also Published As

Publication number Publication date
US20040220800A1 (en) 2004-11-04
US7567678B2 (en) 2009-07-28
EP1473964A2 (en) 2004-11-03
EP1473964A3 (en) 2006-08-09
JP4248445B2 (ja) 2009-04-02

Similar Documents

Publication Publication Date Title
JP4248445B2 (ja) マイクロホンアレイ方法及びシステム、並びにこれを用いた音声認識方法及び装置
US7496482B2 (en) Signal separation method, signal separation device and recording medium
US10127922B2 (en) Sound source identification apparatus and sound source identification method
US9042573B2 (en) Processing signals
CN107976651B (zh) 一种基于麦克风阵列的声源定位方法及装置
JP5229053B2 (ja) 信号処理装置、および信号処理方法、並びにプログラム
JP4690072B2 (ja) マイクロフォン・アレイを使用するビーム・フォーミングのシステムおよび方法
US8363850B2 (en) Audio signal processing method and apparatus for the same
US7647209B2 (en) Signal separating apparatus, signal separating method, signal separating program and recording medium
EP3566461B1 (en) Method and apparatus for audio capture using beamforming
EP2530484B1 (en) Sound source localization apparatus and method
JP6240995B2 (ja) 移動体、音響源マップ作成システムおよび音響源マップ作成方法
US20080130914A1 (en) Noise reduction system and method
JP4910568B2 (ja) 紙擦れ音除去装置
JP2009288215A (ja) 音響処理装置及びその方法
Grondin et al. Time difference of arrival estimation based on binary frequency mask for sound source localization on mobile robots
CN111445920A (zh) 一种多声源的语音信号实时分离方法、装置和拾音器
KR100621076B1 (ko) 마이크로폰 어레이 방법 및 시스템 및 이를 이용한 음성인식 방법 및 장치
US10063966B2 (en) Speech-processing apparatus and speech-processing method
JP2017151216A (ja) 音源方向推定装置、音源方向推定方法、およびプログラム
Bai et al. Acoustic source localization and deconvolution-based separation
Sun et al. Indoor multiple sound source localization using a novel data selection scheme
JP2024082932A (ja) 音響処理装置、音響処理方法およびプログラム
JP2018142822A (ja) 音響信号処理装置、方法及びプログラム
Yamamoto et al. Localization of multiple environmental sound sources by music method with weighted histogram

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20061026

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20061027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081216

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120123

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees