JP6644197B2 - 雑音除去装置および雑音除去方法 - Google Patents

雑音除去装置および雑音除去方法 Download PDF

Info

Publication number
JP6644197B2
JP6644197B2 JP2019540211A JP2019540211A JP6644197B2 JP 6644197 B2 JP6644197 B2 JP 6644197B2 JP 2019540211 A JP2019540211 A JP 2019540211A JP 2019540211 A JP2019540211 A JP 2019540211A JP 6644197 B2 JP6644197 B2 JP 6644197B2
Authority
JP
Japan
Prior art keywords
sound
steering vector
vector
target sound
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019540211A
Other languages
English (en)
Other versions
JPWO2019049276A1 (ja
Inventor
信秋 田中
信秋 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2019049276A1 publication Critical patent/JPWO2019049276A1/ja
Application granted granted Critical
Publication of JP6644197B2 publication Critical patent/JP6644197B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1781Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions
    • G10K11/17813Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions characterised by the analysis of the acoustic paths, e.g. estimating, calibrating or testing of transfer functions or cross-terms
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/18Methods or devices for transmitting, conducting or directing sound
    • G10K11/26Sound-focusing or directing, e.g. scanning
    • G10K11/34Sound-focusing or directing, e.g. scanning using electrical steering of transducer arrays, e.g. beam steering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2200/00Details of methods or devices for transmitting, conducting or directing sound in general
    • G10K2200/10Beamforming, e.g. time reversal, phase conjugation or similar
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/10Applications
    • G10K2210/128Vehicles
    • G10K2210/1282Automobiles
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02087Noise filtering the noise being separate speech, e.g. cocktail party
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Otolaryngology (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Circuit For Audible Band Transducer (AREA)

Description

この発明は、所望の方向から到来する音声以外の雑音を除去する技術に関するものである。
従来より、複数の音響センサ(例えば、マイクロホン)から構成されるセンサアレイを利用し、各センサから得られる観測信号に対して所定の信号処理を施すことにより、所望の方向から到来する音声を強調し、当該音声以外の雑音を除去する雑音除去技術が存在する。
上述した雑音除去技術により、例えば、空調設備などの機器から発生する騒音により聞き取りにくくなっている音声を明瞭化する、または複数の話者が同時に発話している際に所望の話者の音声のみを抽出することが可能となる。このように、雑音除去技術は、音声を人間にとって聞き取りやすくするだけでなく、音声認識処理の前処理として雑音を除去することにより、音声認識処理の雑音に対する頑健性を向上させることができる。
センサアレイを利用して信号処理によって指向性を形成する技術は、従来から種々開示されている。例えば、非特許文献1には、事前に測定または生成された目的音の到来方向を示すステアリングベクトルを利用し、目的音の到来方向から到来する音声の利得を変化させない条件下で、出力信号の平均利得を最小化する線形フィルタ係数を統計的に算出し、これにより線形ビームフォーミングを行うことにより、目的音以外の雑音を除去する技術が開示されている。
しかし、上述した非特許文献1に開示された技術では、雑音を適切に除去するための線形フィルタ係数を算出するため、妨害音の観測信号がある程度の長さ必要となる。これは、事前に妨害音源の位置に関する情報が与えられないため、観測信号から妨害音源の位置を推定する必要があるためである。これにより、非特許文献1に開示された技術では、雑音除去処理を開始した直後に、十分な雑音除去処理性能が得られないといる問題があった。
この問題を解決するため、特許文献1に記載された音信号処理装置では、目的音の到来方向を示すステアリングベクトルを事前に生成し、時間−周波数ごとに観測信号から計算されるセンサ間の位相差と目的音の到来方向のステアリングベクトルから計算されるセンサ間の位相差の類似度を計算し、類似度が高い時間−周波数スペクトルだけを通過させる時間−周波数マスキングを観測信号に適用することで、雑音を除去している。
特開2012−234150号公報
浅野太、「音のアレイ信号処理 音源の定位・追跡と分離」、株式会社コロナ社、2011年、86−88ページ
上述した特許文献1に記載された音信号処理装置は、統計的な計算を用いることなく、出力信号がその瞬間における観測信号のみによって決定されるため、雑音除去処理を開始した直後から安定した雑音除去性能が得られる。
しかし、特許文献1に記載された音信号処理装置は、目的音を抽出するために音源の到来方向に関する情報として目的音の到来方向のみを用いているため、妨害音源が目的音源に対してどのような位置に存在するかが考慮されていない。そのため、特許文献1に記載された音信号処理装置は、目的音の到来方向と妨害音の到来方向が近い場合、またはセンサアレイによって観測される目的音と妨害音の位相差の差異が小さい場合等において、雑音除去性能が低下するという課題があった。
これは、目的音と妨害音の位相差が発生しにくい低周波数領域の時間−周波数マスキングにおいて、妨害音の時間−周波数スペクトルを誤って通過させる可能性が高く、高品質な出力信号を得ることが困難なためである。
この発明は、上記のような課題を解決するためになされたもので、目的音の到来方向と妨害音の到来方向とが近接する場合においても、良好な雑音除去性能を実現し、且つ雑音除去処理を開始した直後から安定した雑音除去性能を実現することを目的とする。
この発明に係る雑音除去装置は、予め取得された、2個以上の音響センサを備えたセンサアレイに対する音の到来方向を示すステアリングベクトルから、目的音の到来方向を示す目的音ステアリングベクトルを選択する目的音ベクトル選択部と、予め取得されたステアリングベクトルから、目的音以外の妨害音の到来方向を示す妨害音ステアリングベクトルを選択する妨害音ベクトル選択部と、センサアレイから得られる2以上の観測信号と、目的音ベクトル選択部が選択した目的音ステアリングベクトルと、妨害音ベクトル選択部が選択した妨害音ステアリングベクトルとに基づいて、妨害音の時間−周波数スペクトルを遮断するマスクを用いた時間−周波数マスキングにより、観測信号から妨害音を除去した信号を取得する信号処理部とを備え、時間−周波数マスキングは、2以上の観測信号から時間−周波数ごとのステアリングベクトルを推定し、当該推定した観測信号のステアリングベクトルと、目的音ステアリングベクトルおよび妨害音ステアリングベクトルとの類似度を算出し、当該算出した類似度が最大となるステアリングベクトルが、目的音ステアリングベクトルである場合に、観測信号の時間−周波数スペクトルを通過させ、算出した類似度が最大となるステアリングベクトルが目的音ステアリングベクトルでない場合に、観測信号の時間−周波数スペクトルを遮断する
この発明によれば、目的音の到来方向と妨害音の到来方向とが近接する場合にも、良好な雑音除去性能を実現し、且つ雑音除去処理を開始した直後から安定した雑音除去性能を実現することができる。
実施の形態1に係る雑音除去装置の構成を示すブロック図である。 図2A、図2Bは、実施の形態1に係る雑音除去装置のハードウェア構成例を示す図である。 実施の形態1に係る雑音除去装置の信号処理部の動作を示すフローチャートである。 実施の形態2に係る雑音除去装置の信号処理部の動作を示すフローチャートである。 実施の形態1または実施の形態2に係る雑音除去装置の適用例を示す図である。 実施の形態1または実施の形態2に係る雑音除去装置の適用例を示す図である。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
また、この発明を実施するための形態において、音響センサの具体例として、無指向性のマイクロホンを用いて、センサアレイはマイクロホンアレイを用いて説明する。なお、音響センサは無指向性マイクロホンに限定されるものではなく、例えば、指向性マイクロホンまたは超音波センサも適用可能である。
実施の形態1.
図1は、実施の形態1に係る雑音除去装置100の構成を示すブロック図である。
雑音除去装置100は、観測信号取得部101、ベクトル記憶部102、目的音ベクトル選択部103、妨害音ベクトル選択部104および信号処理部105を備える。
また、雑音除去装置100には、複数のマイクロホン200a,200b,200c,・・・を備えたマイクロホンアレイ200および外部機器300が接続されている。
雑音除去装置100は、マイクロホンアレイ200によって観測された観測信号と、ベクトル記憶部102に記憶されたステアリングベクトルのうち目的音ベクトル選択部103および妨害音ベクトル選択部104が選択して出力したステアリングベクトルとに基づいて、信号処理部105が観測信号から雑音を除去した出力信号を生成し、外部機器300に出力する。
観測信号取得部101は、マイクロホンアレイ200によって観測された観測信号のA/D変換を行い、デジタル信号に変換する。観測信号取得部101は、デジタル信号に変換した観測信号を信号処理部105に出力する。
ベクトル記憶部102は、予め測定または生成された複数のステアリングベクトルを記憶する記憶領域である。ステアリングベクトルは、マイクロホンアレイ200から見た音の到来方向に対応したベクトルである。ベクトル記憶部102に記憶されるステアリングベクトルは、マイクロホンアレイ200を用いて事前に測定した、ある方向に対するインパルス応答を離散フーリエ変換し、得られた周波数スペクトルを任意のマイクロホンの周波数スペクトルによって除算し、正規化したスペクトルである。即ち、マイクロホンアレイ200を構成するマイクロホンの数をMとするとき、M個のマイクロホンによって測定されたインパルス応答を離散フーリエ変換して得られる周波数スペクトルS(ω)〜S(ω)を用いて構成した、以下の式(1)に示す複素ベクトルa(ω)をステアリングベクトルとする。式(1)において、ωは離散周波数、Tはベクトルの転置を表す。
Figure 0006644197
なお、ステアリングベクトルは必ずしも上述した式(1)と同様の方法で求める必要はない。例えば、上述した式(1)では、M個のマイクロホンのうち1番目に対応する周波数スペクトルS(ω)によって正規化を行うが、1番目以外のマイクロホンに対応する周波数スペクトルによって正規化を行ってもよい。また、正規化を行わず、インパルス応答の周波数スペクトルをそのままステアリングベクトルとして利用することも可能である。ただし、以下の説明では、ステアリングベクトルは式(1)に示すように1番目のマイクロホンに対応する周波数スペクトルによって正規化されているものとする。
目的音ベクトル選択部103は、ベクトル記憶部102に記憶されたステアリングベクトルから、所望の音声が到来する方向を示すステアリングベクトル(以下、目的音ステアリングベクトルという)を選択する。目的音ベクトル選択部103は、選択した目的音ステアリングベクトルを、信号処理部105に出力する。目的音ベクトル選択部103が目的音ステアリングベクトルを選択する方向は、例えば、ユーザの入力に基づいて指定された所望の音声が到来する方向に基づいて設定される。
妨害音ベクトル選択部104は、ベクトル記憶部102に記憶されたステアリングベクトルから、除去対象となる雑音が到来する方向のステアリングベクトル(以下、妨害音ステアリングベクトルという)を選択する。妨害音ベクトル選択部104は、選択した妨害音ステアリングベクトルを、信号処理部105に出力する。妨害音ベクトル選択部104が妨害音ステアリングベクトルを選択する方向は、例えば、ユーザの入力に基づいて指定された除去対象の雑音が到来する方向に基づいて設定される。
ただし、目的音源と妨害音源との位置関係が変化しない状況下では、目的音ベクトル選択部103が単一の目的音の到来方向のステアリングベクトルの出力を継続し、妨害音ベクトル選択部104が単一の妨害音の到来方向のステアリングベクトルの出力を継続する構成とすることが可能である。
目的音源と妨害音源とが、それぞれ複数存在する場合、目的音ベクトル選択部103が複数の目的音ステアリングベクトルを出力し、妨害音ベクトル選択部104が複数の妨害音ステアリングベクトルを出力する構成としてもよい。この場合、目的音源が複数存在するため、雑音除去装置100が、雑音を除去した複数の目的音を、複数の出力信号として出力してもよい。
ただし、以下では、説明の簡略化のため、目的音ベクトル選択部103および妨害音ベクトル選択部104は、それぞれ単一の目的音ステアリングベクトルおよび妨害音ステアリングベクトルを選択して出力するものとする。即ち、信号処理部105の出力信号は、単一の雑音が除去された目的音の信号とする。また以下では、目的音ベクトル選択部103が選択し、出力する目的音ステアリングベクトルを、目的音ステアリングベクトルatrg(ω)と記載する。同様に、妨害音ベクトル選択部104が選択し、出力する妨害音ステアリングベクトルを、妨害音ステアリングベクトルadst(ω)と記載する。
信号処理部105は、観測信号取得部101から得られる観測信号と、目的音ベクトル選択部103から得られる目的音ステアリングベクトルと、妨害音ベクトル選択部104から得られる妨害音ステアリングベクトルとにより、目的音以外の雑音を除去した信号を、出力信号として出力する。ここでは、信号処理部105の一例として、線形ビームフォーミングによる実装方法を示す。
以下では、信号処理部105は、M個のマイクロホンによって観測された信号に、離散フーリエ変換を施して、時間−周波数スペクトルX(ω,τ)〜X(ω,τ)を取得する。ここで、τは離散フレーム番号を表す。信号処理部105は、以下に示す式(2)に基づいて、線形ビームフォーミングによって出力信号の時間−周波数スペクトルY(ω,τ)を求める。式(2)におけるx(ω,τ)は、式(3)に示すように時間−周波数スペクトルX(ω,τ)からX(ω,τ)を並べた複素ベクトルである。また、式(2)におけるw(ω)は線形ビームフォーミングにおける線形フィルタ係数を並べた複素ベクトルである。また、式(2)におけるHは、ベクトルまたは行列の複素共役転置を表す。
Y(ω,τ)=w(ω)x(ω,τ) (2)
x(ω,τ)=(X(ω,τ),・・・,X(ω,τ)) (3)
信号処理部105は、上述した式(2)において、線形フィルタ係数w(ω)が適切に与えられた場合、雑音が除去された時間−周波数スペクトルY(ω,τ)を取得する。ここで、線形フィルタ係数w(ω)が満たすべき条件は、目的音の利得を確保し、且つ妨害音の利得を0とする条件である。即ち、当該線形フィルタ係数w(ω)により、目的音の到来方向に指向性を形成した上で、妨害音の到来方向に死角を形成する。これは、当該線形フィルタ係数w(ω)が、以下の式(4)および式(5)を満たすことと等価である。
w(ω)trg(ω)=1 (4)
w(ω)dst(ω)=0 (5)
上述した式(4)および式(5)は、行列を用いて式(6)のように記載することができる。なお、式(6)におけるAは以下の式(7)で示す複素行列、式(6)におけるrは以下の式(8)で示すベクトルである。
w(ω)=r (6)
A=(atrg(ω) adst(ω)) (7)
r=(1 0) (8)
上述した式(6)を満たす線形フィルタ係数w(ω)は、以下の式(9)を用いて求められる。
w(ω)=Ar (9)
上述した式(9)におけるAは、行列AのMoore−Penroseの擬似逆行列である。信号処理部105は、上述した式(9)により求めた線形フィルタ係数w(ω)を用いて、上述した式(2)の計算を行う。これにより、信号処理部105は、雑音が除去された時間−周波数スペクトルY(ω,τ)を取得する。信号処理部105は、取得した時間−周波数スペクトルY(ω,τ)を離散逆フーリエ変換し、時間波形を再構成して最終的な出力信号として出力する。
外部機器300は、例えばスピーカ、ハードディスクまたはメモリなどの記憶媒体で構成され、信号処理部105から出力された出力信号を出力する機器である。外部機器300が、スピーカで構成される場合、当該スピーカから出力信号が音波として出力される。また、外部機器300が、ハードディスクまたはメモリなどの記憶媒体で構成される場合、当該記憶媒体は出力信号をハードディスクまたはメモリにデジタルデータとして記憶する。
次に、雑音除去装置100のハードウェア構成例を説明する。
図2Aおよび図2Bは、雑音除去装置100のハードウェア構成例を示す図である。
雑音除去装置100におけるベクトル記憶部102は、ストレージ100aにより実現される。また、雑音除去装置100における観測信号取得部101、目的音ベクトル選択部103、妨害音ベクトル選択部104および信号処理部105の各機能は、処理回路により実現される。即ち、雑音除去装置100は、上記各機能を実現するための処理回路を備える。当該処理回路は、図2Aに示すように専用のハードウェアである処理回路100bであってもよいし、図2Bに示すようにメモリ100dに格納されているプログラムを実行するプロセッサ100cであってもよい。
図2Aに示すように、観測信号取得部101、目的音ベクトル選択部103、妨害音ベクトル選択部104および信号処理部105が専用のハードウェアである場合、処理回路100bは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-programmable Gate Array)、またはこれらを組み合わせたものが該当する。観測信号取得部101、目的音ベクトル選択部103、妨害音ベクトル選択部104および信号処理部105の各部の機能それぞれを処理回路で実現してもよいし、各部の機能をまとめて1つの処理回路で実現してもよい。
図2Bに示すように、観測信号取得部101、目的音ベクトル選択部103、妨害音ベクトル選択部104および信号処理部105がプロセッサ100cである場合、各部の機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ100dに格納される。プロセッサ100cは、メモリ100dに記憶されたプログラムを読み出して実行することにより、観測信号取得部101、目的音ベクトル選択部103、妨害音ベクトル選択部104および信号処理部105の各機能を実現する。即ち、観測信号取得部101、目的音ベクトル選択部103、妨害音ベクトル選択部104および信号処理部105は、プロセッサ100cにより実行されるときに、後述する図3に示す各ステップが結果的に実行されることになるプログラムを格納するためのメモリ100dを備える。また、これらのプログラムは、観測信号取得部101、目的音ベクトル選択部103、妨害音ベクトル選択部104および信号処理部105の手順または方法をコンピュータに実行させるものであるとも言える。
ここで、プロセッサ100cとは、例えば、CPU(Central Processing Unit)、処理装置、演算装置、プロセッサ、マイクロプロセッサ、マイクロコンピュータ、またはDSP(Digital Signal Processor)などのことである。
メモリ100dは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性または揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、ミニディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。
なお、観測信号取得部101、目的音ベクトル選択部103、妨害音ベクトル選択部104および信号処理部105の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。このように、雑音除去装置100における処理回路100bは、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現することができる。
次に、雑音除去装置100の動作について説明する。
図3は、実施の形態1に係る雑音除去装置100の信号処理部105の動作を示すフローチャートである。
図3のフローチャートでは、雑音除去装置100が雑音除去処理を行っている間は、目的音源および雑音源の位置が変化しないものとして説明を行う。即ち、雑音除去処理を行っている間は、目的音ステアリングベクトル、および妨害音ステアリングベクトルが変化しないものとする。
信号処理部105は、目的音ベクトル選択部103が選択した目的音ステアリングベクトルと、妨害音ベクトル選択部104が選択した妨害音ステアリングベクトルとから、線形フィルタ係数w(ω)を求める(ステップST1)。信号処理部105は、観測信号取得部101から入力される観測信号を一時格納領域(図示しない)に蓄積する(ステップST2)。
信号処理部105は、所定の長さの観測信号が蓄積されたか否か判定を行う(ステップST3)。所定の長さの観測信号が蓄積されていない場合(ステップST3;NO)、ステップST2の処理に戻る。一方、所定の長さの観測信号が蓄積されている場合(ステップST3;YES)、信号処理部105は、蓄積された観測信号を離散フーリエ変換し、観測信号ベクトルx(ω,τ)を求める(ステップST4)。
信号処理部105は、ステップST1で求めた線形フィルタ係数w(ω)と、ステップST4で求めた観測信号ベクトルx(ω,τ)とから、時間−周波数スペクトルY(ω,τ)を求める(ステップST5)。信号処理部105は、ステップST5で求めた時間−周波数スペクトルY(ω,τ)を離散逆フーリエ変換し、時間波形を求める(ステップST6)。信号処理部105は、ステップST6で求めた時間波形を、出力信号として外部機器300に出力し(ステップST7)、処理を終了する。
以上のように、この実施の形態1によれば、予め取得された、2個以上の音響センサを備えたセンサアレイに対する音の到来方向を示すステアリングベクトルから、目的音の到来方向を示す目的音ステアリングベクトルを選択する目的音ベクトル選択部103と、予め取得されたステアリングベクトルから、目的音以外の妨害音の到来方向を示す妨害音ステアリングベクトルを選択する妨害音ベクトル選択部104と、マイクロホンアレイ200から得られる2以上の観測信号と、選択された目的音ステアリングベクトルと、選択された妨害音ステアリングベクトルとに基づいて、観測信号から妨害音を除去した信号を取得する信号処理部105とを備えるように構成したので、目的音の到来方向のステアリングベクトルと、妨害音の到来方向のステアリングベクトルの双方を用いて、目的音の到来方向の音声の利得を確保し、且つ妨害音の到来方向の利得を減少させることができる。これにより、目的音の到来方向のステアリングベクトルのみを用いた雑音除去処理と比較して、目的音の到来方向と妨害音の到来方向とが近接している場合における雑音除去性能を向上させることができ、高品質な出力信号を得ることができる。また、目的音の到来方向のステアリングベクトルおよび妨害音の到来方向のステアリングベクトルが与えられることにより、観測信号から音源位置の推定を行う必要がなく、雑音除去処理を開始した直後から安定した雑音除去性能を得ることができる。
また、この実施の形態1によれば、信号処理部105は、目的音の到来方向を指向性形成方向とし、妨害音の到来方向を死角形成方向とする線形フィルタ係数を有する線形ビームフォーミングにより、観測信号から妨害音を除去した信号を取得するように構成したので、線形ビームフォーミングによって歪みが小さい出力信号を得ることができ、高品質な出力信号を得ることができる。
実施の形態2.
上述した実施の形態1では、信号処理部105を線形ビームフォーミングに基づく方法により実装する構成を示したが、この実施の形態2では信号処理部105を非線形処理に基づく方法により実装する構成を示す。ここで、非線形処理とは、例えば時間−周波数マスキングなどである。
実施の形態2に係る雑音除去装置100の構成を示すブロック図は、実施の形態1と同一であるため記載を省略する。また、実施の形態2に係る雑音除去装置100の構成要素は、実施の形態1で使用した符号と同一の符号を付して説明する。
以下では、信号処理部105が、観測信号取得部101から入力された観測信号と、予め測定されたベクトル記憶部102に記憶されたステアリングベクトルとの類似度に基づいて、時間−周波数マスキングによる信号処理を行う構成を示す。
Figure 0006644197

Figure 0006644197
Figure 0006644197

Figure 0006644197
Figure 0006644197
具体的には、目的音のみを通過させる時間−周波数マスクをB(ω,τ)とするとき、信号処理部105は、以下の式(11)に示すようにステアリングベクトル間の距離に基づいて、時間−周波数マスクB(ω,τ)を生成する。
Figure 0006644197
式(11)によって、時間−周波数マスクB(ω、τ)は、目的音の時間−周波数スペクトルのみを通過させ、目的音以外の時間−周波数スペクトルを遮断する。
信号処理部105は、当該時間−周波数マスクB(ω,τ)を用いて、以下の式(12)に基づいて出力信号の時間−周波数スペクトルY(ω,τ)を求める。
Y(ω,τ)=B(ω,τ)X(ω,τ) (12)
信号処理部105は、得られた時間−周波数スペクトルY(ω,τ)を離散逆フーリエ変換し、時間波形を再構成し、出力信号を生成する。信号処理部105は、生成した出力信号を、外部機器300に出力する。
図4は、実施の形態2に係る雑音除去装置100の信号処理部105の動作を示すフローチャートである。
図4のフローチャートで示した処理を行う前提として、雑音除去装置100が、雑音除去処理を行っている間は、目的音ステアリングベクトル、および妨害音ステアリングベクトルが変化しないものとする。
なお、以下では、実施の形態1に係る雑音除去装置100と同一のステップには図3で使用した符号と同一の符号を付し、説明を省略または簡略化する。
Figure 0006644197
Figure 0006644197
信号処理部105は、ステップST11で求められた観測信号の時間−周波数スペクトルX(ω,τ)と、ステップST13で生成したマスクとから、出力信号の時間−周波数スペクトルY(ω,τ)を求める(ステップST14)。信号処理部105は、ステップST14で求めた時間−周波数スペクトルY(ω,τ)を離散逆フーリエ変換し、時間波形を求める(ステップST6)。信号処理部105は、ステップST6で求めた時間波形を、出力信号として外部機器300に出力し(ステップST7)、処理を終了する。
以上のように、この実施の形態2によれば、信号処理部105は、妨害音の時間−周波数スペクトルを遮断するマスクを用いた時間−周波数マスキングにより、観測信号から妨害音を除去した信号を取得するように構成したので、同時に抽出または除去対象とするステアリングベクトルの数が、マイクロホンの数以下でなければならないという制約がなく、幅広い状況下で利用可能である。また、線形ビームフォーミングよりも高い雑音除去性能を得ることができる。
また、この実施の形態2によれば、時間−周波数マスキングは、2以上の観測信号から時間−周波数ごとのステアリングベクトルを推定し、当該推定した観測信号のステアリングベクトルと、目的音ステアリングベクトルおよび妨害音ステアリングベクトルとの類似度を算出し、当該算出した類似度が最大となるステアリングベクトルが、目的音ステアリングベクトルである場合に、観測信号の時間−周波数スペクトルを通過させ、算出した類似度が最大となるステアリングベクトルが目的音ステアリングベクトルでない場合に、観測信号の時間−周波数スペクトルを遮断するように構成したので、マイクロホンアレイによって観測される音声の時間差のみでなく、振幅の差も同時に考慮されるため、より高精度な時間−周波数マスクを生成することができる。これにより、高い雑音除去性能を得ることができる。
実施の形態1または実施の形態2で示した雑音除去装置100は、録音システム、ハンズフリー通話システム、または音声認識システム等に適用可能である。
まず、実施の形態1または実施の形態2で示した雑音除去装置100を、録音システムに適用した場合について説明する。
図5は、実施の形態1または実施の形態2に係る雑音除去装置100の適用例を示す図である。図5では、雑音除去装置100を、例えば会議の音声を録音する録音システムに適用した場合を示している。
図5に示すように、雑音除去装置100は、会議机400の上に配置される。会議机400の周囲に配置された複数の椅子500に会議参加者が着座する。雑音除去装置100のベクトル記憶部102は、予め、雑音除去装置100に接続されたマイクロホンアレイ200から見た各椅子500の配置方向に対応するステアリングベクトルを測定した結果を記憶しているものとする。
各会議参加者の発話を個別に抽出する場合、目的音ベクトル選択部103は、各椅子500の配置方向に対応したステアリングベクトルを、目的音ステアリングベクトルとして選択する。一方、妨害音ベクトル選択部104は、上述した椅子500以外の方向に対応したステアリングベクトルを妨害音ステアリングベクトルとして選択する。
会議参加者が各椅子500に着座した会議が開始されると、マイクロホンアレイ200が各会議参加者の音声を集音し、観測信号として雑音除去装置100に出力する。雑音除去装置100の観測信号取得部101は、入力された観測信号をデジタル信号に変換して信号処理部105に出力する。信号処理部105は、観測信号取得部101から入力された観測信号と、目的音ベクトル選択部103が選択した目的音ステアリングベクトルと、妨害音ベクトル選択部104が選択した妨害音ステアリングベクトルとを用いて、会議参加者の個別の発話を抽出する。外部機器300は、信号処理部105が抽出した会議参加者の個別の発話の音声信号を録音する。これにより、録音システムを用いて、例えば議事録の作成を容易に行うことができる。
一方、ある会議参加者の発話のみを抽出する場合、目的音ベクトル選択部103は、発話を抽出する対象である会議参加者の椅子500の配置方向に対応したステアリングベクトルを、目的音ステアリングベクトルとして選択する。一方、妨害音ベクトル選択部104は、上述したある会議参加者以外の方向に対応したステアリングベクトルを、妨害音ステアリングベクトルとして選択する。
会議参加者が各椅子500に着座して会議が開始されると、マイクロホンアレイ200が会議参加者の音声を集音し、観測信号として雑音除去装置100に出力する。雑音除去装置100の観測信号取得部101は、入力された観測信号をデジタル信号に変換して信号処理部105に出力する。信号処理部105は、観測信号取得部101から入力された観測信号と、目的音ベクトル選択部103が選択した目的音ステアリングベクトルと、妨害音ベクトル選択部104が選択した妨害音ステアリングベクトルとを用いて、ある会議参加者の発話のみを抽出する。外部機器300は、信号処理部105が抽出したある会議参加者の発話の音声信号を録音する。
上述のように、発話者が椅子500に座るという前提において、各椅子500の方向に対応したステアリングベクトルを予め測定しておくことにより、椅子500に着座した話者の発話を高精度に抽出または除去することができる。
次に、実施の形態1または実施の形態2で示した雑音除去装置100を、ハンズフリー通話システムまたは音声認識システムに適用した場合について説明する。
図6は、実施の形態1または実施の形態2に係る雑音除去装置100の適用例を示す図である。図6では、雑音除去装置100を車両内のハンズフリー通話システムまたは音声認識システムに適用した場合を示している。雑音除去装置100は、例えば、車両600の前方、即ち運転席601および助手席602に対して車両600の前方に配置される。
車両600の運転者601aは運転席601に着座する。車両600のその他の乗員602a,603a,603bは、助手席602および後部座席603に着座する。雑音除去装置100は、運転席601に着座する運転者601aの発話を集音し、ハンズフリー通話のための雑音除去処理、または音声認識のための雑音除去処理を行う。運転者601aがハンズフリー通話を行うためには、または運転者601aの音声の音声認識を行うためには、運転者601aの発話に混入する種々の雑音を除去する必要がある。例えば、助手席602に着座する乗員602aの発話音声は、運転者601aが発話する際に除去すべき雑音となる。
雑音除去装置100のベクトル記憶部102は、予め、雑音除去装置100に接続されたマイクロホンアレイ200から見た運転席601および助手席602の方向に対応するステアリングベクトルを測定した結果を記憶しているものとする。次に、目的音ベクトル選択部103は運転席601に着座する運転者601aの発話のみを抽出する場合、運転席601の方向に対応したステアリングベクトルを、目的音ステアリングベクトルとして選択する。一方、妨害音ベクトル選択部104は、助手席602の方向に対応したステアリングベクトルを、妨害音ステアリングベクトルとして選択する。
運転者601aおよび乗員602aが発話すると、マイクロホンアレイ200が運転者601aの音声を集音し、観測信号として雑音除去装置100に出力する。雑音除去装置100の観測信号取得部101は、入力された観測信号をデジタル信号に変換して信号処理部105に出力する。信号処理部105は、観測信号取得部101から入力された観測信号と、目的音ベクトル選択部103が選択した目的音ステアリングベクトルと、妨害音ベクトル選択部104が選択した妨害音ステアリングベクトルとを用いて、運転者601aの個別の発話を抽出する。外部機器300は、信号処理部105が抽出した運転者601aの個別の発話の音声信号を蓄積する。ハンズフリー通話システムまたは音声認識システムは、外部機器300に蓄積された音声信号を用いて、音声通話のための処理、または音声認識処理を実行する。これにより、助手席602に着座する乗員602aの発話音声を除去し、運転者601aの発話のみを高精度に抽出し、音声通話のための処理、または音声認識処理を行うことができる。
なお、上記では、運転者601aが発話する際に除去する雑音として、助手席602に着座する乗員602aの発話音声を例に説明を行ったが、助手席602に加えて後部座席603に着座する乗員603a,603bの発話音声を雑音として除去する構成としてもよい。
上述のように、車両600の運転席601、助手席602および後部座席603の方向に対応したステアリングベクトルを予め測定しておくことにより、運転席601に着座した運転者601aの発話を高精度に抽出することができる。これにより、ハンズフリー通話システムにおいて、通話音質を向上させることができる。また、音声認識システムにおいて、雑音が存在する状況下においても、高精度に運転手の発話を認識することができる。
上記以外にも、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、各実施の形態の任意の構成要素の変形、または各実施の形態の任意の構成要素の省略が可能である。
この発明に係る雑音除去装置は、目的音以外の雑音が発生する環境下で用いられる機器であって、目的音のみを集音するための録音装置、通話装置、または音声認識装置等に適用可能である。
100 雑音除去装置、101 観測信号取得部、102 ベクトル記憶部、103 目的音ベクトル選択部、104 妨害音ベクトル選択部、105 信号処理部。

Claims (7)

  1. 予め取得された、2個以上の音響センサを備えたセンサアレイに対する音の到来方向を示すステアリングベクトルから、目的音の到来方向を示す目的音ステアリングベクトルを選択する目的音ベクトル選択部と、
    前記予め取得されたステアリングベクトルから、前記目的音以外の妨害音の到来方向を示す妨害音ステアリングベクトルを選択する妨害音ベクトル選択部と、
    前記センサアレイから得られる2以上の観測信号と、前記目的音ベクトル選択部が選択した前記目的音ステアリングベクトルと、前記妨害音ベクトル選択部が選択した前記妨害音ステアリングベクトルとに基づいて、前記妨害音の時間−周波数スペクトルを遮断するマスクを用いた時間−周波数マスキングにより、前記観測信号から前記妨害音を除去した信号を取得する信号処理部とを備え
    前記時間−周波数マスキングは、前記2以上の観測信号から時間−周波数ごとのステアリングベクトルを推定し、当該推定した観測信号のステアリングベクトルと、前記目的音ステアリングベクトルおよび前記妨害音ステアリングベクトルとの類似度を算出し、当該算出した類似度が最大となるステアリングベクトルが、前記目的音ステアリングベクトルである場合に、前記観測信号の時間−周波数スペクトルを通過させ、前記算出した類似度が最大となるステアリングベクトルが前記目的音ステアリングベクトルでない場合に、前記観測信号の時間−周波数スペクトルを遮断することを特徴とする雑音除去装置。
  2. 前記予め取得された音の到来方向を示すステアリングベクトルを記憶するベクトル記憶部を備えたことを特徴とする請求項1記載の雑音除去装置。
  3. 前記予め取得された音の到来方向を示すステアリングベクトルは、ユーザが着座すると推定された位置から前記センサアレイへの音の到来方向を示すステアリングベクトルであることを特徴とする請求項1記載の雑音除去装置。
  4. 前記信号処理部は、前記着座すると推定された位置に着座したユーザの音声を、前記観測信号から抽出または除去することを特徴とする請求項3記載の雑音除去装置。
  5. 前記予め取得された音の到来方向を示すステアリングベクトルは、車両内の運転席および助手席から前記センサアレイへの音の到来方向を示すステアリングベクトルであることを特徴とする請求項1記載の雑音除去装置。
  6. 前記信号処理部は、前記運転席または前記助手席に着座したユーザの音声を、前記観測信号から抽出または除去することを特徴とする請求項5記載の雑音除去装置。
  7. 目的音ベクトル選択部が、予め取得された、2個以上の音響センサを備えたセンサアレイに対する音の到来方向を示すステアリングベクトルから、目的音の到来方向を示す目的音ステアリングベクトルを選択するステップと、
    妨害音ベクトル選択部が、前記予め取得されたステアリングベクトルから、前記目的音以外の妨害音の到来方向を示す妨害音ステアリングベクトルを選択するステップと、
    信号処理部が、前記センサアレイから得られる2以上の観測信号と、前記選択した前記目的音ステアリングベクトルと、前記選択した前記妨害音ステアリングベクトルとに基づいて、前記妨害音の時間−周波数スペクトルを遮断するマスクを用いた時間−周波数マスキングにより、前記観測信号から前記妨害音を除去した信号を取得するステップとを備え
    前記時間−周波数マスキングは、前記2以上の観測信号から時間−周波数ごとのステアリングベクトルを推定し、当該推定した観測信号のステアリングベクトルと、前記目的音ステアリングベクトルおよび前記妨害音ステアリングベクトルとの類似度を算出し、当該算出した類似度が最大となるステアリングベクトルが、前記目的音ステアリングベクトルである場合に、前記観測信号の時間−周波数スペクトルを通過させ、前記算出した類似度が最大となるステアリングベクトルが前記目的音ステアリングベクトルでない場合に、前記観測信号の時間−周波数スペクトルを遮断することを特徴とする雑音除去方法。
JP2019540211A 2017-09-07 2017-09-07 雑音除去装置および雑音除去方法 Active JP6644197B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/032311 WO2019049276A1 (ja) 2017-09-07 2017-09-07 雑音除去装置および雑音除去方法

Publications (2)

Publication Number Publication Date
JPWO2019049276A1 JPWO2019049276A1 (ja) 2019-12-26
JP6644197B2 true JP6644197B2 (ja) 2020-02-12

Family

ID=65633745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019540211A Active JP6644197B2 (ja) 2017-09-07 2017-09-07 雑音除去装置および雑音除去方法

Country Status (5)

Country Link
US (1) US20210098014A1 (ja)
JP (1) JP6644197B2 (ja)
CN (1) CN111052766B (ja)
DE (1) DE112017007800T5 (ja)
WO (1) WO2019049276A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9565493B2 (en) 2015-04-30 2017-02-07 Shure Acquisition Holdings, Inc. Array microphone system and method of assembling the same
US9554207B2 (en) 2015-04-30 2017-01-24 Shure Acquisition Holdings, Inc. Offset cartridge microphones
US10367948B2 (en) 2017-01-13 2019-07-30 Shure Acquisition Holdings, Inc. Post-mixing acoustic echo cancellation systems and methods
CN112335261B (zh) 2018-06-01 2023-07-18 舒尔获得控股公司 图案形成麦克风阵列
US11297423B2 (en) 2018-06-15 2022-04-05 Shure Acquisition Holdings, Inc. Endfire linear array microphone
US11310596B2 (en) 2018-09-20 2022-04-19 Shure Acquisition Holdings, Inc. Adjustable lobe shape for array microphones
US11558693B2 (en) 2019-03-21 2023-01-17 Shure Acquisition Holdings, Inc. Auto focus, auto focus within regions, and auto placement of beamformed microphone lobes with inhibition and voice activity detection functionality
US11438691B2 (en) 2019-03-21 2022-09-06 Shure Acquisition Holdings, Inc. Auto focus, auto focus within regions, and auto placement of beamformed microphone lobes with inhibition functionality
US11303981B2 (en) 2019-03-21 2022-04-12 Shure Acquisition Holdings, Inc. Housings and associated design features for ceiling array microphones
WO2020237206A1 (en) 2019-05-23 2020-11-26 Shure Acquisition Holdings, Inc. Steerable speaker array, system, and method for the same
WO2020243471A1 (en) 2019-05-31 2020-12-03 Shure Acquisition Holdings, Inc. Low latency automixer integrated with voice and noise activity detection
EP4018680A1 (en) 2019-08-23 2022-06-29 Shure Acquisition Holdings, Inc. Two-dimensional microphone array with improved directivity
US12028678B2 (en) 2019-11-01 2024-07-02 Shure Acquisition Holdings, Inc. Proximity microphone
CN110970046B (zh) * 2019-11-29 2022-03-11 北京搜狗科技发展有限公司 一种音频数据处理的方法及装置、电子设备、存储介质
JP7004875B2 (ja) * 2019-12-20 2022-01-21 三菱電機株式会社 情報処理装置、算出方法、及び算出プログラム
US11552611B2 (en) 2020-02-07 2023-01-10 Shure Acquisition Holdings, Inc. System and method for automatic adjustment of reference gain
WO2021243368A2 (en) 2020-05-29 2021-12-02 Shure Acquisition Holdings, Inc. Transducer steering and configuration systems and methods using a local positioning system
KR20220016423A (ko) * 2020-07-31 2022-02-09 현대자동차주식회사 차량 및 그의 제어방법
JP7171095B2 (ja) * 2020-10-05 2022-11-15 株式会社オーディオテクニカ 音源定位装置、音源定位方法及びプログラム
JP2024505068A (ja) 2021-01-28 2024-02-02 シュアー アクイジッション ホールディングス インコーポレイテッド ハイブリッドオーディオビーム形成システム
JP2022135451A (ja) * 2021-03-05 2022-09-15 本田技研工業株式会社 音響処理装置、音響処理方法およびプログラム
CN113782046B (zh) * 2021-09-09 2024-09-17 清华大学 一种用于远距离语音识别的麦克风阵列拾音方法及系统
CN114242104A (zh) * 2021-12-31 2022-03-25 西安讯飞超脑信息科技有限公司 语音降噪的方法、装置、设备及存储介质

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003271191A (ja) * 2002-03-15 2003-09-25 Toshiba Corp 音声認識用雑音抑圧装置及び方法、音声認識装置及び方法並びにプログラム
JP4066197B2 (ja) * 2005-02-24 2008-03-26 ソニー株式会社 マイクロフォン装置
JP2006243664A (ja) * 2005-03-07 2006-09-14 Nippon Telegr & Teleph Corp <Ntt> 信号分離装置、信号分離方法、信号分離プログラム及び記録媒体
EP1923866B1 (en) * 2005-08-11 2014-01-01 Asahi Kasei Kabushiki Kaisha Sound source separating device, speech recognizing device, portable telephone, sound source separating method, and program
JP4912036B2 (ja) * 2006-05-26 2012-04-04 富士通株式会社 指向性集音装置、指向性集音方法、及びコンピュータプログラム
JP2010091912A (ja) * 2008-10-10 2010-04-22 Equos Research Co Ltd 音声強調システム
CN102164328B (zh) * 2010-12-29 2013-12-11 中国科学院声学研究所 一种用于家庭环境的基于传声器阵列的音频输入系统
JP2012150237A (ja) * 2011-01-18 2012-08-09 Sony Corp 音信号処理装置、および音信号処理方法、並びにプログラム
JP2012234150A (ja) * 2011-04-18 2012-11-29 Sony Corp 音信号処理装置、および音信号処理方法、並びにプログラム
CN103178881B (zh) * 2011-12-23 2017-08-25 南京中兴新软件有限责任公司 主瓣干扰抑制方法及装置
JP2013201525A (ja) * 2012-03-23 2013-10-03 Mitsubishi Electric Corp ビームフォーミング処理装置
US9291697B2 (en) * 2012-04-13 2016-03-22 Qualcomm Incorporated Systems, methods, and apparatus for spatially directive filtering
CN104065798B (zh) * 2013-03-21 2016-08-03 华为技术有限公司 声音信号处理方法及设备
JP5958717B2 (ja) * 2013-07-19 2016-08-02 パナソニックIpマネジメント株式会社 指向性制御システム、指向性制御方法、収音システム及び収音制御方法
JP2015046759A (ja) * 2013-08-28 2015-03-12 三菱電機株式会社 ビームフォーミング処理装置およびビームフォーミング処理方法
CN104200817B (zh) * 2014-07-31 2017-07-28 广东美的制冷设备有限公司 语音控制方法和系统
US10650841B2 (en) * 2015-03-23 2020-05-12 Sony Corporation Sound source separation apparatus and method
JP6724905B2 (ja) * 2015-04-16 2020-07-15 ソニー株式会社 信号処理装置、信号処理方法、およびプログラム
WO2017056288A1 (ja) * 2015-10-01 2017-04-06 三菱電機株式会社 音響信号処理装置、音響処理方法、監視装置および監視方法
JP6584930B2 (ja) * 2015-11-17 2019-10-02 株式会社東芝 情報処理装置、情報処理方法およびプログラム
JP6434657B2 (ja) * 2015-12-02 2018-12-05 日本電信電話株式会社 空間相関行列推定装置、空間相関行列推定方法および空間相関行列推定プログラム
JP6594222B2 (ja) * 2015-12-09 2019-10-23 日本電信電話株式会社 音源情報推定装置、音源情報推定方法、およびプログラム
CN106887236A (zh) * 2015-12-16 2017-06-23 宁波桑德纳电子科技有限公司 一种声像联合定位的远距离语音采集装置

Also Published As

Publication number Publication date
CN111052766B (zh) 2021-07-27
DE112017007800T5 (de) 2020-06-25
JPWO2019049276A1 (ja) 2019-12-26
US20210098014A1 (en) 2021-04-01
WO2019049276A1 (ja) 2019-03-14
CN111052766A (zh) 2020-04-21

Similar Documents

Publication Publication Date Title
JP6644197B2 (ja) 雑音除去装置および雑音除去方法
JP5156260B2 (ja) 雑音を除去して目的音を抽出する方法、前処理部、音声認識システムおよびプログラム
JP5007442B2 (ja) 発話改善のためにマイク間レベル差を用いるシステム及び方法
JP6389259B2 (ja) マイクロホンアレイを使用した残響音の抽出
US20170140771A1 (en) Information processing apparatus, information processing method, and computer program product
EP2777297B1 (en) Method and apparatus for processing signals of a spherical microphone array on a rigid sphere used for generating an ambisonics representation of the sound field
JP5124014B2 (ja) 信号強調装置、その方法、プログラム及び記録媒体
JP5573517B2 (ja) 雑音除去装置および雑音除去方法
US9093079B2 (en) Method and apparatus for blind signal recovery in noisy, reverberant environments
Schmidt et al. Signal processing for in-car communication systems
BR112015014380B1 (pt) Filtro e método para filtragem espacial informada utilizando múltiplas estimativas da direção de chegada instantânea
EP1538867B1 (en) Handsfree system for use in a vehicle
JP6840302B2 (ja) 情報処理装置、プログラム及び情報処理方法
JP4457221B2 (ja) 音源分離方法およびそのシステム、並びに音声認識方法およびそのシステム
JP2007180896A (ja) 音声信号処理装置および音声信号処理方法
JP2007047427A (ja) 音声処理装置
JP5405130B2 (ja) 音再生装置および音再生方法
US20130253923A1 (en) Multichannel enhancement system for preserving spatial cues
JP6567216B2 (ja) 信号処理装置
Reindl et al. An acoustic front-end for interactive TV incorporating multichannel acoustic echo cancellation and blind signal extraction
JP7004875B2 (ja) 情報処理装置、算出方法、及び算出プログラム
CN111863017B (zh) 一种基于双麦克风阵列的车内定向拾音方法及相关装置
KR102699927B1 (ko) 다채널 음성향상을 위한 인수분해 mvdr 빔포밍 장치 및 방법
JP6956929B2 (ja) 情報処理装置、制御方法、及び制御プログラム
Jeyasingh et al. Enhancement of speech through source separation for conferencing systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191002

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191002

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200107

R150 Certificate of patent or registration of utility model

Ref document number: 6644197

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250