JP7324753B2 - 修正された一般化固有値ビームフォーマーを用いた音声信号のボイス強調 - Google Patents

修正された一般化固有値ビームフォーマーを用いた音声信号のボイス強調 Download PDF

Info

Publication number
JP7324753B2
JP7324753B2 JP2020528911A JP2020528911A JP7324753B2 JP 7324753 B2 JP7324753 B2 JP 7324753B2 JP 2020528911 A JP2020528911 A JP 2020528911A JP 2020528911 A JP2020528911 A JP 2020528911A JP 7324753 B2 JP7324753 B2 JP 7324753B2
Authority
JP
Japan
Prior art keywords
audio
target
spectral density
power spectral
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020528911A
Other languages
English (en)
Other versions
JP2021505933A (ja
Inventor
ミュスティエール、フレデリック・フィリップ・ドゥニ
ネスタ、フランチェスコ
Original Assignee
シナプティクス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シナプティクス インコーポレイテッド filed Critical シナプティクス インコーポレイテッド
Publication of JP2021505933A publication Critical patent/JP2021505933A/ja
Application granted granted Critical
Publication of JP7324753B2 publication Critical patent/JP7324753B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/84Detection of presence or absence of voice signals for discriminating voice from noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R27/00Public address systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2227/00Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
    • H04R2227/001Adaptation of signal processing in PA systems in dependence of presence of noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2227/00Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
    • H04R2227/003Digital PA systems using, e.g. LAN or internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2227/00Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
    • H04R2227/005Audio distribution systems for home, i.e. multi-room use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2227/00Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
    • H04R2227/009Signal processing in [PA] systems to enhance the speech intelligibility
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)

Description

本継続特許出願は、2017年12月6日に出願された“修正された一般化固有値ビームフォーマーを用いた音声信号のボイス強調”と題する米国特許出願番号15/833,977の優先権及び利益を主張する。該出願は、参照することにより、その全体が本出願に組み込まれる。
本開示は、1以上の実施形態について、一般には音声信号処理に関し、より詳細には、例えばノイズの多い環境内の所望の音声信号を強調するシステム及び方法に関する。
スマートスピーカーや、他の音声制御式のデバイス及び電子機器は、近年人気を得ている。スマートスピーカーは、環境から音声入力(例えば、ユーザーの口頭のコマンド)を受信するために、マイクロフォンのアレーをしばしば備えている。ターゲット音声(例えば、口頭のコマンド)が音声入力において検出されたときに、スマートスピーカーは検出されたターゲット音声を1以上のコマンドに変換し、当該コマンドに基づいて異なるタスクを実行し得る。これらのスマートスピーカーの問題の一つとして、効率的かつ効果的に、ターゲット音声(例えば、口頭のコマンド)を作動環境のノイズから分離することが挙げられる。この問題は、マイクロフォンに対して任意の方向からターゲット音声が到来し得る、ノイズの多い環境において悪化する。そのため、ノイズの多い環境から受信した音声信号を処理するための改善されたシステム及び方法が必要とされている。
以下の図面及び後述の詳細な説明を参照することで、本開示の態様とその利点がより良く理解され得る。同様の参照番号が、1以上の図面で示される同様の要素を識別するために用いられるが、その図示は本開示の実施形態を示すことを目的としているのであって、これを限定することを目的としていないことが理解されなくてはならない。図中の構成要素は必ずしも正寸ではなく、代わりに、本開示の原理を明確に示すことに重点が置かれている。
図1は、本開示の1以上の実施形態に係る、音声処理デバイスの例示的な作動環境を示す。
図2は、本開示の1以上の実施形態に係る、例示的な音声処理デバイスのブロック図である。
図3は、本開示の1以上の実施形態に係る、例示的な音声信号プロセッサのブロック図である。
図4Aは、本開示の実施形態に係る、例示的なターゲット強調エンジンのブロック図である。
図4Bは、本開示の実施形態に係る、例示的な発話強調エンジンのブロック図である。
図5は、本開示の1以上の実施形態に係る、リアルタイム音声信号処理を実行する例示的な処理を示す。
ノイズが多い環境のターゲット音声を検出及び強調するシステム及び方法が、本明細書において開示される。様々な実施形態では、複数のマイクロフォンを有するマイクロフォンアレーが、作動環境におけるターゲット音声及びノイズを感知し、各マイクロフォンについての音声信号を生成する。受信した音声信号の中のターゲット音声を強調するための、一般化固有ベクトル追跡(generalized eigenvector tracking)を組込んだ改善されたビームフォーミング技術が、本明細書において開示される。
従来のビームフォーミング技術は、ターゲット音源の方向から受信した音声に焦点を合わせるように作動する。多くのビームフォーミングの解法は、マイクロフォンアレーの配列、及び/又は、ターゲット音源の位置についての情報を必要とする。さらに、いくつかのビームフォーミングの解法は処理集約的であり、マイクロフォンの数が増えるにつて、指数関数的に複雑さが増加し得る。そのため、従来のビームフォーミングの解法は、多様な配列を有する実装や、低電力のデバイスにおけるリアルタイムの音声処理への要求に制約されるアプリケーションには適さない場合がある。従来のビームフォーミングシステムにおけるこれらの制約、及び、他の制約に対応する様々な実施形態が本明細書において開示される。
本開示の1以上の実施形態では、音声センサー(例えば、マイクロフォン)のアレーを用いてマルチチャンネル音声入力信号が受信される。各音声チャンネルは、ターゲット音声が存在するか(例えば、ターゲットの人物が積極的に話しているか)を決定するために解析される。システムは、ターゲット及びノイズ信号を追跡して、マイクロフォンアレーに対する音源の最大伝播の音響方向を決定する。この方向は、相対伝達関数(Relative Transfer Function)(RTF)と言われる。様々な実施形態では、改善された一般化固有ベクトル処理が、ターゲット音声のRTFをリアルタイムで決定するために用いられる。決定されたRTFは、そして、ターゲット音声を強調するために、最小分散無歪応答(minimum variance distortionless response)(MVDR)ビームフォーマーといった、空間フィルタ処理によって用いられる場合がある。音声入力信号が処理された後に、強調された音声出力信号が、例えば、1以上のスピーカーに伝達される音声出力として、又は、電話の音声コミュニケーション若しくはボイスオーバーIP(VoIP)通話として、発話認識又は音声コマンド処理、あるいは他のボイスアプリケーションのために用いられる場合がある。
本開示の様々な実施形態によれば、修正された一般化固有ベクトル(generalized eigenvector)(GEV)のシステム及び方法が、マイクロフォンのアレーの幾何的配列又は音声の環境についての知識抜きで、音源のRTFをリアルタイムで効率的に決定するために用いられる。ここで開示される修正されたGEVの解法には多くの利点がある。例えば、修正されたGEVの解法は、大きなマイクロフォンアレーを有するシステムを含む様々なシステムで利用可能な、計算効率が高く、スケーラブルな主固有ベクトルのオンライン追跡を提供し得る。本明細書で開示される解法は、音源の方向において歪が無く、開示されたシステム及び方法で有効な音源及びノイズのモデルを実施することで堅牢性が高められる場合がある。本明細書で開示されるシステム及び方法は、例えば、ターゲット音声がノイズの多い環境で受信されるような自動発話認識(automated speech recognition)(ASR)システム及び音声コミュニケーションシステムを改善するために用いられ得る。
図1は、本開示の様々な実施形態に係る音声処理システムが作動し得る、例示的な作動環境100を示す。作動環境100は、音声処理デバイス105、ターゲット音源110、及び、1以上のノイズ源135-145を含む。図1で示された例では、作動環境は部屋100として示されている。しかし、作動環境は、車内、オフィスの会議室、家庭の部屋、屋外のスタジアム、又は、空港といった他の場所を含み得ると考えられる。本開示の様々な実施形態において、音声処理デバイス105は、2以上の音声感知コンポーネント(例えば、マイクロフォン)115a―115dと、オプションとして、1以上の音声出力コンポーネント(例えば、スピーカー)120a―120bと、備える場合がある。
音声処理デバイス105は、音声受信コンポーネント115a―115dにより音を感知し、2以上の音声入力信号を含むマルチチャンネル音声入力信号を生成するように構成されている場合がある。音声処理デバイス105は、本明細書で開示される音声処理技術を用いて音声入力信号を処理して、ターゲット音源110から受信した音声信号を強調する場合がある。例えば、処理された音声信号は、発話認識エンジン、又は、音声コマンドプロセッサといった音声処理デバイス105内の他の構成要素、あるいは、外部デバイスに伝達される場合がある。従って、音声処理デバイス105は、音声信号を処理するスタンドアローンのデバイス、又は、外部デバイスと情報交換あるいは制御するために処理された音声信号を他の信号(例えば、コマンド、命令、等)に変換するデバイス、である場合がある。他の実施形態では、音声処理デバイス105は、携帯電話やボイスオーバーIP(VoIP)が使用可能なデバイス、といった通信デバイスである場合がある。そして、処理された音声信号は、遠隔のユーザーに対して出力するために、ネットワークを介して他のデバイスに伝達される場合がある。通信デバイスは、処理された音声信号を遠隔のデバイスから更に受信し、処理された音声信号を音声出力コンポーネント120a―120bを用いて出力する場合がある。
ターゲット音源110は、音声処理デバイス105に検出可能な音声を生成する如何なる音源であっても良い。ターゲット音声は、ユーザー又はシステムの要求によって特定される基準によって定義され得る。例えば、ターゲット音声は、人間の発話、特定の動物又は機械によって作られた音、として定義され得る。図示の例では、ターゲット音声は人間の発話として定義され、ターゲット音源110は人間である。ターゲット音源110に加え、作動環境100は1以上のノイズ源135-145を含む場合がある。様々な実施形態では、ターゲット音声ではない音はノイズとして処理される。図示の例では、ノイズ源135-145は、音楽を流すラウドスピーカー135、テレビショー・映画若しくはスポーツイベントを流すテレビ140、及び、ターゲットでない話者145間での背景音となる会話、を含み得る。様々な作動環境において、他のノイズ源が存在し得ることが理解されよう。
ターゲット音声及びノイズが、音声処理デバイス105のマイクロフォン115a―115dに異なる方向から到達し得ることに留意されたい。例えば、ノイズ源135-145は、部屋100内の異なる位置でノイズを生じる場合がある。そして、ターゲット音源(人間)110は、部屋100内の複数の位置間で移動しながら発話する場合がある。さらに、ターゲット音声、及び/又は、ノイズは部屋100内の設備(例えば、壁)で反射する場合がある。例えば、ターゲット音声が人間110から各マイクロフォン115a―115dに進む経路を考える。矢印125a―125dで示すように、ターゲット音声は人間110から各マイクロフォン115a―115dまで、直接進む場合がある。さらに、ターゲット音声は、矢印130a―130bで示すように、壁150a及び150bに反射して、人間110からマイクロフォン115a―115dに間接的に到達する場合がある。本開示の様々な実施形態によれば、音声処理デバイス105は、マイクロフォン115a―115dによって受信された音声入力信号に基づきターゲット音源110のRTFを推定し、音声入力信号を処理して、推定されたRTFに基づきターゲット音声を強調しノイズを抑制するために、本明細書において開示される複数の音声処理技術を用いる場合がある。
図2は、本開示の様々な実施形態に係る例示的な音声処理デバイス200を示す。いくつかの実施形態では、音声デバイス200は、図1の音声処理デバイス105として実装される場合がある。音声デバイス200は、音声センサーアレー205と、音声信号プロセッサ220と、ホストシステムコンポーネント250と、を備える。
音声センサーアレー205は、それぞれが音波の形態の音声入力を音声信号に変換するトランスデューサとして実装され得る、2以上のセンサーを備える。図示された環境では、音声センサーアレー205は、それぞれが音声信号プロセッサ220の音声入力回路部222に供給される音声入力信号を生成する、複数のマイクロフォン205a―205nを備える。ある実施形態ではセンサーアレー205は、各チャンネルがマイクロフォン205a―nのうちの一つからの音声入力信号に対応するマルチチャンネル音声信号を生成する。
音声信号プロセッサ220は、音声入力回路部222と、デジタルシグナルプロセッサ224と、オプションで音声出力回路部226と、を備える。様々な実施形態では、音声信号プロセッサ220は、アナログ回路部と、デジタル回路部と、ファームウェアに記憶されたプログラムの命令を実行するように作動可能であるデジタルシグナルプロセッサ224と、を備える集積回路として実装され得る。音声入力回路部222は、本明細書で開示されるように、例えば、音声センサーアレー205と、アンチエイリアシングフィルターと、アナログデジタルコンバーター回路部と、エコー消去回路部と、他の音声処理の回路部及びコンポーネントを備える場合がある。デジタルシグナルプロセッサ224はマルチチャンネルのデジタル音声信号を処理して、1以上のホストシステムコンポーネント250に出力される強調された音声信号を生成するように作動可能である。様々な実施形態では、デジタルシグナルプロセッサ224は、エコー消去、ノイズ消去、ターゲット信号強調、ポストフィルタリング、及び、他の音声信号処理機能、を実行するように作動可能である場合がある。
オプションの音声出力回路部226は、スピーカー210a及び210bのような少なくとも1つのスピーカーに出力するために、デジタルシグナルプロセッサ224から受信した音声信号を処理する。様々な実施形態では、音声出力回路部226は、1以上のデジタル音声信号をアナログに変換するデジタルアナログコンバータと、スピーカー210a―210bを駆動する1以上のアンプと、を含む場合がある。
音声処理デバイス200は、例えば、携帯電話、スマートスピーカー、タブレット、ラップトップコンピュータ、デスクトップコンピュータ、音声制御式の機器、又は、自動車のような、ターゲット音声のデータを受信及び強調するように作動可能な如何なるデバイスとして実装され得る。ホストシステムコンポーネント250は、音声処理デバイス200を作動させるための、ハードウェア及びソフトウェアの様々なコンポーネントを備える場合がある。図示された実施形態では、システムコンポーネント250は、プロセッサ252と、ユーザーインターフェースコンポーネント254と、外部デバイス及びネットワーク280(例えば、インターネット、クラウド、ローカルエリアネットワーク、又は、電話回線網)のようなネットワークと通信する通信インターフェース256と、モバイルデバイス284と、メモリ258と、を備える。
プロセッサ252及びデジタルシグナルプロセッサ224は、プロセッサ、マイクロプロセッサ、シングルコアのプロセッサ、マルチコアのプロセッサ、マイクロコントローラー、プログラマブル論理回路(programmable logic device)(PLD)(例えば、フィールドプログラマブルゲートアレー(field programmable gate array)(FPGA))、デジタル信号処理(digital signal processing)(DSP)デバイス、又は、他の論理デバイスのうちの1以上を備える場合がある。ここで他の論理デバイスは、ハードウェアにより、ソフトウェアを実行することにより、又は、これら両方の組合せにより、本開示の実施形態において本明細書で議論される様々な処理を実行するように構成され得る。ホストシステムコンポーネント250は、例えばバス又は他の電子的な通信インターフェースを用いて、音声信号プロセッサ220及び他のシステムコンポーネント250と接続及び通信するように構成される。
音声信号プロセッサ220及びホストシステムコンポーネント250は、ハードウェアコンポーネント、回路部、及び、ソフトウェアを組合わせたものを組み込んでいるとして示されている。しかし、いくつかの実施形態では、実行するように作動可能なハードウェア及び回路部の機能のうち少なくともいくつか、あるいは全ては、プロセッシングコンポーネント252及び/又はデジタルシグナルプロセッサ224によって、メモリ258又はデジタルシグナルプロセッサ222のファームウェアに記憶されたソフトウェアの命令及び/又は設定データに応答して実行されるソフトウェアのモジュールとして実装されうることが理解されよう。
メモリ258は、音声データとプログラムの命令を含むデータ及び情報を記憶するように作動可能な1以上のメモリデバイスとして実装され得る。メモリ258は、RAM(Random Access Memory)、ROM(Read-Only Memory)、EEPROM(Electrically-Erasable Read-Only Memory)、フラッシュメモリ、ハードディスクドライブ、及び/又は、他の種類のメモリ、といった揮発性及び不揮発性のメモリデバイスを含む、1以上の様々な種類のメモリデバイスを備える場合がある。
プロセッサ252は、メモリ258に記憶されたソフトウェアの命令を実行するように作動可能である場合がある。様々な実施形態では、発話認識エンジン260は、音声信号プロセッサ220から受信した強調された音声信号を処理するように作動可能である。この処理は、音声コマンドを識別及び実行することを含む。音声コミュニケーションコンポーネント262は、モバイルデバイス284又はユーザーデバイス286のような1以上の外部デバイスとの、モバイルフォン又はセルラーフォンの通信網又はIPネットワーク間のVoIP通話を用いた通話のような音声コミュニケーションを容易にするように作動可能な場合がある。様々な実施形態では、音声コミュニケーションは、強調された音声信号を外部のコミュニケーションデバイスに伝達することを含む。
ユーザーインターフェースコンポーネント254は、ディスプレイ、タッチディスプレイ、キーパッド、1以上のボタン、及び/又は、ユーザーに音声デバイス200と直接にやり取りすることを可能にする他の入力/出力コンポーネントを含む場合がある。
通信インターフェース256は、音声デバイス200と外部デバイスとの間の通信を容易にする。例えば、通信インターフェース256は、音声デバイス200と、1以上のローカルデバイスと、の間の(例えば、802.11の)Wi-Fi(登録商標)、又は、ブルートゥース(登録商標)による接続を可能にする場合がある。ここで1以上のローカルデバイスは、例えば、モバイルデバイス284、又は、例えばネットワークサーバー282にネットワーク280を介したネットワークアクセスを提供するワイヤレスルーター、といったものである。様々な実施形態では、通信インターフェース256は、音声デバイス200と1以上の他のデバイスとの間の、直接又は間接の通信を容易にする、他の有線又は無線の通信コンポーネントを含み得る。
図3は、本開示の様々な実施形態に係る、例示的な音声信号プロセッサ300を示す。いくつかの実施形態では、音声入力プロセッサ300は、アナログ及びデジタル回路部と、図2の音声信号プロセッサ224のようなデジタルシグナルプロセッサによって実装されたファームウェアロジックと、を含む1以上の集積回路として具体化される。図示されているように、音声信号プロセッサ300は、音声入力回路部315と、サブバンド周波数アナライザ320と、ターゲットアクティビティ検出部325と、ターゲット強調エンジン330と、シンセサイザ335と、を備える。
音声信号プロセッサ300は、少なくとも2以上の音声センサー305a―nを備えるセンサーアレー305のような、複数の音声センサーからマルチチャンネル音声入力を受信する。音声センサー305a―305nは、例えば、図2の音声処理デバイス200のような音声処理デバイス、又は、それに接続された外部コンポーネントと統合された複数のマイクロフォンを含み得る。音声センサー305a―305nの配列は、本開示の様々な実施形態により、音声入力プロセッサ300にとって既知であっても未知であっても良い。
音声信号は、アンチエイリアシングフィルター、アナログデジタルコンバーター、アナログデジタルコンバーター、及び/又は、他の音声入力回路を備える得る音声入力回路部315によって最初に処理される場合がある。様々な実施形態では、音声入力回路部315は、デジタルで、マルチチャンネルな、時間領域の、Nチャンネルを有する音声信号を出力する。ここで、Nはセンサー(例えば、マイクロフォン)入力の数である。マルチチャンネル音声信号は、当該マルチチャンネル音声信号を連続する複数のフレームに分割し、各チャンネルの各フレームを複数の周波数サブバンドに分解するサブバンド周波数アナライザ320に入力される。様々な実施形態では、サブバンド周波数アナライザ320は、フーリエ変換処理を含み、複数の周波数ビンを出力する。分解された音声信号は、その後、ターゲットアクティビティ検出部325と、ターゲット強調エンジン330と、に供給される。
ターゲットアクティビティ検出部325は、1以上の音声チャンネルのフレームを解析し、現在のフレームの中にターゲット音声が存在するかを示す信号を生成するように作動可能である。上記で議論したように、ターゲット音声は、音声システムによって認識される如何なる音声であっても良い。ターゲット音声が人間の発話であるときには、ターゲットアクティビティ検出部325は、ボイスアクティビティ検出部として実装され得る。様々な実施形態では、音声データのフレームを受信し、ターゲット音声の存在又は不在に関する決定を行うように作動可能なボイスアクティビティ検出部が用いられる場合がある。いくつかの実施形態では、ターゲットアクティビティ検出部325は、ターゲット音声の分類規則をサブバンドフレームに適用して、値を計算する場合がある。この値は、その後、ターゲットアクティビティ信号を生成するために閾値と比較される。様々な実施形態では、ターゲットアクティビティ検出部325によって生成された信号は、例えば、出力“1”がサブバンド音声フレームの中にターゲット発話が存在することを示し、バイナリー出力の“0”がサブバンド音声フレームの中にターゲット発話が存在しないことを示すようなバイナリー信号である。生成されたバイナリー出力は、マルチチャンネル音声信号の更なる処理のためにターゲット強調エンジン330に供給される。他の実施形態ではターゲット強調信号は、システムの要求によって、ターゲットの存在確率、ターゲットの存在を決定することが出来なかったことを示す指標、又は、他のターゲット存在情報を含み得る。
ターゲット強調エンジン330は、サブバンドフレームをサブバンド周波数アナライザ320から、ターゲットアクティビティ信号をターゲットアクティビティ検出部325から、受信する。本開示の様々な実施形態において、下記でさらに詳細に説明するように、ターゲット強調エンジン330は受信したアクティビティ信号に基づきサブバンドフレームを処理するために、修正された一般化固有値ビームフォーマーを用いる。いくつかの実施形態では、サブバンドフレームの処理は、センサーアレー305に関するターゲット音源(例えば、ターゲット音源110)のRTFを推定することを含む。推定されたターゲット音源のRTFに基づき、ターゲット強調エンジン330は、音声信号のうちターゲット音源の方向から伝わったと決定された一部を強調し、音声信号のうちノイズと決定された部分を抑制する場合がある。
ターゲット音声信号を強調した後、ターゲット強調エンジン330は、処理された音声信号をシンセサイザ335に伝える場合がある。様々な実施形態では、シンセサイザ335はサブバンドを組合わせることで、1以上のマルチチャンネル音声信号をフレーム毎に再構成して、時間領域の強調された音声信号を形成する。強調された音声信号は、再度時間領域に変換され、更なる処理のためにシステムの構成要素や外部デバイスに送られる場合がある。
図4は、本開示の様々な実施形態に係る、サブバンドフレームを処理する例示的なターゲット強調エンジン400を示す。ターゲット強調エンジン400は、デジタル回路部と、デジタルシグナルプロセッサによって実行されるロジックと、の組合せとして実装され得る。従来の多くのシステムにおいて、ビームフォーミングを用いたターゲット信号の強調は、ターゲット音源からマイクロフォンアレーへのRTFについての知識又は推定が必要となる場合があったが、その情報はアレーの配列が事前に分かっていない場合には自明ではない。加えて、マイクロフォンの数が増えるにつれ、多くのマルチチャンネル発話抽出アルゴリズムは指数関数的に複雑さを増す。このため、そのようなアルゴリズムは多くのリアルタイムな低電力デバイスには適さないものとなる。
本開示の様々な実施形態によれば、ターゲット強調エンジン400は、ターゲット音声RTF推定部410と、音声信号強調部415と、を備える。ターゲット音源RTF推定410は、サブバンドフレーム及びターゲットアクティビティ検出部415により生成されたターゲットアクティビティ信号を受信して、ターゲット音源のRTFの推定値を決定する。様々な実施形態では、ターゲット音源RTF推定部は、主固有ベクトルを生成するための、修正されたGEV処理を含む。音声信号強調部415は、ターゲット音源RTF推定部410の出力を受信し、ターゲット音声信号を推定する。様々な実施形態では、音声信号強調部415は、歪の無いMVDRビームフォーマーを用いることなどにより、ビームフォーミング処理を制御するために主固有ベクトルを用いる。本明細書で開示されるアプローチは、計算効率が高い処理を提供し、歪み無しの拘束条件を実現することで、技術の欠点の多くを解決する。いくつかの実施形態では、ポストフィルタリングで用いるために、ノイズ出力信号が作られても良い。様々な実施形態による例示的なGEV処理が、下記で説明される。
図4Bを参照して例示的な発話強調エンジン450が示される。発話強調エンジン450は、一般化固有ベクトル(GEV)エンジン460と、ビームフォーマー470と、を備える。GEVエンジン460は、ボイスアクティビティ検出部455からのボイスアクティビティ信号と、分解されたサブバンド音声信号と、を受信する。GEVエンジン460は、本明細書で説明される処理によって実現される、逆行列更新ロジック462と、正規化ロジック464と、主固有ベクトル追跡ロジック466と、を備える。分離ターゲット音声及びオプションとしてノイズ信号を作るためのMVDRビームフォーマーとして実装され得るビームフォーマー470には、主固有ベクトル及び信号情報が供給される。図示された実施形態では、ビームフォーマー470から出力されるターゲット音声信号からノイズ要素を更に取り除くために、ポストフィルタプロセッサ480が用いられる場合がある。

表記及び仮定
図示された環境では、ターゲット強調エンジン400は、N個のマイクロフォンのチャンネルから受信した信号を測定する。マイクロフォンの各チャンネルはk個のサブバンドに変換され、各周波数ビンについて処理が実行される。M×1のベクトルxが、kで示される各フレームについて取得され得る。
信号のモデルがx=h+nで示される。ここで、Sはターゲット音声のスペクトル成分であり、hはRTFベクトル(h[1]=1に制約される)であり、nはノイズ成分である。
以下の表記が更に用いられる場合がある。
Figure 0007324753000001

正規化及び歪み無し拘束条件
様々な実施形態では、ターゲット音声RTF推定部410は、歪み無しの拘束条件を実現するように作動可能であり、このために、システムはポストフィルタリングに使用可能なノイズ出力信号を生成できる。
GEVがGEVビームフォーマーのためのビームフォーマー係数を示し、hがステアリングベクトルを示すところ、次の式はfGEVとhとがノイズの共分散行列Pを通して関連付けられることを示す。fGEVは、
Figure 0007324753000002

の固有ベクトルであり、そのため以下の式が推論され得ることが認められる。
Figure 0007324753000003
行列
Figure 0007324753000004
の階数が1であるため、その固有ベクトル(ゼロで無い固有値に対応する)はfGEVを拡大縮小したものである。更に、線形代数の理論を階数が1の行列である固有ベクトルに用いることで、
Figure 0007324753000005
がそのような固有ベクトルであると推論することが出来る。言い換えると、上記の式に基づき、fGEVとRTFベクトルhが関連し、それらの関係は
Figure 0007324753000006
と表現される得ることが理解される。
上記の観点において、マイクロフォンのアレーからターゲット音源へのステアリングベクトルについての非正規化推定は、次のように示し得る。
Figure 0007324753000007
このように、GEVの解法がステアリングベクトルhの推定に使用可能であることが示される。推定されたベクトルhは、その後、最小分散無歪応答(MVDR)の解法に埋め込まれて、歪み無しの制約条件を実現し、出力を第1チャンネルに以下の式により投影し得る。
Figure 0007324753000008
ここで、第1チャンネルは任意に選択されたものであり、我々はこれに代えて所望のチャンネルに投影することを選択し得る。
したがって、GEVは主固有ベクトル法を用いて相対伝達関数(RTF)を推定するために用いられ得る。そして、GEVは次のようにMVDRの解法に埋め込まれ得る。
Figure 0007324753000009
このように、ターゲット音声(例えば、発話)の出力は
Figure 0007324753000010
として表現され得る。ノイズ出力は
Figure 0007324753000011
として表現される(第1チャンネルが基準チャンネルとして選ばれた場合)。
逆行列補題より、次の式
Figure 0007324753000012
が、次のように置換え可能であることに留意されたい。
Figure 0007324753000013
上記の式において、共分散行列Pを共分散行列Pに置換えることは、MVDRのビームフォーマーの結果に重要な影響を与えることはないと考えられてきた。実際には、PとPを追跡するステップサイズが同一でない場合があり、それらは解に影響し得る。しかし、本実施形態では、この影響は最小限である。上述の処理を用いる利点として、行列Pに関する情報はもはや不要であるため(そして、デバイスのメモリに記憶する必要がもはや無いため)、音声処理デバイスにおけるメモリの消費量を減らすことが出来る点が挙げられる。
これに代えて、本開示のブラインド分析的正規化(blind analytical normalization)処理においては、ターゲット音声信号は次のように表記され得る。
Figure 0007324753000014
また、ノイズの音声出力は、次のように表記され得る。
Figure 0007324753000015
(ただし、上記の式は、第1チャンネルが基準である場合について書かれている)

正規化行列の逆追跡
従来の、閉型で非反復のGEVでは、行列Pは全てのステップで逆行列にされており、計算量が嵩んでいた。そこで、1以上の実施形態による追跡法は、各ステップで行列Pを逆行列にする必要がない。追跡法がどのように働くか示すために、我々はシャーマン―モリソンの公式に基づく方法を以下のように提案する。行列Pと、任意の数α及びλと、ベクトルxと、が与えられ、そして、
Figure 0007324753000016
かつ P=αP+(1-α)xx である場合に、
Figure 0007324753000017
である。
この技術は、コストが高い逆行列の処理を行う必要無く、フレーム毎にPの逆行列を追跡できるように対応可能である。λを選ぶことで、正規化もまた同時的に実行可能である。これは、xが非常に小さいとき、逆行列は大きな数を含む場合があり、計算のコストが増大するためである。更に、行列Pの逆行列における値を正規化することは、GEVベクトルに実質的な悪影響が無い。これは、後者それ自体が実質的に正規化されているためである。λの値は、Q値を計算上安定化させ得る如何なる形態の正規化係数であり得ることに留意されたい。

主固有ベクトルの追跡
上の節で説明したアプローチは、GEVの正規化及び逆行列に伴う複雑性に対応している。しかしながら、各反復において主固有ベクトルをN×Nの行列から抽出することもまた、計算量が嵩むことに留意されたい。そのため、本開示の様々な実施形態において、主固有ベクトルが連続的に進化するとの仮定の下、べき乗法の1反復による主固有ベクトルの追跡を提供する。支配的な固有ベクトルfGEV及び行列C=Qの初期推定値が与えられ、反復処理が次のように表される。
Figure 0007324753000018
上述の処理を繰り返すことで、GEVベクトルを真の主固有ベクトルに収束させることが出来る。しかしながら、実際の処理ではしばしば1度の反復が、急速な収束を生じ、固有ベクトルを効果的に追跡するに十分であり、このことが空間的な連続性についての仮定を支持することに留意されたい。

ブラインド初期化についてのロバスト性
上記で説明した処理の問題の一つに、P又はPの初期化によっていずれかの値にそれらの実際の値と大きな差が生じ、かつ適応のステップサイズが相対的に小さい場合、ある期間の間に式 P=Phh+P が無効である場合がある。このために、音声環境の物理的な意義を反映しないフィルタと、ターゲット音声信号を強調するという意図した目的を達成しない出力と、を生成される。こういったことが起こらないようにするための方法の一つとして、2つの行列の指標(例えば、2つの行列間の1要素)を1以上比較することが挙げられる。比較結果が上述の式に合わないことを示している場合、行列Pを行列Pで置き換え得ること、あるいはその逆(これには、行列Pを記憶すること、又は、QからPを近似すること、が含まれ得る)が考えられる。あるいは、どちらかの適応の平滑化係数を一時的に変更することが考えられる。ある実施形態では、Pは正の数であるため、このことはnorm(P)≧norm(P)を示唆する。
他の見方として、その問題はP又はPの更新が無視し得るほど小さい場合(例えば、現在のPが1であり、計算された更新量が10-9である場合)に生じる。このことは、更新比率が無視できない量になることが保証されるように、平滑化係数を加速させればよいことを示唆する。

アルゴリズム
本開示の様々な実施形態において、上述の議論で示されたように、マイクロフォンアレーの配列についての知識の有無に関わらず、音声信号が効率的に処理されて、本明細書で開示されたように修正されたGEV技術を用いて強調された音声出力信号が生成され得る。図4Aに戻って、ターゲット強調エンジン400は、(例えば、マイクロフォンによって生成されたマイクロフォンアレーからの各音声信号)各音声チャンネルについて多数のサブバンドフレームを受信する場合がある。音声強調回路部400は、ターゲット音源RTF推定部410と、音声信号強調部415と、を備える。ターゲット音声強調部400は、サブバンドフレームを、例えばサブバンド分解回路部320から受信する場合がある。サブバンドフレームを処理する前に、いくつかの実施形態のターゲット音声強調部400は複数の変数を初期化する場合がある。例えば、関数fGEVと行列Pが生成され、初期化され得る。変数λは1の値に、行列Q
Figure 0007324753000019
と等しくなるように、初期化され得る。平滑化定数α及びβもまた選択され得る。加えて、正規化係数の関数
Figure 0007324753000020
が選択され得る。ターゲット音声強調部400は(例えばターゲット音源RTF推定部410を用いて)、行列Qに正規化係数
Figure 0007324753000021
を適応することで行列Qを正規化するように構成され得る。正規化係数は、
Figure 0007324753000022
のようなQの関数であり得る。
上記で議論したように、音声強調回路部400は、ターゲット音声の存在又は不存在を示すアクティビティ信号をアクティビティ検出部405から受信する場合がある。いくつかの実施形態では、アクティビティ検出部405は、デジタル信号処理回路部300のアクティビティ検出部325として実装され得る。本開示の様々な実施形態によれば、ターゲット音源RTF推定部410は、行列P及びQを、アクティビティ検出部405から受信したアクティビティ信号に基づいて更新するように構成される場合がある。いくつかの実施形態では、受信したアクティビティ信号がターゲット音声の存在を示す場合、ターゲット音源RTF推定部410は、サブバンドフレームに基づいて、ターゲット音声の行列Pを次の式を用いて更新するように構成される場合がある。
=αP+(1-α)xx
一方で、受信したアクティビティ信号がターゲット音声の不存在を示す場合、ターゲット音源RTF推定部410は、ノイズの逆行列であるQnを次の式を用いて更新するように構成される場合がある。
Figure 0007324753000023
行列Qが、ノイズの共分散行列Pの逆行列であることに留意されたい。上記の式で示したように、ターゲット音源RTF推定部410は、行列Qを直接更新するように構成され得る。そのためこれらの式を用いることで、様々な実施形態では、ターゲット音源RTF推定部410が更新毎に行列Pを逆行列にする処理を行う必要がなく、この処理の計算の複雑さが実質的に低減される。
又はPの初期値が実際の音声信号からあまりに逸脱していると決定された場合、ターゲット音源RTF推定部410は、上述したように、モデル P=Phh+Pを満たすようにP、及び/又は、Pを調節するように構成される場合がある。
その後、ターゲット音源RTF推定部410は、修正されたGEVの解法において更新された行列Px及びQnを用いて、図4Bの音声信号強調部415又はビームフォーマー470(例えば、MVDRビームフォーマー)によって次のように用いられるステアリングベクトルhを計算するように構成され得る。
Figure 0007324753000024
ステアリングベクトルhが、ターゲット音源の位置と相関することに留意されたい。言い換えれば、上記で議論した技術を用いてステアリングベクトルhを計算することにより、アレーの配列が既知である場合には、ターゲット音源RTF推定部410をマイクロフォンアレーに対するターゲット音声の位置を推定するために用いることが出来る。更に、上記で議論したように、ベクトルhは、
Figure 0007324753000025
を生成するために正規化される場合がある。いくつかの実施形態では、ターゲット音源RTF推定部410は、計算されたステアリングベクトルh、又は、正規化されたステアリングベクトル
Figure 0007324753000026
を音声信号強調部415に伝える場合がある。そして、音声信号強調部415は、様々な実施形態において、MVDRビームフォーミングの解を以下の式のように処理するように構成される場合がある。
Figure 0007324753000027
音声信号強調部415は、そして、ターゲット音声出力である
Figure 0007324753000028
を次のように計算し、
Figure 0007324753000029
更に、ノイズ出力
Figure 0007324753000030
を次のように計算するように構成される場合がある。
Figure 0007324753000031
ターゲット音声出力、及び/又は、ノイズ音声出力は、その後、出力用の強調された音声出力信号を生成するために音声入力信号に適用され得るフィルタを生成するために、音声信号強調部415によって用いられる場合がある。いくつかの実施形態では、本明細書で開示された技術を用いて、音声入力信号のうちターゲット音声に対応する部分を強調し、音声入力信号のうちノイズに対応する部分を抑制することで、強調された音声出力信号を生成するために音声信号が処理される。
図5は、本開示の様々な実施形態による、修正されたGEV技術を用いて音声信号をリアルタイムで処理する例示的な方法500を示す。いくつかの実施形態では、処理500は、音声信号プロセッサ300の1以上のコンポーネントによって実行され得る。図4を参照して上記で議論したように、音声信号を処理する前に、複数の変数が初期化され得る。処理500は(ステップ502において)、ノイズの共分散行列Pの逆行列である行列Qを正規化することで始まる。いくつかの実施形態では、行列Qは、次のように正規化係数の関数
Figure 0007324753000032
を次のように行列Qnに適用することで正規化される場合がある。
Figure 0007324753000033
処理500はそして(ステップ504において)、マルチチャンネル音声信号を受信する。いくつかの実施形態では、マルチチャンネル音声信号は、マイクロフォン(例えば、マイクロフォン305a―305n)のアレーから対応するチャンネルを介して受信した音声信号を含む。マルチチャンネル音声信号を受信すると、処理500は(ステップ506において)マルチチャンネル音声信号の各チャンネルを、予め定められたサブバンド周波数レンジの一セットにより、周波数領域において複数のサブバンドに分解する。
その後、処理500は(ステップ508において)、サブバンドフレームを解析して、ターゲット音声がサブバンドフレームの中に存在するかを決定する。いくつかの実施形態では、ターゲット音声がサブバンドフレームの中に存在するかを決定することは、ターゲットアクティビティ検出部325のようなターゲットアクティビティ検出部によって実行される場合がある。例えば、ターゲット音声が人間の発話を含む場合、アクティビティ検出部は、人間の声がサブバンドフレームの中に存在するかを検出するように構成されたボイスアクティビティ検出部を備える場合がある。
ターゲット音声がサブバンドフレームの中に存在すると決定された場合、処理500は(ステップ510において)、サブバンドフレームに基づいてターゲット音声の特徴に対応する行列を更新する。例えば、ターゲット音源RTF推定部410は、式 P=αP+(1-α)xxを用いて行列Pを更新する場合がある。一方、ターゲット音声がサブバンドフレームの中に存在しないと決定された場合、処理500は(ステップ512において)、サブバンドフレームに基づいてノイズの特徴に対応する行列を更新する。例えば、ターゲット音源RTF推定部410は、上記で議論したように、行列Qを次の式を用いて更新する場合がある。
Figure 0007324753000034
様々な実施形態に関して上記で議論したように、行列Qはノイズの共分散行列Pの逆行列である。また、いくつかの実施形態のターゲット音源RTF推定部410は、このステップにおいて逆行列にする処理を実行せず、逆行列であるQを直接更新する場合がある。加えて、これらの式によれば、ターゲット音源RTF推定部410は、この更新において正規化係数を考慮に入れることが出来る。いくつかの実施形態では、処理500は、サブバンド分解回路部320から新たなサブバンドフレームを取得することによりステップ508から512を所望の回数だけ複数回繰り返すと共に、各繰り返しにおいて新たに取得したサブバンドフレームの中にターゲット音声が検出されたかに依存して行列P及びQのうちいずれか一つを更新する場合がある。
一度行列が更新されると、処理500は(ステップ514において)、更新された行列に基づいて、マイクロフォンのアレーの位置に対するターゲット音源(例えば、ターゲット音源110)のRTFを推定する。いくつかの実施形態では、ターゲット音源のRTFを推定することは、マイクロフォンのアレーからターゲット音源へのステアリングベクトルを計算することを含む。例えば、ターゲット音源RTF推定部410は、上記で議論したように、次の式を用いてベクトルを計算する場合がある。
Figure 0007324753000035
そして処理500は(ステップ516において)、推定されたRTFを無歪ビームフォーミングの解法に適用してフィルタを生成する。例えば、音声信号強調部415は、次の式に基づいて、計算されたベクトルをMVDRビームフォーミングの解法に用いる場合がある。
Figure 0007324753000036
MVDRビームフォーミングの解法に基づいて、音声信号強調部415はその後、サブバンドフレームから次の式を用いてターゲット音声に関するデータを含むターゲット音声出力をサブバンドフレームから計算する場合がある。
Figure 0007324753000037
加えて、音声信号強調部415は、更に、次の式を用いて、ノイズに関するデータを含むノイズ出力を計算する場合がある。
Figure 0007324753000038
音声信号強調部415は、ターゲット音声出力又はノイズ出力とのうち少なくとも一方に基づいて、フィルタを生成する場合がある。例えばフィルタは、ノイズ出力からのデータを含む場合があり、音声信号に適用された場合に、ノイズに関する如何なる音声データが抑制又は除去され、それにより実質的にターゲット音声を有する音声信号を残す。他の例では、フィルタはターゲット音声出力からのデータを含む場合があり、音声信号に適応された場合に、ターゲット音声に関する如何なる音声データを強調する。
ステップ518において、処理500は、生成されたフィルタを音声信号に適用して強調された音声出力信号を生成する。強調された音声出力信号は、その後、(ステップ520において)様々なデバイス又はコンポーネントに伝達される。例えば、強調された音声出力信号はパケット化され、ネットワークを介して他の音声出力デバイス(例えば、スマートフォン、コンピュータ、等)に伝達される場合がある。強調された音声出力信号はまた、更なる処理のために、自動音声認識コンポーネントのようなボイス処理回路部に伝達される場合がある。
前述の開示は、開示された正確な形態または特定の使用分野に本発明を限定することを意図したものでは無い。したがって、本開示に照らして、本明細書で明示的に説明された又は暗示されたかにかかわらず、本開示について様々な代替の実施形態、及び/又は、変形例が可能であると考えられる。ここまで本開示の実施形態を説明したが、当業者は従来のアプローチに対する利点を認識し、本開示の範囲から逸脱することなく、形態および詳細が変更可能であることを認識するだろう。したがって、本開示は、特許請求の範囲によってのみ限定される。

Claims (19)

  1. 音声信号を処理するための方法であって、
    複数の音声入力コンポーネントによって検出された音声入力に基づいてマルチチャンネル音声信号を受信し、
    前記マルチチャンネル音声信号を複数の周波数サブバンドによって複数のサブバンドフレームに変換し、
    前記複数のサブバンドフレームのそれぞれが音源に関連するターゲット音声を含むかを決定し、
    前記複数のサブバンドフレームのうちの前記ターゲット音声が存在するものに基づいて、前記音声入力の中の前記ターゲット音声の特徴を示す、ターゲット音声のパワースペクトル密度行列を生成し、
    前記複数のサブバンドフレームのうちの前記ターゲット音声が存在しないものに基づいて、前記音声入力の中のノイズの特徴を示す、ノイズのパワースペクトル密度行列の逆行列を生成し、
    前記ターゲット音声のパワースペクトル密度行列と前記ノイズのパワースペクトル密度行列の前記逆行列とに基づいて、下記式:
    Figure 0007324753000039
    で与えられる関係を用いて前記複数の音声入力コンポーネントに関する前記音源の相対伝達関数としてステアリングベクトルを算出し、
    前記マルチチャンネル音声信号を処理して、ステアリングベクトルに基づく最小分散無歪応答(MVDR)ビームフォーミングによって前記マルチチャンネル音声信号の中の前記ターゲット音声を強調することにより音声出力信号を生成する、
    ことを含む方法。
    ただし、hは前記ステアリングベクトルであり、Pxは前記ターゲット音声のパワースペクトル密度行列であり、f GEV はPn -1 Pxの固有ベクトルであり、Pn -1 は前記ノイズのパワースペクトル密度行列の前記逆行列である。
  2. 前記ターゲット音声のパワースペクトル密度行列と前記ノイズのパワースペクトル密度行列の前記逆行列とに基づいて前記固有ベクトルを計算することを更に含む、
    請求項1の方法。
  3. 前記ノイズのパワースペクトル密度の前記逆行列を生成することが、前記ノイズのパワースペクトル密度をメモリに記憶せずに前記マルチチャンネル音声信号に基づき前記ノイズのパワースペクトル密度の前記逆行列を直接更新することを含む、
    請求項の方法。
  4. 前記固有ベクトルを計算することが、反復抽出アルゴリズムを用いて前記固有ベクトルを計算することを含む、
    請求項の方法。
  5. 前記複数の音声入力コンポーネントが、マイクロフォンのアレーを備える、
    請求項1の方法。
  6. 前記音声出力信号を出力することを更に含む、
    請求項の方法。
  7. 前記音声出力信号が、ネットワークを介して外部デバイスに出力される、
    請求項の方法。
  8. 前記音声出力信号に基づいてコマンドを決定し、
    外部デバイスに前記コマンドを伝達する、
    ことを更に含む、請求項の方法。
  9. 伝達された前記コマンドに基づいて、前記外部デバイスからデータを受信し、
    前記外部デバイスから前記データを受信したことに応じて、受信した前記データに基づいて1以上のスピーカーから出力を供給する、
    ことを更に含む、請求項の方法。
  10. 音声入力を検出し、検出された前記音声入力に基づいてマルチチャンネル音声信号を生成するように構成された複数の音声入力コンポーネントと、
    前記マルチチャンネル音声信号を、複数の周波数サブバンドによって複数のサブバンドフレームに変換するように構成されたサブバンド周波数アナライザと、
    前記複数のサブバンドフレームのそれぞれが音源に関連するターゲット音声を含むかを決定するように構成されたアクティビティ検出部と、
    前記複数のサブバンドフレームのうちの前記ターゲット音声が存在するものに基づいて、前記音声入力の中の前記ターゲット音声の特徴を示す、ターゲット音声のパワースペクトル密度行列を生成し、
    前記複数のサブバンドフレームのうちの前記ターゲット音声が存在しないものに基づいて、前記音声入力の中のノイズの特徴を示す、ノイズのパワースペクトル密度行列の逆行列を生成し、
    前記ターゲット音声のパワースペクトル密度行列と前記ノイズのパワースペクトル密度行列の前記逆行列基づいて、下記式:
    Figure 0007324753000040
    で与えられる関係を用いて前記複数の音声入力コンポーネントに関する前記音源の相対伝達関数としてステアリングベクトルを算出するように構成されたターゲット音源RTF推定部と、
    前記マルチチャンネル音声信号を処理して、ステアリングベクトルに基づく最小分散無歪応答(MVDR)ビームフォーミングによって前記マルチチャンネル音声信号の中の前記ターゲット音声強調することにより音声出力信号を生成するように構成された音声信号プロセッサと、
    を備える、音声処理デバイス。
    ただし、hは前記ステアリングベクトルであり、Pxは前記ターゲット音声のパワースペクトル密度行列であり、f GEV はPn -1 Pxの固有ベクトルであり、Pn -1 は前記ノイズのパワースペクトル密度行列の前記逆行列である。
  11. 前記ターゲット音源RTF推定部が、前記ターゲット音声のパワースペクトル密度行列と前記ノイズのパワースペクトル密度行列の前記逆行列とに基づいて前記固有ベクトルを計算するうに構成されている、
    請求項10の音声処理デバイス。
  12. 前記ノイズのパワースペクトル密度の前記逆行列を生成することが、前記ノイズのパワースペクトル密度をメモリに記憶せずに前記マルチチャンネル音声信号に基づき前記ノイズのパワースペクトル密度の前記逆行列を直接更新することを含む、
    請求項10の音声処理デバイス。
  13. 前記固有ベクトルが、反復抽出アルゴリズムを用いて計算される、
    請求項11の音声処理デバイス。
  14. 前記複数の音声入力コンポーネントが、マイクロフォンのアレーを備える、
    請求項10の音声処理デバイス。
  15. 前記音声出力信号を出力するように構成された1以上のスピーカーを更に備える、
    請求項10の音声処理デバイス。
  16. 前記音声出力信号を外部デバイスに伝達するように構成されたネットワークインターフェースを更に備える、
    請求項10の音声処理デバイス。
  17. 前記音声出力信号に基づいて、1以上の単語を決定するように構成された発話認識エンジンを更に備える、
    請求項10の音声処理デバイス。
  18. 前記発話認識エンジンが、前記1以上の単語をコマンドに割当てるように更に構成されている、
    請求項17の音声処理デバイス。
  19. ターゲット音声、ボイス信号を含み、前記アクティビティ検出部が、ボイスアクティビティ検出部である、
    請求項11の音声処理デバイス。
JP2020528911A 2017-12-06 2018-12-05 修正された一般化固有値ビームフォーマーを用いた音声信号のボイス強調 Active JP7324753B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/833,977 US10679617B2 (en) 2017-12-06 2017-12-06 Voice enhancement in audio signals through modified generalized eigenvalue beamformer
US15/833,977 2017-12-06
PCT/US2018/064133 WO2019113253A1 (en) 2017-12-06 2018-12-05 Voice enhancement in audio signals through modified generalized eigenvalue beamformer

Publications (2)

Publication Number Publication Date
JP2021505933A JP2021505933A (ja) 2021-02-18
JP7324753B2 true JP7324753B2 (ja) 2023-08-10

Family

ID=66659350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020528911A Active JP7324753B2 (ja) 2017-12-06 2018-12-05 修正された一般化固有値ビームフォーマーを用いた音声信号のボイス強調

Country Status (4)

Country Link
US (1) US10679617B2 (ja)
JP (1) JP7324753B2 (ja)
CN (1) CN111418012B (ja)
WO (1) WO2019113253A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11172293B2 (en) * 2018-07-11 2021-11-09 Ambiq Micro, Inc. Power efficient context-based audio processing
JP7407580B2 (ja) 2018-12-06 2024-01-04 シナプティクス インコーポレイテッド システム、及び、方法
US10728656B1 (en) * 2019-01-07 2020-07-28 Kikago Limited Audio device and audio processing method
KR20200132613A (ko) * 2019-05-16 2020-11-25 삼성전자주식회사 웨이크 언 보이스(Wake on Voice, WoV) 기술을 이용한 음성 인식 수행 방법 및 장치
US10735887B1 (en) * 2019-09-19 2020-08-04 Wave Sciences, LLC Spatial audio array processing system and method
US11997474B2 (en) 2019-09-19 2024-05-28 Wave Sciences, LLC Spatial audio array processing system and method
US11064294B1 (en) 2020-01-10 2021-07-13 Synaptics Incorporated Multiple-source tracking and voice activity detections for planar microphone arrays
CN111312275B (zh) * 2020-02-13 2023-04-25 大连理工大学 一种基于子带分解的在线声源分离增强系统
EP4292087A1 (en) * 2021-02-11 2023-12-20 Nuance Communications, Inc. First and second embedding of acoustic relative transfer functions
US11823707B2 (en) 2022-01-10 2023-11-21 Synaptics Incorporated Sensitivity mode for an audio spotting system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001100800A (ja) 1999-09-27 2001-04-13 Toshiba Corp 雑音成分抑圧処理装置および雑音成分抑圧処理方法
JP2007047427A (ja) 2005-08-10 2007-02-22 Hitachi Ltd 音声処理装置
JP2016080750A (ja) 2014-10-10 2016-05-16 株式会社Nttドコモ 音声認識装置、音声認識方法、及び音声認識プログラム
JP2018141922A (ja) 2017-02-28 2018-09-13 日本電信電話株式会社 ステアリングベクトル推定装置、ステアリングベクトル推定方法およびステアリングベクトル推定プログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7088831B2 (en) * 2001-12-06 2006-08-08 Siemens Corporate Research, Inc. Real-time audio source separation by delay and attenuation compensation in the time domain
US8098842B2 (en) * 2007-03-29 2012-01-17 Microsoft Corp. Enhanced beamforming for arrays of directional microphones
US8005237B2 (en) 2007-05-17 2011-08-23 Microsoft Corp. Sensor array beamformer post-processor
DE602008002695D1 (de) 2008-01-17 2010-11-04 Harman Becker Automotive Sys Postfilter für einen Strahlformer in der Sprachverarbeitung
EP2146519B1 (en) 2008-07-16 2012-06-06 Nuance Communications, Inc. Beamforming pre-processing for speaker localization
US9202456B2 (en) 2009-04-23 2015-12-01 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for automatic control of active noise cancellation
US9768829B2 (en) 2012-05-11 2017-09-19 Intel Deutschland Gmbh Methods for processing audio signals and circuit arrangements therefor
EP3462452A1 (en) * 2012-08-24 2019-04-03 Oticon A/s Noise estimation for use with noise reduction and echo cancellation in personal communication
EP2747451A1 (en) 2012-12-21 2014-06-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Filter and method for informed spatial filtering using multiple instantaneous direction-of-arrivial estimates
EP2884489B1 (en) * 2013-12-16 2020-02-05 Harman Becker Automotive Systems GmbH Sound system including an engine sound synthesizer
EP2916321B1 (en) * 2014-03-07 2017-10-25 Oticon A/s Processing of a noisy audio signal to estimate target and noise spectral variances
US9432769B1 (en) 2014-07-30 2016-08-30 Amazon Technologies, Inc. Method and system for beam selection in microphone array beamformers
US10049678B2 (en) * 2014-10-06 2018-08-14 Synaptics Incorporated System and method for suppressing transient noise in a multichannel system
US20180039478A1 (en) * 2016-08-02 2018-02-08 Google Inc. Voice interaction services
US10170134B2 (en) * 2017-02-21 2019-01-01 Intel IP Corporation Method and system of acoustic dereverberation factoring the actual non-ideal acoustic environment
US10269369B2 (en) * 2017-05-31 2019-04-23 Apple Inc. System and method of noise reduction for a mobile device
US10096328B1 (en) * 2017-10-06 2018-10-09 Intel Corporation Beamformer system for tracking of speech and noise in a dynamic environment
US10090000B1 (en) * 2017-11-01 2018-10-02 GM Global Technology Operations LLC Efficient echo cancellation using transfer function estimation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001100800A (ja) 1999-09-27 2001-04-13 Toshiba Corp 雑音成分抑圧処理装置および雑音成分抑圧処理方法
JP2007047427A (ja) 2005-08-10 2007-02-22 Hitachi Ltd 音声処理装置
JP2016080750A (ja) 2014-10-10 2016-05-16 株式会社Nttドコモ 音声認識装置、音声認識方法、及び音声認識プログラム
JP2018141922A (ja) 2017-02-28 2018-09-13 日本電信電話株式会社 ステアリングベクトル推定装置、ステアリングベクトル推定方法およびステアリングベクトル推定プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
伊藤信貴 他,"統計的空間辞書に基づくオンライン話者識別と適応ビームフォーミングによる複数人会話音声認識のための音声強調",日本音響学会2017年秋季研究発表会講演論文集CD-ROM,2017年09月11日,pp.507-508

Also Published As

Publication number Publication date
WO2019113253A1 (en) 2019-06-13
JP2021505933A (ja) 2021-02-18
US10679617B2 (en) 2020-06-09
CN111418012B (zh) 2024-03-15
US20190172450A1 (en) 2019-06-06
CN111418012A (zh) 2020-07-14

Similar Documents

Publication Publication Date Title
JP7324753B2 (ja) 修正された一般化固有値ビームフォーマーを用いた音声信号のボイス強調
CN110100457B (zh) 基于噪声时变环境的加权预测误差的在线去混响算法
US10490204B2 (en) Method and system of acoustic dereverberation factoring the actual non-ideal acoustic environment
US11694710B2 (en) Multi-stream target-speech detection and channel fusion
US10522167B1 (en) Multichannel noise cancellation using deep neural network masking
US10930298B2 (en) Multiple input multiple output (MIMO) audio signal processing for speech de-reverberation
US9721583B2 (en) Integrated sensor-array processor
JP7498560B2 (ja) システム及び方法
US10403300B2 (en) Spectral estimation of room acoustic parameters
KR100486736B1 (ko) 두개의 센서를 이용한 목적원별 신호 분리방법 및 장치
WO2017029044A1 (en) Microphone array signal processing system
US10049685B2 (en) Integrated sensor-array processor
TW202147862A (zh) 強烈雜訊干擾存在下穩健的揚聲器定位系統與方法
JP6265903B2 (ja) 信号雑音減衰
Delcroix et al. Multichannel speech enhancement approaches to DNN-based far-field speech recognition
US10204638B2 (en) Integrated sensor-array processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230731

R150 Certificate of patent or registration of utility model

Ref document number: 7324753

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150