JP6028502B2 - 音声信号処理装置、方法及びプログラム - Google Patents

音声信号処理装置、方法及びプログラム Download PDF

Info

Publication number
JP6028502B2
JP6028502B2 JP2012221537A JP2012221537A JP6028502B2 JP 6028502 B2 JP6028502 B2 JP 6028502B2 JP 2012221537 A JP2012221537 A JP 2012221537A JP 2012221537 A JP2012221537 A JP 2012221537A JP 6028502 B2 JP6028502 B2 JP 6028502B2
Authority
JP
Japan
Prior art keywords
coherence
speech
section
disturbing
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012221537A
Other languages
English (en)
Other versions
JP2014075674A (ja
Inventor
克之 高橋
克之 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2012221537A priority Critical patent/JP6028502B2/ja
Priority to US14/432,480 priority patent/US9418676B2/en
Priority to PCT/JP2013/066401 priority patent/WO2014054314A1/ja
Publication of JP2014075674A publication Critical patent/JP2014075674A/ja
Application granted granted Critical
Publication of JP6028502B2 publication Critical patent/JP6028502B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Otolaryngology (AREA)
  • Quality & Reliability (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Description

本発明は音声信号処理装置、方法及びプログラムに関し、例えば、電話やテレビ会議などの音声信号を扱う通信機又は通信ソフトウェアに適用し得るものである。
雑音抑制技術として、ボイススイッチと呼ばれる技術やウィーナーフィルターと呼ばれる技術などがある(特許文献1、特許文献2参照)。
ボイススイッチは、目的音声区間検出機能を用いて入力信号から話者が話している区間(目的音声区間)を検出し、目的音声区間の場合は無処理で出力し、非目的音声区間の場合は振幅を減衰する、という技術である。例えば、図12に示すように、入力信号inputを受信すると、目的音声区間か否かを判定し(ステップS51)、目的音声区間であればゲインVS_GAINに1.0を設定し(ステップS52)、非目的音声区間であればゲインVS_GAINに1.0未満の任意の正の数値αを設定し(ステップS53)、その後、ゲインVS_GAINを入力信号inputに乗算して出力信号outputを得る(ステップS54)。
このボイススイッチ技術を、テレビ会議装置や携帯電話のような音声通信機器に適用することにより、非目的音声区間(雑音)を抑制して所望の目的音声を抽出することができるので、通話音質を高めることができる。
ところで、非目的音声は、話者以外の人間の声である「妨害音声」と、オフィスノイズや道路ノイズなどのような「背景雑音」とに分けられる。非目的音声区間が背景雑音のみの場合には、通常の目的音声区間検出機能で目的音声区間か否かを正確に判定できるのに対し、妨害音声が背景雑音に重畳されている場合には、目的音声区間検出機能は妨害音声も目的音声とみなしてしまうために誤判定が生じる。この結果、ボイススイッチで妨害音声を抑制できず、十分な通話音質に達しない。
この課題は、目的音声区間検出部で参照する特徴量として、これまで用いてきた入力信号レベルの変動から、コヒーレンスに変更することで改善される。コヒーレンスとは、簡単に述べれば、入力信号の到来方向を意味する特徴量である。携帯電話などの利用を想定した場合、話者の声(目的音声)は正面から到来し、妨害音声は正面以外から到来する傾向が強いので、到来方向に着目することで、従来は不可能だった目的音声と妨害音声との区別が可能となる。
図13は、目的音声検出機能にコヒーレンスを用いる場合のボイススイッチの構成を示すブロック図である。
一対のマイクm_1、m_2のそれぞれから、図示しないAD変換器を介して入力信号s1(n)、s2(n)を取得する。なお、nはサンプルの入力順を表すインデックスであり、正の整数で表現される。本文中では、nが小さいほど古い入力サンプルであり、大きいほど新しい入力サンプルであるとする。
FFT部10は、マイクm_1及びm_2から入力信号系列s1(n)及びs2(n)を受け取り、その入力信号s1及びs2に高速フーリエ変換(あるいは離散フーリエ変換)を行うものである。これにより、入力信号s1及びs2を周波数領域で表現することができる。なお、高速フーリエ変換を実施するにあたり、入力信号s1(n)及びs2(n)から、所定のN個のサンプルからなる分析フレームFRAME1(K)及びFRAME2(K)を構成して適用する。入力信号s1(n)から分析フレームFRAME1(K)を構成する例を以下の(1)式に示すが、分析フレームFRAME2(K)も同様である。
Figure 0006028502
なお、Kはフレームの順番を表すインデックスであり、正の整数で表現される。本文中では、Kが小さいほど古い分析フレームであり、大きいほど新しい分析フレームであるとする。また、以降の動作説明において、特に但し書きがない限りは、分析対象となる最新の分析フレームを表すインデックスはKであるとする。
FFT部10は、分析フレームごとに高速フーリエ変換処理を施すことで、周波数領域信号X1(f,K)、X2(f,K)に変換し、得られた周波数領域信号X1(f,K)及びX2(f,K)をそれぞれ、対応する第1の指向性形成部11、第2の指向性形成部12に与える。なお、fは周波数を表すインデックスである。また、X1(f,K)は単一の値ではなく、(2)式に示すように、複致の周波数f1〜fmのスペクトル成分から構成されるものである。X2(f,K)や後述するB1(f,K)及びB2(f,K)も同様である。
X1(f,K)={(f1,K),(f2,K),…,(fm,K)}
…(2)
第1の指向性形成部11では、周波数領域信号X1(f,K)及びX2(f,K)から特定方向に指向性が強い信号B1(f,K)を形成し、第2の指向性形成部12では、周波数領域信号X1(f,K)及びX2(f,K)から特定方向(上述の特定方向とは異なる)に指向性が強い信号B2(f,K)を形成する。特定方向に指向性が強い信号B1(f,K)、B2(f,K)の形成方法としては既存の方法を適用でき、例えば、(3)式を適用して右方向に指向性が強いB1(f,K)や(4)式を適用して左方向に指向性が強いB2(f,K)が形成できる。(3)式及び(4)式では、フレームインデックスKは演算に関与しないので省略している。
Figure 0006028502
これらの式の意味を、(3)式を例に、図14及び図15を用いて説明する。図14(A)に示した方向θから音波が到来し、距離lだけ隔てて設置されている一対のマイクm_1及びm_2で捕捉されたとする。このとき、音波が一対のマイクm_1及びm_2に到達するまでには時間差が生じる。この到達時間差τは、音の経路差をdとすると、d=l×sinθなので、音速をcとすると(5)式で与えられる。
τ=l×sinθ/c …(5)
ところで、入力信号s1(n)にτだけ遅延を与えた信号s1(t−τ)は、入力信号s2(t)と同一の信号である。従って、両者の差をとった信号y(t)=s2(t)−s1(t−τ)は、θ方向から到来した音が除去された信号となる。結果として、マイクロフォンアレーm_1及びm_2は図14(B)のような指向特性を持つようになる。
なお、以上では、時間領域での演算を記したが、周波数領域で行っても同様なことがいえる。この場合の式が、上述した(3)式及び(4)式である。今、一例として、到来方向θが±90度であることを想定している。すなわち、第1の指向性形成部11からの指向性信号B1(f)は、図15(A)に示すように右方向に強い指向性を有し、第2の指向性形成部12からの指向性信号B2(f)は、図15(B)に示すように左方向に強い指向性を有する。
以上のようにして得られた指向性信号B1(f)、B2(f)に対し、コヒーレンス計算部13で、(6)式、(7)式のような演算を施すことでコヒーレンスCOHが得られる。(6)式におけるB2(f)はB2(f)の共役複素数である。
Figure 0006028502
目的音声区間検出部14では、コヒーレンスCOHを目的音声区間判定閾値Θと比較し、閾値Θより大きければ目的音声区間と判定し、そうでなければ非目的音声区間と判定し、判定結果VAD_RES(K)を形成する。
ここで、コヒーレンスの大小で目的音声区間を検出する背景を簡単に述べておく。コヒーレンスの概念は、右から到来する信号と左から到来する信号の相関と言い換えられる(上述した(6)式はある周波数成分についての相関を算出する式であり、(7)式は全ての周波数成分の相関値の平均を計算している)。従って、コヒーレンスCOHが小さい場合とは、2つの指向性信号B1及びB2の相関が小さい場合であり、反対にコヒーレンスCOHが大きい場合とは相関が大きい場合と言い換えることができる。そして、相関が小さい場合の入力信号は、入力到来方向が右又は左のどちらかに大きく偏った場合か、偏りがなくても雑音のような明確な規則性の少ない信号の場合である。そのため、コヒーレンスCOHが小さい区間は妨害音声区間あるいは背景雑音区間(非目的音声区間)であるといえる。一方、コヒーレンスCOHの値が大きい場合は、到来方向の偏りがないため、入力信号が正面から到来する場合であるといえる。今、目的音声は正面から到来すると仮定しているので、コヒーレンスCOHが大きい場合は目的音声区間といえる。
ゲイン制御部15は、目的音声区間ならばゲインVS_GAINとして1.0を、非目的音声区間(妨害音声、背景雑音)ならばゲインVS_GAINとして1.0未満の任意の正の数値αを設定する。ボイススイッチゲイン乗算部16は、得られたゲインVS_GAINを入力信号s1(n)に乗算することでボイススイッチ後の信号y(n)を得る。
特開2006−333215号公報 特表2010−532879号公報
ところで、到来方位が正面寄りならばコヒーレンスCOHは全体的に大きい値となるが、側方にずれていくにつれてコヒーレンスCOHは小さい値になる。図16は、音声の到来方位が正面寄り(実線)、音声の到来方位が側方(点線)、到来方位が正面及び側方の中間(破線)の場合におけるコヒーレンスCOHの変化を示しており、縦軸がコヒーレンスCOH、横軸が時間(分析フレームk)を表している。
図16に示すように、コヒーレンスCOHは到来方位に応じて値のレンジが大きく変わるという特性をもつ。しかし、従来は、到来方位に関わらず目的音声区間判定閾値Θが固定値であるため、誤判定が生じるという課題がある。
例えば、閾値Θが大きい場合には、音声の立ち上がり区間や子音部のような、目的音声であってもコヒーレンスCOHの値がそれほど大きくならない期間で、目的音声区間が非目的音声区間と誤判定される。これにより、ボイススイッチ処理によって目的音声成分が減衰されてしまい、ところどころ途切れたような不自然な音質となってしまう。
また、閾値Θとして小さい値を設定した場合には、正面寄りの到来方位から妨害音が到来した場合には、妨害音のコヒーレンスが閾値Θを上回ってしまい、非目的音声区間が目的音声区間であると誤判定されてしまう。これにより、非目的音声成分が減衰されずに十分な消去性能が得られなくなる。加えて、装置利用者が妨害音声の到来方位が時々刻々と変化する環境にいる場合には、誤判定の頻度は増す。
以上のように、目的音声区間の判定閾値Θが固定値であるため、所望の区間でボイススイッチ処理を稼動させられず、所望外の区間でボイススイッチ処理を稼動させ、音質を低下させてしまうという課題がある。
そのため、ボイススイッチを適切に稼動させて音質を向上できる音声信号処理装置、方法及びプログラムが望まれている。
第1の本発明は、入力音声信号から雑音成分を抑制する音声信号処理装置において、(1)入力音声信号に遅延減算処理を施すことで、第1の所定方位に死角を有する指向性特性を付与した第1の指向性信号を形成する第1の指向性形成部と、(2)入力音声信号に遅延減算処理を施すことで、上記第1の所定方位とは異なる第2の所定方位に死角を有する指向性特性を付与した第2の指向性信号を形成する第2の指向性形成部と、(3)上記第1及び第2の指向性信号を用いてコヒーレンスを得るコヒーレンス計算部と、(4)上記コヒーレンスと第1の判定閾値とを比較して、入力音声信号が、目的方位から到来している目的音声の区間か、それ以外の非目的音声区間かを判定する目的音声区間検出部と、(5)上記コヒーレンスに基づいて、妨害音声区間と背景雑音区間の双方を含む非目的音声区間中の上記妨害音声区間を検出し、当該妨害音声区間におけるコヒーレンス平均値である妨害音声コヒーレンス平均値を得て、妨害音声コヒーレンス平均値に基づいて、上記第1の判定閾値を制御する目的音声区間判定閾値制御部と、(6)上記目的音声区間検出部の判定結果に応じて、ボイススイッチゲインを設定するゲイン制御部と、(7)上記ゲイン制御部で得られたボイススイッチゲインを入力音声信号に乗算するボイススイッチゲイン乗算部とを有することを特徴とする。
第2の本発明は、入力音声信号から雑音成分を抑制する音声信号処理方法において、(1)第1の指向性形成部は、入力音声信号に遅延減算処理を施すことで、第1の所定方位に死角を有する指向性特性を付与した第1の指向性信号を形成し、(2)第2の指向性形成部は、入力音声信号に遅延減算処理を施すことで、上記第1の所定方位とは異なる第2の所定方位に死角を有する指向性特性を付与した第2の指向性信号を形成し、(3)コヒーレンス計算部は、上記第1及び第2の指向性信号を用いてコヒーレンスを計算し、(4)目的音声区間検出部は、上記コヒーレンスと第1の判定閾値とを比較して、入力音声信号が、目的方位から到来している目的音声の区間か、それ以外の非目的音声区間かを判定し、(5)目的音声区間判定閾値制御部は、上記コヒーレンスに基づいて、妨害音声区間と背景雑音区間の双方を含む非目的音声区間中の上記妨害音声区間を検出し、当該妨害音声区間におけるコヒーレンス平均値である妨害音声コヒーレンス平均値を得て、妨害音声コヒーレンス平均値に基づいて、上記第1の判定閾値を制御し、(6)ゲイン制御部は、上記目的音声区間検出部の判定結果に応じて、ボイススイッチゲインを設定し、(7)ボイススイッチゲイン乗算部は、上記ゲイン制御部で得られたボイススイッチゲインを入力音声信号に乗算することを特徴とする。
第3の本発明の音声信号処理プログラムは、コンピュータを、(1)入力音声信号に遅延減算処理を施すことで、第1の所定方位に死角を有する指向性特性を付与した第1の指向性信号を形成する第1の指向性形成部と、(2)入力音声信号に遅延減算処理を施すことで、上記第1の所定方位とは異なる第2の所定方位に死角を有する指向性特性を付与した第2の指向性信号を形成する第2の指向性形成部と、(3)上記第1及び第2の指向性信号を用いてコヒーレンスを得るコヒーレンス計算部と、(4)上記コヒーレンスと第1の判定閾値とを比較して、入力音声信号が、目的方位から到来している目的音声の区間か、それ以外の非目的音声区間かを判定する目的音声区間検出部と、(5)上記コヒーレンスに基づいて、妨害音声区間と背景雑音区間の双方を含む非目的音声区間中の上記妨害音声区間を検出し、当該妨害音声区間におけるコヒーレンス平均値である妨害音声コヒーレンス平均値を得て、妨害音声コヒーレンス平均値に基づいて、上記第1の判定閾値を制御する目的音声区間判定閾値制御部と、(6)上記目的音声区間検出部の判定結果に応じて、ボイススイッチゲインを設定するゲイン制御部と、(7)上記ゲイン制御部で得られたボイススイッチゲインを入力音声信号に乗算するボイススイッチゲイン乗算部として機能させることを特徴とする。
本発明によれば、目的音声区間か否かを判定するために適用される判定閾値を制御するようにしたので、ボイススイッチを適切に稼動させて音質を向上させることができる。
第1の実施形態に係る音声信号処理装置の構成を示すブロック図である。 第1の実施形態の音声信号処理装置における目的音声区間判定閾値制御部の詳細構成を示すブロック図である。 第1の実施形態の音声信号処理装置における目的音声区間判定閾値制御部内の記憶部の記憶内容の説明図である。 第1の実施形態の音声信号処理装置における目的音声区間判定閾値制御部の動作を示すフローチャートである。 第2の実施形態の音声信号処理装置における目的音声区間判定閾値制御部の動作を示すフローチャートである。 第3の実施形態の音声信号処理装置における目的音声区間判定閾値制御部の詳細構成を示すブロック図である。 第3の実施形態の音声信号処理装置における目的音声区間判定閾値制御部の動作を示すフローチャートである。 周波数減算と第1の実施形態とを併用した変形実施形態の構成を示すブロック図である。 図8の第3の指向性形成部からの指向性信号の性質を示す説明図である。 コヒーレンスフィルターと第1の実施形態とを併用した変形実施形態の構成を示すブロック図である。 ウィーナーフィルターと第1の実施形態とを併用した変形実施形態の構成を示すブロック図である。 ボイススイッチ処理の流れを示すフローチャートである。 目的音声検出機能にコヒーレンスを用いる場合のボイススイッチの構成を示すブロック図である。 図13の指向性形成部からの指向性信号の性質を示す説明図である。 図13の2つの指向性形成部による指向性の特性を示す説明図である。 音声の到来方位によってコヒーレンスの変化が異なることを示す説明図である。
(A)第1の実施形態
以下、本発明による音声信号処理装置、方法及びプログラムの第1の実施形態を、図面を参照しながら説明する。第1の実施形態は、コヒーレンスCOHに基づき、妨害音声の到来方位に応じて適切な目的音声区間の判定閾値Θを設定できるようにしたものである。
(A−1)第1の実施形態の構成
図1は、第1の実施形態に係る音声信号処理装置の構成を示すブロック図であり、上述した図13との同一、対応部分には同一符号を付して示している。ここで、一対のマイクm_1及びm_2を除いた部分は、CPUが実行するソフトウェア(音声信号処理プログラム)として実現することも可能であるが、機能的には、図1で表すことができる。
図1において、第1の実施形態に係る音声信号処理装置1は、従来と同様なマイクm_1、m_2、FFT部10、第1の指向性形成部11、第2の指向性形成部12、コヒーレンス計算部13、目的音声区間検出部14、ゲイン制御部15及びボイススイッチゲイン乗算部16に加え、目的音声区間判定閾値制御部20を有する。
ここで、マイクm_1、m_2、FFT部10、第1指向性形成部11、第2の指向性形成部12、コヒーレンス計算部13、ゲイン制御部15及びボイススイッチゲイン乗算部16は、従来と同様な機能を担っているので、その機能説明は省略する。
目的音声区間判定閾値制御部20は、コヒーレンス計算部13が計算したコヒーレンスCOH(K)に基づき、そのときの到来方位に応じた目的音声区間判定閾値Θ(K)を、目的音声区間検出部14に設定させるものである。
第1の実施形態の目的音声区間検出部14は、コヒーレンスCOH(K)を、可変制御されて設定された目的音声区間判定閾値Θ(K)と比較し、閾値Θ(K)より大きければ目的音声区間と判定し、そうでなければ非目的音声区間と判定し、判定結果VAD_RES(K)を形成するものである。
図2は、目的音声区間判定閾値制御部20の詳細構成を示すブロック図である。
目的音声区間判定閾値制御部20は、コヒーレンス受信部21、非目的音声区間検出部22、非目的音声区間コヒーレンス平均処理部23、差分計算部24、妨害音声区間検出部25、妨害音声コヒーレンス平均処理部26、目的音声区間判定閾値照合部27、記憶部28及び目的音声区間判定閾値送信部29を有する。
コヒーレンス受信部21は、コヒーレンス計算部13が計算したコヒーレンスCOH(K)を取り込むものである。
非目的音声区間検出部22は、コヒーレンスCOH(K)に係る区間が非目的音声区間か否かを粗判定するものである。この粗判定は、コヒーレンスCOH(K)を固定閾値Ψと比較し、コヒーレンスCOH(K)が固定閾値Ψより小さいときに非目的音声区間と判定する。判定閾値Ψは、目的音声区間検出部14が用いる時々刻々と制御される目的音声判定閾値Θとは異なる値であり、非目的音声区間を大雑把に検出できれば良いので、判定閾値Θのように高い精度である必要はなく、固定値を適用する。
非目的音声区間コヒーレンス平均処理部23は、粗判定の結果が目的音声区間であれば、非目的音声区間におけるコヒーレンスの平均値AVE_COH(K)として直前の分析フレームK−1における値AVE_COH(K−1)をそのまま適用し、一方、非目的音声区間であれば、(8)式に従って、非目的音声区間におけるコヒーレンスの平均値AVE_COH(K)を求める。なお、コヒーレンス平均値AVE_COH(K)の計算式は(8)式に限定されるものではなく、所定数のサンプル値を単純平均するなどの他の算出式を適用するようにしても良い。(8)式において、δは、0.0<δ<1.0の範囲内の値である。
AVE_COH(K)=δ×COH(K)
+(1−δ)×AVE_COH(K−1) …(8)
(8)式は、平均値として、現フレーム区間(動作開始時点から数えてK番目の分析フレーム)の入力音声に対するコヒーレンスCOH(K)と1つ前のフレーム区間で得られた平均値AVE_COH(K−1)との重み付け加算を計算しており、δの値の大小で、コヒーレンスCOH(K)の瞬時値の平均値への寄与度を調整することができる。仮に、δを0に近い小さい値に設定した場合には、瞬時値の平均値への寄与度が小さくなるので、瞬時値による変動を抑制できる。また、δが1に近い値であれば、瞬時値の寄与度が高まるので、平均値の効果を弱めることができる。このような観点に従い、δを適宜選定すれば良い。
差分計算部24は、(9)式に示すように、コヒーレンスの瞬時値COH(K)と平均値AVE_COH(K)の差の絶対値DIFF(K)を計算する。
DIFF(K)=|COH(K)−AVE_COH(K)| …(9)
妨害音声区間検出部25は、値DIFF(K)を妨害音声区間判定閾値Φと比較し、値DIFF(K)が妨害音声区間判定閾値Φ以上であれば妨害音声区間と判定し、それ以外では、妨害音声区間以外の区間(背景雑音区間)と判定する。この判定方法は、妨害音声区間では、コヒーレンスの値(瞬時値)が背景雑音区間より大きいため、平均値との差も大きくなるという性質を用いたものである。
妨害音声コヒーレンス平均処理部26は、判定結果が妨害音声区間でない場合であれば、妨害音声区間におけるコヒーレンスの平均値DIST_COH(K)として直前の分析フレームK−1における値DIST_COH(K−1)をそのまま適用し、一方、妨害音声区間であれば、(8)式と同様な(10)式に従って、妨害音声区間におけるコヒーレンスの平均値DIST_COH(K)を求める。なお、コヒーレンス平均値DIST_COH(K)の計算式は(10)式に限定されるものではなく、所定数のサンプル値を単純平均するなどの他の算出式を適用するようにしても良い。(10)式において、ζは、0.0<ζ<1.0の範囲内の値である。
DIST_COH(K)=ζ×COH(K)
+(1−ζ)×DIST_COH(K−1) …(10)
記憶部28は、妨害音声区間におけるコヒーレンスの平均値DIST_COHの範囲と、目的音声判定閾値Θとの対応情報を記憶しているものである。例えば、図3に示すように、変換テーブル形式で記憶部28を構成することができる。図3の例は、妨害音声区間におけるコヒーレンスの平均値DIST_COHが範囲A<DIST_COH≦Bのときに目的音声判定閾値Θとして値Θ1が対応し、妨害音声区間におけるコヒーレンスの平均値DIST_COHが範囲B<AVE_COH≦Cのときに目的音声判定閾値Θとして値Θ2が対応し、妨害音声区間におけるコヒーレンスの平均値DIST_COHが範囲C<DIST_COH≦Dのときに目的音声判定閾値Θとして値Θ3が対応することを規定している。ここで、Θ1<Θ2<Θ3の関係がある。
目的音声区間判定閾値照合部27は、妨害音声コヒーレンス平均処理部22が得た平均値DIST_COH(K)が属する、記憶部28における平均値DIST_COHの範囲を探索し、探索された平均値DIST_COHの範囲に対応付けられた目的音声判定閾値Θの値を取り出すものである。
目的音声区間判定閾値送信部29は、目的音声区間判定閾値照合部28が取り出した目的音声判定閾値Θの値を、現分析フレームKで適用する目的音声判定閾値Θ(K)として目的音声区間検出部14に送信するものである。
(A−2)第1の実施形態の動作
次に、第1の実施形態の音声信号処理装置1の動作を、図面を参照しながら、全体動作、目的音声区間判定閾値制御部20における詳細動作の順に説明する。
一対のマイクm_1及びm_2から入力された信号s1(n)、s2(n)はそれぞれ、FFT部10によって時間領域から周波数領域の信号X1(f,K)、X2(f,K)に変換された後、第1及び第2の指向性形成部11及び12のそれぞれによって、所定の方位に死角を有する指向性信号B1(f,K)、B2(f,K)が生成される。そして、コヒーレンス計算部13において、指向性信号B1(f,K)及びB2(f,K)を適用して、(6)式及び(7)式の演算が実行され、コヒーレンスCOH(K)が算出される。
目的音声区間判定閾値制御部20において、コヒーレンスCOH(K)に基づき、そのときの非目的音声(特に、妨害音声)の到来方位に応じた目的音声区間の判定閾値Θ(K)が求められ、目的音声区間検出部14に与えられる。そして、目的音声区間検出部14において、コヒーレンスCOH(K)と目的音声区間の判定閾値Θ(K)との比較により、目的音声区間か否かが判定され、その判定結果VAD_RES(K)を受けてゲイン制御部15によってゲインVS_GAINが設定される。そして、ボイススイッチゲイン乗算部16において、入力信号s1(n)にゲイン制御部15が設定したゲインVS_GAINが乗算され、出力信号y(n)が得られる。
次に、目的音声区間判定閾値制御部20の動作を説明する。図4は、目的音声区間判定閾値制御部20の動作を示すフローチャートである。
目的音声区間判定閾値制御部20に入力された、コヒーレンス計算部13が計算したコヒーレンスCOH(K)は、コヒーレンス受信部21によって取得される(ステップS101)。取得されたコヒーレンスCOH(K)は、非目的音声区間コヒーレンス平均処理部2において、固定閾値Ψと比較され、非目的音声区間か否かが判定される(ステップS102)。判定結果が目的音声区間であれば(COH(K)≧Ψであれば)、非目的音声区間コヒーレンス平均処理部2によって、非目的音声区間におけるコヒーレンスの平均値AVE_COH(K)として直前の分析フレームK−1における平均値AVE_COH(K−1)がそのまま適用される(ステップS103)。一方、非目的音声区間であれば(COH(K)<Ψであれば)、上述した(8)式に従って、非目的音声区間におけるコヒーレンスの平均値AVE_COH(K)が算出される(ステップS104)。
続いて、差分計算部24によって、(9)式に従って、コヒーレンスの瞬時値COH(K)と平均値AVE_COH(K)の差の絶対値DIFF(K)が計算される(ステップS105)。そして、計算で得られた値DIFF(K)が妨害音声区間検出部25において妨害音声区間判定閾値Φと比較され、値DIFF(K)が妨害音声区間判定閾値Φ以上であれば妨害音声区間と判定され、それ以外では、妨害音声区間以外の区間(背景雑音区間)と判定される(ステップS106)。この判定結果が妨害音声区間でないという結果であれば、妨害音声コヒーレンス平均処理部26において、妨害音声区間におけるコヒーレンスの平均値DIST_COH(K)として直前の分析フレームK−1における値DIST_COH(K−1)がそのまま適用され(ステップS108)、一方、妨害音声区間であれば、(10)式に従って、妨害音声区間におけるコヒーレンスの平均値DIST_COH(K)が算出される(ステップS107)。
以上のようにして得られた妨害音声区間の平均値DIST_COH(K)をキーとして、目的音声区間判定閾値照合部27によって、記憶部28に対する探索処理が実行され、キーである平均値DIST_COH(K)が属する平均値の範囲に対応付けられた目的音声判定閾値Θの値が取り出され、目的音声区間判定閾値送信部29によって、現分析フレームKで適用する目的音声判定閾値Θ(K)として目的音声区間検出部14に送信される(ステップS109)。その後、パラメータKが1インクリメントされて(ステップS110)、コヒーレンス受信部21による処理に戻る。
次に、以上のような処理により、最適な目的音声判定閾値Θ(K)が得られていることを説明する。
図16に示すように、コヒーレンスCOHは、到来方位に応じて値のレンジが異なるため、コヒーレンスの平均値と到来方位を対応付けることができる。このことは、コヒーレンスの平均値が得られれば、到来方位を推定できることを意味する。また、ボイススイッチ処理は、目的音声を無処理で素通りさせ、妨害音声を減衰させる処理であるので、検出したいのは妨害音声の到来方位の方である。そのため、妨害音声区間検出部25によって妨害音声区間を検出し、妨害音声コヒーレンス平均処理部26によって非目的音声区間におけるコヒーレンスの平均値DIST_COH(K)を算出することとした。
(A−3)第1の実施形態の効果
第1の実施形態によれば、非目的音声(特に妨害音声)の到来方位に応じて、目的音声区間判定閾値Θを制御するようにしたので、目的音声区間及び非目的音声区間の判定精度を向上させ、所望外の区間でボイススイッチ処理を誤って稼動して音質を低下させるようなことを防止することができる。
これにより、第1の実施形態の音声信号処理装置、方法若しくはプログラムを適用した、テレビ会議装置や携帯電話機などの通信装置における通話音質の向上が期待できる。
(B)第2の実施形態
次に、本発明による音声信号処理装置、方法及びプログラムの第2の実施形態を、図面を参照しながら説明する。
第2の実施形態は、第1の実施形態における妨害音声区間の検出方法では、ごく稀ではあるが、妨害音声区間でないにも拘わらず妨害音声区間と検出されることがあり、このような誤検出をも防止しようとしたものである。第1の実施形態における妨害音声区間の検出方法では、例えば、目的音声区間から非目的音声区間に移行した直後の背景雑音区間では、妨害音声区間でないにも拘わらず妨害音声区間と検出されることもあった。このような誤検出によってコヒーレンスの平均値DIST_COHが更新されてしまうと、目的音声区間判定閾値Θ(K)の設定にも誤りが生じる。
第2の実施形態に係る音声信号処理装置1Aも、その全体構成は、第1の実施形態の説明で用いた図1で表すことができる。また、第2の実施形態に係る目的音声区間判定閾値制御部20Aも、その内部構成は、第1の実施形態の説明で用いた図2で表すことができる。
第2の実施形態の場合、妨害音声区間検出部20Aが妨害音声区間と判定する条件が、第1の実施形態と異なっている。
第1の実施形態の判定条件が『値DIFF(K)が妨害音声区間判定閾値Φ以上』であったのに対し、第2の実施形態の判定条件は、『値DIFF(K)が妨害音声区間判定閾値Φ以上、かつ、コヒーレンスCOH(K)が非目的音声区間におけるコヒーレンスの平均値AVE_COH(K)より大きい』という条件である。
この判定条件の変更の背景を説明する。コヒーレンスは背景雑音区間では値が小さく、変動も小さいが、妨害音声区間では目的音声区間ほどではないが値は大きく、変動も大きい。従って、妨害音声区間のコヒーレンス瞬時値COH(K)と平均値AVE_COH(K)とは大きく差がつくことが多い。値DIFF(K)が妨害音声区間判定閾値Φ以上という条件はこの特性を考慮したものである。しかし、この条件だけでは上述のような誤判定を生じさせてしまう。この原因は、目的音声区間直後での背景雑音区間では、非目的音声区間におけるコヒーレンスの平均値AVE_COH(K)が、以前の妨害音声区間のコヒーレンスの影響が残っていて大きい値なのに対し、瞬時値コヒーレンスCOH(K)は背景雑音区間での小さい値となるために、瞬時値と平均値との差は大きくなってしまい、その絶対値である値DIFF(K)も大きくなってしまうためである。そこで、第2の実施形態では、妨害音声区間のコヒーレンス瞬時値は平均値よりも大きいという『COH(K)>AVE_COH(K)』という条件も追加することで、誤判定を防ぐこととした。
図5は、第2の実施形態の目的音声区間判定閾値制御部20Aの動作を示すフローチャートであり、第1の実施形態に係る図4との同一、対応ステップには同一、対応符号を付して示している。
上述したように、第2の実施形態では、妨害音声区間の判定ステップであるステップS106Aが、第1の実施形態のステップS106の『DIFF(K)≧Φ』から、『値DIFF(K)≧Φ、かつ、COH(K)>AVE_COH(K)』に変更されており、これ以外の処理は第1の実施形態と同様である。
以上のように、第2の実施形態によれば、目的音声区間終了直後の背景雑音区間のような場合においても、妨害音声区間のコヒーレンス平均値が誤って更新されることを防ぐことができ、目的音声区間判定閾値を適切な値に設定できるので、目的音声区間の判定精度を一段と向上させることができる。
これにより、第2の実施形態の音声信号処理装置、方法若しくはプログラムを適用した、テレビ会議装置や携帯電話機などの通信装置における通話音質の向上が期待できる。
(C)第3の実施形態
次に、本発明による音声信号処理装置、方法及びプログラムの第3の実施形態を、図面を参照しながら説明する。
非目的音声区間において、背景雑音区間から妨害音声区間に切り替わった直後にはコヒーレンスCOHが急増する。しかし、妨害音声区間のコヒーレンス平均値DIST_COH(K)は平均値であるため、コヒーレンスCOHが急増しても、コヒーレンス平均値DIST_COH(K)の変動には直ちには現れない。すなわち、コヒーレンスCOHの急増に対するコヒーレンス平均値DIST_COH(K)の追従性が悪い。その結果、背景雑音区間から妨害音声区間に切り替わった直後では、妨害音声区間のコヒーレンス平均値DIST_COH(K)が正確ではない。第3の実施形態は、以上の点に鑑みなされたものであり、背景雑音区間から妨害音声区間に切り替わった直後でも、目的音声区間判定閾値の決定に用いる妨害音声区間のコヒーレンス平均値DIST_COH(K)を的確なものとしようとしたものである。具体的には、第3の実施形態では、背景雑音区間から妨害音声区間に切り替わった直後では、(10)式における時定数ζを制御しようとしたものである。
(C−1)第3の実施形態の構成
第3の実施形態に係る音声信号処理装置1Bも、その全体構成は、第1の実施形態の説明で用いた図1で表すことができる。
図6は、第3の実施形態の目的音声区間判定閾値制御部20Bの詳細構成を示すブロック図であり、第2の実施形態に係る図2との同一、対応部分には同一、対応符号を付して示している。
第3の実施形態の目的音声区間判定閾値制御部20Bは、第2の実施形態のものと同様なコヒーレンス受信部21、非目的音声区間検出部22、非目的音声コヒーレンス平均処理部23、差分計算部24、妨害音声区間検出部25、妨害音声コヒーレンス平均処理部26、目的音声区間判定閾値照合部27、記憶部28及び目的音声区間判定閾値送信部29に加え、平均パラメータ制御部30及び妨害音声区間判定結果引継ぎ部31を有する。平均パラメータ制御部30は、妨害音声区間検出部25及び妨害音声コヒーレンス平均処理部26間に介挿され、妨害音声区間判定結果引継ぎ部31は、目的音声区間判定閾値照合部27及び目的音声区間判定閾値送信部29間に介挿されている。
平均パラメータ制御部30は、妨害音声区間検出部25での判定結果を受け、妨害音声区間でなければ判定結果格納変数var_newには0を格納し、妨害音声区間であれば、判定結果格納変数var_newには1を格納した後、直前フレームにおける判定結果格納変数var_oldと比較するものである。平均パラメータ制御部30は、現フレームの判定結果格納変数var_newが直前フレームの判定結果格納変数var_oldを上回ったら背景雑音区間から妨害音声区間に移行したとみなし、妨害音声区間コヒーレンス平均値の計算に用いる平均パラメータζとして、1.0に近い大きな固定値(後述する初期値より大きい)に設定し、現フレームの判定結果格納変数var_newが直前フレームの判定結果格納変数var_oldを上回っていなければ、妨害音声区間コヒーレンス平均値の計算に用いる平均パラメータζとして、初期値を設定するものである。
第3の実施形態の妨害音声コヒーレンス平均処理部26は、平均パラメータ制御部30が設定した平均パラメータζを適用して、上述した(10)式の演算を行うものである。
妨害音声区間判定結果引継ぎ部31は、現フレームに対する平均パラメータζの設定処理が終了したときに、直前フレームの判定結果格納変数var_oldを、現フレームの判定結果格納変数var_newに書き換えて、次フレームの処理に引き継ぎするものである。
(C−2)第3の実施形態の動作
次に、第3の実施形態の音声信号処理装置1Bの目的音声区間判定閾値制御部20Bにおける詳細動作を、図面を参照しながら説明する。なお、第3の実施形態の音声信号処理装置1Bの全体動作は、第1の実施形態の音声信号処理装置1の全体動作と同様であり、その説明は省略する。
図7は、第3実施形態の目的音声区間判定閾値制御部20Bの動作を示すフローチャートであり、第2の実施形態に係る図5との同一、対応ステップには同一、対応符号を付して示している。
目的音声区間判定閾値制御部20Bに入力された、コヒーレンス計算部13が計算したコヒーレンスCOH(K)は、コヒーレンス受信部21によって取得され(ステップS101)、非目的音声区間コヒーレンス平均処理部2において、固定閾値Ψと比較され、非目的音声区間か否かが判定される(ステップS102)。判定結果が目的音声区間であれば(COH(K)≧Ψであれば)、非目的音声区間コヒーレンス平均処理部2によって、非目的音声区間におけるコヒーレンスの平均値AVE_COH(K)として直前の分析フレームK−1における平均値AVE_COH(K−1)がそのまま適用され(ステップS103)、一方、非目的音声区間であれば(COH(K)<Ψであれば)、上述した(8)式に従って、非目的音声区間におけるコヒーレンスの平均値AVE_COH(K)が算出される(ステップS104)。
続いて、差分計算部24によって、(9)式に従って、コヒーレンスの瞬時値COH(K)と平均値AVE_COH(K)の差の絶対値DIFF(K)が計算される(ステップS105)。そして、妨害音声区間検出部25において、『値DIFF(K)が妨害音声区間判定閾値Φ以上、かつ、コヒーレンスCOH(K)が非目的音声区間におけるコヒーレンスの平均値AVE_COH(K)より大きい』という妨害音声区間の条件が成立するか否かが判定される(ステップS106A)。
この条件が成立しない場合(妨害音声区間でない場合)には、平均パラメータ制御部30において、現フレームの判定結果格納変数var_newには0が格納される(ステップS150)。その後、妨害音声コヒーレンス平均処理部26において、妨害音声区間におけるコヒーレンスの平均値DIST_COH(K)として直前の分析フレームK−1における値DIST_COH(K−1)がそのまま適用される(ステップS108)。
一方、妨害音声区間の条件が成立した場合(妨害音声区間である場合)には、平均パラメータ制御部30において、現フレームの判定結果格納変数var_newに1が格納され(ステップS151)、その後、現フレームの判定結果格納変数var_newと直前フレームにおける判定結果格納変数var_oldとが比較される(ステップS152)。現フレームの判定結果格納変数var_newが直前フレームの判定結果格納変数var_oldを上回った場合には、平均パラメータ制御部30によって、妨害音声区間コヒーレンス平均値の計算に用いる平均パラメータζとして1.0に近い大きな固定値が設定され(ステップS154)、一方、現フレームの判定結果格納変数var_newが直前フレームの判定結果格納変数var_oldを上回っていない場合には、平均パラメータ制御部30によって、妨害音声区間コヒーレンス平均値の計算に用いる平均パラメータζとして、初期値が設定される(ステップS153)。このような設定後、妨害音声コヒーレンス平均処理部26によって、(10)式に従って、妨害音声区間におけるコヒーレンスの平均値DIST_COH(K)が算出される(ステップS107)。
以上のようにして得られた妨害音声区間の平均値DIST_COH(K)をキーとして、目的音声区間判定閾値照合部27によって、記憶部28に対する探索処理が実行され、キーである平均値DIST_COH(K)が属する平均値の範囲に対応付けられた目的音声判定閾値Θの値が取り出され、目的音声区間判定閾値送信部29によって、現分析フレームKで適用する目的音声判定閾値Θ(K)として目的音声区間検出部14に送信される(ステップS109)。
その後、妨害音声区間判定結果引継ぎ部31において、直前フレームの判定結果格納変数var_oldを、現フレームの判定結果格納変数var_newに書き換える(ステップS155)。そして、パラメータKが1インクリメントされて(ステップS110)、コヒーレンス受信部21による処理に戻る。
なお、現フレームの判定結果格納変数var_newや直前フレームの判定結果格納変数var_oldに格納する値は1や0に限定されるものではない。異なる値を格納するようにした場合には、それに応じて、ステップS152の判定条件も変更するようにしても良い。
また、背景雑音区間から妨害音声区間に切り替わったら直後の1フレームだけ、平均パラメータζを1.0に近い大きい値に設定する場合を上記では説明したが、切り替わった直後のフレームからのフレーム数をカウントすることにより、所定数のフレームだけ連続して、平均パラメータζを1.0に近い大きい値に設定するようにしても良い。例えば、切り替わった直後の5フレーム連続して、平均パラメータζを1.0に近い大きい値に設定し、それ以降のフレームは初期値に戻す、という制御を行うようにしても良い。
(C−3)第3の実施形態の効果
第3の実施形態によれば、背景雑音区間から妨害音声区間に切り替わったことを検出し、切り替わったときに、妨害音声区間のコヒーレンス平均の算出式におけるパラメータを制御するようにしたので、コヒーレンス平均の追従遅れを最低限に抑えることができ、目的音声区間判定閾値をより適切に設定できるようになる。
これにより、第3の実施形態の音声信号処理装置、方法若しくはプログラムを適用した、テレビ会議装置や携帯電話機などの通信装置における通話音質の向上が期待できる。
(D)他の実施形態
上記各実施形態の説明においても種々変形実施形態について言及したが、さらに、以下に例示するような変形実施形態を挙げることができる。
(10)式では、現フレームにおけるコヒーレンスCOH(K)に基づいて妨害音声区間におけるコヒーレンス平均値DIST_COH(K)を更新しているが、雑音の特性によってはコヒーレンスCOH(K)の瞬時変動の影響をやや緩和させた方が検出がより正確になる場合もある。その場合には、妨害音声区間におけるコヒーレンス平均値DIST_COH(K)を非目的音声区間におけるコヒーレンス平均値AVE_COH(K)に基づいて更新するようにしても良い。次の(11)式が、この変形実施形態の場合の計算式である。
DIST_COH(K)=ζ×AVE_COH(K)
+(1−ζ)× DIST_COH(K−1) …(11)
上記各実施形態では、妨害音声区間のコヒーレンス平均値に基づいて、目的音声区間検出部が利用する閾値を定めるものを示したが、閾値の決定に用いるパラメータは、コヒーレンス平均値に限定されるものではない。パラメータは、ある程度の直前期間のコヒーレンスの傾向を反映できているものであれば良く、例えば、公知のピークホールド手法を適用して得たコヒーレンスのピークに基づいて閾値を設定するようにしても良い。また、コヒーレンスの分散、標準偏差などの統計量に基づいて閾値を設定するようにしても良い。
上記各実施形態では、非目的音声コヒーレンス平均計算部22が、1つの閾値Ψによって、コヒーレンス平均値の2つの更新方法のいずれを適用するかを判断するものを示したが、コヒーレンス平均値の更新方法として3つ以上を用意しておき、更新方法の数に合わせて閾値が複数設けるようにしても良い。例えば、(8)式におけるδが異なる複数の更新方法を用意しておくようにしても良い。
上記各実施形態と、公知の周波数減算、コヒーレンスフィルター、ウィーナーフィルターのいずれか1つ、あるいは、いずれか2つ、あるいは、全てと併用するようにしても良い。併用によりさらに高い雑音抑圧性能を実現することができる。以下、周波数減算、コヒーレンスフィルター、ウィーナーフィルターのそれぞれと、第1の実施形態とを併用する場合の構成及び動作を簡単に記載する。
図8は、周波数減算と第1の実施形態とを併用した変形実施形態の構成を示すブロック図であり、第1の実施形態に係る図1との同一、対応部分には同一、対応符号を付して示している。
図8において、この変形実施形態に係る音声信号処理装置1Cは、第1の実施形態の構成に加えて、周波数減算部40を備えている。周波数減算部40は、第3の指向性形成部41と減算部42とIFFT部43とを有する。
ここで、「周波数減算」は、入力信号から非目的音声信号成分を減算することで雑音抑制を行う手法である。
第3の指向性形成部41には、FFT部10から周波数領域に変換された2つの入力信号X1(f,K)及びX2(f,K)が与えられる。第3の指向性形成部41は、(12)式を実行することにより、図9に示すような正面に死角を有する指向性特性に従った第3の指向性信号B3(f,K)を形成し、この指向性信号B3(f,K)を雑音信号として減算部42に減算入力として与える。減算部42には、周波数領域に変換された一方の入力信号X1(f,K)が被減算入力として与えられており、減算部42は、(13)式に示すように、入力信号X1(f,K)から第3の指向性信号B3(f、K)を減算しては周波数減算処理信号D(f,K)を得る。IFFT部43は、周波数減算処理信号D(f,K)を時間領域信号q(n)に変換し、ボイススイッチ乗算部16に与える。
B3(f,K)=X1(f,K)−X2(f,K) …(12)
D(f,K)=X1(f,K)−B3(f,K) …(13)
図10は、コヒーレンスフィルターと第1の実施形態とを併用した変形実施形態の構成を示すブロック図であり、第1の実施形態に係る図1との同一、対応部分には同一、対応符号を付して示している。
図10において、この変形実施形態に係る音声信号処理装置1Dは、第1の実施形態の構成に加えて、コヒーレンスフィルター演算部50を備えている。コヒーレンスフィルター演算部50は、コヒーレンスフィルター係数乗算部51とIFFT部52とを有する。
ここで、「コヒーレンスフィルター」とは、上述した(6)式で得られたcoef(f,K)を周波数ごとに入力信号に乗算することで到来方向に偏りを有する信号成分を抑制する雑音除去技術のことである。
コヒーレンスフィルター係数乗算部51は、(14)式に示すように、入力信号X1(f,K)にコヒーレンス計算部13の演算の過程で得られる係数coef(f,K)を乗算し、雑音抑制後信号D(f,K)を得る。IFFT部52は、雑音抑制後信号D(f,K)を時間領域信号q(n)に変換し、ボイススイッチ乗算部16に与える。
D(f,K)=X1(f,K)×coef(f,K) …(14)
図11は、ウィーナーフィルターと第1の実施形態とを併用した変形実施形態の構成を示すブロック図であり、第1の実施形態に係る図1との同一、対応部分には同一、対応符号を付して示している。
図11において、この変形実施形態に係る音声信号処理装置1Eは、第1の実施形態の構成に加えて、ウィーナーフィルター演算部60を備えている。ウィーナーフィルター演算部60は、ウィーナーフィルター係数計算部61とウィーナーフィルター係数乗算部62とIFFT部63とを有する。
ここで、「ウィーナーフィルター」とは、特許文献2に記載されているように、雑音区間の信号から周波数ごとに雑音特性を推定して得た係数を乗算することで雑音を除去する技術である。
ウィーナーフィルター係数計算部61は、目的音声区間検出部14の検出結果を参照し、非目的音声区間であればウィーナーフィルター係数wf_coef(f,K)の推定を行う(特許文献2の「数3」の演算式参照)。一方、目的音声区間であればウィーナーフィルター係数の推定を行わない。ウィーナーフィルター係数乗算部62は、(15)式に示すように、入力信号X1(f,K)にウィーナーフィルター係数wf_coef(f,K)を乗算して雑音抑圧後信号D(f,K)を得る。IFFT部63は、雑音抑圧後信号D(f,K)を時間領域信号q(n)に変換し、ボイススイッチ乗算部16に与える。
D(f,K)=X1(f,K)×wf_coef(f,K) …(15)
以上では、周波数減算処理、コヒーレンスフィルター処理若しくはウィーナーフィルター処理を施した後に、ボイススイッチ処理を施すものを示したが、この処理順序は逆であっても良い。
上記各実施形態において、周波数領域の信号で処理していた処理を、可能ならば時間領域の信号で処理するようにしても良く、逆に、時間領域の信号で処理していた処理を、可能ならば周波数領域の信号で処理するようにしても良い。
上記各実施形態では、一対のマイクが捕捉した信号を直ちに処理する場合を示したが、本発明の処理対象の音声信号はこれに限定されるものではない。例えば、記録媒体から読み出した一対の音声信号を処理する場合にも、本発明を適用することができ、また、対向装置から送信されてきた一対の音声信号を処理する場合にも、本発明を適用することができる。
1、1A、1B…音声信号処理装置、m_1、m_2…マイク、10…FFT部、11…第1指向性形成部、12…第2の指向性形成部、13…コヒーレンス計算部、14…目的音声区間検出部、15…ゲイン制御部、16…ボイススイッチゲイン乗算部、20、20A、20B…目的音声区間判定閾値制御部、21…コヒーレンス受信部、22…非目的音声区間検出部、23…非目的音声区間コヒーレンス平均処理部、24…差分計算部、25…妨害音声区間検出部、26…妨害音声コヒーレンス平均処理部、27…目的音声区間判定閾値照合部、28…記憶部、29…目的音声区間判定閾値送信部、30…平均パラメータ制御部、31…妨害音声区間判定結果引継ぎ部。

Claims (10)

  1. 入力音声信号から雑音成分を抑制する音声信号処理装置において、
    入力音声信号に遅延減算処理を施すことで、第1の所定方位に死角を有する指向性特性を付与した第1の指向性信号を形成する第1の指向性形成部と、
    入力音声信号に遅延減算処理を施すことで、上記第1の所定方位とは異なる第2の所定方位に死角を有する指向性特性を付与した第2の指向性信号を形成する第2の指向性形成部と、
    上記第1及び第2の指向性信号を用いてコヒーレンスを得るコヒーレンス計算部と、
    上記コヒーレンスと第1の判定閾値とを比較して、入力音声信号が、目的方位から到来している目的音声の区間か、それ以外の非目的音声区間かを判定する目的音声区間検出部と、
    上記コヒーレンスに基づいて、妨害音声区間と背景雑音区間の双方を含む非目的音声区間中の上記妨害音声区間を検出し、当該妨害音声区間におけるコヒーレンス平均値である妨害音声コヒーレンス平均値を得て、妨害音声コヒーレンス平均値に基づいて、上記第1の判定閾値を制御する目的音声区間判定閾値制御部と、
    上記目的音声区間検出部の判定結果に応じて、ボイススイッチゲインを設定するゲイン制御部と、
    上記ゲイン制御部で得られたボイススイッチゲインを入力音声信号に乗算するボイススイッチゲイン乗算部と
    を有することを特徴とする音声信号処理装置。
  2. 上記目的音声区間判定閾値制御部は、
    上記コヒーレンスと固定値でなる第2の判定閾値とを比較して非目的音声区間を検出し、非目的音声区間における上記コヒーレンスの長期間の変化度合いを表した情報を得た後、コヒーレンスの瞬時値との比較により妨害音声区間を検出し、妨害音声区間であることを少なくとも含む更新条件の成立時に妨害音声コヒーレンス平均値を更新すると共に、上記更新条件の不成立時に妨害音声コヒーレンス平均値を維持する妨害音声コヒーレンス平均取得部と、
    妨害音声コヒーレンス平均値と上記第1の判定閾値との対応関係情報を保持している対応関係保持部と、
    上記対応関係保持部から、上記妨害音声コヒーレンス平均取得部が得た現在の妨害音声コヒーレンス平均値に対応した上記第1の判定閾値を得る目的音声区間判定閾値取得部とを有する
    ことを特徴とする請求項1に記載の音声信号処理装置。
  3. 上記妨害音声コヒーレンス平均取得部は、非目的音声区間における上記コヒーレンスの平均値である非目的音声区間コヒーレンス平均値を算出した後、コヒーレンスの瞬時値と非目的音声区間コヒーレンス平均値との差の絶対値を第3の判定閾値と比較することで妨害音声区間を検出するものであることを特徴とする請求項2に記載の音声信号処理装置。
  4. 上記妨害音声コヒーレンス平均取得部における更新条件が、妨害音声区間であり、かつ、コヒーレンスの瞬時値が非目的音声区間コヒーレンス平均値より大きい、という条件であることを特徴とする請求項3に記載の音声信号処理装置。
  5. 上記妨害音声コヒーレンス平均取得部は、妨害音声区間か否かの過去の検出結果を保持する保持部を有し、妨害音声区間以外の区間から妨害音声区間へ変化したときは、その変化から所定期間だけ、コヒーレンスの瞬時値を上記妨害音声コヒーレンス平均値へ反映させる度合いを高めることを特徴とする請求項3又は4に記載の音声信号処理装置。
  6. 自己への入力信号から非目的音声信号成分を減算することで雑音抑制を行う周波数減算部を、上記ボイススイッチゲイン乗算部の入力段若しくは出力段側に有することを特徴とする請求項1〜5のいずれかに記載の音声信号処理装置。
  7. 複数の係数の平均処理によりコヒーレンスを求める際の要素である周波数ごとの上記各係数を、周波数ごとに、自己への入力信号に乗算することで到来方向に偏りを有する信号成分を抑制するコヒーレンスフィルター演算部を、上記ボイススイッチゲイン乗算部の入力段若しくは出力段側に有することを特徴とする請求項1〜6のいずれかに記載の音声信号処理装置。
  8. 雑音区間の信号から周波数ごとに雑音特性を推定して得た係数を、自己への入力信号に乗算することで雑音を除去するウィーナーフィルター演算部を、上記ボイススイッチゲイン乗算部の入力段若しくは出力段側に有することを特徴とする請求項1〜7のいずれかに記載の音声信号処理装置。
  9. 入力音声信号から雑音成分を抑制する音声信号処理方法において、
    第1の指向性形成部は、入力音声信号に遅延減算処理を施すことで、第1の所定方位に死角を有する指向性特性を付与した第1の指向性信号を形成し、
    第2の指向性形成部は、入力音声信号に遅延減算処理を施すことで、上記第1の所定方位とは異なる第2の所定方位に死角を有する指向性特性を付与した第2の指向性信号を形成し、
    コヒーレンス計算部は、上記第1及び第2の指向性信号を用いてコヒーレンスを計算し、
    目的音声区間検出部は、上記コヒーレンスと第1の判定閾値とを比較して、入力音声信号が、目的方位から到来している目的音声の区間か、それ以外の非目的音声区間かを判定し、
    目的音声区間判定閾値制御部は、上記コヒーレンスに基づいて、妨害音声区間と背景雑音区間の双方を含む非目的音声区間中の上記妨害音声区間を検出し、当該妨害音声区間におけるコヒーレンス平均値である妨害音声コヒーレンス平均値を得て、妨害音声コヒーレンス平均値に基づいて、上記第1の判定閾値を制御し、
    ゲイン制御部は、上記目的音声区間検出部の判定結果に応じて、ボイススイッチゲインを設定し、
    ボイススイッチゲイン乗算部は、上記ゲイン制御部で得られたボイススイッチゲインを入力音声信号に乗算する
    ことを特徴とする音声信号処理方法。
  10. コンピュータを、
    入力音声信号に遅延減算処理を施すことで、第1の所定方位に死角を有する指向性特性を付与した第1の指向性信号を形成する第1の指向性形成部と、
    入力音声信号に遅延減算処理を施すことで、上記第1の所定方位とは異なる第2の所定方位に死角を有する指向性特性を付与した第2の指向性信号を形成する第2の指向性形成部と、
    上記第1及び第2の指向性信号を用いてコヒーレンスを得るコヒーレンス計算部と、
    上記コヒーレンスと第1の判定閾値とを比較して、入力音声信号が、目的方位から到来している目的音声の区間か、それ以外の非目的音声区間かを判定する目的音声区間検出部と、
    上記コヒーレンスに基づいて、妨害音声区間と背景雑音区間の双方を含む非目的音声区間中の上記妨害音声区間を検出し、当該妨害音声区間におけるコヒーレンス平均値である妨害音声コヒーレンス平均値を得て、妨害音声コヒーレンス平均値に基づいて、上記第1の判定閾値を制御する目的音声区間判定閾値制御部と、
    上記目的音声区間検出部の判定結果に応じて、ボイススイッチゲインを設定するゲイン制御部と、
    上記ゲイン制御部で得られたボイススイッチゲインを入力音声信号に乗算するボイススイッチゲイン乗算部と
    して機能させることを特徴とする音声信号処理プログラム。
JP2012221537A 2012-10-03 2012-10-03 音声信号処理装置、方法及びプログラム Active JP6028502B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012221537A JP6028502B2 (ja) 2012-10-03 2012-10-03 音声信号処理装置、方法及びプログラム
US14/432,480 US9418676B2 (en) 2012-10-03 2013-06-13 Audio signal processor, method, and program for suppressing noise components from input audio signals
PCT/JP2013/066401 WO2014054314A1 (ja) 2012-10-03 2013-06-13 音声信号処理装置、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012221537A JP6028502B2 (ja) 2012-10-03 2012-10-03 音声信号処理装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2014075674A JP2014075674A (ja) 2014-04-24
JP6028502B2 true JP6028502B2 (ja) 2016-11-16

Family

ID=50434650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012221537A Active JP6028502B2 (ja) 2012-10-03 2012-10-03 音声信号処理装置、方法及びプログラム

Country Status (3)

Country Link
US (1) US9418676B2 (ja)
JP (1) JP6028502B2 (ja)
WO (1) WO2014054314A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10306389B2 (en) 2013-03-13 2019-05-28 Kopin Corporation Head wearable acoustic system with noise canceling microphone geometry apparatuses and methods
US9312826B2 (en) 2013-03-13 2016-04-12 Kopin Corporation Apparatuses and methods for acoustic channel auto-balancing during multi-channel signal extraction
CN105632503B (zh) * 2014-10-28 2019-09-03 南宁富桂精密工业有限公司 信息隐藏方法及系统
JP5863928B1 (ja) * 2014-10-29 2016-02-17 シャープ株式会社 音声調整装置
JP6065029B2 (ja) * 2015-01-05 2017-01-25 沖電気工業株式会社 収音装置、プログラム及び方法
JP6065030B2 (ja) * 2015-01-05 2017-01-25 沖電気工業株式会社 収音装置、プログラム及び方法
US9489963B2 (en) * 2015-03-16 2016-11-08 Qualcomm Technologies International, Ltd. Correlation-based two microphone algorithm for noise reduction in reverberation
JP6638248B2 (ja) * 2015-08-19 2020-01-29 沖電気工業株式会社 音声判定装置、方法及びプログラム、並びに、音声信号処理装置
JP6536320B2 (ja) 2015-09-28 2019-07-03 富士通株式会社 音声信号処理装置、音声信号処理方法及びプログラム
US11631421B2 (en) * 2015-10-18 2023-04-18 Solos Technology Limited Apparatuses and methods for enhanced speech recognition in variable environments
EP3606092A4 (en) 2017-03-24 2020-12-23 Yamaha Corporation SOUND DETECTION DEVICE AND SOUND DETECTION METHOD
WO2018173267A1 (ja) * 2017-03-24 2018-09-27 ヤマハ株式会社 収音装置および収音方法
JP6531776B2 (ja) 2017-04-25 2019-06-19 トヨタ自動車株式会社 音声対話システムおよび音声対話方法
DK179837B1 (en) 2017-12-30 2019-07-29 Gn Audio A/S MICROPHONE APPARATUS AND HEADSET
CN110675889A (zh) * 2018-07-03 2020-01-10 阿里巴巴集团控股有限公司 音频信号处理方法、客户端和电子设备
US11197090B2 (en) * 2019-09-16 2021-12-07 Gopro, Inc. Dynamic wind noise compression tuning
CN110556128B (zh) * 2019-10-15 2021-02-09 出门问问信息科技有限公司 一种语音活动性检测方法、设备及计算机可读存储介质
US11570307B2 (en) * 2020-08-03 2023-01-31 Microsoft Technology Licensing, Llc Automatic reaction-triggering for live presentations

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH071958B2 (ja) * 1986-06-20 1995-01-11 松下電器産業株式会社 収音装置
JPH06303691A (ja) * 1993-04-13 1994-10-28 Matsushita Electric Ind Co Ltd ステレオマイクロホン
US6453289B1 (en) * 1998-07-24 2002-09-17 Hughes Electronics Corporation Method of noise reduction for speech codecs
JP4256363B2 (ja) 2005-05-27 2009-04-22 株式会社東芝 ボイススイッチ
US8744844B2 (en) 2007-07-06 2014-06-03 Audience, Inc. System and method for adaptive intelligent noise suppression
US8954324B2 (en) 2007-09-28 2015-02-10 Qualcomm Incorporated Multiple microphone voice activity detector
US8812309B2 (en) * 2008-03-18 2014-08-19 Qualcomm Incorporated Methods and apparatus for suppressing ambient noise using multiple audio signals
US8724829B2 (en) * 2008-10-24 2014-05-13 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for coherence detection
JP5197458B2 (ja) * 2009-03-25 2013-05-15 株式会社東芝 受音信号処理装置、方法およびプログラム
US8620672B2 (en) 2009-06-09 2013-12-31 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for phase-based processing of multichannel signal
US9271077B2 (en) * 2013-12-17 2016-02-23 Personics Holdings, Llc Method and system for directional enhancement of sound using small microphone arrays

Also Published As

Publication number Publication date
US20150294674A1 (en) 2015-10-15
US9418676B2 (en) 2016-08-16
JP2014075674A (ja) 2014-04-24
WO2014054314A1 (ja) 2014-04-10

Similar Documents

Publication Publication Date Title
JP6028502B2 (ja) 音声信号処理装置、方法及びプログラム
JP5838861B2 (ja) 音声信号処理装置、方法及びプログラム
US9426566B2 (en) Apparatus and method for suppressing noise from voice signal by adaptively updating Wiener filter coefficient by means of coherence
US7970609B2 (en) Method of estimating sound arrival direction, sound arrival direction estimating apparatus, and computer program product
US9449594B2 (en) Adaptive phase difference based noise reduction for automatic speech recognition (ASR)
JP5672770B2 (ja) マイクロホンアレイ装置及び前記マイクロホンアレイ装置が実行するプログラム
JP2012150237A (ja) 音信号処理装置、および音信号処理方法、並びにプログラム
US9773510B1 (en) Correcting clock drift via embedded sine waves
WO2019112467A1 (en) Method and apparatus for acoustic echo cancellation
JP5927887B2 (ja) 非目的音抑制装置、非目的音抑制方法及び非目的音抑制プログラム
JP6190373B2 (ja) オーディオ信号ノイズ減衰
WO2012176932A1 (ja) 音声処理装置、音声処理方法および音声処理プログラム
JP6638248B2 (ja) 音声判定装置、方法及びプログラム、並びに、音声信号処理装置
JP5772562B2 (ja) 目的音抽出装置及び目的音抽出プログラム
JP2015125184A (ja) 音声信号処理装置及びプログラム
JP5970985B2 (ja) 音声信号処理装置、方法及びプログラム
JP6221258B2 (ja) 信号処理装置、方法及びプログラム
JP6631127B2 (ja) 音声判定装置、方法及びプログラム、並びに、音声処理装置
JP5971047B2 (ja) 音声信号処理装置、方法及びプログラム
JP6763319B2 (ja) 非目的音判定装置、プログラム及び方法
JP6102144B2 (ja) 音響信号処理装置、方法及びプログラム
CN112530450A (zh) 频域中的样本精度延迟识别
JP6295650B2 (ja) 音声信号処理装置及びプログラム
JP6361360B2 (ja) 残響判定装置及びプログラム
JP6903947B2 (ja) 非目的音抑圧装置、方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160705

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161003

R150 Certificate of patent or registration of utility model

Ref document number: 6028502

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150