JP2014106494A - 音声強調装置、音声強調方法及び音声強調用コンピュータプログラム - Google Patents

音声強調装置、音声強調方法及び音声強調用コンピュータプログラム Download PDF

Info

Publication number
JP2014106494A
JP2014106494A JP2012261704A JP2012261704A JP2014106494A JP 2014106494 A JP2014106494 A JP 2014106494A JP 2012261704 A JP2012261704 A JP 2012261704A JP 2012261704 A JP2012261704 A JP 2012261704A JP 2014106494 A JP2014106494 A JP 2014106494A
Authority
JP
Japan
Prior art keywords
signal
frequency
frequency band
component
gain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012261704A
Other languages
English (en)
Other versions
JP6135106B2 (ja
Inventor
Naoji Matsuo
直司 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012261704A priority Critical patent/JP6135106B2/ja
Priority to EP13190939.2A priority patent/EP2738763B1/en
Priority to US14/072,937 priority patent/US9626987B2/en
Publication of JP2014106494A publication Critical patent/JP2014106494A/ja
Application granted granted Critical
Publication of JP6135106B2 publication Critical patent/JP6135106B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude

Abstract

【課題】音声信号に含まれる雑音成分が相対的に大きい場合でも、本来の信号成分が過剰に抑圧されることなく雑音成分を抑圧する音声強調装置を提供する。
【解決手段】音声強調装置(5、51)は、周波数帯域ごとに、音声信号に含まれる雑音成分を推定する雑音推定部(12)と、周波数帯域ごとに、音声信号に含まれる信号成分と雑音成分との比である信号対雑音比を算出する信号対雑音比算出部(13)と、信号対雑音比が、音声信号中の信号成分を識別可能であることを表す周波数帯域を選択し、選択された周波数帯域の信号対雑音比に応じて音声信号の強調度合いを表すゲインを決定するゲイン算出部(14)と、ゲインに応じて各周波数帯域の周波数信号の振幅成分を増幅するとともに、各周波数帯域の振幅成分から雑音成分を減じることで周波数信号の振幅成分を補正する強調部(15)とを有する。
【選択図】図2

Description

本発明は、例えば、音声信号に含まれる信号成分を強調する音声強調装置、音声強調方法及び音声強調用コンピュータプログラムに関する。
マイクロホンにより集音された音声には、雑音成分が含まれることがある。集音された音声に雑音成分が含まれると、その音声が聞き取り難くなることがある。そこで、音声信号に含まれる雑音成分を周波数帯域ごとに推定し、推定した雑音成分を音声信号の振幅スペクトルから減算することで、雑音成分を抑制する技術が開発されている(例えば、特許文献1及び2を参照)。
特開平4−227338号公報 特開2010−54954号公報
しかしながら、例えば、車両に搭載されたマイクロホンで、車両の窓を開けた状態での走行中にドライバの音声を集音しようとする場合のように、音声信号に含まれる雑音成分が集音対象の音声に相当する信号成分に比べて相対的に大きいことがある。このような場合、上述したような従来技術では、雑音成分とともに信号成分も抑圧されてしまい、その結果として、本来の音声も聞き取り難くなってしまうことがある。
そこで本明細書は、一つの側面として、音声信号に含まれる雑音成分が相対的に大きい場合でも、本来の信号成分が過剰に抑圧されることなく雑音成分を抑圧する音声強調装置を提供することを目的とする。
一つの実施形態によれば、音声強調装置が提供される。この音声強調装置は、信号成分と雑音成分とを含む音声信号を周波数領域へ変換することにより複数の周波数帯域のそれぞれについての周波数信号を算出する時間周波数変換部と、周波数帯域ごとに、周波数信号に基づいて雑音成分を推定する雑音推定部と、周波数帯域ごとに、信号成分と雑音成分との比である信号対雑音比を算出する信号対雑音比算出部と、信号対雑音比が、音声信号中の信号成分を識別可能であることを表す周波数帯域を選択し、選択された周波数帯域の信号対雑音比に応じて音声信号の強調度合いを表すゲインを決定するゲイン算出部と、ゲインに応じて各周波数帯域の周波数信号の振幅成分を増幅するとともに、各周波数帯域の振幅成分から雑音成分を減じることで周波数信号の振幅成分を補正する強調部と、各周波数帯域の補正された振幅成分を持つ周波数信号を時間領域へ変換することにより補正された音声信号を算出する周波数時間変換部とを有する。
本発明の目的及び利点は、請求項において特に指摘されたエレメント及び組み合わせにより実現され、かつ達成される。
上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を限定するものではないことを理解されたい。
本明細書に開示された音声強調装置は、音声信号に含まれる雑音成分が相対的に大きい場合でも、本来の信号成分が過剰に抑圧されることなく雑音成分を抑圧することができる。
一つの実施形態による音声強調装置を有する音声入力システムの概略構成図である。 音声強調装置の概略構成図である。 音声信号の振幅スペクトル及び雑音スペクトルと、ゲインの算出に利用される周波数帯域の関係の一例を示す図である。 SNR(f)の平均値SNRavとゲインgの関係の一例を示す図である。 (a)は、オリジナルの音声信号の振幅スペクトルとゲインを用いて増幅された振幅スペクトルとの関係の一例を示す図である。(b)は、増幅された振幅スペクトル及び雑音成分と、雑音成分抑圧後の振幅スペクトルとの関係の一例を示す図である。 (a)は、オリジナルの音声信号の信号波形の一例を示す図であり、(b)は、従来技術により補正された音声信号の信号波形の一例を示す図であり、(c)は、本実施形態による音声強調装置により補正された音声信号の信号波形の一例を示す図である。 音声強調処理の動作フローチャートである。 第2の実施形態による音声強調装置の概略構成図である。 SNR(f)と調整後のゲインとの関係の一例を示す図である。 第2の実施形態による音声強調処理の動作フローチャートである。 上記の何れかの実施形態またはその変形例による音声強調装置の各部の機能を実現するコンピュータプログラムが動作することにより、音声強調装置として動作するコンピュータの構成図である。
以下、図を参照しつつ、幾つかの実施形態による音声強調装置について説明する。
この音声強調装置は、集音対象の音声に相当する信号成分とその他の音声に相当する雑音成分とを含む音声信号について、周波数帯域ごとの信号対雑音比を推定し、その信号対雑音比に基づいて信号成分を識別可能な周波数帯域を選択する。そしてこの音声強調装置は、選択された周波数帯域の信号対雑音比に応じて、信号成分の強調度合いを表すゲインを決定する。この音声強調装置は、そのゲインに応じて全ての周波数帯域にわたって音声信号の振幅スペクトルを増幅するとともに、増幅された振幅スペクトルから雑音成分を減じる。
図1は、一つの実施形態による音声強調装置が実装された音声入力システムの概略構成図である。本実施形態では、音声入力システム1は、例えば、車載のハンズフリーホンであり、マイクロホン2と、増幅器3と、アナログ/デジタル変換器4と、音声強調装置5と、通信インターフェース部6とを有する。
マイクロホン2は、音声入力部の一例であり、音声入力システム1の周囲の音を集音し、その音の強度に応じたアナログ音声信号を生成し、そのアナログ音声信号を増幅器3へ出力する。増幅器3は、そのアナログ音声信号を増幅した後、増幅されたアナログ音声信号をアナログ/デジタル変換器4へ出力する。アナログ/デジタル変換器4は、増幅されたアナログ音声信号を所定のサンプリング周期でサンプリングすることによりデジタル化された音声信号を生成する。そしてアナログ−デジタル変換器4は、デジタル化された音声信号を音声強調装置5へ出力する。なお、以下では、デジタル化された音声信号を、単に音声信号と呼ぶ。
この音声信号には、例えば、音声入力システム1を利用するユーザの声といった、集音対象となる信号成分と、背景の騒音といった雑音成分とが含まれる。そこで、音声強調装置5は、例えば、デジタル信号プロセッサを有し、音声信号に含まれる信号成分を強調するとともに、雑音成分を抑圧することにより、補正音声信号を生成する。そして音声強調装置5は、補正音声信号を通信インターフェース部6へ出力する。
通信インターフェース部6は、音声入力システム1を、携帯電話機といった他の機器と接続するための通信インターフェース回路を有する。通信インターフェース回路は、例えば、Bluetooth(登録商標)といった、音声信号の通信に利用可能な近距離無線通信規格に従って動作する回路、あるいは、universal serial bus(USB)といったシリアルバス規格に従って動作する回路とすることができる。そして通信インターフェース部6は、音声強調装置5から受け取った補正音声信号を他の機器へ送信する。
図2は、音声強調装置5の概略構成図である。音声強調装置5は、時間周波数変換部11と、雑音推定部12と、信号対雑音比算出部13と、ゲイン算出部14と、強調部15と、周波数時間変換部16とを有する。音声強調装置5が有するこれらの各部は、例えば、デジタル信号プロセッサ上で動作するコンピュータプログラムにより実現される機能モジュールである。
時間周波数変換部11は、音声信号を、所定の時間長(例えば、数10msec)を持つフレーム単位で周波数領域へ変換することにより複数の周波数帯域のそれぞれについて周波数信号を求める。そのために、時間周波数変換部11は、例えば、音声信号に対して、高速フーリエ変換(Fast Fourier Transform, FFT)、または修正離散コサイン変換(Modified Discrete Cosine Transform, MDCT)といった時間周波数変換を実行することにより周波数信号へ変換する。
本実施形態では、時間周波数変換部11は、音声信号に対して、連続する二つのフレームがフレーム長の1/2だけずれるように各フレームを設定する。そして時間周波数変換部11は、各フレームに、例えば、ハニング窓といった窓関数を乗じて、そのフレームを時間周波数変換することで、そのフレームについての各周波数帯域の周波数信号を算出する。
時間周波数変換部11は、フレームごとに、周波数信号の振幅成分を雑音推定部12、信号対雑音比算出部13及び強調部15へ出力する。また時間周波数変換部11は、周波数信号の位相成分を周波数時間変換部16へ出力する。
雑音推定部12は、過去の所定数のフレームに基づいて推定された周波数帯域ごとの雑音成分を表す雑音モデルを、最新のフレームである現フレームの振幅スペクトルに基づいて更新することで、現フレームにおける各周波数帯域の雑音成分を推定する。
具体的には、雑音推定部12は、各周波数帯域の周波数信号の振幅成分を時間周波数変換部11から受け取る度に、振幅スペクトルの平均値pを次式に従って算出する。
Figure 2014106494
ここでNは周波数帯域の総数であり、時間周波数変換において1フレームに含まれるサンプル点数の1/2である。flowは、最も低い周波数帯域を表し、fhighは、最も高い周波数帯域を表す。またS(f)は、周波数帯域fにおける現フレームの振幅成分であり、10log10(S(f)2)は、対数で表された振幅スペクトルである。
次に、雑音推定部12は、現フレームの振幅スペクトルの平均値pと、雑音成分の上限に相当する閾値Thrとを比較する。そして雑音推定部12は、平均値pが閾値Thr未満である場合、各周波数帯域について次式に従って過去のフレームにおける雑音成分と振幅スペクトルとを平均することにより、雑音モデルを更新する。
Figure 2014106494
ただし、Nt-1(f)は、更新前の雑音モデルに含まれる周波数帯域fの雑音成分であり、音声強調装置5が有するデジタル信号プロセッサのバッファから読み込まれる。また、Nt(f)は、更新後の雑音モデルに含まれる周波数帯域fの雑音成分である。係数αは忘却係数であり、例えば、0.01〜0.1の何れかの値に設定される。一方、平均値pが閾値Thr以上である場合、現フレームには、雑音以外の信号成分が含まれると推定されるので、忘却係数αを0とすることで、雑音推定部12は、更新前の雑音モデルそのものを、更新後の雑音モデルとする。すなわち、雑音推定部12は、雑音モデルを更新せず、全ての周波数帯域についてNt(f)=Nt-1(f)とする。あるいは、雑音推定部12は、現フレームにおいて雑音以外の信号成分が含まれる場合には、忘却係数αを、例えば、0.0001のように非常に小さい値にすることで、雑音モデルに対する現フレームの影響を小さくしてもよい。
なお、雑音推定部12は、各周波数帯域の雑音成分を推定する他の様々な手法の何れかに従って、各周波数帯域の雑音成分を推定してもよい。
雑音推定部12は、更新した雑音モデルをバッファに記憶するとともに、各周波数帯域の雑音成分を信号対雑音比算出部13及び強調部15へ出力する。
信号対雑音比算出部13は、各フレームについて、周波数帯域ごとの信号対雑音比(Signal to Noise Ratio, SNR)を算出する。
本実施形態では、信号対雑音比算出部13は、次式に従って周波数帯域ごとのSNRを算出する。
Figure 2014106494
ここで、SNR(f)は、周波数帯域fにおけるSNRを表す。またS(f)は、現フレームの周波数帯域fにおける周波数信号の振幅成分であり、Nt(f)は現フレームについての周波数帯域fの雑音の振幅成分である。
信号対雑音比算出部13は、各周波数帯域のSNR(f)をゲイン算出部14へ渡す。
ゲイン算出部14は、フレームごとに、各周波数帯域のSNR(f)に基づいて、全ての周波数帯域にわたって適用されるゲインgを決定する。そのために、本実施形態では、ゲイン算出部14は、各周波数帯域のうち、SNR(f)が所定の閾値以上となる帯域を選択する。所定の閾値は、例えば、人が音声信号に含まれる信号成分を識別可能なSNR(f)の最小値、例えば、3dBに設定される。
ゲイン算出部14は、選択した周波数帯域のSNR(f)の平均値SNRavを算出する。そしてゲイン算出部14は、SNR(f)の平均値SNRavに基づいて、全ての周波数帯域に適用されるゲインgを決定する。
図3は、音声信号の振幅スペクトル及び雑音スペクトルと、ゲインの算出に利用される周波数帯域の関係の一例を示す図である。図3において、横軸は周波数を表し、縦軸は振幅スペクトルの強度[dB]を表す。グラフ300は、音声信号の振幅スペクトルを表し、グラフ310は、雑音成分の振幅スペクトルを表す。図3において、矢印301で示される、音声信号の振幅スペクトルと雑音成分の振幅スペクトルの差がSNR(f)に相当する。この例では、周波数帯域f0〜f1において、SNR(f)が閾値Thr以上となる。そこで周波数帯域f0〜f1が、ゲインgを決定するための周波数帯域として選択される。
図4は、SNR(f)の平均値SNRavとゲインgの関係の一例を示す図である。図4において、横軸は平均値SNRav[dB]を表し、縦軸はゲインgを表す。そしてグラフ400は、平均値SNRavとゲインgの関係を表す。
グラフ400に示されるように、平均値SNRavがβ1以下の場合、ゲイン算出部14は、ゲインgを1.0に設定する。すなわち、音声信号は全く強調されない。一方、平均値SNRavがβ1よりも大きく、かつ、β2以下である場合、ゲイン算出部14は、平均値SNRavが大きくなるほど、ゲインgも線形に増加させる。そしてゲイン算出部14は、平均値SNRavがβ2以上であれば、ゲインgを上限値αに設定する。
なお、β1、β2、αは、補正音声信号が不自然に歪むことがないように実験的に決められた値であり、例えば、β1=6[dB]、β2=9[dB]である。またゲインgの上限値αは、例えば、2.0である。
ゲイン算出部14は、ゲインgを強調部15へ出力する。
強調部15は、フレームごとに、ゲインgに応じて各周波数帯域の周波数信号の振幅成分を増幅するとともに、雑音成分を抑圧する。そのために、本実施形態では、強調部15は、次式に従って、各周波数帯域の周波数信号の振幅成分を増幅する。
Figure 2014106494
ここでS'(f)2は、周波数帯域fの増幅後のパワースペクトルを表す。
さらに、強調部15は、増幅されたパワースペクトルS'(f)2から、次式に従って雑音成分を減じることにより、補正された各周波数帯域の周波数信号の振幅成分Sc(f)を算出する。これにより、強調部15は、音声信号に含まれる雑音成分を抑圧できる。
Figure 2014106494
なお、n(f)は、線形の数値で表記された雑音成分のパワースペクトルを表す。
図5(a)は、オリジナルの音声信号の振幅スペクトルとゲインを用いて増幅された振幅スペクトルとの関係の一例を示す図である。図5(b)は、増幅された振幅スペクトル及び雑音成分の振幅スペクトルと、雑音成分抑圧後の振幅スペクトルとの関係の一例を示す図である。図5(a)及び図5(b)のそれぞれにおいて、横軸は周波数を表し、縦軸は振幅スペクトルの強度[dB]を表す。図5(a)におけるグラフ500は、オリジナルの音声信号の振幅スペクトルを表し、グラフ510は、増幅された振幅スペクトルを表す。本実施形態では、グラフ500とグラフ510に示されるように、ゲイン算出に利用された周波数帯域だけでなく、全ての周波数帯域にわたって振幅スペクトルが増幅される。
図5(b)において、グラフ510は、増幅された振幅スペクトルを表し、グラフ520は、雑音成分の振幅スペクトルを表す。そしてグラフ530は、増幅された振幅スペクトルから雑音成分の振幅スペクトルを減じることにより得られる補正後の音声信号の振幅スペクトルを表す。グラフ510〜530に示されるように、本実施形態では、全ての周波数帯域にわたって増幅された後に雑音成分が減じられる。そのため、オリジナルの音声信号において信号成分が少ない周波数帯域についても、補正された音声信号において信号成分が残る。
強調部15は、補正された各周波数帯域の周波数信号の振幅成分Sc(f)を周波数時間変換部16へ出力する。
周波数時間変換部16は、フレームごとに、補正された各周波数帯域の周波数信号の振幅成分Sc(f)にその周波数帯域の位相成分を乗じて補正された周波数スペクトルを算出する。そして周波数時間変換部16は、補正された周波数スペクトルを周波数時間変換して時間領域の信号に変換することにより、フレームごとの補正された音声信号を得る。なお、この周波数時間変換は、時間周波数変換部11により行われる時間周波数変換の逆変換である。最後に、周波数時間変換部16は、連続するフレームごとの補正された音声信号を、フレーム長の1/2ずつずらして加算することにより、補正された音声信号を得る。
図6(a)は、オリジナルの音声信号の信号波形の一例を示す図である。図6(b)は、従来技術により補正された音声信号の信号波形の一例を示す図である。図6(c)は、本実施形態による音声強調装置により補正された音声信号の信号波形の一例を示す図である。
図6(a)〜図6(c)において、横軸は時間を表し、縦軸は音声信号の振幅の強度を表す。信号波形600は、オリジナルの音声信号の信号波形である。また信号波形610は、従来技術に従って、オリジナルの音声信号から、単に推定された雑音成分を除去することにより生成された音声信号の信号波形である。そして信号波形620は、本実施形態による音声強調装置5による、補正された音声信号の信号波形である。この例では、期間p1〜p5に、信号成分が含まれている。しかし、信号波形610に示されるように、従来技術では、期間p1〜p5における信号成分も大きく減衰しており、音が途切れ途切れになってしまう。
一方、本実施形態によれば、従来技術により補正された音声信号よりも、信号成分が残っており、その結果として音が途切れ途切れとなることが防止されている。
図7は、音声強調処理の動作フローチャートである。音声強調装置5は、以下の動作フローチャートに従って、フレームごとに音声強調処理を実行する。
時間周波数変換部11は、音声信号を、フレーム単位で、ハニング窓かけを1/2フレーム長単位でずらしながら周波数領域へ変換することにより、複数の周波数帯域のそれぞれの周波数信号を算出する(ステップS101)。そして時間周波数変換部11は、各周波数帯域の周波数信号の振幅成分を雑音推定部12、信号対雑音比算出部13及び強調部15へ出力する。また時間周波数変換部11は、各周波数帯域の周波数信号の位相成分を周波数時間変換部16へ出力する。
雑音推定部12は、過去の所定数のフレームについて算出された雑音モデルを、現フレームの各周波数帯域の振幅成分に基づいて更新することにより、現フレームにおける、各周波数帯域の雑音成分を推定する(ステップS102)。そして雑音推定部12は、更新した雑音モデルをバッファに記憶するとともに、各周波数帯域の雑音成分を信号対雑音比算出部13及び強調部15へ出力する。
信号対雑音比算出部13は、各周波数帯域におけるSNR(f)を算出する(ステップS103)。そして信号対雑音比算出部13は、各周波数帯域におけるSNR(f)をゲイン算出部14へ出力する。
ゲイン算出部14は、各周波数帯域のSNR(f)に基づいて、音声信号中に信号成分が含まれることを識別可能な周波数帯域を選択する(ステップS104)。そしてゲイン算出部14は、選択された周波数帯域のSNR(f)の平均値SNRavが高いほどゲインgが大きくなるように、ゲインgを決定する(ステップS105)。ゲイン算出部14は、ゲインgを強調部15へ渡す。
強調部15は、全ての周波数帯域にわたって周波数信号の振幅成分にゲインgを乗じることでその振幅成分を増幅する(ステップS106)。さらに、強調部15は、各周波数帯域において、増幅された振幅成分から雑音成分を減じることにより、雑音成分が抑圧された補正された振幅成分を算出する(ステップS107)。強調部15は、各周波数帯域の補正された振幅成分を周波数時間変換部16へ出力する。
周波数時間変換部16は、周波数帯域ごとに、補正された振幅成分に位相成分を統合して補正された周波数信号を算出する。そして周波数時間変換部16は、補正された周波数信号を周波数時間変換して時間領域の信号に変換することにより、現フレームの補正された音声信号を得る(ステップS108)。そして周波数時間変換部16は、一つ前のフレームに対してフレーム長の1/2だけずらして現フレームの補正された音声信号を加算することで補正された音声信号を得る(ステップS109)。
その後、音声強調装置5は、音声強調処理を終了する。
以上に説明してきたように、この音声強調装置は、音声信号の振幅成分を、全ての周波数帯域にわたって一旦増幅し、その増幅された振幅成分から雑音成分を減じる。これにより、この音声強調装置は、音声信号に含まれる雑音成分が相対的に大きい場合でも、本来の信号成分が過剰に抑圧されることなく雑音成分を抑圧する。またこの音声強調装置は、振幅成分の増幅量を、信号対雑音比が比較的高い周波数帯域に基づいて決定することで、適切な増幅量を設定できる。
次に、第2の実施形態による音声強調装置について説明する。第2の実施形態による音声強調装置は、周波数帯域ごとに、ゲインをその周波数帯域のSNR(f)に応じて調節する。
図8は、第2の実施形態による音声強調装置51の概略構成図である。音声強調装置51は、時間周波数変換部11と、雑音推定部12と、信号対雑音比算出部13と、ゲイン算出部14と、ゲイン調節部17と、強調部15と、周波数時間変換部16とを有する。
図8において、音声強調装置51の各構成要素には、図2に示した音声強調装置5の対応する構成要素の参照番号と同じ参照番号を付した。
第2の実施形態による音声強調装置51は、第1の実施形態による音声強調装置5と比較して、ゲイン調節部17を有する点で異なる。そこで以下では、ゲイン調節部17及びその関連部分について説明する。音声強調装置51の他の構成要素については、第1の実施形態の対応する構成要素の説明を参照されたい。
ゲイン調節部17は、信号対雑音比算出部13から各周波数帯域のSNR(f)を受け取り、かつ、ゲイン算出部14からゲインgを受け取る。そしてゲイン調節部17は、周波数帯域ごとに、SNR(f)が大きくなるほど、その周波数帯域のゲインg(f)を低下させることで、音声信号が過剰に強調されて歪むことを抑制する。
図9は、SNR(f)とゲインg(f)の関係の一例を示す図である。図9において、横軸は平均値SNR(f)[dB]を表し、縦軸はゲインg(f)を表す。そしてグラフ900は、SNR(f)とゲインg(f)の関係を表す。
グラフ900に示されるように、SNR(f)がγ1未満の場合、ゲイン調節部17は、ゲインg(f)をゲイン算出部14により決定されたゲインgに設定する。一方、SNR(f)がγ1よりも大きく、かつ、γ2未満である場合、ゲイン調節部17は、SNR(f)が大きくなるほど、ゲインg(f)を線形に減少させる。すなわち、γ1≦SNR(f)<γ2である場合、ゲインg(f)は次式により算出される。
Figure 2014106494
そしてゲイン算出部14は、SNR(f)がγ2以上であれば、ゲインg(f)を1.0に設定する。
なお、γ1、γ2は、補正音声信号が不自然に歪むことがないように実験的に決められた値であり、例えば、γ1=12[dB]、γ2=18[dB]である。なお、γ1、γ2は、振幅成分の強調度合いが低くなりすぎないように、ゲインgが最大となるときのSNRavの下限値β2よりも大きくすることが好ましい。
ゲイン調節部17は、各周波数帯域のゲインg(f)を強調部15へ出力する。
強調部15は、(4)式におけるゲインgを、その周波数帯域のゲインg(f)とすることにより、各周波数帯域の周波数信号の振幅成分を増幅する。
図10は、第2の実施形態による音声強調処理の動作フローチャートである。音声強調装置51は、フレームごとに、この動作フローチャートに従って音声強調処理を実行する。なお、図10におけるステップS201〜S205及びS208〜S210は、それぞれ、図7に示された第1の実施形態による音声強調処理のステップS101〜S105及びS107〜S109に対応する。そこで以下では、ステップS206及びS207について説明する。
ゲイン算出部14によりゲインgが算出されると、ゲイン調節部17は、そのゲインgを、周波数帯域ごとに、その周波数帯域のSNR(f)が高いほど小さくなるように調節することで、その周波数帯域の調節されたゲインg(f)を決定する(ステップS206)。そして強調部15は、各周波数帯域について、振幅成分にその周波数帯域についての調節された
ゲインg(f)を乗じることで振幅成分を増幅する(ステップS207)。その後、その増幅された振幅成分を用いて補正された音声信号が生成される。
第2の実施形態によれば、音声強調装置は、信号対雑音比が良好な周波数帯域の強調度合いを抑制するために、信号対雑音比が高い周波数帯域のゲインを相対的に低くする。これにより、この音声強調装置は、雑音を抑圧するだけでなく、補正された音声信号が歪むことを抑制できる。
変形例によれば、ゲイン算出部14は、SNR(f)が閾値以上となる周波数帯域の数が多いほど、ゲインgを大きくしてもよい。これにより、信号成分が含まれる周波数帯域の数が多いほど、音声信号が強調されるので、補正された音声信号の音質がより良好となる。
また他の変形例によれば、強調部15は、各周波数帯域について、オリジナルの音声信号の振幅成分から雑音成分を減じた残存成分にゲインgを乗じることにより、補正された振幅成分を算出してもよい。これにより、強調部15は、オリジナルの音声信号の振幅成分が非常に大きい場合でも、ゲインgを乗じることによるオーバーフローの発生を防止できる。
なお、上記の各実施形態または変形例による音声強調装置は、ハンズフリーホン以外にも、携帯電話機、または拡声器など、他の音声入力システムにも適用できる。さらに、上記の各実施形態または変形例による音声強調装置は、複数のマイクロホンを有する音声入力システム、例えば、テレビ会議システムにも適用できる。この場合、音声強調装置は、マイクロホンごとに、そのマイクロホンによる音声信号を、上記の何れかの実施形態または変形例に従って補正する。あるいは、音声強調装置は、一方のマイクロホンの音声信号から、他方のマイクロホンの音声信号を所定時間だけ遅延させて減算または加算することで、特定方向から到来する音声を減衰させるか、その特定方向から到来した音声を強調する合成音声信号を生成する。そして音声強調装置は、合成音声信号に対して音声強調処理を実行してもよい。
さらに、上記の各実施形態または変形例による音声強調装置は、例えば、携帯電話機に実装され、他の装置により生成された音声信号を補正してもよい。この場合には、音声強調装置によって補正された音声信号は、音声強調装置が実装された装置が有するスピーカから再生される。
さらに、上記の各実施形態による音声強調装置の各部が有する機能をコンピュータに実現させるコンピュータプログラムは、磁気記録媒体あるいは光記録媒体といった、コンピュータによって読み取り可能な媒体に記録された形で提供されてもよい。なお、この記録媒体には、搬送波は含まれない。
図11は、上記の何れかの実施形態またはその変形例による音声強調装置の各部の機能を実現するコンピュータプログラムが動作することにより、音声強調装置として動作するコンピュータの構成図である。
コンピュータ100は、ユーザインターフェース部101と、オーディオインターフェース部102と、通信インターフェース部103と、記憶部104と、記憶媒体アクセス装置105と、プロセッサ106とを有する。プロセッサ106は、ユーザインターフェース部101、オーディオインターフェース部102、通信インターフェース部103、記憶部104及び記憶媒体アクセス装置105と、例えば、バスを介して接続される。
ユーザインターフェース部101は、例えば、キーボードとマウスなどの入力装置と、液晶ディスプレイといった表示装置とを有する。または、ユーザインターフェース部101は、タッチパネルディスプレイといった、入力装置と表示装置とが一体化された装置を有してもよい。そしてユーザインターフェース部101は、例えば、ユーザの操作に応じて、オーディオインターフェース部102を介して入力される音声信号に対する音声強調処理を開始する操作信号をプロセッサ106へ出力する。
オーディオインターフェース部102は、コンピュータ100に、マイクロホンなどの音声信号を生成する音声入力装置と接続するためのインターフェース回路を有する。そしてオーディオインターフェース部102は、音声入力装置から音声信号を取得して、その音声信号をプロセッサ106へ渡す。
通信インターフェース部103は、コンピュータ100を、イーサネット(登録商標)などの通信規格に従った通信ネットワークに接続するための通信インターフェース及びその制御回路を有する。そして、通信インターフェース部103は、プロセッサ106から受け取った、補正音声信号を含むデータストリームを通信ネットワークを介して他の機器へ出力する。また通信インターフェース部103は、通信ネットワークに接続された他の機器から、音声信号を含むデータストリームを取得し、そのデータストリームをプロセッサ106へ渡してもよい。
記憶部104は、例えば、読み書き可能な半導体メモリと読み出し専用の半導体メモリとを有する。そして記憶部104は、プロセッサ106上で実行される、音声強調処理を実行するためのコンピュータプログラム、及びこれらの処理の途中または結果として生成されるデータを記憶する。
記憶媒体アクセス装置105は、例えば、磁気ディスク、半導体メモリカード及び光記憶媒体といった記憶媒体107にアクセスする装置である。記憶媒体アクセス装置105は、例えば、記憶媒体107に記憶されたプロセッサ106上で実行される、音声強調処理用のコンピュータプログラムを読み込み、プロセッサ106に渡す。
プロセッサ106は、上記の各実施形態の何れかまたは変形例による音声強調処理用コンピュータプログラムを実行することにより、オーディオインターフェース部102または通信インターフェース部103を介して受け取った音声信号を補正する。そしてプロセッサ106は、補正した音声信号を記憶部104に保存し、または通信インターフェース部103を介して他の機器へ出力する。
ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。
以上説明した実施形態及びその変形例に関し、更に以下の付記を開示する。
(付記1)
信号成分と雑音成分とを含む音声信号を周波数領域へ変換することにより複数の周波数帯域のそれぞれについての周波数信号を算出する時間周波数変換部と、
周波数帯域ごとに、前記周波数信号に基づいて前記雑音成分を推定する雑音推定部と、
周波数帯域ごとに、前記信号成分と前記雑音成分との比である信号対雑音比を算出する信号対雑音比算出部と、
前記信号対雑音比が、前記音声信号中の前記信号成分を識別可能であることを表す周波数帯域を選択し、当該選択された周波数帯域の前記信号対雑音比に応じて前記音声信号の強調度合いを表すゲインを決定するゲイン算出部と、
前記ゲインに応じて各周波数帯域の前記周波数信号の振幅成分を増幅するとともに、各周波数帯域の前記振幅成分から前記雑音成分を減じることで前記周波数信号の振幅成分を補正する強調部と、
各周波数帯域の補正された前記振幅成分を持つ周波数信号を時間領域へ変換することにより補正された音声信号を算出する周波数時間変換部と、
を有する音声強調装置。
(付記2)
前記ゲイン算出部は、前記選択された周波数帯域の前記信号対雑音比の平均値が高いほど、前記ゲインを大きくする、付記1に記載の音声強調装置。
(付記3)
前記ゲイン算出部は、前記選択された周波数帯域の数が多いほど、前記ゲインを大きくする、付記1に記載の音声強調装置。
(付記4)
前記複数の周波数帯域のそれぞれについて、当該周波数帯域の前記信号対雑音比が高いほど前記ゲインを小さくするよう調節することにより、周波数帯域ごとに調節されたゲインを求めるゲイン調節部をさらに有し、
前記強調部は、前記複数の周波数帯域のそれぞれについて、当該周波数帯域についての調節されたゲインに応じて前記振幅成分を増幅する、付記1に記載の音声強調装置。
(付記5)
前記ゲイン算出部は、前記選択された周波数帯域の前記信号対雑音比の平均値が所定値以上である場合、前記ゲインを第1の値に設定し、
前記ゲイン調節部は、前記信号対雑音比が前記所定値よりも高い信号対雑音比となる周波数帯域について、当該周波数帯域の前記信号対雑音比が高いほど前記調節されたゲインを小さくする、付記4に記載の音声強調装置。
(付記6)
前記強調部は、前記複数の周波数帯域のそれぞれについて、前記増幅された振幅成分から前記雑音成分を減じることで前記補正された振幅成分を算出する、付記1〜5の何れか一項に記載の音声強調装置。
(付記7)
信号成分と雑音成分とを含む音声信号を周波数領域へ変換することにより複数の周波数帯域のそれぞれについての周波数信号を算出し、
周波数帯域ごとに、前記周波数信号に基づいて前記雑音成分を推定し、
周波数帯域ごとに、前記信号成分と前記雑音成分との比である信号対雑音比を算出し、
前記信号対雑音比が、前記音声信号中の前記信号成分を識別可能であることを表す周波数帯域を選択し、当該選択された周波数帯域の前記信号対雑音比に応じて前記音声信号の強調度合いを表すゲインを決定し、
前記ゲインに応じて各周波数帯域の前記周波数信号の振幅成分を増幅するとともに、各周波数帯域の前記振幅成分から前記雑音成分を減じることで前記周波数信号の振幅成分を補正し、
各周波数帯域の補正された前記振幅成分を持つ周波数信号を時間領域へ変換することにより補正された音声信号を算出する、
ことを含む音声強調方法。
(付記8)
信号成分と雑音成分とを含む音声信号を周波数領域へ変換することにより複数の周波数帯域のそれぞれについての周波数信号を算出し、
周波数帯域ごとに、前記周波数信号に基づいて前記雑音成分を推定し、
周波数帯域ごとに、前記信号成分と前記雑音成分との比である信号対雑音比を算出し、
前記信号対雑音比が、前記音声信号中の前記信号成分を識別可能であることを表す周波数帯域を選択し、当該選択された周波数帯域の前記信号対雑音比に応じて前記音声信号の強調度合いを表すゲインを決定し、
前記ゲインに応じて各周波数帯域の前記周波数信号の振幅成分を増幅するとともに、各周波数帯域の前記振幅成分から前記雑音成分を減じることで前記周波数信号の振幅成分を補正し、
各周波数帯域の補正された前記振幅成分を持つ周波数信号を時間領域へ変換することにより補正された音声信号を算出する、
ことをコンピュータに実行させるための音声強調用コンピュータプログラム。
1 音声入力システム
2 マイクロホン
3 増幅器
4 アナログ/デジタル変換器
5、51 音声強調装置
6 通信インターフェース部
11 時間周波数変換部
12 雑音推定部
13 信号対雑音比算出部
14 ゲイン算出部
15 強調部
16 周波数時間変換部
17 ゲイン調節部
100 コンピュータ
101 ユーザインターフェース部
102 オーディオインターフェース部
103 通信インターフェース部
104 記憶部
105 記憶媒体アクセス装置
106 プロセッサ
107 記憶媒体

Claims (7)

  1. 信号成分と雑音成分とを含む音声信号を周波数領域へ変換することにより複数の周波数帯域のそれぞれについての周波数信号を算出する時間周波数変換部と、
    周波数帯域ごとに、前記周波数信号に基づいて前記雑音成分を推定する雑音推定部と、
    周波数帯域ごとに、前記信号成分と前記雑音成分との比である信号対雑音比を算出する信号対雑音比算出部と、
    前記信号対雑音比が、前記音声信号中の前記信号成分を識別可能であることを表す周波数帯域を選択し、当該選択された周波数帯域の前記信号対雑音比に応じて前記音声信号の強調度合いを表すゲインを決定するゲイン算出部と、
    前記ゲインに応じて各周波数帯域の前記周波数信号の振幅成分を増幅するとともに、各周波数帯域の前記振幅成分から前記雑音成分を減じることで前記周波数信号の振幅成分を補正する強調部と、
    各周波数帯域の補正された前記振幅成分を持つ周波数信号を時間領域へ変換することにより補正された音声信号を算出する周波数時間変換部と、
    を有する音声強調装置。
  2. 前記ゲイン算出部は、前記選択された周波数帯域の前記信号対雑音比の平均値が高いほど、前記ゲインを大きくする、請求項1に記載の音声強調装置。
  3. 前記ゲイン算出部は、前記選択された周波数帯域の数が多いほど、前記ゲインを大きくする、請求項1に記載の音声強調装置。
  4. 前記複数の周波数帯域のそれぞれについて、当該周波数帯域の前記信号対雑音比が高いほど前記ゲインを小さくするよう調節することにより、周波数帯域ごとに調節されたゲインを求めるゲイン調節部をさらに有し、
    前記強調部は、前記複数の周波数帯域のそれぞれについて、当該周波数帯域についての調節されたゲインに応じて前記振幅成分を増幅する、請求項1に記載の音声強調装置。
  5. 前記ゲイン算出部は、前記選択された周波数帯域の前記信号対雑音比の平均値が所定値以上である場合、前記ゲインを第1の値に設定し、
    前記ゲイン調節部は、前記信号対雑音比が前記所定値よりも高い信号対雑音比となる周波数帯域について、当該周波数帯域の前記信号対雑音比が高いほど前記調節されたゲインを小さくする、請求項4に記載の音声強調装置。
  6. 信号成分と雑音成分とを含む音声信号を周波数領域へ変換することにより複数の周波数帯域のそれぞれについての周波数信号を算出し、
    周波数帯域ごとに、前記周波数信号に基づいて前記雑音成分を推定し、
    周波数帯域ごとに、前記信号成分と前記雑音成分との比である信号対雑音比を算出し、
    前記信号対雑音比が、前記音声信号中の前記信号成分を識別可能であることを表す周波数帯域を選択し、当該選択された周波数帯域の前記信号対雑音比に応じて前記音声信号の強調度合いを表すゲインを決定し、
    前記ゲインに応じて各周波数帯域の前記周波数信号の振幅成分を増幅するとともに、各周波数帯域の前記振幅成分から前記雑音成分を減じることで前記周波数信号の振幅成分を補正し、
    各周波数帯域の補正された前記振幅成分を持つ周波数信号を時間領域へ変換することにより補正された音声信号を算出する、
    ことを含む音声強調方法。
  7. 信号成分と雑音成分とを含む音声信号を周波数領域へ変換することにより複数の周波数帯域のそれぞれについての周波数信号を算出し、
    周波数帯域ごとに、前記周波数信号に基づいて前記雑音成分を推定し、
    周波数帯域ごとに、前記信号成分と前記雑音成分との比である信号対雑音比を算出し、
    前記信号対雑音比が、前記音声信号中の前記信号成分を識別可能であることを表す周波数帯域を選択し、当該選択された周波数帯域の前記信号対雑音比に応じて前記音声信号の強調度合いを表すゲインを決定し、
    前記ゲインに応じて各周波数帯域の前記周波数信号の振幅成分を増幅するとともに、各周波数帯域の前記振幅成分から前記雑音成分を減じることで前記周波数信号の振幅成分を補正し、
    各周波数帯域の補正された前記振幅成分を持つ周波数信号を時間領域へ変換することにより補正された音声信号を算出する、
    ことをコンピュータに実行させるための音声強調用コンピュータプログラム。
JP2012261704A 2012-11-29 2012-11-29 音声強調装置、音声強調方法及び音声強調用コンピュータプログラム Active JP6135106B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012261704A JP6135106B2 (ja) 2012-11-29 2012-11-29 音声強調装置、音声強調方法及び音声強調用コンピュータプログラム
EP13190939.2A EP2738763B1 (en) 2012-11-29 2013-10-30 Speech enhancement apparatus and speech enhancement method
US14/072,937 US9626987B2 (en) 2012-11-29 2013-11-06 Speech enhancement apparatus and speech enhancement method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012261704A JP6135106B2 (ja) 2012-11-29 2012-11-29 音声強調装置、音声強調方法及び音声強調用コンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2014106494A true JP2014106494A (ja) 2014-06-09
JP6135106B2 JP6135106B2 (ja) 2017-05-31

Family

ID=49515243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012261704A Active JP6135106B2 (ja) 2012-11-29 2012-11-29 音声強調装置、音声強調方法及び音声強調用コンピュータプログラム

Country Status (3)

Country Link
US (1) US9626987B2 (ja)
EP (1) EP2738763B1 (ja)
JP (1) JP6135106B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3276621A1 (en) 2016-07-27 2018-01-31 Fujitsu Limited Noise suppression device and noise suppressing method

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9940945B2 (en) * 2014-09-03 2018-04-10 Marvell World Trade Ltd. Method and apparatus for eliminating music noise via a nonlinear attenuation/gain function
MX363414B (es) * 2014-12-12 2019-03-22 Huawei Tech Co Ltd Aparato de procesamiento de señal para mejorar un componente de voz dentro de una señal de audio multi-canal.
KR102493123B1 (ko) * 2015-01-23 2023-01-30 삼성전자주식회사 음성 향상 방법 및 시스템
US20180293995A1 (en) * 2017-04-05 2018-10-11 Microsoft Technology Licensing, Llc Ambient noise suppression
US11475888B2 (en) * 2018-04-29 2022-10-18 Dsp Group Ltd. Speech pre-processing in a voice interactive intelligent personal assistant
JP7095586B2 (ja) * 2018-12-14 2022-07-05 富士通株式会社 音声補正装置および音声補正方法
CN110349594A (zh) * 2019-07-18 2019-10-18 Oppo广东移动通信有限公司 音频处理方法、装置、移动终端及计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008306630A (ja) * 2007-06-11 2008-12-18 Fujitsu Ltd 音量制御装置および方法
JP2009171208A (ja) * 2008-01-16 2009-07-30 Fujitsu Ltd 自動音量制御装置及びそれを用いた音声通信装置
JP2011075694A (ja) * 2009-09-29 2011-04-14 Oki Electric Industry Co Ltd 音処理装置及びプログラム
JP2012128411A (ja) * 2010-11-24 2012-07-05 Jvc Kenwood Corp 音声判定装置および音声判定方法
WO2013065088A1 (ja) * 2011-11-02 2013-05-10 三菱電機株式会社 雑音抑圧装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0459362B1 (en) 1990-05-28 1997-01-08 Matsushita Electric Industrial Co., Ltd. Voice signal processor
JP2979714B2 (ja) 1990-05-28 1999-11-15 松下電器産業株式会社 音声信号処理装置
US6233549B1 (en) * 1998-11-23 2001-05-15 Qualcomm, Inc. Low frequency spectral enhancement system and method
US7058572B1 (en) * 2000-01-28 2006-06-06 Nortel Networks Limited Reducing acoustic noise in wireless and landline based telephony
US6804640B1 (en) * 2000-02-29 2004-10-12 Nuance Communications Signal noise reduction using magnitude-domain spectral subtraction
JP3566197B2 (ja) * 2000-08-31 2004-09-15 松下電器産業株式会社 雑音抑圧装置及び雑音抑圧方法
TW533406B (en) * 2001-09-28 2003-05-21 Ind Tech Res Inst Speech noise elimination method
DE10150519B4 (de) * 2001-10-12 2014-01-09 Hewlett-Packard Development Co., L.P. Verfahren und Anordnung zur Sprachverarbeitung
JP4423300B2 (ja) * 2004-10-28 2010-03-03 富士通株式会社 雑音抑圧装置
US20060184363A1 (en) * 2005-02-17 2006-08-17 Mccree Alan Noise suppression
US8086451B2 (en) * 2005-04-20 2011-12-27 Qnx Software Systems Co. System for improving speech intelligibility through high frequency compression
JP4670483B2 (ja) * 2005-05-31 2011-04-13 日本電気株式会社 雑音抑圧の方法及び装置
JP4836720B2 (ja) * 2006-09-07 2011-12-14 株式会社東芝 ノイズサプレス装置
JP2008216720A (ja) * 2007-03-06 2008-09-18 Nec Corp 信号処理の方法、装置、及びプログラム
US7912567B2 (en) * 2007-03-07 2011-03-22 Audiocodes Ltd. Noise suppressor
US7885810B1 (en) * 2007-05-10 2011-02-08 Mediatek Inc. Acoustic signal enhancement method and apparatus
EP1995722B1 (en) * 2007-05-21 2011-10-12 Harman Becker Automotive Systems GmbH Method for processing an acoustic input signal to provide an output signal with reduced noise
JP5302968B2 (ja) * 2007-09-12 2013-10-02 ドルビー ラボラトリーズ ライセンシング コーポレイション 音声明瞭化を伴うスピーチ改善
JP2010054954A (ja) 2008-08-29 2010-03-11 Toyota Motor Corp 音声強調装置及び音声強調方法
KR20110036175A (ko) * 2009-10-01 2011-04-07 삼성전자주식회사 멀티밴드를 이용한 잡음 제거 장치 및 방법
US8571231B2 (en) * 2009-10-01 2013-10-29 Qualcomm Incorporated Suppressing noise in an audio signal
US20110125494A1 (en) * 2009-11-23 2011-05-26 Cambridge Silicon Radio Limited Speech Intelligibility
KR101624652B1 (ko) * 2009-11-24 2016-05-26 삼성전자주식회사 잡음 환경의 입력신호로부터 잡음을 제거하는 방법 및 그 장치, 잡음 환경에서 음성 신호를 강화하는 방법 및 그 장치
KR101737824B1 (ko) * 2009-12-16 2017-05-19 삼성전자주식회사 잡음 환경의 입력신호로부터 잡음을 제거하는 방법 및 그 장치
JP2012058358A (ja) * 2010-09-07 2012-03-22 Sony Corp 雑音抑圧装置、雑音抑圧方法およびプログラム
EP2551846B1 (en) * 2011-07-26 2022-01-19 AKG Acoustics GmbH Noise reducing sound reproduction
KR101247652B1 (ko) * 2011-08-30 2013-04-01 광주과학기술원 잡음 제거 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008306630A (ja) * 2007-06-11 2008-12-18 Fujitsu Ltd 音量制御装置および方法
JP2009171208A (ja) * 2008-01-16 2009-07-30 Fujitsu Ltd 自動音量制御装置及びそれを用いた音声通信装置
JP2011075694A (ja) * 2009-09-29 2011-04-14 Oki Electric Industry Co Ltd 音処理装置及びプログラム
JP2012128411A (ja) * 2010-11-24 2012-07-05 Jvc Kenwood Corp 音声判定装置および音声判定方法
WO2013065088A1 (ja) * 2011-11-02 2013-05-10 三菱電機株式会社 雑音抑圧装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3276621A1 (en) 2016-07-27 2018-01-31 Fujitsu Limited Noise suppression device and noise suppressing method
US10679641B2 (en) 2016-07-27 2020-06-09 Fujitsu Limited Noise suppression device and noise suppressing method

Also Published As

Publication number Publication date
US9626987B2 (en) 2017-04-18
US20140149111A1 (en) 2014-05-29
EP2738763B1 (en) 2016-05-04
EP2738763A3 (en) 2015-09-09
JP6135106B2 (ja) 2017-05-31
EP2738763A2 (en) 2014-06-04

Similar Documents

Publication Publication Date Title
JP6135106B2 (ja) 音声強調装置、音声強調方法及び音声強調用コンピュータプログラム
US9135924B2 (en) Noise suppressing device, noise suppressing method and mobile phone
JP5923994B2 (ja) 音声処理装置及び音声処理方法
JP6446893B2 (ja) エコー抑圧装置、エコー抑圧方法及びエコー抑圧用コンピュータプログラム
JP4916394B2 (ja) エコー抑圧装置、エコー抑圧方法及びコンピュータプログラム
JP5293817B2 (ja) 音声信号処理装置及び音声信号処理方法
JP6668995B2 (ja) 雑音抑圧装置、雑音抑圧方法及び雑音抑圧用コンピュータプログラム
JP5265056B2 (ja) 雑音抑圧装置
JP4836720B2 (ja) ノイズサプレス装置
US8391471B2 (en) Echo suppressing apparatus, echo suppressing system, echo suppressing method and recording medium
JP6303340B2 (ja) 音声処理装置、音声処理方法及び音声処理用コンピュータプログラム
JP2014232331A (ja) アダプティブ・インテリジェント・ノイズ抑制システム及び方法
JP2002541753A (ja) 固定フィルタを用いた時間領域スペクトラル減算による信号雑音の低減
JPWO2006046293A1 (ja) 雑音抑圧装置
JP2016531332A (ja) 音声処理システム
JP7325445B2 (ja) ギャップ信頼度を用いた背景雑音推定
JP2014122939A (ja) 音声処理装置および方法、並びにプログラム
CN101000769A (zh) 便携式记录器中消除噪声的装置和方法
JP5086442B2 (ja) 雑音抑圧方法及び装置
JP6878776B2 (ja) 雑音抑圧装置、雑音抑圧方法及び雑音抑圧用コンピュータプログラム
JP5982900B2 (ja) 雑音抑制装置、マイクロホンアレイ装置、雑音抑制方法、及びプログラム
JP5466581B2 (ja) 反響消去方法、反響消去装置及び反響消去プログラム
JP6794887B2 (ja) 音声処理用コンピュータプログラム、音声処理装置及び音声処理方法
JP2001228893A (ja) 音声認識装置
JP2019078844A (ja) 音声処理用コンピュータプログラム、音声処理装置及び音声処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170410

R150 Certificate of patent or registration of utility model

Ref document number: 6135106

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150