JP5596039B2 - オーディオ信号における雑音推定の方法および装置 - Google Patents

オーディオ信号における雑音推定の方法および装置 Download PDF

Info

Publication number
JP5596039B2
JP5596039B2 JP2011532248A JP2011532248A JP5596039B2 JP 5596039 B2 JP5596039 B2 JP 5596039B2 JP 2011532248 A JP2011532248 A JP 2011532248A JP 2011532248 A JP2011532248 A JP 2011532248A JP 5596039 B2 JP5596039 B2 JP 5596039B2
Authority
JP
Japan
Prior art keywords
noise level
noise
standard deviation
calculating
average value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011532248A
Other languages
English (en)
Other versions
JP2012506073A (ja
Inventor
モハンマド、アシフ・アイ.
ラマクリシュナン、ディネッシュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2012506073A publication Critical patent/JP2012506073A/ja
Application granted granted Critical
Publication of JP5596039B2 publication Critical patent/JP5596039B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/84Detection of presence or absence of voice signals for discriminating voice from noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones

Description

関連出願への相互参照
本出願は、出願の全体が引用によってここに組み込まれている2008年10月15日に出願された米国仮特許出願第61/105,727号からの優先権を主張する。
本開示は、概して雑音レベル/スペクトル推定および音声活動検出のための方法および装置に関し、また特に雑音レベルを推定し音声の存在を検出する確率モデルの使用に関する。
通信技術は、しばしば新しい課題を提示しながら、多くの分野で発展し続けている。携帯電話および無線ヘッドセットの出現によって現在、人々は極めて耳障りな環境すなわち低い信号対雑音比(SNR)を有する環境において真の全二重通信会話を行うことができる。信号増強および雑音抑制は、これらの状況において極めて重要になる。所望される音声の了解度は、他端部における聞き手に信号を送信する前に不要な雑音の多い信号を抑制することによって改善される。雑音の多い背景(バックグラウンド)内で音声の存在を検出することは、信号増強および雑音抑制の1つの重要な構成要素である。改善された音声検出を達成するために、ある幾つかのシステムは、着信信号を複数の異なる時間/周波数フレームに分割し、各フレームにおける音声の存在の確率を推定する。
音声の存在を検出する際の最も大きな課題の1つは、ノイズフロア(noise floor)を追跡すること、特に単一のマイクロホン/センサーを使用して非定常的雑音レベルを追跡することである。音声活動検出は、最近の通信デバイスにおいて、特に携帯電話および無線ハンドセット・デバイスといった低い信号対雑音比の下で動作する最近の移動デバイスで広く使用されている。これらのデバイスの大部分において信号増強および雑音抑制は、他端部における聞き手に雑音の多い信号を送信する前にこの雑音の多い信号に対して実行される。これは所望の音声の了解度を改善するために行われる。信号増強/雑音抑制において音声またはボイス活動検出子(VAD)は、雑音で汚染された信号における所望の音声の存在を検出するために使用される。この検出子は、音声の存在または不在の2値的決定を生成でき、あるいはまた音声存在の確率を生成することもできる。
音声の存在を検出する際の1つの課題は、ノイズ「シーリング」および「フロア」としても知られる信号内の背景雑音のレベルの上限および下限を決定することである。これは特に、単一のマイクロホン入力を使用する非定常雑音について真である。更にデバイスの、またはデバイスを使用する人の物理的移動に起因する雑音レベルの急速な変化を追跡することは、なおさら困難である。
ある幾つかの実施形態においてオーディオ信号の現在フレームにおける雑音レベルを推定する方法が開示される。この方法は、複数のオーディオフレームの雑音レベルを決定すること、ならびにこれら複数のオーディオフレームにわたる雑音レベルの平均値と標準偏差とを計算することを備える。現在フレームの雑音レベル推定は、平均値から減算される標準偏差の値を使用して計算される。
ある幾つかの実施形態において、雑音決定システムが開示される。このシステムは、複数のオーディオフレームの雑音レベルを決定するように構成された1つのモジュールと、これら複数のオーディオフレームにわたる雑音レベルの平均値と標準偏差とを計算するように構成された1つ以上のモジュールと、を備える。このシステムはまた、現在フレームの雑音レベル推定値を上記平均値から減算される標準偏差の値として計算するように構成されたモジュールも含み得る。
ある幾つかの実施形態において、複数の時間・周波数ビン(bin)における信号の雑音レベルを推定する方法であって、1つ以上のコンピュータシステム上で実現され得る方法が開示される。信号の各ビンに関してこの方法は、複数のオーディオフレームの雑音レベルを決定し、時間・周波数ビンにおける雑音レベルを推定し、時間・周波数ビンにおける仮の雑音レベルを決定し、この仮の雑音レベルから時間・周波数ビンにおける2次雑音レベルを決定し、そして限界設定された雑音レベルを時間・周波数ビンにおける2次雑音レベルから決定する。
ある幾つかの実施形態は、オーディオ信号の現在フレームにおける雑音レベルを推定するシステムを開示する。このシステムは、複数のオーディオフレームの雑音レベルを決定する手段と、これら複数のオーディオフレームにわたる雑音レベルの平均値と標準偏差とを計算する手段と、現在フレームの雑音レベル推定値を上記平均値から減算される標準偏差の値として計算する手段と、を備え得る。
ある幾つかの実施形態において、ある方法を実行するためにプロセッサ上で実行される命令を備えるコンピュータ可読媒体が開示される。この方法は、複数のオーディオフレームの雑音レベルを決定することと、これら複数のオーディオフレームにわたる雑音レベルの平均値と標準偏差とを計算することと、現在フレームの雑音レベル推定値を上記平均値から減算される標準偏差の値として計算することと、を備える。
下記の添付図面において種々の構成が限定としてではなく例として図示される。
本発明の原理によるVADの単純化されたブロック図である。 周波数ドメインVADのための周波数選択性重み付けベクトルを示すグラフである。 ピンク雑音環境下における提案された時間ドメインVADの性能を示すグラフである。 バブル雑音環境下における提案された時間ドメインVADの性能を示すグラフである。 トラヒック雑音環境下における提案された時間ドメインVADの性能を示すグラフである。 パーティ雑音環境下における提案された時間ドメインVADの性能を示すグラフである。
本実施形態は、信号における雑音レベルを決定し、またある幾つかの事例で、引き続いて音声を検出する方法およびシステムを備える。これらの実施形態は、従来技術に対して多数の重要な進歩を備える。1つの改善点は、従前および現在のオーディオフレームからの背景雑音の平均値に基づいて音声信号における背景雑音の推定を実行することに関する。これは、より前および現在のオーディオフレームからの最小雑音値に基づいて音声のフレームに関する現在の背景雑音レベルを計算した他のシステムとは異なる。伝統的に研究者等は、現在雑音レベルを推定するために前の雑音値の最小値を見てきた。しかしながら一実施形態では、推定された雑音信号レベルが幾つかの過去のフレームから計算され、最小値よりむしろこの集合体(アンサンブル(ensemble))の平均値が計算され、調整された(scaled)標準偏差がこの集合体から減算される。結果として得られた値は好都合にも、典型的に集合体の最小値を使用して与えられるより、現在オーディオフレームの雑音レベルの正確な推定を与える。
更にこの推定された雑音レベルは、雑音のより正確な推定を維持するように着信信号レベルに基づいて動的に限定され得る。この推定された雑音レベルは、不連続性を最小にするために前の値によって更に「平滑化」または「平均化」され得る。推定雑音レベルはそれから、この雑音レベルより高いエネルギーレベルを有するフレーム内の音声を識別するために使用され得る。これは、音声の存在の較正された確率を生成するために非線形シグモイド活性化関数によって使用され得る帰納的(a posteriori)信号対雑音比(SNR)を計算することによって決定され得る。
図1を参照すると従来の音声活動検出(VAD)システム100は、背景雑音を有するセグメントと背景雑音および音声の両者を有するセグメントとを備える着信信号101を受信する。このVADシステム100は、時間信号101をフレーム103a〜103dに分割する。それからこれらのフレーム103a〜103dの各々は、(雑音または音声)に所定のフレームを配置すべきクラスを決定する類別モジュール104に渡される。
類別モジュール104は、所定の信号のエネルギーを計算して、このエネルギーをノイズフロアの推定値に対応する時間的に変化する閾値と比較する。このノイズフロア推定値は、各着信フレームによって更新され得る。ある幾つかの実施形態ではフレームは、フレーム信号の推定エネルギーレベルがこの特定のフレーム内の測定されたノイズフロアより高い場合に音声活動として類別される。したがってこのモジュールでは雑音スペクトル推定は、音声認識の、そして所望であればこれに続く改善の基本的構成要素である。特に、低SNRの、および非定常雑音の環境下におけるこのようなシステムのローバスト(堅牢)性は、雑音統計における急速な変化を信頼度高く追跡するための能力によって最大限に影響される。
VADに基づく従来の雑音推定方法は、雑音推定値の更新を音声不在の期間に限定する。しかしながらこれらのVADの信頼度は、弱い音声成分と低入力SNRとのために大幅に劣化する。パワースペクトル密度ヒストグラムに基づく他の技法は、コンピュータ的に高価であり、高価なメモリ資源を必要とし、低SNR条件下でうまく働かず、したがって携帯電話およびブルートゥースヘッドセット・アプリケーションのためには適さない。最小統計は、過去の複数のフレームの最小値を雑音推定値であると見なすことによって動作する雑音スペクトル推定のために使用されるもう1つの方法である。不都合なことにこの方法は、定常雑音に対しては有利に働くが、非定常的環境を取り扱うときには極めて不利になる。
一実施形態は、「パーティ雑音」または「バブル雑音」といった極めて非定常的雑音の環境を含む多種類の望ましくないオーディオ信号を追跡する際に極めて有効である雑音スペクトル推定システムおよび方法を備える。このシステムは、このような推定に助けとならない環境においても正確なノイズフロアを生成する。この推定されたノイズフロアは、音声の存在の確率を決定するためにシグモイド関数「ロジスティック関数」において使用される帰納的(a posteriori)SNRを計算する際に使用される。ある幾つかの実施形態では、この関数のために音声決定モジュールが使用される。
x[n]およびd[n]がそれぞれ所望の音声および無相関の付加的雑音信号を表すとする。観測された信号または汚染された信号y[n]は、単に(数式1)によって与えられるこれらの追加分である:
Figure 0005596039
2つの仮定H[n]およびH[n]はそれぞれ、n番目の(nth)時間フレームにおける音声の不在および存在を示す。ある幾つかの実施形態では雑音の多い測定の過去のエネルギーレベル値は、音声不在の期間中に再帰的に平均化され得る。これとは対照的に推定値は音声存在の期間中、一定に保持され得る。具体的には、
Figure 0005596039
Figure 0005596039
ここで
Figure 0005596039
は時間フレームnにおける雑音の多い信号のエネルギーであり、αは0と1の間の平滑化パラメータを示す。しかしながら音声が存在するときは必ずしも明らかでないので、方法HまたはHの各々を適用するべきときは明らかでない可能性がある。その代わりに時間の経過と共に平滑化係数αを更新することによって再帰的平均を推定する「条件付き音声存在確率」を使用することができる:
Figure 0005596039
ここで
Figure 0005596039
この仕方で、音声の存在が分からないときに、より正確な推定値が取得され得る。
他には、雑音レベル推定のために前に考えられた最小統計に基づく方法がある。例えば過去の100フレームに関して推定された雑音の多い信号レベルλを見て、アンサンブルの最小値を計算し、これを推定雑音レベルとして宣言することができる。すなわち:
Figure 0005596039
ここでmin[x]はベクトルxのエントリーの最小値を示し、
Figure 0005596039
は時間フレームnにおける推定雑音レベルである。100より多い、または少ないフレームに関して演算を実行することができるが、100はここおよび本明細書全体を通して単なる例示的範囲として提示されている。このアプローチは定常的雑音環境には有効に働くが、非定常的環境ではうまく行かない。
中でもこの問題に取り組むために本実施形態は、システムの全体的検出効率を改善するために以下に説明される技法を使用する。
[平均統計値]
一実施形態では本発明のシステムおよび方法は、ノイズフロアを計算するために最小統計値よりむしろ平均統計値を使用する。具体的に信号エネルギーσ は,過去のフレーム値のスケール(scaled)標準偏差σを平均値λdバーから減算することによって計算される。それから現在のエネルギーレベルσ は過去のフレームから前に計算されたすべての信号エネルギーσ の最小値として選択される:
Figure 0005596039
Figure 0005596039
ここでxバーはベクトルxのエントリーの平均値である。本実施形態は、過去の100フレームにわたる推定雑音レベルのスケール(scaled)標準偏差を同数のフレームにわたる推定雑音レベルの平均値から減算することを考えている。
[雑音推定値を使用する音声検出]
いったん雑音推定値σ が計算されると、音声は高いSNRの領域を識別することによって推測され得る。特にロジスティック回帰ベースの類別子に基づいて音声の存在の較正された確率を正確に推定する数学的モデルが開発され得る。ある幾つかの実施形態では特徴要素ベースの類別子が使用され得る。音声の短期間スペクトルは対数(log)分布によってうまくモデル化されるので、特徴要素の集合としてSNR自身よりむしろ推定された帰納的SNRの対数を使用できる。すなわち
Figure 0005596039
安定のために上記の量の時間的平滑化をすることもできる。
Figure 0005596039
それから所望の音声検出のために、ロジスティック関数として知られる非線形・メモリなし活性化関数が使用され得る。時間フレームnにおける音声の存在の確率は下記によって与えられえる。
Figure 0005596039
所望であれば推定確率prob[n]はまた、音声におけるサドンバースト(sudden burst)を追跡するために小さな忘却因子(forgetting factor)を使用して時間的平滑化されることも可能である。音声の不在および存在の2値的決定を取得するために推定確率(prob∈1[0,1])は、事前選択された閾値と比較され得る。probの高い値は音声の存在の、より高い確率を示す。例えばもしprob[n]>0.7であれば、時間フレームnにおける音声の存在が宣言され得る。そうでなければこのフレームは単に非音声活動だけを有すると考えられ得る。提案された実施形態は、より正確な雑音レベル決定の結果として、より正確な音声検出を実現する。
[雑音推定の改善]
平均値および標準偏差の計算は、過去のフレーム推定値を記憶するために十分なメモリを必要とする。この要件は、限定されたメモリを有するある幾つかのアプリケーション/デバイス(ある幾つかの極めて小さな携帯型デバイスといった)に関して禁止的であり得る。このような場合、上記の計算に取って代わるために下記の近似式が使用され得る。平均推定値の近似値は、平滑定数αを用いてパワー推定値x(n)を指数関数的に平均化することによって計算され得る。同様に分散推定値の近似値は、nがフレームインデックスを表すとして平滑化定数αを用いてパワー推定値の平方を指数関数的に平均化することによって計算され得る:
Figure 0005596039
Figure 0005596039
代替として標準偏差推定値の近似値は、分散推定値
Figure 0005596039
の平方根を取ることによって取得され得る。平滑化定数α & αは、20〜100フレームにわたる平均化に対応するように範囲[0.95,0.99]内で選択され得る。更に
Figure 0005596039
の近似値は、平均およびスケール(scaled)標準偏差推定値の間の差異を計算することによって取得され得る。いったん平均マイナススケールされた標準偏差推定値(mean-minus-scaled standard deviation)が取得されると、1セットの例えば100フレームにわたる差異に対する最小統計が実行され得る。
この特徴要素は単に、最小統計値と比較して非定常的雑音のピークの優れた追跡を与える。ある幾つかの実施形態では雑音レベル推定に影響を与える所望の音声ピークを補償するために、雑音レベルの標準偏差が減算される。しかしながら方程式7における過剰な減算は、過小評価雑音レベルという結果をもたらす可能性がある。この問題に取り組むために音声不在時における長期間平均が実行され得る。すなわち:
Figure 0005596039
Figure 0005596039
ここでα=0.9999は平滑化係数であり、雑音レベルは下記のように推定される:
Figure 0005596039
(雑音の限界設定)
典型的には着信信号が極めて清浄(高いSNR)であるとき、雑音レベルは典型的に過小評価される。この問題を解決する1つの方法は、雑音レベルを所望信号レベルσ desired未満の例えば少なくとも18dBになるように低く限界設定することである。低く限界設定することは下記のフロアリング演算を使用して達成され得る:
Figure 0005596039
もし
Figure 0005596039
であって
もしσ noise[n−1]>Δであれば
floor[n]=σ desired[n]/Δであり、
もしfloor[n−1]<floor[n]であれば
floor[n]=floor[n]であり、
そうでなく、もしSNR diff[n−1]>Δであって
もしσ noise[n−1]<Δであれば
floor[n]=floor[n]である
終了
終了
終了
終了
Figure 0005596039
ここで因数Δ〜Δは調整可能であり、SNR EstimateおよびLongterm Avg SNRはそれぞれ雑音推定値σ noise[n]およびλd1[n]を使用して取得される帰納的SNR推定値および長期間SNR推定値である。この仕方で雑音レベルは必要とされるアクティブな所望信号レベル未満の12〜24dBの間に限界設定され得る。
[周波数ベースの雑音推定]
実施形態は更に、他で使用され得る周波数ドメイン・サブバンド・ベースのコンピュータ関連音声検出子を含む。ここで各時間フレームは、時間フレームのフーリエ変換で表される1群の成分周波数に分割される。これらの周波数は、「時間・周波数」ビン内のそれぞれのフレーム関連付けられた状態に留まる。この説明されている実施形態はそれから、各時間・周波数ビン(k,n)における、すなわちk番目の周波数ビンおよびn番目の時間フレームにおける音声の存在の確率を推定する。ある幾つかのアプリケーションは、音声存在の確率が時間・周波数アトムレベルおよび時間フレームレベルの両者において推定されることを必要とする。
各時間・周波数ビン(bin)における音声検出子の動作は、各周波数ビンにおいて実行されることを除いて上記に説明された時間ドメイン実現形態に類似している。特に各時間・周波数ビン(k,n)における雑音レベルλは、平滑化係数αを使用して過去のフレームλ[k,n−1]における雑音レベルとこの周波数における過去の100フレームに関する信号エネルギー
Figure 0005596039
との間を補間することによって推定される:
Figure 0005596039
平滑化係数αはそれ自身、音声の存在確率と1との間の補間(すなわち音声が存在することがどれほどの頻度で想定され得るか)に依存している可能性がある。
α s [k,n] = α d + (1−α d )prob[k,n] (19)
上記の方程式においてY(k,i)は、k番目の周波数ビンおよびi番目の時間フレームにおける汚染された信号である。各ビンにおける仮の雑音レベルは下記のように推定され得る:
Figure 0005596039
Figure 0005596039
時間ドメインVADと同様に、音声存在Hおよび不在Hの期間中の長期間平均は下記の方程式にしたがって実行され得る:
Figure 0005596039
Figure 0005596039
それから各時間・周波数ビンにおける2次雑音レベルは下記のように推定される:
Figure 0005596039
ある幾つかの高SNRビンに関する雑音レベルにおける過小評価の問題に取り組むために、下記の限界設定条件および方程式が使用され得る:
Figure 0005596039
もし
Figure 0005596039
であって
もしσ noise[n−1]>Δであれば
floor[k,n]=σ desired[k,n]/Δであり、
もしfloor[k,n−1]<floor[k,n]であれば
floor[k,n]=floor[k,n]であり、
そうでなく、もしSNR diff[k,n−1]>Δであって
もしσ noise[k,n−1]<Δであれば
floor[k,n]=floor[k,n]である
終了
終了
終了
終了
Figure 0005596039
ここで因数Δ〜Δは調整可能であり、SNR EstimateおよびLongterm Avg SNRはそれぞれ雑音推定値σ noise[k,n]およびλd1[k,n]を使用して取得される帰納的SNR推定値および長期間SNR推定値である。σ noise(k,n)は各時間・周波数ビンにおける最終的雑音レベルを表す。
次に上記に説明された時間ドメイン数学モデルに基づく方程式(方程式2〜17)は、各時間・周波数ビンにおける音声の存在の確率を推定するために使用され得る。特に各時間・周波数アトムにおける帰納的SNRは下記によって与えられる:
Figure 0005596039
安定のために上記の量の時間的平滑化をすることもできる:
Figure 0005596039
そして各時間・周波数アトムにおける音声の存在の確率は
Figure 0005596039
によって与えられる。
ここでprob[k,n]はk番目の周波数ビンとn番目の時間フレームとにおける音声の存在の確率を表す。
[2レベル・アーキテクチャ]
上記の数学モデルは、各時間フレームにおける音声存在の確率の改善された推定値を取得するために任意選択的に各時間・周波数ビンにおける出力確率を柔軟に組み合わせることを可能にする。一実施形態は例えば、検出子の第1のレベルが時間・周波数ビンレベルで動作し、出力が第2の時間フレームレベル音声検出子に入力される2レベル・アーキテクチャを考えている。
2レベル・アーキテクチャは、各時間フレームにおける音声の存在の確率のより良好な推定値を取得するために各時間・周波数ビンにおける推定された確率を組み合わせる。このアプローチは、音声がある周波数帯域(600Hz〜1550Hz)において支配的であるという事実を利用し得る。図2は、ある幾つかの実施形態で使用された複数の周波数重み付けのプロット203を示す。ある幾つかの実施形態ではこれらの重み付けは、下記に示されたようなビンレベルの確率の重み付け平均値を決定するために使用される:
Figure 0005596039
ここで重み付けベクトルWは、図2に示された値を備える。最後に、各フレームにおける音声の存在または不在の2値的決定は、時間ドメイン・アプローチと同様に、推定された確率を事前選択された閾値と比較することによって行われ得る。
[例]
上記の実施形態の利点を評価するために音声検出は、上記に説明された時間および周波数実施形態ならびに2つの先行するVADシステムを使用して実行された。種々の雑音環境下におけるこれらの実例の各々に関するROCカーブは、図3〜6に示されている。上記の実施形態の時間および周波数バージョンの各々は、標準的VADよりかなり良好に機能した。これらの例の各々に関して使用された雑音データベースは、勧告された規格ETSI EG202 396−1に基づいていた。このデータベースは、音声品質および雑音抑制評価目的のために車両雑音、街路雑音、バブル雑音などの標準的記録を提供する。VAD性能を評価するために更なる現実世界の記録も使用された。これらの雑音環境は、定常的雑音および非定常的雑音の両者を含んでおり、テストすべき挑戦的な集大成(コーパス(corpus))を提供している。更に、検出を極めて困難にするために5dBのSNRが選択された(典型的なオフィス雑音はおよそ30dBであろう)。
[例1]
提案された時間ドメイン音声検出子を評価するために、種々の雑音環境下で5dBのSNRにおける受信機動作特性(ROC)がプロットされている。図2に示されているようにROCカーブは、検出の確率(音声が存在するときに音声の存在を検出する)301対誤警報の確率(音声が存在しないときに音声の存在を宣言する)302をプロットしている。適切な検出率で極めて低い誤警報を有することが望ましい。所定の誤警報に関するより高い検出確率の値はより良好な性能を示すので、一般により高いカーブはより良好な検出子である。
ROCは、4つの異なる雑音−ピンク雑音、バブル雑音、トラヒック雑音およびパーティ雑音に関して示されている。ピンク雑音は、周波数に反比例するパワースペクトル密度を有する定常雑音である。これは、一般に自然の物理システムにおいて観測され、しばしばオーディオ信号処理ソリューション(解決策)をテストするために使用される。バブル雑音およびトラヒック雑音は事実上、準定常的であって、一般に移動体通信環境において遭遇する雑音源である。バブル雑音信号およびトラヒック雑音信号は、ETSI EG202 396−1規格勧告によって与えられる雑音データベースにおいて利用可能である。パーティ雑音は、高度に非定常的な雑音であって、VADの性能を評価するための極端な場合の例として使用される。大抵の単一マイクロホン音声活動検出子は、雑音の高度に非定常的な性質のためにパーティ雑音の存在において高い誤警報を発生させる。しかしながら本発明において提案された方法は、パーティ雑音の場合でも低い誤警報を発生させる。
図3は、第1の標準的VADのROCカーブ303cと第2の標準的VADのROCカーブ303bと本時間ベース実施形態のROCカーブ303aと本周波数ベース実施形態のROCカーブ303dとを示しており、これらはピンク雑音環境においてプロットされている。図示のように本実施形態303a、303dは、第1のVAD303bおよび第2のVAD303cの各々より大幅に優れた性能を示しており、誤警報制約302が緩和されたという理由から常により高い検出301を記録した。
[例2]
図4は、第1の標準的VADのROCカーブ403cと第2の標準的VADのROCカーブ403bと本時間ベース実施形態のROCカーブ403aと本周波数ベース実施形態のROCカーブ403dとを示しており、これらはバブル雑音環境においてプロットされている。図示のように本実施形態403a、403dは、第1のVAD403bおよび第2のVAD403cの各々より大幅に優れた性能を示しており、誤警報制約402が緩和されたという理由から常により高い検出401を記録した。
[例3]
図5は、第1の標準的VADのROCカーブ503cと第2の標準的VADのROCカーブ503bと本時間ベース実施形態のROCカーブ503aと本周波数ベース実施形態のROCカーブ503dとを示しており、これらはトラヒック雑音環境においてプロットされている。図示のように本実施形態503a、503dは、第1のVAD503bおよび第2のVAD503cの各々より大幅に優れた性能を示しており、誤警報制約502が緩和されたという理由から常により高い検出501を記録した。
[例4]
図6は、第1の標準的VADのROCカーブ603cと第2の標準的VADのROCカーブ603bと本時間ベース実施形態のROCカーブ603aと本周波数ベース実施形態のROCカーブ603dとを示しており、これらはROC−ICASSPオーディトリウム(聴衆席)雑音環境においてプロットされている。図示のように本実施形態603a、603dは、第1のVAD603bおよび第2のVAD603cの各々より大幅に優れた性能を示しており、誤警報制約602が緩和されたという理由から常により高い検出601を記録した。
本開示において説明された技法は、ハードウエア、ソフトウエア、ファームウエア、またはこれらの任意の組合せで実現され得る。ユニットまたはコンポーネントとして説明された如何なる特徴要素も、集積された論理デバイスまたは個別ではあるが相互動作可能な論理デバイスに一緒に実現され得る。ソフトウエアで実現された場合にはこれらの技法は少なくともある程度は、実行されたときに上記の方法の1つ以上を実行する命令を備えたコンピュータ可読媒体によって実現され得る。コンピュータ可読媒体は、パッケージ資料を含み得るコンピュータプログラム製品の一部を形成し得る。コンピュータ可読媒体は、同期ダイナミック・ランダム・アクセス・メモリ(SDRAM)といったランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、不揮発性ランダムアクセスメモリ(NVRAM)、電気的消去可能プログラム可能読み出し専用メモリ(EEPROM)、FLASHメモリ、磁気または光データ記憶媒体などを備え得る。これらの技法は更に、または代替として少なくともある程度は、命令またはデータ構造体の形をしたコードを搬送または伝達し、コンピュータによってアクセス、読み取り、および/または実行され得るコンピュータ可読通信媒体によって実現され得る。
コードは、1つ以上のディジタル信号プロセッサ(DPS)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPA)、または他の同等な集積された、または個別の論理回路といった1つ以上のプロセッサによって実行され得る。したがってここで使用される用語「プロセッサ」は、上記の構造体のいずれか、またはここで説明された技法の実現のために適した他の任意の構造体を指す可能性がある。更に、ある幾つかの態様ではここで説明された機能は、符号化および復号するように構成された、または複合符号器・復号器(CODEC)に組み込まれた専用のソフトウエアユニットまたはハードウエアユニット内に備えられ得る。ユニットまたはモジュールとしての種々の特徴要素の描写は、説明されたデバイスの種々の機能的態様を強調するように意図されており、このようなユニットが別々のハードウエアまたはソフトウエアコンポーネントによって実現されなければならないことを必ずしも意味しない。むしろ1つ以上のユニットまたはモジュールに関連した機能は、共通の、または別々のハードウエアまたはソフトウエアコンポーネント内に統合され得る。これらの実施形態は、コンピュータプロセッサおよび/または電気回路を使用して実現され得る。
以下に本件出願当初の特許請求の範囲に記載された発明を付記する。
[1] オーディオ信号の現在フレームにおける雑音レベルを推定する方法であって、
複数のオーディオフレームの雑音レベルを決定することと、
前記複数のオーディオフレームにわたる雑音レベルの平均値と標準偏差とを計算することと、
前記現在フレームの雑音レベル推定値を前記平均値から減算される標準偏差の値として計算することと、
を備える方法。
[2] 前記平均値からの減算に先立って前記標準偏差をスケール(scaling)することを更に備える[1]に記載の方法。
[3] 複数の雑音レベル推定値の最小値を決定することによって前記現在雑音レベル推定値を決定することを更に備える[1]に記載の方法。
[4] 前記複数のオーディオフレームは約100フレームを備える[1]に記載の方法。
[5] 前記雑音レベル推定値を計算することは平滑化係数を使用することを備える[1]に記載の方法。
[6] 前記雑音レベル推定値は音声活動の期間中一定に保持される[5]に記載の方法。
[7] 前記平滑化係数は第2の平滑化係数を使用して前記現在フレームにおける音声の確率と1との間を補間することによって再帰的に平均化される[5]に記載の方法。
[8] 前記雑音レベル推定値は複数の予め決められた雑音レベルの最小値を備える[1]に記載の方法。
[9] 前記雑音レベルの平均値は前記雑音レベルの予め計算された平均値を現在雑音レベルによって補間することによって推定される[1]に記載の方法。
[10] 前記計算された雑音レベル推定値を所望の信号レベル未満の12〜24dBの間に限界設定することを更に備える[1]に記載の方法。
[11] 前記現在フレームを、非雑音セグメントを有するものとして識別することによって音声活動を検出することを更に備える[1]に記載の方法。
[12] すべてのτがτ∈[0.2,1)であるとして、音声の確率>τであるときに音声活動が宣言される[11]に記載の方法。
[13] 複数のオーディオフレームの雑音レベルを決定するように構成された第1のモジュールと、
前記複数のオーディオフレームにわたる雑音レベルの平均値と標準偏差とを計算するように構成された第2のモジュールと、
現在フレームの雑音レベル推定値を前記平均値から減算される標準偏差の値として計算するように構成された第3のモジュールと、
を備える雑音決定システム。
[14] 前記第3のモジュールは前記平均値からの減算に先立って前記標準偏差をスケール(scale)するように構成される[13]に記載の雑音決定システム。
[15] 前記雑音レベル推定値を計算することは平滑化係数を使用することを備える[13]に記載の雑音決定システム。
[16] 前記雑音レベル推定値は音声活動の期間中一定に保持される[15]に記載の雑音決定システム。
[17] 前記平滑化係数は第2の平滑化係数を使用して現在フレームにおける音声の確率と1という値との間を補間することによって再帰的に平均化される[15]に記載の雑音決定システム。
[18] 信号の複数の時間・周波数ビンにおける前記信号の雑音レベルを推定する方法であって、前記信号の前記ビンの各々に関して、
複数のオーディオフレームの雑音レベルを決定することと、
前記時間・周波数ビンにおける雑音レベルを推定することと、
前記時間・周波数ビンにおける仮の雑音レベルを決定することと、
前記仮の雑音レベルから前記時間・周波数ビンにおける2次雑音レベルを決定することと、
前記時間・周波数ビンにおける2次雑音レベルから限界設定された雑音レベルを決定することと、
を備える方法。
[19] 前記限界設定された雑音レベルを決定することはアクティブな所望信号レベル未満の12〜24dBの間で前記推定雑音レベルを限界設定することを備える[18]に記載の方法。
[20] 現在フレームにおける各周波数に関する音声の確率の重み付け合計を取ることによって前記現在フレームにおける音声の確率を計算することを更に備える[18]に記載の方法。
[21] 600Hz〜1550Hzの範囲内の重み付けが少なくとも0.02という値を与えられる[20]に記載の方法。
[22] オーディオ信号の現在フレームにおける雑音レベルを推定するシステムであって、
複数のオーディオフレームの雑音レベルを決定する手段と、
前記複数のオーディオフレームにわたる雑音レベルの平均値と標準偏差とを計算する手段と、
前記現在フレームの雑音レベル推定値を前記平均値から減算される標準偏差の値として計算する手段と、
を備えるシステム。
[23] 前記現在フレームの雑音レベル推定値を計算する前記手段は前記平均値からの減算に先立って前記標準偏差をスケールする[22]に記載の雑音決定システム。
[24] 前記雑音レベルを決定する前記手段は信号のエネルギーレベルを決定するように構成されたモジュールを備える[22]に記載のシステム。
[25] 前記雑音レベルの平均値と標準偏差とを計算する前記手段は数学的演算を実行するように構成されたモジュールを備える[22]に記載のシステム。
[26] 雑音レベル推定値を計算する前記手段は数学的演算を実行するように構成されたモジュールを備える[22]に記載のシステム。
[27] プロセッサ上で実行されたときに、
複数のオーディオフレームの雑音レベルを決定することと、
前記複数のオーディオフレームにわたる前記雑音レベルの平均値と標準偏差とを計算することと、
現在フレームの雑音レベル推定値を前記平均値から減算される標準偏差の値として計算することと、
を備える方法を実行する命令を備えるコンピュータ可読媒体。
[28] 前記平均値からの減算に先立って前記標準偏差をスケールすることを更に備える[27]に記載の方法。
[29] 複数のオーディオフレームの雑音レベルを決定することと、
前記複数のオーディオフレームにわたる前記雑音レベルの平均値と標準偏差とを計算することと、
現在フレームの雑音レベル推定値を前記平均値から減算される標準偏差の値として計算することと、
を備える方法を実行するようにプログラムされたプロセッサ。
[30] 前記平均値からの減算に先立って前記標準偏差をスケールすることを更に備える[29]に記載の方法。
本開示の種々の実施形態が説明されてきた。これらおよび他の実施形態は下記の請求項の範囲内にある。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
オーディオ信号の現在フレームにおける雑音レベルを推定するための方法であって、
複数のオーディオフレームの雑音レベルを決定することと;
前記複数のオーディオフレームに亘る雑音レベルの平均値と標準偏差とを計算することと、
前記現在フレームの雑音レベル推定値を前記平均値から減算される標準偏差の値として計算することと、
を備える方法。
[C2]
前記平均値からの減算に先立って前記標準偏差を基準化すること(scaling)を更に備える、C1に記載の方法。
[C3]
複数の雑音レベル推定値の最小値を決定することによって前記現在雑音レベル推定値を決定することを更に備える、C1に記載の方法。
[C4]
前記複数のオーディオフレームは約100フレームを備える、C1に記載の方法。
[C5]
前記雑音レベル推定値を計算することは平滑化係数を使用することを備える、C1に記載の方法。
[C6]
前記雑音レベル推定値は音声活動の期間中、一定に保持される、C5に記載の方法。
[C7]
前記平滑化係数は第2の平滑化係数を使用して前記現在フレームにおける音声の確率と1との間を補間することによって再帰的に平均化される、C5に記載の方法。
[C8]
前記雑音レベル推定値は複数の予め決められた雑音レベルの最小値を備える、C1に記載の方法。
[C9]
前記雑音レベルの平均値は前記雑音レベルの予め計算された平均値を現在雑音レベルによって補間することによって推定される、C1に記載の方法。
[C10]
前記計算された雑音レベル推定値を所望の信号レベル未満の12〜24dBの間に限界設定することを更に備える、C1に記載の方法。
[C11]
前記現在フレームを、非雑音セグメントを有するものとして識別することによって音声活動を検出することを更に備える、C1に記載の方法。
[C12]
すべてのτがτ∈[0.2,1]であるとして、音声の確率>τであるときに音声活動が宣言される、C11に記載の方法。
[C13]
複数のオーディオフレームの雑音レベルを決定するように構成された第1のモジュールと、
前記複数のオーディオフレームに亘る雑音レベルの平均値と標準偏差とを計算するように構成された第2のモジュールと、
現在フレームの雑音レベル推定値を前記平均値から減算される標準偏差の値として計算するように構成された第3のモジュールと、
を備える雑音決定システム。
[C14]
前記第3のモジュールは前記平均値からの減算に先立って前記標準偏差を基準化(scale)するように構成される、C13に記載の雑音決定システム。
[C15]
前記雑音レベル推定値を計算することは平滑化係数を使用することを備える、C13に記載の雑音決定システム。
[C16]
前記雑音レベル推定値は音声活動の期間中、一定に保持される、C15に記載の雑音決定システム。
[C17]
前記平滑化係数は第2の平滑化係数を使用して現在フレームにおける音声の確率と1という値との間を補間することによって再帰的に平均化される、C15に記載の雑音決定システム。
[C18]
信号の複数の時間・周波数ビンにおける前記信号の雑音レベルを推定するための方法であって、前記信号の前記ビンの各々に関して、
複数のオーディオフレームの雑音レベルを決定することと、
前記時間・周波数ビンにおける雑音レベルを推定することと、
前記時間・周波数ビンにおける仮の雑音レベルを決定することと、
前記仮の雑音レベルから前記時間・周波数ビンにおける2次雑音レベルを決定することと、
前記時間・周波数ビンにおける2次雑音レベルから限界設定された雑音レベルを決定することと、
を備える方法。
[C19]
前記限界設定された雑音レベルを決定することはアクティブな所望信号レベル未満の12〜24dBの間で前記推定雑音レベルを限界設定することを備える、C18に記載の方法。
[C20]
現在フレームにおける各周波数に関する音声の確率の重み付け合計を取ることによって前記現在フレームにおける音声の確率を計算することを更に備える、C18に記載の方法。
[C21]
600Hz〜1550Hzの範囲内の重み付けが少なくとも0.02という値を与えられる、C20に記載の方法。
[C22]
オーディオ信号の現在フレームにおける雑音レベルを推定するためのシステムであって、
複数のオーディオフレームの雑音レベルを決定するための手段と、
前記複数のオーディオフレームに亘る雑音レベルの平均値と標準偏差とを計算するための手段と、
前記現在フレームの雑音レベル推定値を前記平均値から減算される標準偏差の値として計算するための手段と、
を備えるシステム。
[C23]
前記現在フレームの雑音レベル推定値を計算するための前記手段は前記平均値からの減算に先立って前記標準偏差を基準化する、C22に記載の雑音決定システム。
[C24]
前記雑音レベルを決定するための前記手段は信号のエネルギーレベルを決定するように構成されたモジュールを備える、C22に記載のシステム。
[C25]
前記雑音レベルの平均値と標準偏差とを計算するための前記手段は数学的演算を実行するように構成されたモジュールを備える、C22に記載のシステム。
[C26]
雑音レベル推定値を計算するための前記手段は数学的演算を実行するように構成されたモジュールを備える、C22に記載のシステム。
[C27]
プロセッサ上で実行されたときに、
複数のオーディオフレームの雑音レベルを決定することと、
前記複数のオーディオフレームに亘る前記雑音レベルの平均値と標準偏差とを計算することと、
現在フレームの雑音レベル推定値を前記平均値から減算される標準偏差の値として計算することと、
を備える方法を実行する命令を備えるコンピュータ可読媒体。
[C28]
前記平均値からの減算に先立って前記標準偏差を基準化することを更に備える、C27に記載の方法。
[C29]
複数のオーディオフレームの雑音レベルを決定することと、
前記複数のオーディオフレームに亘る前記雑音レベルの平均値と標準偏差とを計算することと、
現在フレームの雑音レベル推定値を前記平均値から減算される標準偏差の値として計算することと、
を備える方法を実行するようにプログラムされたプロセッサ。
[C30]
前記平均値からの減算に先立って前記標準偏差を基準化することを更に備える、C29に記載の方法。

Claims (19)

  1. オーディオ信号の現在フレームにおける雑音レベルを推定する方法であって、
    複数のオーディオフレームの各々の雑音レベルを決定することと、
    前記複数のオーディオフレームにわたる雑音レベルの平均値と標準偏差とを計算することと、
    前記標準偏差をスケールすることと、
    スケールされた前記標準偏差を前記平均値から減算することにより得られる値として前記現在フレームの雑音レベル推定値を計算することとを備え、
    前記雑音レベル推定値を計算することは、時間の経過と共に更新される平滑化係数を使用することを備える方法。
  2. 複数の雑音レベル推定値の最小値を決定することによって前記現在フレームの雑音レベル推定値を決定することを更に備える請求項1に記載の方法。
  3. 前記複数のオーディオフレームは約100フレームを備える請求項1に記載の方法。
  4. 前記雑音レベル推定値は音声活動の期間中一定に保持される請求項1に記載の方法。
  5. 前記平滑化係数は第2の平滑化係数を使用して前記現在フレームにおける音声の確率と1との間を補間することによって再帰的に平均化される請求項1に記載の方法。
  6. 前記雑音レベル推定値は複数の予め決められた雑音レベルの最小値を備える請求項1に記載の方法。
  7. 前記雑音レベルの平均値は前記雑音レベルの予め計算された平均値を現在雑音レベルによって補間することによって推定される請求項1に記載の方法。
  8. 前記計算された雑音レベル推定値を所望の信号レベル未満の12〜24dBの間に限界設定することを更に備える請求項1に記載の方法。
  9. 前記現在フレームを、非雑音セグメントを有するものとして識別することによって音声活動を検出することを更に備える請求項1に記載の方法。
  10. すべてのτがτ∈[0.2,1]であるとして、音声の確率>τであるときに音声活動が宣言される請求項9に記載の方法。
  11. 複数のオーディオフレームの各々の雑音レベルを決定するように構成された第1のモジュールと、
    前記複数のオーディオフレームにわたる雑音レベルの平均値と標準偏差とを計算するように構成された第2のモジュールと、
    前記標準偏差をスケールし、スケールされた前記標準偏差を前記平均値から減算することにより得られる値として現在フレームの雑音レベル推定値を計算するように構成された第3のモジュールとを備え、
    前記雑音レベル推定値を計算することは、時間の経過と共に更新される平滑化係数を使用することを備える雑音決定システム。
  12. 前記雑音レベル推定値は音声活動の期間中一定に保持される請求項11に記載の雑音決定システム。
  13. 前記平滑化係数は第2の平滑化係数を使用して現在フレームにおける音声の確率と1という値との間を補間することによって再帰的に平均化される請求項11に記載の雑音決定システム。
  14. オーディオ信号の現在フレームにおける雑音レベルを推定するシステムであって、
    複数のオーディオフレームの各々の雑音レベルを決定する手段と、
    前記複数のオーディオフレームにわたる雑音レベルの平均値と標準偏差とを計算する手段と、
    前記標準偏差をスケールし、スケールされた前記標準偏差を前記平均値から減算することにより得られる値として前記現在フレームの雑音レベル推定値を計算する手段とを備え、
    前記標準偏差をスケールし前記雑音レベル推定値を計算する前記手段は、時間の経過と共に更新される平滑化係数を備えるシステム。
  15. 前記雑音レベルを決定する前記手段は信号のエネルギーレベルを決定するように構成されたモジュールを備える請求項14に記載のシステム。
  16. 前記雑音レベルの平均値と標準偏差とを計算する前記手段は数学的演算を実行するように構成されたモジュールを備える請求項14に記載のシステム。
  17. 雑音レベル推定値を計算する前記手段は数学的演算を実行するように構成されたモジュールを備える請求項14に記載のシステム。
  18. プロセッサ上で実行されたときに、
    複数のオーディオフレームの各々の雑音レベルを決定することと、
    前記複数のオーディオフレームにわたる前記雑音レベルの平均値と標準偏差とを計算することと、
    前記標準偏差をスケールすることと、
    スケールされた前記標準偏差を前記平均値から減算することにより得られる値として現在フレームの雑音レベル推定値を計算することとを備え前記雑音レベル推定値を計算することは、時間の経過と共に更新される平滑化係数を使用することを備える方法を実行する複数の命令を備えるコンピュータ可読記憶媒体。
  19. 複数のオーディオフレームの各々の雑音レベルを決定することと、
    前記複数のオーディオフレームにわたる前記雑音レベルの平均値と標準偏差とを計算することと、
    前記標準偏差をスケールすることと、
    スケールされた前記標準偏差を前記平均値から減算することにより得られる値として現在フレームの雑音レベル推定値を計算することとを備え、前記雑音レベル推定値を計算することは、時間の経過と共に更新される平滑化係数を備える方法を行うようにプロセッサにより実行可能なプログラム。
JP2011532248A 2008-10-15 2009-10-15 オーディオ信号における雑音推定の方法および装置 Expired - Fee Related JP5596039B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US10572708P 2008-10-15 2008-10-15
US61/105,727 2008-10-15
US12/579,322 US8380497B2 (en) 2008-10-15 2009-10-14 Methods and apparatus for noise estimation
US12/579,322 2009-10-14
PCT/US2009/060828 WO2010045450A1 (en) 2008-10-15 2009-10-15 Methods and apparatus for noise estimation in audio signals

Publications (2)

Publication Number Publication Date
JP2012506073A JP2012506073A (ja) 2012-03-08
JP5596039B2 true JP5596039B2 (ja) 2014-09-24

Family

ID=42099699

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011532248A Expired - Fee Related JP5596039B2 (ja) 2008-10-15 2009-10-15 オーディオ信号における雑音推定の方法および装置

Country Status (7)

Country Link
US (1) US8380497B2 (ja)
EP (1) EP2351020A1 (ja)
JP (1) JP5596039B2 (ja)
KR (3) KR20110081295A (ja)
CN (1) CN102187388A (ja)
TW (1) TW201028996A (ja)
WO (1) WO2010045450A1 (ja)

Families Citing this family (159)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
KR101335417B1 (ko) * 2008-03-31 2013-12-05 (주)트란소노 노이지 음성 신호의 처리 방법과 이를 위한 장치 및 컴퓨터판독 가능한 기록매체
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
CN102804260B (zh) * 2009-06-19 2014-10-08 富士通株式会社 声音信号处理装置以及声音信号处理方法
KR101581885B1 (ko) * 2009-08-26 2016-01-04 삼성전자주식회사 복소 스펙트럼 잡음 제거 장치 및 방법
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US9172345B2 (en) 2010-07-27 2015-10-27 Bitwave Pte Ltd Personalized adjustment of an audio device
US20120166117A1 (en) 2010-10-29 2012-06-28 Xia Llc Method and apparatus for evaluating superconducting tunnel junction detector noise versus bias voltage
US10230346B2 (en) * 2011-01-10 2019-03-12 Zhinian Jing Acoustic voice activity detection
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
FR2976710B1 (fr) * 2011-06-20 2013-07-05 Parrot Procede de debruitage pour equipement audio multi-microphones, notamment pour un systeme de telephonie "mains libres"
CN102592592A (zh) * 2011-12-30 2012-07-18 深圳市车音网科技有限公司 语音数据的提取方法和装置
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
WO2013142695A1 (en) 2012-03-23 2013-09-26 Dolby Laboratories Licensing Corporation Method and system for bias corrected speech level determination
HUP1200197A2 (hu) 2012-04-03 2013-10-28 Budapesti Mueszaki Es Gazdasagtudomanyi Egyetem Eljárás és elrendezés környezeti zaj valós idejû, forrásszelektív monitorozására és térképezésére
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US8842810B2 (en) * 2012-05-25 2014-09-23 Tim Lieu Emergency communications management
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
CN102820035A (zh) * 2012-08-23 2012-12-12 无锡思达物电子技术有限公司 一种对长时变噪声的自适应判决方法
US9521263B2 (en) * 2012-09-17 2016-12-13 Dolby Laboratories Licensing Corporation Long term monitoring of transmission and voice activity patterns for regulating gain control
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
JP6066471B2 (ja) * 2012-10-12 2017-01-25 本田技研工業株式会社 対話システム及び対話システム向け発話の判別方法
EP2954514B1 (en) 2013-02-07 2021-03-31 Apple Inc. Voice trigger for a digital assistant
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
DE112014002747T5 (de) 2013-06-09 2016-03-03 Apple Inc. Vorrichtung, Verfahren und grafische Benutzerschnittstelle zum Ermöglichen einer Konversationspersistenz über zwei oder mehr Instanzen eines digitalen Assistenten
US9449609B2 (en) * 2013-11-07 2016-09-20 Continental Automotive Systems, Inc. Accurate forward SNR estimation based on MMSE speech probability presence
US9449615B2 (en) * 2013-11-07 2016-09-20 Continental Automotive Systems, Inc. Externally estimated SNR based modifiers for internal MMSE calculators
US9449610B2 (en) * 2013-11-07 2016-09-20 Continental Automotive Systems, Inc. Speech probability presence modifier improving log-MMSE based noise suppression performance
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
TWI573096B (zh) * 2013-12-31 2017-03-01 智原科技股份有限公司 影像雜訊估測的方法與裝置
KR20150105847A (ko) * 2014-03-10 2015-09-18 삼성전기주식회사 음성구간 검출 방법 및 장치
CN105336341A (zh) * 2014-05-26 2016-02-17 杜比实验室特许公司 增强音频信号中的语音内容的可理解性
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
AU2015266863B2 (en) 2014-05-30 2018-03-15 Apple Inc. Multi-command single utterance input method
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
WO2015191470A1 (en) * 2014-06-09 2015-12-17 Dolby Laboratories Licensing Corporation Noise level estimation
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
CN105336344B (zh) * 2014-07-10 2019-08-20 华为技术有限公司 杂音检测方法和装置
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9886966B2 (en) * 2014-11-07 2018-02-06 Apple Inc. System and method for improving noise suppression using logistic function and a suppression target value for automatic speech recognition
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9330684B1 (en) * 2015-03-27 2016-05-03 Continental Automotive Systems, Inc. Real-time wind buffet noise detection
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
JP6404780B2 (ja) * 2015-07-14 2018-10-17 日本電信電話株式会社 ウィナーフィルタ設計装置、音強調装置、音響特徴量選択装置、これらの方法及びプログラム
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
US10224053B2 (en) * 2017-03-24 2019-03-05 Hyundai Motor Company Audio signal quality enhancement based on quantitative SNR analysis and adaptive Wiener filtering
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10360895B2 (en) 2017-12-21 2019-07-23 Bose Corporation Dynamic sound adjustment based on noise floor estimate
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US11076039B2 (en) 2018-06-03 2021-07-27 Apple Inc. Accelerated task performance
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
CN111063368B (zh) * 2018-10-16 2022-09-27 中国移动通信有限公司研究院 一种音频信号中的噪声估计方法、装置、介质和设备
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
KR102237286B1 (ko) * 2019-03-12 2021-04-07 울산과학기술원 음성 구간 검출장치 및 그 방법
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
WO2021056255A1 (en) 2019-09-25 2021-04-01 Apple Inc. Text detection using global geometry estimators
JP7004875B2 (ja) * 2019-12-20 2022-01-21 三菱電機株式会社 情報処理装置、算出方法、及び算出プログラム
CN111354378B (zh) * 2020-02-12 2020-11-24 北京声智科技有限公司 语音端点检测方法、装置、设备及计算机存储介质
US11620999B2 (en) 2020-09-18 2023-04-04 Apple Inc. Reducing device processing of unintended audio
CN113270107B (zh) * 2021-04-13 2024-02-06 维沃移动通信有限公司 音频信号中噪声响度的获取方法、装置和电子设备

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0315897A (ja) * 1989-06-14 1991-01-24 Fujitsu Ltd 判別閾値設定制御方式
JP2966452B2 (ja) 1989-12-11 1999-10-25 三洋電機株式会社 音声認識装置の雑音除去システム
WO2000075919A1 (en) 1999-06-07 2000-12-14 Ericsson, Inc. Methods and apparatus for generating comfort noise using parametric noise model statistics
US7117149B1 (en) * 1999-08-30 2006-10-03 Harman Becker Automotive Systems-Wavemakers, Inc. Sound source classification
FR2833103B1 (fr) * 2001-12-05 2004-07-09 France Telecom Systeme de detection de parole dans le bruit
JP2003316381A (ja) 2002-04-23 2003-11-07 Toshiba Corp 雑音抑圧方法及び雑音抑圧プログラム
US7388954B2 (en) 2002-06-24 2008-06-17 Freescale Semiconductor, Inc. Method and apparatus for tone indication
KR100677396B1 (ko) 2004-11-20 2007-02-02 엘지전자 주식회사 음성인식장치의 음성구간 검출방법
JP4765461B2 (ja) * 2005-07-27 2011-09-07 日本電気株式会社 雑音抑圧システムと方法及びプログラム
CN100580770C (zh) * 2005-08-08 2010-01-13 中国科学院声学研究所 基于能量及谐波的语音端点检测方法
CN101197130B (zh) * 2006-12-07 2011-05-18 华为技术有限公司 声音活动检测方法和声音活动检测器

Also Published As

Publication number Publication date
TW201028996A (en) 2010-08-01
CN102187388A (zh) 2011-09-14
EP2351020A1 (en) 2011-08-03
US8380497B2 (en) 2013-02-19
KR20130019017A (ko) 2013-02-25
JP2012506073A (ja) 2012-03-08
US20100094625A1 (en) 2010-04-15
KR101246954B1 (ko) 2013-03-25
KR20110081295A (ko) 2011-07-13
KR20130042649A (ko) 2013-04-26
WO2010045450A1 (en) 2010-04-22

Similar Documents

Publication Publication Date Title
JP5596039B2 (ja) オーディオ信号における雑音推定の方法および装置
US10504539B2 (en) Voice activity detection systems and methods
Davis et al. Statistical voice activity detection using low-variance spectrum estimation and an adaptive threshold
KR100944252B1 (ko) 오디오 신호 내에서 음성활동 탐지
EP1547061B1 (en) Multichannel voice detection in adverse environments
US9264804B2 (en) Noise suppressing method and a noise suppressor for applying the noise suppressing method
US8898058B2 (en) Systems, methods, and apparatus for voice activity detection
KR102081568B1 (ko) 주변 잡음 실효치(rms) 검출기
US10403300B2 (en) Spectral estimation of room acoustic parameters
US9959886B2 (en) Spectral comb voice activity detection
JP6788086B2 (ja) オーディオ信号における背景雑音の推定
CN106486135B (zh) 近端语音检测器、语音系统、对语音进行分类的方法
US20110172997A1 (en) Systems and methods for reducing audio noise
KR20090104557A (ko) 노이지 음성 신호의 처리 방법과 이를 위한 장치 및 컴퓨터판독 가능한 기록매체
US10229686B2 (en) Methods and apparatus for speech segmentation using multiple metadata
US11183172B2 (en) Detection of fricatives in speech signals
CN110556128B (zh) 一种语音活动性检测方法、设备及计算机可读存储介质
Poruba Speech enhancement based on nonlinear spectral subtraction
US20230095174A1 (en) Noise supression for speech enhancement
Deepa et al. Spectral Subtraction Method of Speech Enhancement using Adaptive Estimation of Noise with PDE method as a preprocessing technique
Sumithra et al. ENHANCEMENT OF NOISY SPEECH USING FREQUENCY DEPENDENT SPECTRAL SUBTRACTION METHOD
Abu-El-Quran et al. Multiengine Speech Processing Using SNR Estimator in Variable Noisy Environments
Esmaeili et al. A non-causal approach to voice activity detection in adverse environments using a novel noise estimator

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121106

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130206

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130214

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130408

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130820

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20131115

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20131122

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140120

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140708

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140806

R150 Certificate of patent or registration of utility model

Ref document number: 5596039

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees