JP5666444B2 - Apparatus and method for processing an audio signal for speech enhancement using feature extraction - Google Patents
Apparatus and method for processing an audio signal for speech enhancement using feature extraction Download PDFInfo
- Publication number
- JP5666444B2 JP5666444B2 JP2011521470A JP2011521470A JP5666444B2 JP 5666444 B2 JP5666444 B2 JP 5666444B2 JP 2011521470 A JP2011521470 A JP 2011521470A JP 2011521470 A JP2011521470 A JP 2011521470A JP 5666444 B2 JP5666444 B2 JP 5666444B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- spectral
- control information
- audio signal
- band
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000005236 sound signal Effects 0.000 title claims description 63
- 238000000034 method Methods 0.000 title claims description 56
- 238000012545 processing Methods 0.000 title claims description 37
- 238000000605 extraction Methods 0.000 title claims description 6
- 230000003595 spectral effect Effects 0.000 claims description 183
- 230000008878 coupling Effects 0.000 claims description 36
- 238000010168 coupling process Methods 0.000 claims description 36
- 238000005859 coupling reaction Methods 0.000 claims description 36
- 238000001228 spectrum Methods 0.000 claims description 32
- 238000005457 optimization Methods 0.000 claims description 10
- 230000004907 flux Effects 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 6
- 230000002238 attenuated effect Effects 0.000 claims description 2
- NGVDGCNFYWLIFO-UHFFFAOYSA-N pyridoxal 5'-phosphate Chemical compound CC1=NC=C(COP(O)(O)=O)C(C=O)=C1O NGVDGCNFYWLIFO-UHFFFAOYSA-N 0.000 claims 2
- 238000012805 post-processing Methods 0.000 claims 1
- 230000002123 temporal effect Effects 0.000 claims 1
- 238000013528 artificial neural network Methods 0.000 description 26
- 238000001914 filtration Methods 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 11
- 238000004422 calculation algorithm Methods 0.000 description 10
- 210000002569 neuron Anatomy 0.000 description 9
- 230000000875 corresponding effect Effects 0.000 description 8
- 230000014509 gene expression Effects 0.000 description 8
- 210000004205 output neuron Anatomy 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 5
- 210000002364 input neuron Anatomy 0.000 description 5
- 238000012935 Averaging Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 238000011410 subtraction method Methods 0.000 description 4
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000001629 suppression Effects 0.000 description 3
- 230000005534 acoustic noise Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 208000016354 hearing loss disease Diseases 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000037303 wrinkles Effects 0.000 description 2
- 241001014642 Rasta Species 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Circuit For Audible Band Transducer (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Tone Control, Compression And Expansion, Limiting Amplitude (AREA)
- Stereophonic System (AREA)
- Filters That Use Time-Delay Elements (AREA)
Description
本発明は、オーディオ信号処理の分野に関し、特に、処理された信号のスピーチ内容が客観的及び主観的なスピーチ明瞭度(intelligibity)を持つようなオーディオ信号のスピーチ強調の分野に関する。 The present invention relates to the field of audio signal processing, and in particular, to the field of speech enhancement of audio signals where the speech content of the processed signal has objective and subjective speech intelligibility.
スピーチ強調は、様々な用途において適用される。主たる用途は、補聴器におけるデジタル信号処理の使用である。補聴器におけるデジタル信号処理は、聴覚障害の回復のための新規かつ有効な手段を提供する。より高い音響信号品質の他に、デジタル補聴器は、特定のスピーチ処理の方策の実現を可能にする。これらの方策の多くにおいて、音響環境のスピーチ対雑音比(SNR)の推定が所望される。具体的には、スピーチ処理のための複雑なアルゴリズムが、特定の音響環境に合わせて最適化される応用が考えられるが、特定の仮定に合致しない状況においては、そのようなアルゴリズムが上手く働かない可能性がある。これは、静穏な環境又はSNRが所定のしきい値を下回る状況において処理アーチファクトを持ち込む可能性がある、雑音低減の仕組みに特に当てはまる。圧縮アルゴリズム及び増幅のパラメータの最適な選択は、スピーチ対雑音比に依存する可能性があるため、SNR推定に応じてパラメータセットを調整することが、効果をもたらすのに役立つ。さらに、SNR推定は、ウィーナー(Wiener)フィルタリング法又はスペクトルサブトラクション法などといった雑音低減の手法のための制御パラメータとして直接使用することもできる。 Speech enhancement is applied in various applications. The main application is the use of digital signal processing in hearing aids. Digital signal processing in hearing aids provides a new and effective means for the recovery of hearing impairment. Besides higher acoustic signal quality, digital hearing aids enable the implementation of specific speech processing strategies. In many of these strategies, it is desirable to estimate the speech to noise ratio (SNR) of the acoustic environment. Specifically, a complex algorithm for speech processing may be optimized for a specific acoustic environment, but in situations where it does not meet specific assumptions, such an algorithm does not work well there is a possibility. This is especially true for noise reduction schemes that can introduce processing artifacts in quiet environments or situations where the SNR is below a predetermined threshold. Since the optimal choice of compression algorithm and amplification parameters may depend on the speech-to-noise ratio, adjusting the parameter set in response to the SNR estimate helps to be effective. Furthermore, SNR estimation can also be used directly as a control parameter for noise reduction techniques such as Wiener filtering or spectral subtraction techniques.
他の用途は、映画の音声のスピーチ強調の分野にある。多数の人々が、例えば聴覚的障害に起因して、映画のスピーチ内容の理解に困難を抱えていることが明らかになっている。映画の筋立てを辿るために、例えば独白、会話、アナウンス及びナレーションなど、オーディオトラックの関連するスピーチを理解することが重要である。聞き取りにくさを感じる人々は、例えば環境雑音及び音楽などといった背景音のレベルがスピーチに比べて高すぎると感じることが多くある。この場合、スピーチ信号のレベルを高め、背景音を弱めることが望まれ、換言すると、スピーチ信号のレベルを全体のレベルに対して高めることが望まれる。 Another application is in the area of speech enhancement for movie audio. Many people have found it difficult to understand the speech content of movies, for example due to hearing impairment. In order to follow the story of a movie, it is important to understand the relevant speech of the audio track, such as monologue, conversation, announcements and narration. People who find it difficult to hear often feel that the level of background sounds, such as ambient noise and music, is too high compared to speech. In this case, it is desirable to increase the level of the speech signal and weaken the background sound. In other words, it is desirable to increase the level of the speech signal relative to the overall level.
スピーチ強調の主たる手法は、図3に示されているように、短時間スペクトル減衰とも称されるスペクトル重み付けである。出力信号y[k]が、入力信号x[k]のサブバンド信号X(ω)をサブバンド信号内の雑音エネルギーに応じて減衰させることによって計算される。 The main method of speech enhancement is spectral weighting, also called short-time spectral attenuation, as shown in FIG. The output signal y [k] is calculated by attenuating the subband signal X (ω) of the input signal x [k] according to the noise energy in the subband signal.
以下では、入力信号x[k]が所望のスピーチ信号s[k]と背景雑音b[k]との加算混合物であると仮定する。
In the following, it is assumed that the input signal x [k] is an additive mixture of the desired speech signal s [k] and the background noise b [k].
スピーチ強調は、スピーチの客観的な明瞭度及び/又は主観的な品質の改善である。 Speech enhancement is an improvement in the objective clarity and / or subjective quality of speech.
入力信号の周波数ドメイン表現は、ブロック30に示されているように、短時間フーリエ変換(STFT)、他の時間−周波数変換、又はフィルタバンクによって計算される。次に、入力信号は式(2)に従って周波数ドメインにおいてフィルタ処理される一方で、フィルタの周波数応答G(ω)は雑音エネルギーが少なくなるように計算される。出力信号は、時間−周波数変換又はフィルタバンクのそれぞれの逆処理によって計算される。
The frequency domain representation of the input signal is computed by a short time Fourier transform (STFT), other time-frequency transform, or a filter bank, as shown in
適切なスペクトル重みG(ω)は、入力信号スペクトルX(ω)及び雑音スペクトル推定
を使用し、あるいは線形サブバンドSNR
を使用して、各スペクトル値についてブロック31において計算される。重み付けされたスペクトル値は、ブロック32において再び時間ドメインへと変換される。雑音抑制規則の有名な例は、スペクトルサブトラクション法(非特許文献1)及びウィーナーフィルタリングである。入力信号がスピーチ信号と雑音信号との加算混合物であり、スピーチ及び雑音が相関していないと仮定すると、スペクトルサブトラクション法のためのゲイン値は式(3)において与えられる。
Appropriate spectral weights G (ω) are used to determine the input signal spectrum X (ω) and noise spectrum estimation.
Or linear subband SNR
Is calculated at
同様の重みは、式(4)に従って、線形サブバンドSNR推定
からも導出される。
チャネル
Similar weights are used for linear subband SNR estimation according to equation (4).
Is also derived from
channel
スペクトルサブトラクション法の様々な拡張、すなわちオーバーサブトラクション係数及びスペクトル・フロア・パラメータの使用(非特許文献2)、一般化形式(非特許文献3)、知覚基準の使用(例えば、非特許文献4)、及びマルチバンド・スペクトル・サブトラクション(例えば、非特許文献5)が、過去に提案されている。しかしながら、スペクトル重み付け法の決定的な部分は、瞬間的な雑音スペクトル又はサブバンドSNRの推定であり、それらは、特に雑音が静的でない場合に誤差に悩まされがちである。雑音推定による誤差は、残留ノイズ、スピーチ成分の歪み又はミュージカルノイズ(「調性品質を持つ震音(warbling with tonal quality)」)として説明されているアーチファクト(非特許文献6)につながる。 Various extensions of spectral subtraction methods: use of oversubtraction coefficients and spectral floor parameters (non-patent document 2), generalized form (non-patent document 3), use of perceptual criteria (eg non-patent document 4), And multiband spectral subtraction (eg, Non-Patent Document 5) have been proposed in the past. However, a critical part of the spectral weighting method is the estimation of the instantaneous noise spectrum or subband SNR, which tends to suffer from errors, especially when the noise is not static. Errors due to noise estimation lead to artifacts described as residual noise, distortion of speech components or musical noise ("warbling with tonal quality") (non-patent document 6).
雑音推定のための簡単な手法は、スピーチの休止の最中の雑音スペクトルを測定し、平均することである。この手法は、雑音スペクトルがスピーチ行為の最中に時間変化した場合、及びスピーチの休止の検出に失敗した場合に、満足できる結果をもたらさない。スピーチ行為の最中でも雑音スペクトルを推定するための方法が過去に提案されており、非特許文献6に従って、
・最小トラッキングアルゴリズム
・時間再帰平均アルゴリズム
・ヒストグラムベースのアルゴリズム
に分類することができる。
A simple approach for noise estimation is to measure and average the noise spectrum during speech pauses. This approach does not give satisfactory results when the noise spectrum changes over time during speech activity and when speech pause detection fails. Methods for estimating the noise spectrum during speech activities have been proposed in the past, and according to Non-Patent Document 6,
・ Minimum tracking algorithm ・ Time recursive average algorithm ・ Histogram-based algorithm
最小統計を用いた雑音スペクトルの推定が、非特許文献7において提案されている。この方法は、各サブバンドにおける信号エネルギーの極小値のトラッキングに基づいている。雑音推定及びより高速な更新のための非線形な更新規則が、非特許文献8において提案されている。 Non-patent document 7 proposes estimation of a noise spectrum using minimum statistics. This method is based on tracking the local minimum of signal energy in each subband. Non-patent document 8 proposes a non-linear update rule for noise estimation and faster update.
時間−再帰平均アルゴリズムは、特定の周波数帯の推定SNRがきわめて低いときに常に、雑音スペクトルの推定及び更新を行う。これは、過去の雑音推定及び現在のスペクトルの重み付け平均を再帰的に計算することによって行われる。重み付けは、例えば、非特許文献9及び非特許文献10において、スピーチが存在する確率の関数として決定され、あるいは特定の周波数帯の推定SNRの関数として決定される。
The time-recursive averaging algorithm estimates and updates the noise spectrum whenever the estimated SNR for a particular frequency band is very low. This is done by recursively calculating a past noise estimate and a weighted average of the current spectrum. For example, in Non-Patent Document 9 and Non-Patent
ヒストグラムベースの方法は、サブバンドエネルギーのヒストグラムが多くの場合に2つのモードを持つという仮定に基づいている。大きな低エネルギーのモードは、スピーチを含まないか、又はスピーチの低エネルギー部分を含むセグメントのエネルギー値を蓄積する。高エネルギーのモードは、有声のスピーチ及び雑音を含むセグメントのエネルギー値を蓄積する。特定のサブバンドの雑音エネルギーが、低エネルギーのモードから割り出される(非特許文献11)。包括的な最近の再検討について、非特許文献6が参照される。 Histogram-based methods are based on the assumption that histograms of subband energy often have two modes. Large low energy modes accumulate the energy values of segments that do not include speech or include the low energy portion of speech. The high energy mode accumulates the energy values of the segments including voiced speech and noise. The noise energy of a specific subband is determined from the low energy mode (Non-Patent Document 11). Reference is made to Non-Patent Document 6 for a comprehensive recent review.
振幅変調の特徴を使用した教師あり学習に基づいてサブバンドSNRを推定するための方法が、非特許文献12及び非特許文献13に報告されている。
Methods for estimating subband SNR based on supervised learning using the characteristics of amplitude modulation are reported in
スピーチ強調の他の手法は、ピッチ同期フィルタ処理(pitch-synchronous filtering)(例えば非特許文献14)、スペクトル時間変調(STM)のフィルタ処理(例えば非特許文献15)、及び入力信号の正弦波モデル表現に基づくフィルタ処理(例えば非特許文献16)である。 Other techniques for speech enhancement include pitch-synchronous filtering (eg, Non-Patent Document 14), spectral time modulation (STM) filtering (eg, Non-Patent Document 15), and a sine wave model of an input signal. This is filter processing based on expression (for example, Non-Patent Document 16).
非特許文献12及び非特許文献13に報告されているような、振幅変調の特徴を使用した教師あり学習に基づいてサブバンドSNRを推定するための方法は、2つのスペクトログラム処理段階が必要とされる点で不利である。第1のスペクトログラム処理段階は、時間ドメインオーディオ信号の時間/周波数スペクトログラムを生成する段階である。次いで、変調スペクトログラムを生成するために、スペクトル情報をスペクトルドメインから変調ドメインへと変換する別の「時間/周波数」変換が必要とされる。システムから必然的に生じる遅延、ならびにあらゆる変換アルゴリズムが生来的に有する時間/周波数分解能の問題ゆえに、この追加の変換操作が問題を招く。
The method for estimating subband SNR based on supervised learning using the features of amplitude modulation, as reported in Non-Patent
この手順のさらなる結果は、雑音の推定が、雑音が静的ではなく、様々な雑音信号が生じうる状況において、かなり不正確になることである。 A further result of this procedure is that the noise estimation becomes quite inaccurate in situations where the noise is not static and various noise signals can occur.
本発明の目的は、スピーチ強調のための改善された概念を提供することにある。 It is an object of the present invention to provide an improved concept for speech enhancement.
第1の態様によれば、前記目的は、オーディオ信号を処理してスピーチ強調フィルタのための制御情報を得る装置であって、前記オーディオ信号の短時間スペクトル表現の時間系列を取得し、複数の短時間スペクトル表現のために複数の周波数帯の各周波数帯における少なくとも1つの特徴を抽出する特徴抽出器であって、前記少なくとも1つの特徴が前記複数の周波数帯の1つの周波数帯における1つの短時間スペクトル表現のスペクトル形状を表す、特徴抽出器と、各周波数帯の前記少なくとも1つの特徴を結合パラメータを使用して結合させ、前記オーディオ信号の1つの時間部分について前記スピーチ強調フィルタのための制御情報を得る特徴結合器と、を備えた装置によって達成される。 According to a first aspect, the object is an apparatus for processing audio signals to obtain control information for a speech enhancement filter, obtaining a time sequence of a short-time spectral representation of the audio signals, A feature extractor that extracts at least one feature in each frequency band of a plurality of frequency bands for short-time spectrum expression, wherein the at least one feature is one short in one frequency band of the plurality of frequency bands. Control for the speech enhancement filter for one time portion of the audio signal by combining a feature extractor representing the spectral shape of the time spectral representation with the at least one feature of each frequency band using a combining parameter And a feature combiner for obtaining information.
第2の態様によれば、前記目的は、オーディオ信号を処理してスピーチ強調フィルタのための制御情報を得る方法であって、前記オーディオ信号の短時間スペクトル表現の時間系列を得るステップと、複数の短時間スペクトル表現のために複数の周波数帯の各周波数帯における少なくとも1つの特徴を抽出するステップであって、前記少なくとも1つの特徴が前記複数の周波数帯の1つの周波数帯における1つの短時間スペクトル表現のスペクトル形状を表す、ステップと、各周波数帯の前記少なくとも1つの特徴を結合パラメータを使用して結合させ、前記オーディオ信号の1つの時間部分について前記スピーチ強調フィルタのための制御情報を得るステップと、を含む方法によって達成される。 According to a second aspect, the object is a method for obtaining control information for a speech enhancement filter by processing an audio signal, obtaining a time sequence of a short-time spectral representation of the audio signal; Extracting at least one feature in each frequency band of a plurality of frequency bands for a short-time spectral representation of the plurality of frequency bands, wherein the at least one feature is one short time in one frequency band of the plurality of frequency bands Representing a spectral shape of a spectral representation and combining the at least one feature of each frequency band using a coupling parameter to obtain control information for the speech enhancement filter for one time portion of the audio signal And the method comprising: steps.
第3の態様によれば、前記目的は、オーディオ信号におけるスピーチ強調のための装置であって、オーディオ信号の一時間部分を表している複数の帯域についてフィルタ制御情報を得るために、オーディオ信号を処理する装置と、オーディオ信号の或る帯域を他の帯域に比べて可変に減衰させるように前記制御情報に基づいて制御することができる制御可能フィルタ(controllable filter)と、を備えた装置によって達成される。 According to a third aspect, the object is an apparatus for speech enhancement in an audio signal, wherein the audio signal is obtained in order to obtain filter control information for a plurality of bands representing a time portion of the audio signal. Achieved by a device comprising: a processing device; and a controllable filter that can be controlled based on the control information to variably attenuate one band of the audio signal compared to another band Is done.
第4の態様によれば、前記目的が、オーディオ信号のスピーチ強調の方法であって、オーディオ信号を処理し、オーディオ信号の1つの時間部分を表している複数の帯域についてフィルタ制御情報を得る方法と、前記制御情報に基づき、オーディオ信号の或る帯域が他の帯域に比べて可変に減衰させられるようにフィルタを制御するステップと、を含む方法によって達成される。 According to a fourth aspect, the object is a method for speech enhancement of an audio signal, wherein the audio signal is processed and filter control information is obtained for a plurality of bands representing one time portion of the audio signal. And controlling the filter based on the control information so that a certain band of the audio signal is variably attenuated as compared with the other bands.
第5の態様によれば、前記目的は、特徴結合器の結合パラメータを決定するために当該特徴結合器に学習(training)させる装置であって、スピーチ強調フィルタへの周波数帯ごとの制御情報が既知である学習オーディオ信号について、当該学習オーディオ信号の短時間スペクトル表現の時間系列を取得し、複数の短時間スペクトル表現のために複数の周波数帯の各周波数帯における少なくとも1つの特徴を抽出する特徴抽出器であって、前記少なくとも1つの特徴が前記複数の周波数帯の1つの周波数帯における1つの短時間スペクトル表現のスペクトル形状を表す、特徴抽出器と、各周波数帯の前記少なくとも1つの特徴を前記特徴結合器に供給し、中間結合パラメータを使用して前記制御情報を計算し、前記中間結合パラメータを変化させ、変化後の前記制御情報を前記既知の制御情報と比較し、前記変化後の中間結合パラメータが前記既知の制御情報により良く一致する制御情報をもたらす場合に、前記中間結合パラメータを更新する最適化コントローラと、を備えている装置によって達成される。 According to a fifth aspect, the object is a device that trains the feature combiner to determine a combination parameter of the feature combiner, wherein control information for each frequency band to the speech enhancement filter is A feature of acquiring a time sequence of a short-time spectrum expression of the learning audio signal that is known and extracting at least one feature in each frequency band of a plurality of frequency bands for a plurality of short-time spectrum expressions A feature extractor, wherein the at least one feature represents a spectral shape of one short-time spectral representation in one frequency band of the plurality of frequency bands; and the at least one feature in each frequency band. Supplying to the feature combiner, calculating the control information using intermediate coupling parameters, changing the intermediate coupling parameters; An optimized controller that compares the changed control information with the known control information and updates the intermediate coupling parameter when the changed intermediate coupling parameter results in control information that better matches the known control information And achieved by a device comprising:
第6の態様によれば、前記目的は、特徴結合器の結合パラメータを決定するために当該特徴結合器に学習させる方法であって、スピーチ強調フィルタへの周波数帯ごとの制御情報が既知である学習オーディオ信号について、当該学習オーディオ信号の短時間スペクトル表現の時間系列を得るステップと、複数の短時間スペクトル表現のために複数の周波数帯の各周波数帯における少なくとも1つの特徴を抽出するステップであって、前記少なくとも1つの特徴が前記複数の周波数帯の1つの周波数帯における1つの短時間スペクトル表現のスペクトル形状を表す、ステップと、各周波数帯の前記少なくとも1つの特徴を前記特徴結合器に供給するステップと、中間結合パラメータを使用して前記制御情報を計算するステップと、前記中間結合パラメータを変化させるステップと、変化後の前記制御情報を前記既知の制御情報と比較するステップと、前記変化後の中間結合パラメータが前記既知の制御情報により良く一致する制御情報をもたらす場合に、前記中間結合パラメータを更新するステップと、を含む方法によって達成される。 According to the sixth aspect, the object is a method for causing the feature combiner to learn in order to determine a combination parameter of the feature combiner, and the control information for each frequency band to the speech enhancement filter is known. For a learning audio signal, a step of obtaining a time sequence of a short-time spectrum expression of the learning audio signal, and a step of extracting at least one feature in each frequency band of a plurality of frequency bands for a plurality of short-time spectrum expressions. The at least one feature represents a spectral shape of one short-time spectral representation in one frequency band of the plurality of frequency bands, and provides the at least one feature of each frequency band to the feature combiner Computing the control information using intermediate coupling parameters; and the intermediate coupling A step of changing a parameter, a step of comparing the changed control information with the known control information, and a case where the changed intermediate coupling parameter results in control information that better matches the known control information, Updating the intermediate coupling parameters.
第7の態様によれば、前記目的は、コンピュータ上で実行されたときに本発明の方法のいずれか1つを実行するためのコンピュータプログラムによって達成される。 According to a seventh aspect, the object is achieved by a computer program for performing any one of the methods of the present invention when executed on a computer.
本発明は、特定の帯域内のオーディオ信号のスペクトル形状についての帯域ごとの情報が、スピーチ強調フィルタのための制御情報を決定するためにきわめて有用なパラメータであるという知見に基づいている。具体的には、複数の帯域及び複数の連続する短時間スペクトル表現について帯域ごとに決定されたスペクトル形状の情報の特徴が、オーディオ信号のスピーチ強調処理のために、オーディオ信号の有用な特徴描写を提供する。具体的には、スペクトル形状の特徴のセットがあり、各スペクトル形状の特徴が(バーク帯域、あるいは一般的には、周波数範囲において可変の帯域幅を有する帯域のような)複数のスペクトル帯域の中の1つの帯域に関連している場合には、前記特徴のセットが各帯域の信号/雑音比を決定するために活用できる。この目的のため、複数の帯域のスペクトル形状の特徴が、これらの特徴を結合パラメータを使用して結合させる特徴結合器によって処理され、オーディオ信号のある時間部分について、スピーチ強調フィルタへ送る制御情報が得られる。好ましくは、特徴結合器が、多数の結合パラメータによって制御されるニューラルネットワークを備えており、これらの結合パラメータは、スピーチ強調フィルタ処理を実際に実行する前に実行される学習段階において決定される。具体的には、ニューラルネットワークがニューラルネットワーク回帰法を実行する。特有の利点は、結合パラメータを、実際のスピーチ強調オーディオ材料とは異なってもよいオーディオ材料を用いた学習段階において決定することができ、したがって学習段階を1回だけ実行すればよく、この学習段階の後で結合パラメータが固定的に設定され、学習信号のスピーチ特性と類似するスピーチ特性を有する未知のオーディオ信号の各々に適用できることにある。そのようなスピーチ特性は、例えば一言語の特性であっても良いし、又は、欧州言語対アジア言語のような、言語のグループの特性であってもよい。 The present invention is based on the finding that per-band information about the spectral shape of an audio signal within a specific band is a very useful parameter for determining control information for a speech enhancement filter. Specifically, spectral shape information features determined for each band for multiple bands and multiple consecutive short-time spectral representations can be useful for characterizing audio signals for audio signal speech enhancement processing. provide. Specifically, there is a set of spectral shape features, where each spectral shape feature is in multiple spectral bands (such as the Bark band, or generally a band with a variable bandwidth in the frequency range). The feature set can be used to determine the signal / noise ratio for each band. For this purpose, the spectral shape features of multiple bands are processed by a feature combiner that combines these features using a combination parameter, and for some time portion of the audio signal control information is sent to the speech enhancement filter. can get. Preferably, the feature combiner comprises a neural network that is controlled by a number of coupling parameters, which are determined in a learning phase that is performed before actually performing the speech enhancement filtering. Specifically, the neural network executes a neural network regression method. A particular advantage is that the coupling parameters can be determined in a learning phase with audio material that may be different from the actual speech-enhanced audio material, so that the learning phase only needs to be performed once and this learning phase After that, the coupling parameter is fixedly set and can be applied to each unknown audio signal having a speech characteristic similar to that of the learning signal. Such speech characteristics may be characteristics of a single language, for example, or may be characteristics of a group of languages, such as European versus Asian languages.
好ましくは、本発明の概念は、特徴抽出及びニューラルネットワークを使用してスピーチの特徴を学習することによって、雑音を推定することであり、本発明に従って抽出される特徴は、効率的かつ容易な方法で抽出できる単純な低レベルのスペクトル特徴であり、重要なことは、システムから必然的に生じる大きな遅延を発生させることなく抽出できる点である。したがって、本発明の概念は、雑音が非静的でありかつ種々の雑音信号が発生する状況においても、正確な雑音又はSNR推定をもたらすために特に有用である。 Preferably, the inventive concept is to estimate noise by learning feature of speech using feature extraction and neural network, and the feature extracted according to the present invention is an efficient and easy method It is a simple low-level spectral feature that can be extracted with, and what is important is that it can be extracted without incurring the large delays that inevitably arise from the system. Therefore, the inventive concept is particularly useful for providing accurate noise or SNR estimation even in situations where the noise is non-static and various noise signals are generated.
次に、本発明の好ましい実施形態を、添付の図面を参照してさらに詳しく説明する。
図1は、オーディオ信号10を処理して、スピーチ強調フィルタ12のための制御情報11を得る好ましい装置を示している。スピーチ強調フィルタは、複数の周波数帯の各々について周波数帯ごとの制御情報を使用してオーディオ信号10をフィルタ処理するものであり、スピーチ強調オーディオ出力信号13を得るための制御可能フィルタなど、多くの方法で実現することができる。後述するように、制御可能フィルタを時間/周波数変換器として実現することもでき、その場合は、個々に計算されたゲイン係数がスペクトル値又はスペクトル帯へと適用され、その後で周波数/時間変換が実行される。
FIG. 1 shows a preferred apparatus for processing an
図1の装置は、オーディオ信号の短時間スペクトル表現の時間シーケンスを取得し、複数の短時間スペクトル表現について複数の周波数帯の各周波数帯の少なくとも1つの特徴を抽出する特徴抽出器14を備えており、前記少なくとも1つの特徴は、複数の周波数帯の各周波数帯における短時間スペクトル表現のスペクトル形状を表している。さらに、特徴抽出器14を、スペクトル形状の特徴は別として、他の特徴を抽出するように構成してもよい。特徴抽出器14の出力にオーディオ短時間スペクトルの幾つかの特徴が出力され、これらの幾つかの特徴は、複数(少なくとも10、好ましくはさらに多く、20〜30など)の周波数帯の各周波数帯についてのスペクトル形状の特徴を少なくとも含んでいる。これらの特徴を、各帯域について生の特徴又は平均された特徴を得るために、そのまま使用することができ、あるいは幾何平均又は算術平均あるいは中央値処理又は他の統計モーメント処理(分散、歪度等)など、平均処理又は任意の他の処理を使用して処理することができる。その結果、これらの生及び/又は平均された特徴のすべてが特徴結合器15へと入力される。特徴結合器15は、複数のスペクトル形状の特徴及び好ましくは追加の特徴を、結合パラメータ入力部16を介して導入可能な結合パラメータを使用して結合させるが、結合パラメータ入力部16が不要であるように、結合パラメータが特徴結合器15に組み込まれていても、あるいはプログラムされていてもよい。特徴結合器の出力において、複数の周波数帯又は複数の「サブバンド」の各周波数帯又は各サブバンドについて、スピーチ強調フィルタのための制御情報がオーディオ信号の各時間部分について得られる。
The apparatus of FIG. 1 includes a
好ましくは、特徴結合器15は、ニューラルネットワーク回帰回路として実現されるが、特徴結合器を、特徴抽出器14によって出力された特徴に任意の結合操作を適用し、必要な制御情報(帯域ごとのSNR値又は帯域ごとのゲイン係数など)を最終的にもたらす任意の他の数値的又は統計的に制御される特徴結合器として実現することもできる。ニューラルネットワークの応用の好ましい実施形態においては、学習段階(「学習段階training phase」とは、実例を用いた学習(learning)が実行される段階を意味する)が必要とされる。この学習段階において、図2に示されているような、特徴結合器15を学習させるための装置が使用される。具体的には、図2は、特徴結合器15に、当該特徴結合器の結合パラメータを決定するための学習をさせる装置を示している。この目的のため、図2の装置は、好ましくは図1の特徴抽出器14と同様に構成される特徴抽出器14を備えている。さらに、特徴結合器15も、図1の特徴結合器15と同様に構成されている。
Preferably, the
図1に加えて、図2の装置は、学習オーディオ信号の制御情報21を入力として受け取る最適化コントローラ20を備えている。学習段階は、各帯域に既知のスピーチ/雑音比を有している既知の学習オーディオ信号に基づいて実行される。スピーチ部分及び雑音部分が、例えば互いに別々にもたらされ、帯域ごとの実際のSNRがオンザフライで測定され、すなわち学習動作の間に測定される。具体的には、特徴結合器15に特徴抽出器14からの特徴が供給されるように、最適化コントローラ20が特徴結合器を制御する。これらの特徴と先行する反復実行からもたらされる中間結合パラメータとに基づき、特徴結合器15が制御情報11を計算する。この制御情報11が最適化コントローラへと送られ、最適化コントローラ20において、学習オーディオ信号の制御情報21と比較される。中間結合パラメータが、最適化コントローラ20からの指示に応答して変更され、この変更された結合パラメータを使用して、追加の制御情報のセットが特徴結合器15によって計算される。この追加の制御情報が学習オーディオ信号の制御情報21により良く一致する場合、最適化コントローラ20は結合パラメータを更新し、これらの更新済みの結合パラメータ16を次の実行において中間結合パラメータとして使用されるように特徴結合器15へと送信する。これに代え、あるいはこれに加えて、更新された結合パラメータをさらなる使用のためにメモリに保存することができる。
In addition to FIG. 1, the apparatus of FIG. 2 includes an
図4は、ニューラルネットワーク回帰法での特徴抽出を使用するスペクトル重み付け処理の概要を示している。学習段階において、ニューラルネットワークのパラメータwが、参照サブバンドSNR値Rt及び学習アイテムxt[k]からの特徴を使用して計算される(これは図4の左側に示されている)。雑音推定及びスピーチ強調のフィルタ処理は、図4の右側に示されている。 FIG. 4 shows an overview of a spectrum weighting process using feature extraction in the neural network regression method. In the learning phase, the neural network parameter w is calculated using features from the reference subband SNR value R t and the learning item x t [k] (this is shown on the left side of FIG. 4). The noise estimation and speech enhancement filtering is shown on the right side of FIG.
本発明が提案する概念は、スペクトル重み付けの手法に従い、スペクトル重みを計算するために新規な方法を使用する。雑音の推定は、教師あり学習法に基づき、本発明の特徴セットを使用する。この特徴は、音調の信号成分と雑音の信号成分との間の区別を目的とする。さらに、本発明が提案する特徴は、より長い時間スケールにおける信号特性の進展を考慮する。 The concept proposed by the present invention follows a spectral weighting approach and uses a novel method to calculate spectral weights. Noise estimation is based on supervised learning and uses the feature set of the present invention. This feature aims to distinguish between tone signal components and noise signal components. Furthermore, the features proposed by the present invention take into account the evolution of signal characteristics on longer time scales.
本発明が提案する雑音推定方法は、様々な変動する背景音に対処することを可能にする。変動する背景雑音におけるロバストなSNR推定が、図4に示されるような特徴抽出及びニューラルネットワーク回帰法によって得られる。実数値の重みが、バーク尺度にほぼ近い間隔の周波数帯のSNR推定から計算される。SNR推定のスペクトル分解能は、帯域のスペクトル形状の測定を可能にするためにかなり粗い。 The noise estimation method proposed by the present invention makes it possible to cope with various fluctuating background sounds. A robust SNR estimate for fluctuating background noise is obtained by feature extraction and neural network regression as shown in FIG. Real-valued weights are calculated from SNR estimates for frequency bands that are approximately close to the Bark scale. The spectral resolution of SNR estimation is rather coarse to allow measurement of the spectral shape of the band.
図4の左側は、基本的には1回だけ実行すればよい学習段階に相当する。学習側41として示す図4の左側の手順は、図2の最適化コントローラ20へと入力される学習オーディオ信号の制御情報21を生成する参照SNR計算ブロック21を含んでいる。学習側に位置する図4の特徴抽出装置14は、図2の特徴抽出器14に相当する。特に、図2は学習オーディオ信号を受け取る装置として説明してきたが、その学習オーディオ信号とは、スピーチ部分及び背景部分で構成されているものである。有用な参照を実行できるように、背景部分bt及びスピーチ部分stは、互いに別々に入手可能であり、特徴抽出装置14への入力前に加算器43によって合計される。したがって、加算器43の出力が、図2の特徴抽出器14へと入力される学習オーディオ信号に相当する。
The left side of FIG. 4 corresponds to a learning stage that basically needs to be executed only once. The procedure on the left side of FIG. 4 shown as the learning
図4において符号15、20で示すニューラルネットワーク学習装置は図2におけるブロック15及び20に相当し、図2と同様の接続又は他の類似する接続により、メモリ40に保存可能な一組の結合パラメータwをもたらす。次に、本発明の概念を図4の適用側42で示すとおりに適用した場合、これらの結合パラメータは、図1の特徴結合器15に相当するニューラルネットワーク回帰装置15において使用される。図4のスペクトル重み付け装置12が図1の制御可能フィルタ12に相当し、図4の右側の特徴抽出器14が図1の特徴抽出器14に相当する。
The neural network learning apparatus indicated by
本発明が提案する概念の簡潔な実現を以下に詳しく説明する。図4の特徴抽出器14は以下のように動作する。
A concise implementation of the concept proposed by the present invention is described in detail below. The
異なる特徴からなるセット21は、サブバンドSNR推定のための最良の特徴セットを特定するために調査されたものであり、これらの特徴は、様々な設定にて結合され、かつ客観的な測定値及び非公式なリスニングによって評価されたものである。特徴選択プロセスは、スペクトルエネルギー、スペクトル流束(flux)、スペクトルの平坦度、スペクトルの歪度、LPC、及びRASTA−PLP係数を含む特徴のセットをもたらす。スペクトルのエネルギー、流束、平坦度、及び歪度の特徴は、臨界帯域スケールに応じたスペクトル係数から計算される。 A set 21 of different features was investigated to identify the best feature set for subband SNR estimation, these features combined in various settings and objective measurements And evaluated by informal listening. The feature selection process results in a set of features including spectral energy, spectral flux, spectral flatness, spectral skewness, LPC, and RASTA-PLP coefficients. Spectral energy, flux, flatness, and skewness characteristics are calculated from spectral coefficients depending on the critical band scale.
上述の特徴を、図6を参照しながら詳述する。さらなる特徴は、スペクトルエネルギーのデルタ特徴ならびに低域通過フィルタ処理されたスペクトルエネルギー及びスペクトル流束のデルタ−デルタ特徴である。 The above features will be described in detail with reference to FIG. Further features are a delta feature of spectral energy and a delta-delta feature of low pass filtered spectral energy and spectral flux.
図4のブロック15、20又は15において使用され、あるいは好適には図1又は図2の特徴結合器15において使用されるニューラルネットワークの構造を、図10を用いて説明する。特に、好ましいニューラルネットワークは、入力ニューロンの層100を含んでいる。一般に、n個の入力ニューロンを使用することができ、すなわち各入力特徴ごとに1つのニューロンを使用することができる。好ましくは、ニューラルネットワークは、特徴の数に対応する220個の入力ニューロンを有している。ニューラルネットワークは、p個の隠れ層ニューロンを有する隠れ層102をさらに備えている。一般に、pはnよりも小さく、好ましい実施形態においては、隠れ層が50個のニューロンを有している。ニューラルネットワークは、出力側にq個の出力ニューロンを有する出力層104を備えている。特に、出力ニューロンの数は、各出力ニューロンが各周波数帯のSNR(スピーチ対雑音比)情報など、各周波数帯のための制御情報をもたらすよう、周波数帯の数に等しくなる。例えば、好ましくは低い周波数から高い周波数へと増大する帯域幅を有する25個の異なる周波数帯が存在する場合、出力ニューロンの数qは25に等しい。このようにして、ニューラルネットワークは、計算された低レベルの特徴からのサブバンドSNR推定に適用される。ニューラルネットワークは、上述のように、220個の入力ニューロンと、50個のニューロンを有する1つの隠れ層102とを有している。出力ニューロンの数は周波数帯の数に等しい。好ましくは、隠れニューロンが双曲正接(hyperbolic tangent)である活性化関数を含んでおり、出力ニューロンの活性化関数が恒等(identity)である。
The structure of the neural network used in
一般に、層102又は104からの各ニューロンは、すべての対応する入力(層102に関しては、全入力ニューロンの出力)を受け取る。次に、層102又は104の各ニューロンは、結合パラメータに応じた重み付けパラメータで重み付け加算を実行する。隠れ層は、パラメータに加えてバイアス値を含むことができる。したがって、バイアス値も結合パラメータに属する。詳しくは、各入力がそれに対応する結合パラメータによって重み付けされ、図10では例示的なボックス106によって示される重み付け操作の出力が各ニューロン内の加算器108へと入力される。加算器の出力又は出力ニューロンへの入力は、非線形関数110を備えることができ、そのような非線形関数を、場合に応じて、例えば隠れ層のニューロンの出力及び/又は入力に配置することができる。
In general, each neuron from
ニューラルネットワークの重み付けは、クリーンなスピーチ信号と背景雑音との混合物で学習されるが、それらの参照SNRは分離された信号を使用して計算される。学習プロセスは、図4の左側に示されている。スピーチ及び雑音がアイテムごとに3dBのSNRで混合され、特徴抽出器へと供給される。このSNRは、時間的に一定である広帯域のSNR値である。データセットは、各々の長さが2.5秒の48個のスピーチ信号及び48個の雑音信号からなる2304個の組み合わせを含む。スピーチ信号は、7つの言語による異なる話者からのものである。雑音信号は、交通雑音、群衆雑音、及び種々の天然環境音の録音である。 The neural network weights are learned with a mixture of clean speech signals and background noise, but their reference SNR is calculated using the separated signals. The learning process is shown on the left side of FIG. Speech and noise are mixed with an SNR of 3 dB per item and fed to the feature extractor. This SNR is a broadband SNR value that is constant over time. The data set includes 2304 combinations of 48 speech signals and 48 noise signals, each 2.5 seconds long. The speech signal is from different speakers in seven languages. The noise signal is a recording of traffic noise, crowd noise, and various natural environmental sounds.
特定のスペクトル重み付け規則においては、ニューラルネットワークの出力の2つの定義が適切である。すなわち、ニューラルネットワークを、時間変化するサブバンドSNR値R(ω)のための参照値を使用して学習させることができ、あるいは(SNR値から導出される)スペクトル重みG(ω)によって学習させることができる。非公式なリスニングにおいては、サブバンドSNRを参照値としたシミュレーションの方が、スペクトルの重み付けで学習させたニューラルネットワークと比べて、より良好な客観的結果及びより良好な性能が得られた。ニューラルネットワークは、100回の反復サイクルを使用して学習させる。この作業においては、スケールされた共役勾配に基づく学習アルゴリズムが使用される。 For a particular spectral weighting rule, two definitions of the output of the neural network are appropriate. That is, the neural network can be trained using a reference value for a time-varying subband SNR value R (ω), or it can be trained with a spectral weight G (ω) (derived from the SNR value). be able to. In informal listening, better objective results and better performance were obtained in the simulation with the subband SNR as the reference value compared to the neural network trained by spectral weighting. The neural network is trained using 100 iteration cycles. In this work, a learning algorithm based on scaled conjugate gradients is used.
次に、スペクトル重み付け操作12の好ましい実施形態を説明する。
A preferred embodiment of the
推定されたサブバンドSNR推定値が、入力スペクトルの周波数分解能へと線形補間され、線形比
へと変換される。線形サブバンドSNRが、推定誤差からもたらされる可能性があるアーチファクトを少なくするために、IIR低域通過フィルタ処理を使用して時間及び周波数に沿って平滑化される。スペクトル重み付けのインパルス応答がDFTフレームの長さを超える場合に生じる周回畳み込み(circular convolution)の影響を軽減するために、周波数に沿った低域通過フィルタ処理がさらに必要とされる。上記フィルタ処理が2回実行される一方で、第2のフィルタ処理は、結果としてのフィルタがゼロの位相を有するように、(最後のサンプルから出発して)逆順で行われる。
The estimated subband SNR estimate is linearly interpolated to the frequency resolution of the input spectrum and the linear ratio
Converted to. The linear subband SNR is smoothed along time and frequency using IIR low pass filtering to reduce artifacts that may result from estimation errors. In order to mitigate the effects of circular convolution that occurs when the spectral weighted impulse response exceeds the length of the DFT frame, further low pass filtering along the frequency is required. While the above filtering process is performed twice, the second filtering process is performed in reverse order (starting from the last sample) so that the resulting filter has a phase of zero.
図5は、SNRの関数としてのゲイン係数を示している。適用されるゲイン(実線)が、スペクトルサブトラクションのゲイン(点線)及びウィーナーフィルタ(破線)と比較されている。 FIG. 5 shows the gain factor as a function of SNR. The applied gain (solid line) is compared to the spectral subtraction gain (dashed line) and the Wiener filter (dashed line).
スペクトルの重み付けが、式(5)の修正スペクトルサブトラクション規則に従って計算され、−18dBに制限される。
Spectral weighting is calculated according to the modified spectral subtraction rule of equation (5) and limited to -18 dB.
パラメータα=3.5及びβ=1は、実験的に決定される。0dBのSNRを超えるこの特殊な減衰は、残留雑音を犠牲にしてスピーチ信号のひずみを回避するために選択されている。SNRの関数としての減衰曲線が、図5に示されている。 The parameters α = 3.5 and β = 1 are determined experimentally. This special attenuation above the SNR of 0 dB has been chosen to avoid distortion of the speech signal at the expense of residual noise. The attenuation curve as a function of SNR is shown in FIG.
図9は、入力及び出力信号、推定されたサブバンドSNR、及びスペクトル重みの例を示している。 FIG. 9 shows examples of input and output signals, estimated subband SNR, and spectral weights.
具体的には、図9はスペクトル重み付けの例を示しており、入力時間信号、推定されたサブバンドSNR、補間後の周波数binの推定されたSNR、スペクトル重み、及び処理済み時間信号を示している。 Specifically, FIG. 9 shows an example of spectral weighting, showing the input time signal, the estimated subband SNR, the estimated SNR of the frequency bin after interpolation, the spectral weight, and the processed time signal. Yes.
図6は、特徴抽出器14によって抽出されるべき好ましい特徴の概要を示している。特徴抽出器は、各低い分解能を持つ一つの周波数帯、すなわちSNR又はゲイン値が必要とされる25の周波数帯の各々について、その周波数帯における短時間スペクトル表現のスペクトル形状を表している特徴を抽出するのが望ましい。ある帯域におけるスペクトル形状は、その帯域内のエネルギーの分布を表し、いくつかの異なる計算規則によって構成可能である。
FIG. 6 shows an overview of preferred features to be extracted by the
好ましいスペクトル形状の特徴は、スペクトル値の幾何平均をスペクトル値の算術平均によって除算したスペクトル平坦度(SFM)である。幾何平均/算術平均の定義において、n次のルート演算又は平均演算を実行する前に帯域内の各スペクトル値に冪(power)を適用することができる。 A preferred spectral shape feature is spectral flatness (SFM), which is the geometric mean of spectral values divided by the arithmetic mean of spectral values. In the definition of geometric mean / arithmetic mean, power can be applied to each spectral value in the band prior to performing the n th order root or mean operation.
一般に、SFMのための計算式の分母における各スペクトル値を処理するための冪が分子に使用される冪よりも大きい場合に、スペクトルの平坦度を計算することもできる。その場合、分母及び分子の両方が、算術値の計算式を含むことができる。典型的には、分子における冪が2であり、分母における冪が1である。一般に、一般化されたスペクトル平坦度を得るためには、分子に使用される冪が分母に使用される冪よりも大きければよい。 In general, spectral flatness can also be calculated when the power to process each spectral value in the denominator of the formula for SFM is larger than the power used for the numerator. In that case, both the denominator and the numerator can contain arithmetic expressions. Typically, the wrinkle in the numerator is 2 and the wrinkle in the denominator is 1. In general, in order to obtain generalized spectral flatness, the power used for the numerator need only be larger than the power used for the denominator.
周波数帯の全体にわたってエネルギーが等しく分布している帯域についてのSFMは、1よりも小さく、多数の周波数ラインにおいて0に近い小さな値に接近する一方で、エネルギーが帯域内のただ1つのスペクトル値に集中している場合には、例えばSFM値が1に等しいことがこの計算から明らかである。すなわち、高いSFM値はエネルギ−が帯域内のある位置に集中している帯域を表す一方で、低いSFM値はエネルギーが帯域内に等しく分布していることを示している。 The SFM for bands where energy is evenly distributed throughout the frequency band is less than 1 and approaches a small value close to 0 in a number of frequency lines, while the energy falls to just one spectral value in the band. In the case of concentration, it is clear from this calculation that, for example, the SFM value is equal to 1. That is, a high SFM value represents a band where energy is concentrated at a certain position in the band, while a low SFM value indicates that the energy is equally distributed in the band.
他のスペクトル形状の特徴として、重心を中心とする分布の非対称性の指標であるスペクトル歪度が挙げられる。ある周波数帯内における短時間周波数表現のスペクトル形状に関する他の特徴も存在する。 Another spectral shape characteristic is spectral skewness, which is an index of asymmetry of the distribution centered on the center of gravity. There are other features regarding the spectral shape of the short-time frequency representation within a frequency band.
スペクトル形状が一周波数帯について計算される一方で、一周波数帯について計算され、かつ図6に示され詳しく後述される他の特徴が存在する。また、必ずしも各周波数帯について計算される必要がなく、帯域幅全体について計算されるさらなる特徴も存在する。 While the spectral shape is calculated for one frequency band, there are other features calculated for one frequency band and shown in detail in FIG. There are also additional features that do not necessarily have to be calculated for each frequency band, but are calculated for the entire bandwidth.
スペクトルエネルギー
スペクトルエネルギーは、各時間フレーム及び各周波数帯について計算され、そのフレームの総エネルギーによって正規化される。さらに、スペクトルエネルギーは、二次IIRフィルタを使用して時間に沿って低域通過フィルタ処理される。
Spectral energy Spectral energy is calculated for each time frame and each frequency band and normalized by the total energy of that frame. Further, the spectral energy is low pass filtered over time using a second order IIR filter.
スペクトル流束
スペクトル流束SFは、連続する20フレームのスペクトルの間の非類似度として定義され、距離関数によって実行されることが多い。この作業において、スペクトル流束は、式(6)によるユークリッド距離を使用し、スペクトル係数X(m,k)、時間フレームインデックスm、サブバンドインデックスr、ならびに周波数帯の下限lr及び上限urによって計算される。
Spectral Flux Spectral flux SF is defined as the dissimilarity between 20 consecutive frames of spectrum and is often performed by a distance function. In this work, the spectral flux uses the Euclidean distance according to Equation (6), the spectral coefficient X (m, k), the time frame index m, the subband index r, and the lower and upper frequency bands l r and u r. Calculated by
スペクトル平坦度
ベクトルの平坦度又はスペクトルの調性(スペクトル平坦度に逆の相関関係を持つ)の計算のための種々の定義が存在する。ここで使用されるスペクトル平坦度SFMは、式(7)に示されるように、サブバンド信号のL個のスペクトル係数の幾何平均及び算術平均の比として計算される。
Spectral Flatness There are various definitions for the calculation of vector flatness or spectral tonality (with inverse correlation to spectral flatness). The spectral flatness SFM used here is calculated as the ratio of the geometric mean and arithmetic mean of the L spectral coefficients of the subband signal, as shown in equation (7).
スペクトル歪度
分布の歪度は、重心を中心とする非対称性の指標であり、ランダム変数の三次中央モーメントをその標準偏差の立方で除算したものとして定義される。
Spectral skewness Distribution skewness is a measure of asymmetry centered on the center of gravity and is defined as the cubic central moment of a random variable divided by its standard deviation cube.
線形予測係数
LPCは、時系列の実際の値x(k)を、先行の値から、平方誤差
が最小になるように予測する全極型フィルタの係数である。
Linear prediction coefficient LPC calculates the actual value x (k) of the time series from the previous value by the square error
Is the coefficient of the all-pole filter that is predicted to be minimum.
LPCは、自己相関法によって計算される。 LPC is calculated by the autocorrelation method.
メル周波数ケプストラム係数
パワースペクトルが、各周波数帯について単位重みを有する三角重み付け関数を使用してメルスケールに従ってワープさせられる。MFCCは、対数をとり、離散余弦変換を計算することによって計算される。
Mel frequency cepstrum coefficient The power spectrum is warped according to the Mel scale using a triangulation weighting function with unit weights for each frequency band. The MFCC is calculated by taking the logarithm and calculating the discrete cosine transform.
相対スペクトル知覚線形予測係数
RASTA−PLP係数(非特許文献17)は、以下の工程にてパワースペクトルから計算される。
1.スペクトル係数の大きさの圧縮
2.時間にわたるサブバンドエネルギーの帯域通過フィルタ処理
3.工程2の逆処理に関連する大きさの拡張
4.等ラウドネス曲線に対応する重みの乗算
5.係数を0.33の冪へと上げることによるラウドネスの知覚のシミュレーション
6.自己相関法による結果スペクトルの全極モデルの計算
Relative spectrum perceptual linear prediction coefficient RASTA-PLP coefficient (Non-patent Document 17) is calculated from the power spectrum in the following steps.
1. 1. Compression of
知覚的線形予測(PLP)係数
PLP値は、RASTA−PLPと同様に、しかしながら工程1〜3を適用せずに計算される(非特許文献18)。
Perceptual Linear Prediction (PLP) Coefficient PLP values are calculated without applying
デルタ特徴
デルタ特徴は、過去において自動スピーチ認識及びオーディオコンテンツ分類に成功裏に適用されている。デルタ特徴の計算については、様々な方法が存在している。ここでは、9個のサンプル長を有する線形勾配で特徴の時間系列を畳み込むことによって計算される(特徴の時系列のサンプリングレートはSTFTのフレームレートに等しい)。デルタ−デルタ特徴は、デルタ特徴にデルタ演算を行うことによって得られる。
Delta features Delta features have been successfully applied to automatic speech recognition and audio content classification in the past. There are various methods for calculating delta features. Here, it is calculated by convolving the feature time series with a linear gradient having a length of 9 samples (the feature time series sampling rate is equal to the STFT frame rate). The delta-delta feature is obtained by performing a delta operation on the delta feature.
上述のように、人間の聴覚システムと同様に、低分解能周波数帯の帯域分離を有することが好ましい。したがって、対数帯域分離又はバーク状の帯域分離が好ましい。これは、低い中心周波数を有する帯域が、高い中心周波数を有する帯域よりも狭いことを意味する。スペクトル平坦度の計算においては、例えば、通常は1つの帯域内の最も低い周波数の値である値l r から、その所定の帯域内の最大のスペクトル値であるカウント値urまでの和の演算が実行される。より良好なスペクトル平坦度を得るために、低い帯域においては、少なくとも下方及び/又は上方に隣接する周波数帯からの一部又はすべてのスペクトル値を使用することが好ましい。これは、例えば第2の帯域についてのスペクトルの平坦度が、第2の帯域のスペクトル値ならびに第1の帯域及び/又は第3の帯域のスペクトル値を使用して計算されることを意味する。好ましい実施形態においては、第1又は第3のいずれかの帯域のスペクトル値だけが使用されるのではなく、第1の帯域及び第3の帯域のスペクトル値も使用される。これは、第2の帯域のSFMを計算するときに、式(7)のqが、第1の帯域の最初の(最も低い)スペクトル値に等しいlrから第3の帯域の最も高いスペクトル値に等しいurまでとなることを意味する。値lr及びurがその低分解能周波数帯域そのものの範囲内のスペクトル値の個数で十分となる所定の帯域に到達するまでは、上述の方法で、より多数のスペクトル値に基づいて、スペクトル形状の特徴を計算することができる。 As described above, it is preferable to have band separation in the low resolution frequency band, similar to the human auditory system. Therefore, logarithmic band separation or bark-shaped band separation is preferred. This means that the band with a low center frequency is narrower than the band with a high center frequency. In the calculation of the spectral flatness, for example, usually from one of the lowest frequency is the value value l r in the band, the calculation of the sum of up to the maximum count value u r is the spectral values within that predetermined band Is executed. In order to obtain better spectral flatness, it is preferable to use some or all spectral values from at least the lower and / or upper adjacent frequency bands in the lower band. This means, for example, that the spectral flatness for the second band is calculated using the spectral values of the second band and the spectral values of the first band and / or the third band. In the preferred embodiment, not only the spectral values of either the first or the third band are used, but the spectral values of the first band and the third band are also used. This is because when calculating the SFM of the second band, formula q (7) is the highest spectral value of the third band from the equal l r the first (lowest) spectral values of the first band Means up to u r equal to. Until the value l r and u r reaches a predetermined band of sufficient number of spectral values within that low resolution frequency band itself, in the manner described above, based on the larger number of spectral values, the spectral shape The characteristics of can be calculated.
特徴抽出器によって抽出される線形予測係数に関しては、式(8)のLPC係数aj若しくは最適化後に残る残余/誤差値のいずれかを使用するか、又は、特徴抽出器によって抽出されたLPC特徴に対して前記係数及び平方誤差値の両方が影響を与えるように、乗算又は正規化係数との加算などを用いた、係数及び誤差値の任意の組み合わせを使用することが好ましい。 For the linear prediction coefficients extracted by the feature extractor, either the LPC coefficient a j in equation (8) or the residual / error value remaining after optimization is used, or the LPC features extracted by the feature extractor It is preferable to use any combination of coefficients and error values, such as by multiplication or addition with a normalization coefficient, so that both the coefficient and the square error value affect.
スペクトル形状の特徴の利点は、それが低次元の特徴である点にある。例えば、10個の複素又は実数スペクトル値を有する周波数帯域幅を考えたとき、これら10個の複素又は実数スペクトル値のすべてを使用することは有益ではないであろうし、演算リソースの無駄であろうと考えられる。したがって、生のデータの次元よりも低い次元を有するスペクトル形状の特徴が抽出される。例えば、エネルギーが考慮される場合、生のデータは、10個の平方スペクトル値が存在するため、10という次元を有する。効率的に使用できるスペクトル形状の特徴を抽出するために、生のデータの次元よりも低い次元(好ましくは1又は2である)を有するスペクトル形状の特徴が抽出される。生データに対する同様の次元縮小は、例えば周波数帯のスペクトル包絡線への低レベルの多項式の適合が行われる場合に、達成することができる。例えば2つ又は3つのパラメータだけが適合された場合には、スペクトル形状の特徴は、多項式又は任意の他のパラメータ化システムのこれらの2つ又は3つのパラメータを含むことになる。一般に、周波数帯内のエネルギーの分布を表しており、生のデータの次元の5%未満、又は少なくとも50%未満、あるいはわずかに30%未満という低い次元を有するすべてのパラメータが有用である。 The advantage of the spectral shape feature is that it is a low-dimensional feature. For example, when considering a frequency bandwidth with 10 complex or real spectral values, it would not be beneficial to use all of these 10 complex or real spectral values, and waste computational resources. Conceivable. Therefore, spectral shape features having a lower dimension than the raw data dimension are extracted. For example, when energy is considered, the raw data has a dimension of 10 because there are 10 square spectral values. In order to extract spectral shape features that can be used efficiently, spectral shape features having a lower dimension (preferably 1 or 2) than that of the raw data are extracted. Similar dimension reduction for raw data can be achieved, for example, when a low-level polynomial fit is made to the spectral envelope of the frequency band. For example, if only two or three parameters are fitted, the spectral shape features will include these two or three parameters of a polynomial or any other parameterized system. In general, all parameters that represent the distribution of energy within a frequency band and that have a low dimension of less than 5% of the raw data dimension, or at least less than 50%, or just less than 30% are useful.
スペクトル形状の特徴を単独で使用するだけでも、オーディオ信号を処理するための装置について有利な挙動がもたらされることが判明しているが、少なくとも追加の帯域ごとの特徴を使用することが好ましい。改善された結果をもたらすうえで有用な追加の帯域ごとの特徴とは、各時間フレーム及び周波数帯について計算され、かつフレームの総エネルギーによって正規化された、帯域ごとのスペクトルエネルギーであることもまた示されている。この特徴は、低域通過フィルタ処理しても、しなくてもよい。さらに、スペクトル流束の特徴を加えることで、本発明の装置の性能が有利に向上し、帯域ごとのスペクトル形状の特徴が帯域ごとのスペクトルエネルギーの特徴及び帯域ごとのスペクトル流束の特徴に加えて使用されるときに、良好な性能をもたらす効率的な手順が得られることが明らかになっている。前記の追加の特徴に加えて、これも本発明の装置の性能を向上させる。 Although the use of spectral shape features alone has been found to provide advantageous behavior for an apparatus for processing audio signals, it is preferable to use at least additional per-band features. The characteristics of each band of the useful additional in providing improved results, calculated for each time frame and frequency band and normalized by the total energy of the frame, it is the spectral energy of each band is also Is shown . This feature may or may not be low pass filtered. In addition, the addition of spectral flux features advantageously improves the performance of the device of the present invention, where the spectral shape features of each band add to the spectral energy features of each band and the spectral flux features of each band. It has been found that an efficient procedure that yields good performance when obtained is obtained. In addition to the additional features described above, this also improves the performance of the device of the present invention.
スペクトルエネルギーの特徴に関して述べたように、時間に沿ったこの特徴の低域通過フィルタ処理又は時間に沿った移動平均正規化の適用を加えることができるが、必ずしも適用の必要はない。前者の場合には、例えば対応する帯域についての5つの先行するスペクトル形状の特徴の平均が計算され、この計算の結果が、現在のフレームの現在の帯域についてのスペクトル形状の特徴として使用される。しかしながら、この平均化を、平均化の演算において現在の特徴を計算するために過去からの特徴だけでなく「未来」からの特徴も使用されるように、双方向的に適用することもできる。 As described with respect to the spectral energy feature, application of low pass filtering of this feature over time or moving average normalization over time can be applied, but is not necessarily required. In the former case, for example, an average of five preceding spectral shape features for the corresponding band is calculated and the result of this calculation is used as the spectral shape feature for the current band of the current frame. However, this averaging can also be applied bi-directionally so that not only features from the past but also features from the “future” are used to calculate the current feature in the averaging operation.
次に、図1、図2又は図4に示したような特徴抽出器14の好ましい実施例を提示するために、図7及び図8を説明する。第1段階において、ステップ70に示されているとおり、オーディオサンプリング値のブロックを提供するために、オーディオ信号にウインドウが適用される。好ましくは、オーバーラップが適用される。これは、重なり範囲ゆえに、1つの同じオーディオサンプルが2つの連続するフレームにおいて生じることを意味し、オーディオサンプル値に関する50%のオーバーラップが好ましい。ステップ71において、ウインドウが適用されたオーディオサンプリング値のブロックについて、高い分解能である第1の分解能での周波数表現を得るために、時間/周波数変換が実行される。この目的のために、効率的なFFTにて実現される短時間フーリエ変換(STFT)が用いられる。ステップ71がオーディオサンプル値の時間的に連続するブロックに対して数回適用されるとき、この技術分野において公知のとおりスペクトログラムが得られる。ステップ72において、高分解能のスペクトル情報、すなわち高分解能のスペクトル値が、低分解能の周波数帯へとグループ化される。例えば、1024個又は2048個の入力値を有するFFTが適用される場合、1024個又は2048個のスペクトル値が存在するが、そのような高い分解能は必要とされず、意図もされない。代わりに、グループ化のステップ72は、高い分解能のスペクトルについて、例えばバーク帯域又は対数帯域分割から知られるような変化する帯域幅を有する帯域などの少数の帯域への分割をもたらす。次に、グループ化のステップ72に続いて、スペクトル形状の特徴及び好ましくは他の特徴の計算ステップ73が低分解能の帯域の各々について実行される。図7には示されていないが、周波数帯の全体に関するさらなる特徴をステップ70において得られたデータを使用して計算することができる。なぜなら、これらの全帯域幅の特徴については、ステップ71又はステップ72によって得られるいかなるスペクトル分離も必要でないからである。
Next, FIGS. 7 and 8 will be described to present a preferred embodiment of the
ステップ73は、nよりも小さく、好ましくは周波数帯ごとに1又は2であるmの次元を有するスペクトル形状の特徴をもたらす。これは、ステップ72の後に存在する周波数帯ごとの情報が、特徴抽出器の動作によってステップ73の後に存在する低次元の情報へと圧縮されることを意味する。
図7に示されるように、ステップ71及びステップ72の付近において、時間/周波数変換及びグループ化のステップを別の操作で置き換えることができる。ステップ70の出力を、例えば出力において25個のサブバンド信号が得られるように低分解能のフィルタバンクでフィルタ処理することができる。次に、各サブバンドの高分解能の分析を実行し、スペクトル形状の特徴計算のための生データを得ることができる。この処理は、例えばサブバンド信号のFFT分析によって行うことができ、あるいはさらなるカスケードフィルタバンクによるなど、サブバンド信号の他の任意の分析によって行うことができる。
As shown in FIG. 7, in the vicinity of
図8は、図1の制御可能フィルタ12、又は図3において説明され、若しくは図4に符号12で示されているスペクトル重み付けの特徴を実現するための好ましい手順を示している。ステップ80に示されているように、図4のニューラルネットワーク回帰ブロック15によって出力されるサブバンドSNR値などの低分解能の帯域ごとの制御情報の決定段階に続いて、ステップ81において、高分解能への線形補間が実行される。
FIG. 8 illustrates a preferred procedure for implementing the
図3のステップ30において実行され、あるいはステップ71において実行される短時間フーリエ変換によって得られ、もしくはステップ71及び72の右側に示されている代替の手順によって得られる各スペクトル値について、重み付け係数を最終的に得ることが目的である。ステップ81の後で、各スペクトル値についてのSNR値が得られる。しかしながら、このSNR値は依然として対数ドメインにあるので、ステップ82が各高分解能のスペクトル値について対数ドメインから線形ドメインへの変換をもたらす。
For each spectral value obtained in
ステップ83において、各スペクトル値の線形SNR値(すなわち高分解能である)が、IIR低域通過フィルタ又はFIR低域通過フィルタなどを使用して、例えば任意の移動平均操作(moving average operations)を適用することで、時間及び周波数において平滑化される。ステップ84において、平滑化された線形SNR値に基づいて、各高分解能の周波数値のためのスペクトル重みが計算される。この計算は、図5に示した関数に基づくが、この図に示されている関数が対数項にて与えられている一方で、ステップ84において、各高分解能の周波数値のためのスペクトル重みは線形ドメインで計算される。
In step 83, the linear SNR value (ie, high resolution) of each spectral value is applied, eg, any moving average operations using an IIR low pass filter or FIR low pass filter, etc. By doing so, it is smoothed in time and frequency. In
次に、ステップ85において、各スペクトル値と決定されたスペクトル重みとが乗算され、スペクトル重みの組で乗算された高分解能のスペクトル値の組が得られる。この処理済みのスペクトルはステップ86において周波数−時間変換される。適用シナリオに応じて及びステップ80において使用されるオーバーラップに応じて、ブロッキングアーチファクトに対処するために、2つの連続する周波数−時間変換段階によって得られる時間ドメインオーディオサンプリング値の2つのブロックの間でクロスフェーディング操作を実行することができる。
Next, in
さらなるウインドウを周回畳み込みのアーチファクトを低減するために適用することができる。 Additional windows can be applied to reduce the circular convolution artifact.
ステップ86の結果は、改善されたスピーチ性能を有しており、すなわちスピーチ強調が実行されていない対応するオーディオ入力信号と比べてスピーチをより良く知覚することができるオーディオサンプル値のブロックである。
The result of
本発明の方法の特定の実施の要件に応じて、本発明の方法は、ハードウェア又はソフトウェアにて実現することができる。実現は、本発明の方法を実行するようにプログラム可能なコンピュータシステムと協働する電子的に読み取り可能な制御信号が保存されてなるデジタル記憶媒体、特に、ディスク、DVD、又はCDを使用して行うことができる。したがって、一般的に、本発明は、プログラムコードを機械読み取り可能なキャリアに保存して有しているコンピュータプログラム製品であり、このコンピュータプログラム製品がコンピュータ上で実行されるときに、プログラムコードが本発明の方法を実行するように動作する。したがって、換言すると、本発明の方法は、コンピュータ上で実行されるときに本発明の方法の少なくとも1つを実行するプログラムコードを有しているコンピュータプログラムである。 Depending on the specific implementation requirements of the inventive methods, the inventive methods can be implemented in hardware or in software. Implementation is achieved using a digital storage medium, in particular a disk, DVD or CD, on which electronically readable control signals are stored that cooperate with a computer system programmable to carry out the method of the invention. It can be carried out. Accordingly, in general, the present invention is a computer program product having program code stored on a machine-readable carrier, and when the computer program product is executed on a computer, the program code is stored in the computer program product. Operate to carry out the inventive method. Thus, in other words, the method of the present invention is a computer program having program code for executing at least one of the methods of the present invention when executed on a computer.
上述した実施形態は、あくまでも本発明の原理を例示するものにすぎない。本明細書において説明した構成及び詳細について、変更及び変形が当業者にとって明らかであることを理解すべきである。したがって、本発明は、添付の特許請求の範囲の技術的範囲によってのみ限定され、本明細書の実施形態の説明及び解説によって提示された特定の詳細によって限定されるものではない。 The above-described embodiments are merely illustrative of the principles of the present invention. It should be understood that variations and modifications to the arrangements and details described herein will be apparent to those skilled in the art. Accordingly, the present invention is limited only by the scope of the appended claims and is not limited by the specific details presented by the descriptions and descriptions of the embodiments herein.
Claims (15)
前記オーディオ信号の短時間スペクトル表現の時間系列を取得し、複数の短時間スペクトル表現のために複数の周波数帯の各周波数帯における少なくとも1つの特徴を抽出する特徴抽出器であって、前記少なくとも1つの特徴が前記複数の周波数帯の1つの周波数帯における1つの短時間スペクトル表現のスペクトル形状を表す、特徴抽出器と、
各周波数帯の前記少なくとも1つの特徴を前記複数の周波数帯にわたって結合パラメータを使用して結合させ、前記オーディオ信号の1つの時間部分について前記スピーチ強調フィルタのための制御情報を得る特徴結合器と、
前記特徴結合器の結合パラメータを決定するために当該特徴結合器に学習させる最適化コントローラとを備え、
前記特徴抽出器は、スピーチ強調フィルタへの周波数帯ごとの制御情報が既知である学習オーディオ信号について、当該学習オーディオ信号の短時間スペクトル表現の時間系列を取得し、複数の短時間スペクトル表現のために複数の周波数帯の各周波数帯における少なくとも1つの特徴を抽出し、前記少なくとも1つの特徴が前記複数の周波数帯の1つの周波数帯における1つの短時間スペクトル表現のスペクトル形状を表すものであり、
前記特徴抽出器は、前記学習オーディオ信号から抽出された、各周波数帯の前記少なくとも1つの特徴を前記特徴結合器へ供給し、
前記特徴結合器は、中間結合パラメータを使用して前記制御情報を計算し、
前記最適化コントローラは、前記中間結合パラメータを変化させ、変化後の前記制御情報を前記既知の制御情報と比較し、前記変化後の中間結合パラメータが前記既知の制御情報により良く一致する制御情報をもたらす場合に、前記中間結合パラメータを更新して前記結合パラメータを決定することを特徴とする、装置。 An apparatus for processing audio signals to obtain control information for a speech enhancement filter,
A feature extractor for acquiring a time sequence of a short-time spectrum representation of the audio signal and extracting at least one feature in each frequency band of a plurality of frequency bands for a plurality of short-time spectrum representations, A feature extractor wherein one feature represents a spectral shape of one short-term spectral representation in one of the plurality of frequency bands;
A feature combiner that combines the at least one feature of each frequency band using a coupling parameter across the plurality of frequency bands to obtain control information for the speech enhancement filter for one time portion of the audio signal;
An optimization controller that causes the feature combiner to learn to determine a combining parameter of the feature combiner;
The feature extractor acquires a time series of short-time spectral representations of the learning audio signal for learning audio signals whose control information for each frequency band to the speech enhancement filter is known, and for a plurality of short-time spectral representations Extracting at least one feature in each frequency band of the plurality of frequency bands, wherein the at least one feature represents a spectral shape of one short-time spectrum representation in one frequency band of the plurality of frequency bands,
The feature extractor supplies the at least one feature of each frequency band extracted from the learning audio signal to the feature combiner;
The feature combiner calculates the control information using intermediate combining parameters;
The optimization controller changes the intermediate coupling parameter, compares the control information after the change with the known control information, and obtains control information that the intermediate coupling parameter after the change better matches the known control information. If so, the apparatus updates the intermediate coupling parameters to determine the coupling parameters .
前記特徴結合器が、前記結合パラメータを使用して、各周波数帯について、前記少なくとも1つの追加の特徴と前記少なくとも1つの特徴とを結合させる、請求項1に記載の装置。 The feature extractor extracts at least one additional feature that represents a characteristic of the short-term spectral representation, and the characteristic of the short-term spectral representation represented by the additional feature is a spectral shape of the short-term spectral representation and Are different characteristics,
The apparatus of claim 1, wherein the feature combiner combines the at least one additional feature and the at least one feature for each frequency band using the combination parameter.
前記特徴結合器が、前記帯域ごとのスペクトル平坦度又は前記帯域ごとの正規化されたエネルギーを使用する、請求項1に記載の装置。 The feature extractor calculates, as a first feature, a spectral flatness for each band representing an energy distribution within the band, or as a second feature based on the total energy of the signal frame from which the spectral representation is derived. To calculate the normalized energy for each band,
The apparatus of claim 1, wherein the feature combiner uses spectral flatness per band or normalized energy per band.
前記スピーチ強調フィルタへの周波数帯ごとの制御情報が既知である学習オーディオ信号について、当該学習オーディオ信号の短時間スペクトル表現の時間系列を得るステップと、
前記学習オーディオ信号について、複数の短時間スペクトル表現のために複数の周波数帯の各周波数帯における少なくとも1つの特徴を抽出するステップであって、前記少なくとも1つの特徴が前記複数の周波数帯の1つの周波数帯における1つの短時間スペクトル表現のスペクトル形状を表す、ステップと、
前記学習オーディオ信号の各周波数帯における前記少なくとも1つの特徴から、中間結合パラメータを使用して前記制御情報を計算するステップと、
前記中間結合パラメータを変化させるステップと、
変化後の前記制御情報を前記既知の制御情報と比較するステップと、
前記変化後の中間結合パラメータが前記既知の制御情報により良く一致する制御情報をもたらす場合に、前記中間結合パラメータを更新して結合パラメータを決定するステップと、
前記オーディオ信号の短時間スペクトル表現の時間系列を得るステップと、
複数の短時間スペクトル表現のために複数の周波数帯の各周波数帯における少なくとも1つの特徴を抽出するステップであって、前記少なくとも1つの特徴が前記複数の周波数帯の1つの周波数帯における1つの短時間スペクトル表現のスペクトル形状を表す、ステップと、
各周波数帯の前記少なくとも1つの特徴を前記複数の周波数帯にわたって前記結合パラメータを使用して結合させ、前記オーディオ信号の1つの時間部分について前記スピーチ強調フィルタのための制御情報を得るステップと、
を含む方法。 A method of processing an audio signal to obtain control information for a speech enhancement filter,
For a learning audio signal for which control information for each frequency band to the speech enhancement filter is known, obtaining a time sequence of a short-time spectral representation of the learning audio signal;
Extracting at least one feature in each frequency band of a plurality of frequency bands for a plurality of short-time spectral representations for the learning audio signal, wherein the at least one feature is one of the plurality of frequency bands; Representing a spectral shape of one short-term spectral representation in a frequency band; and
Calculating the control information from the at least one feature in each frequency band of the learning audio signal using intermediate coupling parameters;
Changing the intermediate coupling parameters;
Comparing the control information after the change with the known control information;
Updating the intermediate coupling parameter to determine a coupling parameter when the changed intermediate coupling parameter results in control information that better matches the known control information;
Obtaining a time sequence of a short-time spectral representation of the audio signal;
Extracting at least one feature in each frequency band of a plurality of frequency bands for a plurality of short-term spectral representations, wherein the at least one feature is one short in one frequency band of the plurality of frequency bands; Representing the spectral shape of the temporal spectral representation; and
The at least one feature in each frequency band is combined using the combination parameters over the plurality of frequency bands, the steps for one time portion of the audio signal to obtain control information for the speech enhancement filter,
Including methods.
前記オーディオ信号の一時間部分を表している複数の帯域についてフィルタ制御情報を得るために、前記オーディオ信号を処理する請求項1に記載の装置と、
前記オーディオ信号の或る帯域を他の帯域に比べて可変に減衰させるように前記制御情報に基づいて制御することができる制御可能フィルタと、
を備えた装置。 A device for speech enhancement in an audio signal,
The apparatus of claim 1, wherein the apparatus processes the audio signal to obtain filter control information for a plurality of bands representing a time portion of the audio signal;
A controllable filter that can be controlled based on the control information to variably attenuate one band of the audio signal compared to other bands;
With a device.
前記制御情報を高い分解能へと補間し、補間後の制御情報を平滑化して、後処理済み制御情報を得る制御情報の後処理プロセッサをさらに備えており、
前記後処理済み制御情報に基づいて、前記制御可能フィルタの制御可能なフィルタパラメータが設定される、請求項12に記載の装置。 The processing device comprises a time-frequency converter that provides spectral information having a higher resolution than the spectral resolution of the control information;
The control information is further interpolated to a high resolution, the control information after interpolation is smoothed, and further provided with a post-processing processor for control information to obtain post-processed control information,
The apparatus of claim 12, wherein controllable filter parameters of the controllable filter are set based on the post-processed control information.
前記オーディオ信号を処理し、オーディオ信号の1つの時間部分を表している複数の帯域についてフィルタ制御情報を得る請求項11に記載の方法と、
前記制御情報に基づき、前記オーディオ信号の或る帯域が他の帯域に比べて可変に減衰させられるようにフィルタを制御するステップと、
を含む方法。 A method for speech enhancement of an audio signal,
The method of claim 11, wherein the audio signal is processed to obtain filter control information for a plurality of bands representing one time portion of the audio signal;
Controlling a filter based on the control information so that a certain band of the audio signal is variably attenuated compared to other bands;
Including methods.
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US8636108P | 2008-08-05 | 2008-08-05 | |
US61/086,361 | 2008-08-05 | ||
US10082608P | 2008-09-29 | 2008-09-29 | |
EP08017124.2A EP2151822B8 (en) | 2008-08-05 | 2008-09-29 | Apparatus and method for processing an audio signal for speech enhancement using a feature extraction |
US61/100,826 | 2008-09-29 | ||
EP08017124.2 | 2008-09-29 | ||
PCT/EP2009/005607 WO2010015371A1 (en) | 2008-08-05 | 2009-08-03 | Apparatus and method for processing an audio signal for speech enhancement using a feature extraction |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011530091A JP2011530091A (en) | 2011-12-15 |
JP5666444B2 true JP5666444B2 (en) | 2015-02-12 |
Family
ID=49170422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011521470A Active JP5666444B2 (en) | 2008-08-05 | 2009-08-03 | Apparatus and method for processing an audio signal for speech enhancement using feature extraction |
Country Status (13)
Country | Link |
---|---|
US (1) | US9064498B2 (en) |
EP (1) | EP2151822B8 (en) |
JP (1) | JP5666444B2 (en) |
KR (1) | KR101266894B1 (en) |
CN (1) | CN102124518B (en) |
AU (1) | AU2009278263B2 (en) |
CA (1) | CA2732723C (en) |
ES (1) | ES2678415T3 (en) |
HK (1) | HK1159300A1 (en) |
MX (1) | MX2011001339A (en) |
RU (1) | RU2507608C2 (en) |
TR (1) | TR201810466T4 (en) |
WO (1) | WO2010015371A1 (en) |
Families Citing this family (102)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8140331B2 (en) * | 2007-07-06 | 2012-03-20 | Xia Lou | Feature extraction for identification and classification of audio signals |
US9838784B2 (en) | 2009-12-02 | 2017-12-05 | Knowles Electronics, Llc | Directional audio capture |
DE102010009745A1 (en) * | 2010-03-01 | 2011-09-01 | Gunnar Eisenberg | Method and device for processing audio data |
US8577678B2 (en) * | 2010-03-11 | 2013-11-05 | Honda Motor Co., Ltd. | Speech recognition system and speech recognizing method |
US8538035B2 (en) | 2010-04-29 | 2013-09-17 | Audience, Inc. | Multi-microphone robust noise suppression |
US8473287B2 (en) | 2010-04-19 | 2013-06-25 | Audience, Inc. | Method for jointly optimizing noise reduction and voice quality in a mono or multi-microphone system |
US8798290B1 (en) | 2010-04-21 | 2014-08-05 | Audience, Inc. | Systems and methods for adaptive signal equalization |
US8781137B1 (en) | 2010-04-27 | 2014-07-15 | Audience, Inc. | Wind noise detection and suppression |
US9245538B1 (en) * | 2010-05-20 | 2016-01-26 | Audience, Inc. | Bandwidth enhancement of speech signals assisted by noise reduction |
US8447596B2 (en) | 2010-07-12 | 2013-05-21 | Audience, Inc. | Monaural noise suppression based on computational auditory scene analysis |
JP5566846B2 (en) * | 2010-10-15 | 2014-08-06 | 本田技研工業株式会社 | Noise power estimation apparatus, noise power estimation method, speech recognition apparatus, and speech recognition method |
JP2012163919A (en) * | 2011-02-09 | 2012-08-30 | Sony Corp | Voice signal processing device, method and program |
US9589580B2 (en) | 2011-03-14 | 2017-03-07 | Cochlear Limited | Sound processing based on a confidence measure |
JP2012235310A (en) * | 2011-04-28 | 2012-11-29 | Sony Corp | Signal processing apparatus and method, program, and data recording medium |
US8949118B2 (en) * | 2012-03-19 | 2015-02-03 | Vocalzoom Systems Ltd. | System and method for robust estimation and tracking the fundamental frequency of pseudo periodic signals in the presence of noise |
WO2014018004A1 (en) * | 2012-07-24 | 2014-01-30 | Nuance Communications, Inc. | Feature normalization inputs to front end processing for automatic speech recognition |
JP6234060B2 (en) * | 2013-05-09 | 2017-11-22 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | Generation method, generation apparatus, and generation program for target domain learning voice data |
US9443533B2 (en) * | 2013-07-15 | 2016-09-13 | Rajeev Conrad Nongpiur | Measuring and improving speech intelligibility in an enclosure |
US9536540B2 (en) | 2013-07-19 | 2017-01-03 | Knowles Electronics, Llc | Speech signal separation and synthesis based on auditory scene analysis and speech modeling |
CN103474072B (en) * | 2013-10-11 | 2016-06-01 | 福州大学 | Utilize the quick anti-noise chirping of birds sound recognition methods of textural characteristics and random forest |
US10360901B2 (en) * | 2013-12-06 | 2019-07-23 | Nuance Communications, Inc. | Learning front-end speech recognition parameters within neural network training |
CN110265058B (en) | 2013-12-19 | 2023-01-17 | 瑞典爱立信有限公司 | Estimating background noise in an audio signal |
EP3105756A1 (en) * | 2014-02-14 | 2016-12-21 | Derrick, Donald James | System for audio analysis and perception enhancement |
US10176824B2 (en) * | 2014-03-04 | 2019-01-08 | Indian Institute Of Technology Bombay | Method and system for consonant-vowel ratio modification for improving speech perception |
CA3042070C (en) * | 2014-04-25 | 2021-03-02 | Ntt Docomo, Inc. | Linear prediction coefficient conversion device and linear prediction coefficient conversion method |
CN107112025A (en) | 2014-09-12 | 2017-08-29 | 美商楼氏电子有限公司 | System and method for recovering speech components |
US9881631B2 (en) | 2014-10-21 | 2018-01-30 | Mitsubishi Electric Research Laboratories, Inc. | Method for enhancing audio signal using phase information |
US9659578B2 (en) * | 2014-11-27 | 2017-05-23 | Tata Consultancy Services Ltd. | Computer implemented system and method for identifying significant speech frames within speech signals |
RU2673390C1 (en) | 2014-12-12 | 2018-11-26 | Хуавэй Текнолоджиз Ко., Лтд. | Signal processing device for amplifying speech component in multi-channel audio signal |
KR102387567B1 (en) * | 2015-01-19 | 2022-04-18 | 삼성전자주식회사 | Method and apparatus for speech recognition |
DE112016000545B4 (en) | 2015-01-30 | 2019-08-22 | Knowles Electronics, Llc | CONTEXT-RELATED SWITCHING OF MICROPHONES |
CN104966517B (en) * | 2015-06-02 | 2019-02-01 | 华为技术有限公司 | A kind of audio signal Enhancement Method and device |
DK3118851T3 (en) * | 2015-07-01 | 2021-02-22 | Oticon As | IMPROVEMENT OF NOISY SPEAKING BASED ON STATISTICAL SPEECH AND NOISE MODELS |
KR101677137B1 (en) * | 2015-07-17 | 2016-11-17 | 국방과학연구소 | Method and Apparatus for simultaneously extracting DEMON and LOw-Frequency Analysis and Recording characteristics of underwater acoustic transducer using modulation spectrogram |
KR102494139B1 (en) * | 2015-11-06 | 2023-01-31 | 삼성전자주식회사 | Apparatus and method for training neural network, apparatus and method for speech recognition |
CN105611477B (en) * | 2015-12-27 | 2018-06-01 | 北京工业大学 | The voice enhancement algorithm that depth and range neutral net are combined in digital deaf-aid |
DE112016006218B4 (en) * | 2016-02-15 | 2022-02-10 | Mitsubishi Electric Corporation | Sound Signal Enhancement Device |
EP3220367A1 (en) * | 2016-03-14 | 2017-09-20 | Tata Consultancy Services Limited | System and method for sound based surveillance |
US9820042B1 (en) | 2016-05-02 | 2017-11-14 | Knowles Electronics, Llc | Stereo separation and directional suppression with omni-directional microphones |
US11003987B2 (en) * | 2016-05-10 | 2021-05-11 | Google Llc | Audio processing with neural networks |
RU2620569C1 (en) * | 2016-05-17 | 2017-05-26 | Николай Александрович Иванов | Method of measuring the convergence of speech |
JP6563874B2 (en) * | 2016-08-16 | 2019-08-21 | 日本電信電話株式会社 | Sound source enhancement learning device, sound source enhancement device, sound source enhancement learning method, program |
EP3301675B1 (en) * | 2016-09-28 | 2019-08-21 | Panasonic Intellectual Property Corporation of America | Parameter prediction device and parameter prediction method for acoustic signal processing |
US10614827B1 (en) * | 2017-02-21 | 2020-04-07 | Oben, Inc. | System and method for speech enhancement using dynamic noise profile estimation |
US10504538B2 (en) | 2017-06-01 | 2019-12-10 | Sorenson Ip Holdings, Llc | Noise reduction by application of two thresholds in each frequency band in audio signals |
US10381020B2 (en) | 2017-06-16 | 2019-08-13 | Apple Inc. | Speech model-based neural network-assisted signal enhancement |
WO2019014890A1 (en) * | 2017-07-20 | 2019-01-24 | 大象声科(深圳)科技有限公司 | Universal single channel real-time noise-reduction method |
DE102017212431A1 (en) * | 2017-07-20 | 2019-01-24 | Robert Bosch Gmbh | Method and device for processing a signal |
US11270198B2 (en) * | 2017-07-31 | 2022-03-08 | Syntiant | Microcontroller interface for audio signal processing |
US20190066657A1 (en) * | 2017-08-31 | 2019-02-28 | National Institute Of Information And Communications Technology | Audio data learning method, audio data inference method and recording medium |
EP3688754A1 (en) | 2017-09-26 | 2020-08-05 | Sony Europe B.V. | Method and electronic device for formant attenuation/amplification |
US10325588B2 (en) * | 2017-09-28 | 2019-06-18 | International Business Machines Corporation | Acoustic feature extractor selected according to status flag of frame of acoustic signal |
WO2019081070A1 (en) * | 2017-10-27 | 2019-05-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus, method or computer program for generating a bandwidth-enhanced audio signal using a neural network processor |
US10283140B1 (en) | 2018-01-12 | 2019-05-07 | Alibaba Group Holding Limited | Enhancing audio signals using sub-band deep neural networks |
CN110580910B (en) * | 2018-06-08 | 2024-04-26 | 北京搜狗科技发展有限公司 | Audio processing method, device, equipment and readable storage medium |
US10991379B2 (en) * | 2018-06-22 | 2021-04-27 | Babblelabs Llc | Data driven audio enhancement |
US11341983B2 (en) | 2018-09-17 | 2022-05-24 | Honeywell International Inc. | System and method for audio noise reduction |
EP4408022A3 (en) | 2018-10-24 | 2024-10-16 | Gracenote, Inc. | Methods and apparatus to adjust audio playback settings based on analysis of audio characteristics |
CN110008972B (en) * | 2018-11-15 | 2023-06-06 | 创新先进技术有限公司 | Method and apparatus for data enhancement |
US11043214B1 (en) * | 2018-11-29 | 2021-06-22 | Amazon Technologies, Inc. | Speech recognition using dialog history |
KR102093929B1 (en) * | 2018-12-05 | 2020-03-26 | 중앙대학교 산학협력단 | Apparatus and Method for Diagnosing Mechanical System Health based on CIM |
JP7095586B2 (en) * | 2018-12-14 | 2022-07-05 | 富士通株式会社 | Voice correction device and voice correction method |
CN109448749B (en) * | 2018-12-19 | 2022-02-15 | 中国科学院自动化研究所 | Voice extraction method, system and device based on supervised learning auditory attention |
CN111369986A (en) * | 2018-12-26 | 2020-07-03 | 成都启英泰伦科技有限公司 | Intelligent safe voice transmission system and method |
KR20200080913A (en) | 2018-12-27 | 2020-07-07 | 서울과학기술대학교 산학협력단 | Method and apparatus for signal processing using deep neural network with autocorrelation coefficient |
KR102096588B1 (en) * | 2018-12-27 | 2020-04-02 | 인하대학교 산학협력단 | Sound privacy method for audio system using custom noise profile |
KR102188264B1 (en) * | 2019-01-04 | 2020-12-08 | 순천향대학교 산학협력단 | Language rehabilitation based vocal voice evaluation apparatus and method thereof |
EP4418690A3 (en) | 2019-02-08 | 2024-10-16 | Oticon A/s | A hearing device comprising a noise reduction system |
KR102198273B1 (en) * | 2019-02-26 | 2021-01-04 | 한미란 | Machine learning based voice data analysis method, device and program |
CN109767789A (en) * | 2019-03-06 | 2019-05-17 | 慧言科技(天津)有限公司 | A kind of new feature extracting method for speech emotion recognition |
WO2020209840A1 (en) * | 2019-04-09 | 2020-10-15 | Hewlett-Packard Development Company, L.P. | Applying directionality to audio by encoding input data |
EP3726529A1 (en) * | 2019-04-16 | 2020-10-21 | Fraunhofer Gesellschaft zur Förderung der Angewand | Method and apparatus for determining a deep filter |
WO2020218597A1 (en) * | 2019-04-26 | 2020-10-29 | 株式会社Preferred Networks | Interval detection device, signal processing system, model generation method, interval detection method, and program |
WO2020232180A1 (en) | 2019-05-14 | 2020-11-19 | Dolby Laboratories Licensing Corporation | Method and apparatus for speech source separation based on a convolutional neural network |
KR20200137561A (en) * | 2019-05-30 | 2020-12-09 | 국방과학연구소 | Apparatuses and methods for creating noise environment noisy data and eliminating noise |
CN110534123B (en) * | 2019-07-22 | 2022-04-01 | 中国科学院自动化研究所 | Voice enhancement method and device, storage medium and electronic equipment |
WO2021019643A1 (en) * | 2019-07-29 | 2021-02-04 | 日本電信電話株式会社 | Impression inference device, learning device, and method and program therefor |
CN110491407B (en) * | 2019-08-15 | 2021-09-21 | 广州方硅信息技术有限公司 | Voice noise reduction method and device, electronic equipment and storage medium |
CN110473567B (en) * | 2019-09-06 | 2021-09-14 | 上海又为智能科技有限公司 | Audio processing method and device based on deep neural network and storage medium |
CN110556122B (en) * | 2019-09-18 | 2024-01-19 | 腾讯科技(深圳)有限公司 | Band expansion method, device, electronic equipment and computer readable storage medium |
CN110556123B (en) | 2019-09-18 | 2024-01-19 | 腾讯科技(深圳)有限公司 | Band expansion method, device, electronic equipment and computer readable storage medium |
CN110556121B (en) * | 2019-09-18 | 2024-01-09 | 腾讯科技(深圳)有限公司 | Band expansion method, device, electronic equipment and computer readable storage medium |
US11587575B2 (en) * | 2019-10-11 | 2023-02-21 | Plantronics, Inc. | Hybrid noise suppression |
JP7348812B2 (en) * | 2019-10-31 | 2023-09-21 | 東京都公立大学法人 | Noise suppression device, noise suppression method, and voice input device |
CN111061909B (en) * | 2019-11-22 | 2023-11-28 | 腾讯音乐娱乐科技(深圳)有限公司 | Accompaniment classification method and accompaniment classification device |
CN111223493B (en) * | 2020-01-08 | 2022-08-02 | 北京声加科技有限公司 | Voice signal noise reduction processing method, microphone and electronic equipment |
CN111259776B (en) * | 2020-01-13 | 2023-04-18 | 浙江大学 | Deterministic signal extraction method based on synchronous average principal component time-frequency analysis |
CN113140225B (en) * | 2020-01-20 | 2024-07-02 | 腾讯科技(深圳)有限公司 | Voice signal processing method and device, electronic equipment and storage medium |
KR20210101670A (en) * | 2020-02-10 | 2021-08-19 | 삼성전자주식회사 | Electronic device and method of reducing noise using the same |
KR102329353B1 (en) * | 2020-03-17 | 2021-11-22 | 성균관대학교산학협력단 | A method for inferring of generating direction of sound using deep network and an apparatus for the same |
US11521637B1 (en) * | 2020-08-19 | 2022-12-06 | Amazon Technologies, Inc. | Ratio mask post-filtering for audio enhancement |
CN111986660A (en) * | 2020-08-26 | 2020-11-24 | 深圳信息职业技术学院 | Single-channel speech enhancement method, system and storage medium for neural network sub-band modeling |
US20220101872A1 (en) * | 2020-09-25 | 2022-03-31 | Descript, Inc. | Upsampling of audio using generative adversarial networks |
CN112349277B (en) * | 2020-09-28 | 2023-07-04 | 紫光展锐(重庆)科技有限公司 | Feature domain voice enhancement method combined with AI model and related product |
US11694692B2 (en) | 2020-11-11 | 2023-07-04 | Bank Of America Corporation | Systems and methods for audio enhancement and conversion |
GB202018375D0 (en) * | 2020-11-23 | 2021-01-06 | Rossi Lisa | Audio signal processing systems and methods |
US11475869B2 (en) | 2021-02-12 | 2022-10-18 | Plantronics, Inc. | Hybrid noise suppression for communication systems |
CN115116469B (en) * | 2022-05-25 | 2024-03-15 | 腾讯科技(深圳)有限公司 | Feature representation extraction method, device, equipment, medium and program product |
CN115116446A (en) * | 2022-06-21 | 2022-09-27 | 成都理工大学 | Method for constructing speaker recognition model in noise environment |
GB2625772A (en) * | 2022-12-23 | 2024-07-03 | Airbus Defence & Space Ltd | Determination of signal characteristics |
GB2625773A (en) * | 2022-12-23 | 2024-07-03 | Airbus Defence & Space Ltd | Determination of signal characteristics |
US20240304186A1 (en) * | 2023-03-08 | 2024-09-12 | Google Llc | Audio signal synthesis from a network of devices |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5822742A (en) | 1989-05-17 | 1998-10-13 | The United States Of America As Represented By The Secretary Of Health & Human Services | Dynamically stable associative learning neural network system |
JP3084721B2 (en) * | 1990-02-23 | 2000-09-04 | ソニー株式会社 | Noise removal circuit |
DE4227826C2 (en) * | 1991-08-23 | 1999-07-22 | Hitachi Ltd | Digital processing device for acoustic signals |
JP3247011B2 (en) | 1994-04-12 | 2002-01-15 | 富士通株式会社 | Cell placement improvement apparatus and method |
SE505175C2 (en) | 1994-12-01 | 1997-07-07 | Ericsson Telefon Ab L M | Method and telecommunication system for providing a subscriber controlled connection process in a telecommunications network |
US5960391A (en) | 1995-12-13 | 1999-09-28 | Denso Corporation | Signal extraction system, system and method for speech restoration, learning method for neural network model, constructing method of neural network model, and signal processing system |
SE506034C2 (en) * | 1996-02-01 | 1997-11-03 | Ericsson Telefon Ab L M | Method and apparatus for improving parameters representing noise speech |
EP0878790A1 (en) * | 1997-05-15 | 1998-11-18 | Hewlett-Packard Company | Voice coding system and method |
FR2786908B1 (en) * | 1998-12-04 | 2001-06-08 | Thomson Csf | PROCESS AND DEVICE FOR THE PROCESSING OF SOUNDS FOR THE HEARING DISEASE |
DE19948308C2 (en) * | 1999-10-06 | 2002-05-08 | Cortologic Ag | Method and device for noise suppression in speech transmission |
FI116643B (en) * | 1999-11-15 | 2006-01-13 | Nokia Corp | Noise reduction |
DE60104091T2 (en) * | 2001-04-27 | 2005-08-25 | CSEM Centre Suisse d`Electronique et de Microtechnique S.A. - Recherche et Développement | Method and device for improving speech in a noisy environment |
JP3933909B2 (en) * | 2001-10-29 | 2007-06-20 | 日本放送協会 | Voice / music mixture ratio estimation apparatus and audio apparatus using the same |
US7949522B2 (en) * | 2003-02-21 | 2011-05-24 | Qnx Software Systems Co. | System for suppressing rain noise |
JP2004341339A (en) * | 2003-05-16 | 2004-12-02 | Mitsubishi Electric Corp | Noise restriction device |
AU2003904207A0 (en) | 2003-08-11 | 2003-08-21 | Vast Audio Pty Ltd | Enhancement of sound externalization and separation for hearing-impaired listeners: a spatial hearing-aid |
US7890323B2 (en) * | 2004-07-28 | 2011-02-15 | The University Of Tokushima | Digital filtering method, digital filtering equipment, digital filtering program, and recording medium and recorded device which are readable on computer |
RU52536U1 (en) * | 2005-12-08 | 2006-03-27 | Общество с ограниченной ответственностью "Филком" | DIGITAL SPEECH CONVERSION MODULE |
DE602006005684D1 (en) * | 2006-10-31 | 2009-04-23 | Harman Becker Automotive Sys | Model-based improvement of speech signals |
JP5141180B2 (en) * | 2006-11-09 | 2013-02-13 | ソニー株式会社 | Frequency band expanding apparatus, frequency band expanding method, reproducing apparatus and reproducing method, program, and recording medium |
US8352257B2 (en) * | 2007-01-04 | 2013-01-08 | Qnx Software Systems Limited | Spectro-temporal varying approach for speech enhancement |
WO2009035615A1 (en) * | 2007-09-12 | 2009-03-19 | Dolby Laboratories Licensing Corporation | Speech enhancement |
US8521530B1 (en) * | 2008-06-30 | 2013-08-27 | Audience, Inc. | System and method for enhancing a monaural audio signal |
-
2008
- 2008-09-29 EP EP08017124.2A patent/EP2151822B8/en active Active
- 2008-09-29 TR TR2018/10466T patent/TR201810466T4/en unknown
- 2008-09-29 ES ES08017124.2T patent/ES2678415T3/en active Active
-
2009
- 2009-08-03 RU RU2011105976/08A patent/RU2507608C2/en active
- 2009-08-03 KR KR1020117002693A patent/KR101266894B1/en active IP Right Grant
- 2009-08-03 JP JP2011521470A patent/JP5666444B2/en active Active
- 2009-08-03 AU AU2009278263A patent/AU2009278263B2/en active Active
- 2009-08-03 WO PCT/EP2009/005607 patent/WO2010015371A1/en active Application Filing
- 2009-08-03 CN CN2009801310163A patent/CN102124518B/en active Active
- 2009-08-03 CA CA2732723A patent/CA2732723C/en active Active
- 2009-08-03 MX MX2011001339A patent/MX2011001339A/en active IP Right Grant
-
2011
- 2011-02-02 US US13/019,835 patent/US9064498B2/en active Active
- 2011-12-13 HK HK11113430.8A patent/HK1159300A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
AU2009278263B2 (en) | 2012-09-27 |
TR201810466T4 (en) | 2018-08-27 |
CN102124518B (en) | 2013-11-06 |
EP2151822B1 (en) | 2018-04-25 |
RU2507608C2 (en) | 2014-02-20 |
JP2011530091A (en) | 2011-12-15 |
WO2010015371A1 (en) | 2010-02-11 |
CA2732723A1 (en) | 2010-02-11 |
AU2009278263A1 (en) | 2010-02-11 |
KR20110044990A (en) | 2011-05-03 |
EP2151822B8 (en) | 2018-10-24 |
ES2678415T3 (en) | 2018-08-10 |
MX2011001339A (en) | 2011-05-10 |
RU2011105976A (en) | 2012-08-27 |
US20110191101A1 (en) | 2011-08-04 |
US9064498B2 (en) | 2015-06-23 |
CN102124518A (en) | 2011-07-13 |
HK1159300A1 (en) | 2012-07-27 |
KR101266894B1 (en) | 2013-05-24 |
EP2151822A1 (en) | 2010-02-10 |
CA2732723C (en) | 2016-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5666444B2 (en) | Apparatus and method for processing an audio signal for speech enhancement using feature extraction | |
US10504539B2 (en) | Voice activity detection systems and methods | |
RU2329550C2 (en) | Method and device for enhancement of voice signal in presence of background noise | |
JP6169849B2 (en) | Sound processor | |
KR101461774B1 (en) | A bandwidth extender | |
CN104823236B (en) | Speech processing system | |
Kim et al. | Nonlinear enhancement of onset for robust speech recognition. | |
JP5842056B2 (en) | Noise estimation device, noise estimation method, noise estimation program, and recording medium | |
WO2022068440A1 (en) | Howling suppression method and apparatus, computer device, and storage medium | |
CN113593604A (en) | Method, device and storage medium for detecting audio quality | |
CN111508512B (en) | Method and system for detecting fricatives in speech signals | |
KR100784456B1 (en) | Voice Enhancement System using GMM | |
Thiagarajan et al. | Pitch-based voice activity detection for feedback cancellation and noise reduction in hearing aids | |
Uhle et al. | Speech enhancement of movie sound | |
Tiwari et al. | Speech enhancement using noise estimation with dynamic quantile tracking | |
Surendran et al. | Variance normalized perceptual subspace speech enhancement | |
KR102718917B1 (en) | Detection of fricatives in speech signals | |
Maganti et al. | Sub-band spectral variance feature for noise robust ASR | |
Rao et al. | Implementation and evaluation of spectral subtraction with minimum statistics using WOLA and FFT modulated filter banks | |
BRPI0911932B1 (en) | EQUIPMENT AND METHOD FOR PROCESSING AN AUDIO SIGNAL FOR VOICE INTENSIFICATION USING A FEATURE EXTRACTION | |
Farsi et al. | Robust speech recognition based on mixed histogram transform and asymmetric noise suppression | |
Kamaraju et al. | Speech Enhancement Technique Using Eigen Values | |
Brookes et al. | Enhancement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130307 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130409 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130703 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130710 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131003 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140821 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20140910 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141118 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141210 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5666444 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |