JPH1078797A - Acoustic signal processing method - Google Patents

Acoustic signal processing method

Info

Publication number
JPH1078797A
JPH1078797A JP8233799A JP23379996A JPH1078797A JP H1078797 A JPH1078797 A JP H1078797A JP 8233799 A JP8233799 A JP 8233799A JP 23379996 A JP23379996 A JP 23379996A JP H1078797 A JPH1078797 A JP H1078797A
Authority
JP
Japan
Prior art keywords
frequency
frequency characteristic
frequency domain
outline
coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8233799A
Other languages
Japanese (ja)
Other versions
JP3384523B2 (en
Inventor
Naoki Iwagami
直樹 岩上
Kazunaga Ikeda
和永 池田
Takehiro Moriya
健弘 守谷
Akio Jin
明夫 神
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP23379996A priority Critical patent/JP3384523B2/en
Publication of JPH1078797A publication Critical patent/JPH1078797A/en
Application granted granted Critical
Publication of JP3384523B2 publication Critical patent/JP3384523B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce operation quantity and to improve accuracy of operation for a post filter of temporal region processing. SOLUTION: For example, a reproduction frequency region coefficient in a conversion coding and decoding method and reproduction spectrum envelope are inputted to terminals 51, 52, a large part of values of spectrum envelope is deformed further larger and a small part is deformed further smaller by an emphasizing part 54, the frequency region coefficient is inversely flatted by an inversely flatting section 55 due to this emphasis-processed spectrum envelope, further, converted into a temporal region signal by a converting section 56.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明はオーディオ信号、
特に符号化・復号化された音声信号に含まれる雑音感を
低減させる信号処理方法に関する。
The present invention relates to an audio signal,
In particular, the present invention relates to a signal processing method for reducing noise included in encoded / decoded audio signals.

【0002】[0002]

【従来の技術】この発明は復号化音響信号以外の音響信
号に適用できるが、復号化音響信号に適用の際の適用個
所の理解のため従来の音響信号変換符号化・復号化法を
図3を参照して説明する。符号化器10においては、入
力端子11よりの入力音響信号を、時間−周波数変換部
12によって周波数領域係数に変換する。この変換の方
法としては、MDCT(Modified Discrete Cosine Tra
nsformation,変形離散コサイン変換)や、DCT(Disc
rete Cosine Transformation, 離散コサイン変換),D
FT(Discrete Fourier Transformation,離散フーリエ
変換)などを用いることができる。なお、時間−周波数
変換部12では、前処理として、入力信号サンプル列の
フレーム分割と窓掛けが必要である。フレーム分割は、
MDCTの場合入力サンプルがN点入力されるごとにこ
れを含む過去2N点のサンプルを1フレームとして分割
する。DCTとDFTの場合入力サンプルがN点ごとに
これを含む過去N+α点のサンプルを1フレームとして
分割する。窓掛けは従来行われている手法により行い、
いずれの変換方法でも、N点の周波数領域係数が得られ
る。
2. Description of the Related Art Although the present invention can be applied to audio signals other than decoded audio signals, a conventional audio signal conversion encoding / decoding method is shown in FIG. This will be described with reference to FIG. In the encoder 10, an input audio signal from an input terminal 11 is converted into a frequency domain coefficient by a time-frequency converter 12. As a method of this conversion, MDCT (Modified Discrete Cosine Tra
nsformation, modified discrete cosine transform, DCT (Disc
rete Cosine Transformation, discrete cosine transform), D
FT (Discrete Fourier Transformation, Discrete Fourier Transform) or the like can be used. The time-frequency conversion unit 12 needs to divide the input signal sample sequence into frames and apply a window as preprocessing. Frame division is
In the case of MDCT, each time N input samples are input, the sample of the past 2N points including this is divided into one frame. In the case of DCT and DFT, a sample of N + α points in the past including N input samples is divided into one frame. Window hanging is done by the conventional method,
With any of the conversion methods, N frequency domain coefficients can be obtained.

【0003】概形計算部13で周波数領域係数の概形を
抽出する。この概形抽出方法としては、前処理された音
響信号を入力として線形予測分析をする方法、周波数領
域係数を入力としてスケールファクタを計算する方法、
周波数領域係数をリフタリングする方法などを用いるこ
とができる。線形予測分析をする方法では、入力信号を
線形予測分析し、線形予測係数を求め、この係数のスペ
クトル振幅の逆数を周波数特性概形とする。線形予測の
次数は、20次程度にするのが効果的である。
[0005] A rough shape calculator 13 extracts a rough shape of a frequency domain coefficient. The outline extraction method includes a method of performing a linear prediction analysis using a preprocessed audio signal as an input, a method of calculating a scale factor using a frequency domain coefficient as an input,
A method of lifting the frequency domain coefficient can be used. In the method of performing linear prediction analysis, an input signal is subjected to linear prediction analysis to obtain a linear prediction coefficient, and the reciprocal of the spectrum amplitude of the coefficient is used as a frequency characteristic outline. It is effective to set the order of linear prediction to about the 20th order.

【0004】スケールファクタを計算する方法では、周
波数領域係数を複数の小帯域に分割し、小帯域ごとにス
ケールファクタを計算し、これを周波数特性概形とす
る。小帯域に分割する方法は、周波数スケールで等間隔
としてもよいし、バークスケールで等間隔(つまり聴覚
的に等間隔)としてもよい。小帯域の数は30程度に設
定するのが効果的である。スケールファクタは小帯域内
のサンプルの振幅の平均値でもよいし、振幅の最大値で
もよい。
In the method of calculating a scale factor, a frequency domain coefficient is divided into a plurality of small bands, and a scale factor is calculated for each of the small bands to obtain a rough frequency characteristic. The method of dividing into small bands may be equally spaced on a frequency scale or equally spaced on a bark scale (that is, equally spaced auditory). It is effective to set the number of small bands to about 30. The scale factor may be the average value of the amplitudes of the samples in the small band or the maximum value of the amplitude.

【0005】周波数領域係数をリフタリングする方法で
は、周波数領域係数をケプストラム分析し、ケプストラ
ム係数の低次部分のみのスペクトル振幅を周波数特性概
形とする。また、周波数領域係数の概形は、上記の方法
の併用により求めてもよい。たとえば、線形予測分析と
スケールファクタを併用する場合、線形予測分析による
線形予測スペクトルを決定した後、これに掛け合わせた
際に実際の周波数特性にもっとも近い形状になるように
スケールファクタを決定するなどの方法をとる。
In the method of lifting the frequency domain coefficients, the frequency domain coefficients are subjected to cepstrum analysis, and the spectral amplitude of only the low-order part of the cepstrum coefficients is used as an approximate frequency characteristic. Further, the approximate shape of the frequency domain coefficient may be obtained by using the above-mentioned method in combination. For example, when using linear predictive analysis and scale factor together, determine the linear predictive spectrum by linear predictive analysis, and then determine the scale factor so that when it is multiplied by this, the shape becomes the closest to the actual frequency characteristic. Take the method.

【0006】この周波数特性概形を概形量子化部14で
量子化して、そのインデックスIn1を得る。周波数特性
概形を線形予測分析により求めた場合、線形予測係数を
線スペクトル対(LSP)に変換し、これを量子化する
方法が能率がよい。スケールファクタを量子化する場
合、各々のスケールファクタをスカラー量子化してもよ
いし、いくつかのスケールファクタをまとめてベクトル
量子化してもよい。ベクトル量子化をする際、インタリ
ーブベクトル量子化の技術を使うと、能率良く量子化が
可能である。ケプストラム係数を量子化する場合、ケプ
ストラム係数をスカラー量子化してもよいし、ベクトル
量子化してもよい。
The rough shape of the frequency characteristic is quantized by the rough shape quantization section 14 to obtain the index In 1 . When the outline of the frequency characteristic is obtained by the linear prediction analysis, a method of converting the linear prediction coefficient into a line spectrum pair (LSP) and quantizing this is efficient. When quantizing the scale factors, each scale factor may be scalar-quantized, or some of the scale factors may be vector-quantized collectively. When performing vector quantization, if an interleave vector quantization technique is used, quantization can be performed efficiently. When quantizing the cepstrum coefficient, the cepstrum coefficient may be scalar-quantized or vector-quantized.

【0007】いずれの方法も、予測量子化を行うとさら
に高い能率が得られる。予測の方法としては、AR予
測、MA予測などを用いることができる。複数方法で周
波数特性概形を求めた場合、用いたすべての方法につい
て量子化を行う。量子化した周波数特性概形を概形再生
部15で復号化し、周波数特性概形を再生する。線スペ
クトル対を量子化した場合、復号化して得られた再生線
スペクトル対を再生線形予測係数に変換し、再生線形予
測係数のスペクトル振幅の逆数を再生周波数特性概形と
する。スケールファクタを量子化した場合、復号化した
再生スケールファクタを再生周波数特性概形とする。ケ
プストラム係数を量子化した場合、復号化された再生ケ
プストラム係数のスペクトル振幅を再生周波数特性概形
とする。
[0007] In either method, higher efficiency can be obtained by performing predictive quantization. As a prediction method, AR prediction, MA prediction, or the like can be used. When the frequency characteristic outline is obtained by a plurality of methods, quantization is performed for all the methods used. The quantized frequency characteristic outline is decoded by the outline reproduction unit 15, and the outline of the frequency characteristic is reproduced. When the line spectrum pair is quantized, the reproduction line spectrum pair obtained by decoding is converted into a reproduction linear prediction coefficient, and the reciprocal of the spectrum amplitude of the reproduction linear prediction coefficient is used as a reproduction frequency characteristic outline. When the scale factor is quantized, the decoded reproduction scale factor is used as a reproduction frequency characteristic. When the cepstrum coefficients are quantized, the spectrum amplitude of the decoded reproduced cepstrum coefficients is used as an approximate reproduction frequency characteristic.

【0008】平坦化部16において周波数領域係数を再
生周波数特性概形で平坦化する。ここでは、各々の周波
数領域係数をこれに対応する周波数特性概形で割ること
によって平坦化周波数領域係数(残差周波数係数)が得
られる。この平坦化周波数係数を残差量子化部17でベ
クトル量子化してインデックスIn2を得る。この量子化
方法として、重み付きベクトル量子化による変換符号化
法(TC−WVQ,Transform Coding with Weighted V
ector Quantization),周波数領域重み付けインタリー
ブベクトル量子化法(TWINVQ,Transform-domain
Weighted Interleave Vector Quantization)などがあ
る。それぞれの技術については、T.Moriya,H.Sud
a :“An,8kbit/s transform coder fornoisy channe
ls," Proc.ICASSP '89 pp196−199および
岩上、守谷、三樹、“周波数領域重みづけインタリーブ
ベクトル量子化(TwinVQ)によるオーディオ符号
化、”日本音響学会講演論文集 平成6年10月〜11
月pp.339−340に述べられている。
In the flattening section 16, the frequency domain coefficients are flattened in a reproduction frequency characteristic outline. Here, a flattened frequency domain coefficient (residual frequency coefficient) is obtained by dividing each frequency domain coefficient by the corresponding frequency characteristic outline. Obtaining an index In 2 the flattening frequency coefficients vector quantized by residual quantizer 17. As this quantization method, a transform coding method using weighted vector quantization (TC-WVQ, Transform Coding with Weighted V
Quantization), frequency domain weighted interleaved vector quantization (TWINVQ, Transform-domain)
Weighted Interleave Vector Quantization). For each technology, see T.A. Moriya, H .; Sud
a: "An, 8 kbit / s transform coder for noisy channe
ls, "Proc. ICASP '89 pp 196-199 and Iwagami, Moriya, Miki," Audio coding by frequency domain weighted interleaved vector quantization (TwinVQ), "Proc.
Month pp. 339-340.

【0009】復号化器20において、量子化された平坦
化された周波数領域係数のインデックスIn2を再生部2
1で復号再生する。量子化した周波数特性概形のインデ
ックスIn1を再生部22で復号化し、再生周波数特性概
形を再生する。線スペクトル対を量子化した場合、復号
化して得られた再生線スペクトル対を再生線形予測係数
に変換し、再生線形予測係数のスペクトル振幅の逆数を
再生周波数特性概形とする。スケールファクタを量子化
した場合、復号化した再生スケールファクタを再生周波
数特性概形とする。ケプストラム係数を量子化した場
合、復号化された再生ケプストラム係数のスペクトル振
幅を再生周波数特性概形とする。
[0009] In the decoder 20, the index In 2 of the quantized and flattened frequency domain coefficient is reproduced by the reproducing unit 2.
Decryption reproduction is performed with 1. The reproducing unit 22 decodes the quantized index In 1 of the approximate frequency characteristic and reproduces the approximate reproduced frequency characteristic. When the line spectrum pair is quantized, the reproduction line spectrum pair obtained by decoding is converted into a reproduction linear prediction coefficient, and the reciprocal of the spectrum amplitude of the reproduction linear prediction coefficient is used as a reproduction frequency characteristic outline. When the scale factor is quantized, the decoded reproduction scale factor is used as a reproduction frequency characteristic. When the cepstrum coefficients are quantized, the spectrum amplitude of the decoded reproduced cepstrum coefficients is used as an approximate reproduction frequency characteristic.

【0010】なお、予測量子化を行った場合、同じ予測
合成を用いて再生を行う。複数方法の量子化を行った場
合、すべての方法について再生を行い、たとえば各々で
再生した概形を互いに掛け合わせるなどの方法により再
生周波数特性概形を得る。再生された平坦化周波数領域
係数を、再生周波数特性概形を用いて逆平坦化部23で
逆平坦化する。ここでは、各々の再生された平坦化周波
数領域係数と、これに対応する再生周波数特性概形を掛
け合わせることによって逆平坦化が行われ、再生周波数
領域係数が得られる。
When prediction quantization is performed, reproduction is performed using the same prediction synthesis. When quantization is performed by a plurality of methods, reproduction is performed for all methods, and a reproduction frequency characteristic profile is obtained by, for example, multiplying the reproduced profiles by each other. The reproduced flattened frequency domain coefficient is inverse-flattened by the inverse flattening unit 23 using an outline of the reproduced frequency characteristic. Here, inverse flattening is performed by multiplying each reproduced flattened frequency domain coefficient by the corresponding reproduction frequency characteristic outline to obtain a reproduced frequency domain coefficient.

【0011】周波数−時間変換部24によって再生周波
数領域係数を出力音響信号に変換出力する。変換の方法
としては、IMDCT(Inverse Modified Discrete Co
sineTransformation, 逆変形離散コサイン変換)や、I
DCT(Inverse DiscreteCosine Transformation,逆
離散コサイン変換)、IDFT(Inverse DiscreteFou
rier Transformation,逆離散フーリエ変換)などを用
いることができる。なお、周波数−時間変換部では、後
処理として、出力信号サンプル列の窓掛けとフレーム結
合が必要である。窓掛けは従来の手法と同様に行う。
The reproduction frequency domain coefficient is converted into an output audio signal by a frequency-time conversion unit 24 and output. As a conversion method, IMDCT (Inverse Modified Discrete Co
sineTransformation, inverse transformed discrete cosine transform) and I
DCT (Inverse Discrete Cosine Transformation), IDFT (Inverse Discrete Fosine)
rier Transformation, inverse discrete Fourier transform) and the like can be used. In the frequency-time conversion unit, windowing of an output signal sample sequence and frame combination are necessary as post-processing. Windowing is performed in the same manner as in the conventional method.

【0012】更に符号化音声の雑音感を低減するために
スペクトルの山谷を強調するポストフィルタ25に変換
部24よりの復号化音声信号を入力することが知られて
いる。このポストフィルタ25の典型としては線形予測
係数αに基づく以下の形式がある。
It is known that the decoded speech signal from the converter 24 is input to a post-filter 25 for enhancing the peaks and valleys of the spectrum in order to reduce the noise of the encoded speech. A typical example of the post filter 25 is as follows based on the linear prediction coefficient α.

【0013】[0013]

【数1】 ここでμはスペクトルの傾斜を補正する定数で例えば0.
4,γ1 ,γ2 はスペクトルの山を強調するための1以
下の正定数で例えばそれぞれ0.5と0.8である。この手
法は畳み込みの処理を必要とするため大きな演算量を必
要とする。また詳細なスペクトル強調処理を行うために
は線形予測の次数を高くする必要があり、演算量と演算
精度の点からも問題がある。
(Equation 1) Here, μ is a constant for correcting the slope of the spectrum, for example, 0.
4, γ 1 and γ 2 are positive constants of 1 or less for emphasizing the peak of the spectrum, for example, 0.5 and 0.8, respectively. This method requires a large amount of calculation because it requires convolution processing. In addition, in order to perform detailed spectrum enhancement processing, it is necessary to increase the order of linear prediction, and there is a problem in terms of the amount of calculation and the calculation accuracy.

【0014】[0014]

【発明が解決しようとする課題】この発明の目的は、オ
ーディオ信号、特に符号化・復号化された音声信号に含
まれる雑音感を低減させる信号処理方法を小さな演算量
で詳細に実現することを目的とする。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a signal processing method for reducing noise contained in an audio signal, particularly an encoded / decoded audio signal, with a small amount of computation. Aim.

【0015】[0015]

【課題を解決するための手段】この発明では、入力信号
の周波数特性の概形が取り除かれた周波数領域係数と、
そのスペクトルの包絡を求め、そのスペクトル包絡形状
を強調し、その強調されたスペクトル包絡により周波数
領域係数を逆平坦化する。特にスペクトル包絡形状を求
める際バーク尺度(聴覚上で周波数分解能が同一とな
る)の周波数軸で等分解能をもたせるとより高い能率で
処理を行うことができる。
According to the present invention, a frequency domain coefficient from which an outline of a frequency characteristic of an input signal is removed,
The spectrum envelope is obtained, the spectrum envelope shape is enhanced, and the frequency domain coefficient is inverse-flattened by the enhanced spectrum envelope. In particular, when obtaining the spectrum envelope shape, if the equal resolution is provided on the frequency axis of the Bark scale (the frequency resolution becomes the same in hearing), processing can be performed with higher efficiency.

【0016】雑音感の多い音響信号は、スペクトルの大
小を強調することにより雑音感を低減することができ
る。この発明ではこの処理を周波数領域で行うので、少
ない演算量で詳細な処理が可能である。この発明を変換
符号化方式の復号器に組み込む場合には、この発明の処
理過程の一つである周波数−時間変換処理を共有できる
ので演算量の点で特に有利である。
A noise signal having a large amount of noise can be reduced by emphasizing the magnitude of the spectrum. According to the present invention, since this processing is performed in the frequency domain, detailed processing can be performed with a small amount of calculation. When the present invention is incorporated in a decoder of the transform coding system, the frequency-time conversion process, which is one of the processes of the present invention, can be shared, which is particularly advantageous in terms of the amount of calculation.

【0017】[0017]

【発明の実施の形態】図1にこの発明の第1実施例を示
す。この実施例では平坦化された周波数領域係数とスペ
クトル包絡とが端子51,52にそれぞれ入力され、端
子53から時間領域信号を出力とする。平坦化周波数領
域係数は、例えば図3中の符号化器10で説明したよう
に入力音響信号を時間−周波数変換した後、スペクトル
包絡を用いて平坦化することによって求めてもよいし、
図3中の復号化器20に示したように変換符号化方法の
復号器において、残差再生部21より再生された平坦化
周波数領域係数を用いてもよい。時間−周波数変換は、
先に述べたように離散フーリエ変換(Discrete Fourier
Transformation,DCT),離散コサイン変換(Discre
te Cosine Transformation, DCT),変形離散コサイ
ン変換(Modified Discrete Cosine Transformation,M
DCT)などを用いることができる。これらの変換は、
入力Nサンプルごとに行う。Nの値は例えば入力信号の
サンプリング周波数が48kHz の場合512ないし40
96程度が良好である。
FIG. 1 shows a first embodiment of the present invention. In this embodiment, the flattened frequency domain coefficients and the spectral envelope are input to terminals 51 and 52, respectively, and a time domain signal is output from terminal 53. The flattened frequency domain coefficient may be obtained by, for example, performing time-frequency conversion on the input audio signal as described in the encoder 10 in FIG. 3 and then flattening using a spectral envelope,
As shown by the decoder 20 in FIG. 3, in the decoder of the transform coding method, the flattened frequency domain coefficients reproduced by the residual reproducing unit 21 may be used. The time-frequency conversion is
As mentioned earlier, the Discrete Fourier Transform
Transformation, DCT, Discrete Cosine Transform (Discre
te Cosine Transformation, DCT, Modified Discrete Cosine Transformation, M
DCT) can be used. These transformations are
Performed every N input samples. The value of N is, for example, 512 to 40 when the sampling frequency of the input signal is 48 kHz.
About 96 is good.

【0018】スペクトル包絡は変換符号化方法の復号器
において、図3の周波数特性概形再生部22により再生
されたスペクトル包絡を用いてもよいし、入力音響信号
を時間−周波数変換して周波数領域係数を求め、その周
波数領域係数の概形を求めてもよい。スペクトル包絡の
表現方法として先に述べたように、スケールファクタ、
線形予測スペクトルなどを用いることができる。スケー
ルファクタは、周波数領域係数を複数の周波数バンドご
とにまとめた各バンドごとの代表値である。代表値はバ
ント内の係数の振幅の最大値でもよいし平均値でもよ
い。また各周波数のバンド幅は、線形スケール(Hzスケ
ール)で一定幅でもよいし、非線形スケール(例えばバ
ークスケール)で一定幅としてもよい。特にバークスケ
ールで一定幅とした場合には、聴感的に高能率な処理が
可能である。線形予測スペクトルは、線形予測係数を周
波数分析し、その逆数を求めることにより与えられる。
線形予測係数は入力音響信号を線形予測分析して求めて
もよいし、符号化方法の復号器において、再生された線
形予測係数を用いてもよい。 端子52に入力されたス
ペクトル包絡はスペクトル包絡強調部54で強調処理が
なされる。この強調処理では、値が大きいときには更に
大きく、値が小さいときには更に小さくすることを行
う。例えば式(2)のような変形を行う。
For the spectral envelope, the decoder of the transform coding method may use the spectral envelope reproduced by the frequency characteristic outline reproducing unit 22 in FIG. The coefficient may be determined, and the approximate shape of the frequency domain coefficient may be determined. As described above, the scale factor,
A linear prediction spectrum or the like can be used. The scale factor is a representative value for each band in which frequency domain coefficients are grouped for each of a plurality of frequency bands. The representative value may be the maximum value or the average value of the amplitudes of the coefficients in the band. The bandwidth of each frequency may be a fixed width on a linear scale (Hz scale) or a fixed width on a non-linear scale (for example, a Bark scale). In particular, when the width is set to be constant on the bark scale, highly efficient processing can be performed audibly. The linear prediction spectrum is given by frequency-analyzing the linear prediction coefficient and calculating its reciprocal.
The linear prediction coefficient may be obtained by performing a linear prediction analysis on the input audio signal, or a reproduced linear prediction coefficient may be used in a decoder of the encoding method. The spectrum envelope input to the terminal 52 is subjected to enhancement processing by a spectrum envelope enhancement unit 54. In this emphasis processing, the value is further increased when the value is large, and further decreased when the value is small. For example, a modification as shown in Expression (2) is performed.

【0019】 w(i)′=w0 (w(i)/w0 q (2) ここで、w(i)′は変形後のスペクトル包絡、w
(i)は入力スペクトル包絡、w0 は変形の基準値、q
は1以上の定数、例えば2〜4,iはスペクトル包絡の
サンプル番号である。基準値w0 は任意に選ぶことがで
きるが、スペクトル包絡の平均値とすると効果的であ
る。また、式(2)の変形を一律に行うのではなく、基
準値w0 よりもスペクトル包絡の値wが小さいときのみ
変形を行ってもよい。
W (i) ′ = w 0 (w (i) / w 0 ) q (2) where w (i) ′ is the spectral envelope after deformation, w
(I) is the input spectrum envelope, w 0 is the reference value of the deformation, q
Is a constant of 1 or more, for example, 2 to 4, i is a sample number of the spectral envelope. The reference value w 0 can be arbitrarily selected, but it is effective to set the average value of the spectral envelope. Also, instead of performing the transformation of Equation (2) uniformly, the transformation may be performed only when the value w of the spectral envelope is smaller than the reference value w 0 .

【0020】次に、端子51に入力された平坦化周波数
領域係数を強調されたスペクトル包絡を用いて逆平坦化
部55で逆平坦化する。この際、強調されたスペクトル
包絡のサンプル点数は平坦化周波数領域係数のサンプル
点数と一致している必要がある。一致していない場合に
は、補間・間引きなどの処理によりサンプル点数を一致
させる。逆平坦化は次式(3)に従って行う。
Next, the flattening frequency domain coefficient input to the terminal 51 is inverse flattened by the inverse flattening unit 55 using the emphasized spectrum envelope. At this time, the number of sample points of the emphasized spectrum envelope needs to match the number of sample points of the flattened frequency domain coefficient. If they do not match, the number of sample points is matched by processing such as interpolation and thinning. The inverse flattening is performed according to the following equation (3).

【0021】 y(j)=w(j)′x(j) (3) ただし、yは逆平坦化して得られた周波数領域係数、x
は平坦化周波数領域係数、jはサンプル番号である。最
後に、逆平坦化して得られた周波数領域係数を変換部5
6で周波数−時間変換して音響信号出力を得る。周波数
−時間変換の方法として、逆離散フーリエ変換(Invers
e Discrete Fourier Transformation,IDFT),逆離
散コサンイン変換(Inverse Discrete Cosine Transfo
rmation,IDCT),逆変形離散コサンイン変換(Inve
rse Modified Discrete Cosine Transformation,IMD
CT)などを用いることができる。
Y (j) = w (j) ′ x (j) (3) where y is a frequency domain coefficient obtained by inverse flattening, x
Is a flattening frequency domain coefficient, and j is a sample number. Finally, the frequency domain coefficients obtained by inverse flattening are
At 6, the frequency-time conversion is performed to obtain an audio signal output. As a method of frequency-time conversion, an inverse discrete Fourier transform (Invers
e Discrete Fourier Transformation (IDFT), Inverse Discrete Cosine Transfo
rmation, IDCT), inverse transformed discrete Kosan-in transform (Inve
rse Modified Discrete Cosine Transformation, IMD
CT) can be used.

【0022】図2にこの発明の第2実施例を示す。スペ
クトル包絡強調、逆平坦化の手法は図1に示した第1実
施例と同様である。第1実施例との違いは、複数のスペ
クトル包絡を用い、別々に強調処理を行うことである。
端子61よりの微細スペクトル包絡は端子62よりの大
局的スペクトル包絡よりもより細かい。例えばそれぞれ
バークスケール上で等間隔に分割したスケールファクタ
と線形予測スペクトルなどを用いる。どちらのスペクト
ル包絡も第1実施例で述べた種類のスペクトル包絡を用
いることができる。また微細スペクトル包絡として、ピ
ッチ包絡を用いてもよい。ピッチ包絡は、基本周波数の
整数倍ごとに鋭いピークを持つ包絡であり、入力音響信
号を分析して求めてもよいし、符号化方法の復号器にお
いて、再生されたピッチ包絡を用いたり、あるいは再生
されたピッチ情報からピッチ包絡を用いてもよい。
FIG. 2 shows a second embodiment of the present invention. The methods of spectral envelope enhancement and inverse flattening are the same as in the first embodiment shown in FIG. The difference from the first embodiment is that a plurality of spectral envelopes are used and enhancement processing is performed separately.
The fine spectral envelope from terminal 61 is finer than the global spectral envelope from terminal 62. For example, a scale factor and a linear prediction spectrum that are respectively divided at equal intervals on a bark scale are used. For both spectral envelopes, a spectral envelope of the type described in the first embodiment can be used. Further, a pitch envelope may be used as the fine spectrum envelope. The pitch envelope is an envelope having a sharp peak for every integral multiple of the fundamental frequency, and may be obtained by analyzing the input audio signal, or in a decoder of the encoding method, using a reproduced pitch envelope, or A pitch envelope may be used from the reproduced pitch information.

【0023】大局的スペクトル包絡はスペクトル包絡強
調部63で第1実施例と同様に強調処理が行われ、また
微細スペクトル包絡もスペクトル包絡強調部64で同様
に強調処理が行われる。端子51よりの平坦化周波数領
域係数は逆平坦化部65でスペクトル包絡強調部63よ
りの強調処理された大局的スペクトル包絡により逆平坦
化処理がなされ、この逆平坦化された周波数領域係数
は、逆平坦化部66でスペクトル包絡強調部64で強調
処理された微細スペクトル包絡により平坦化処理され、
その平坦化処理された周波数領域係数が変換部56で周
波数−時間変換がなされて出力される。
The global spectrum envelope is enhanced by the spectrum envelope enhancing section 63 in the same manner as in the first embodiment, and the fine spectrum envelope is also enhanced by the spectrum envelope enhancing section 64 in the same manner. The flattened frequency domain coefficient from the terminal 51 is subjected to inverse flattening by the global spectrum envelope enhanced by the spectrum envelope enhancing section 63 in the inverse flattening section 65, and the inverse flattened frequency domain coefficient is The flattening process is performed by the fine spectrum envelope emphasized by the spectrum envelope emphasizing unit 64 by the inverse flattening unit 66,
The frequency domain coefficients subjected to the flattening process are subjected to frequency-time conversion by the conversion unit 56 and output.

【0024】なお、スペクトル包絡強調−逆平坦化の組
み合わせは第2実施例のように2つに限定する必要はな
く、更に多い組み合わせを用意してもよい。
The combination of the spectral envelope enhancement and the inverse flattening need not be limited to two as in the second embodiment, and more combinations may be prepared.

【0025】[0025]

【発明の効果】以上述べたように、この発明によれば周
波数領域で音響信号のスペクトル包絡の強調処理を行
い、スペクトル包絡の強弱を強調することにより、スペ
クトルの谷間に歪みがあるために聞こえる雑音感を低減
することができる。この処理を時間領域でなく周波数領
域で行うことにより、時間領域で必要だった畳み込み演
算を行う必要がなく、詳細な処理でも小さな演算量で行
うことができる。また、この発明を変換符号化方法の復
号器と組み合わせる場合、例えば図3中の逆平坦化部2
3を、この発明の逆平坦化部53または65と共有する
ことができ、また周波数−時間変換部56を図3中の周
波数−時間変換部24と共有でき、演算量とメモリ規模
の点で特に有利である。
As described above, according to the present invention, the spectrum envelope of the audio signal is enhanced in the frequency domain to enhance the strength of the spectrum envelope, so that there is distortion in the valleys of the spectrum. Noise can be reduced. By performing this processing not in the time domain but in the frequency domain, it is not necessary to perform the convolution operation required in the time domain, and it is possible to perform detailed processing with a small amount of calculation. When the present invention is combined with a decoder of the transform coding method, for example, the inverse flattening unit 2 in FIG.
3 can be shared with the inverse flattening unit 53 or 65 of the present invention, and the frequency-time conversion unit 56 can be shared with the frequency-time conversion unit 24 in FIG. It is particularly advantageous.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の第1実施例の機能構成を示すブロッ
ク図。
FIG. 1 is a block diagram showing a functional configuration of a first embodiment of the present invention.

【図2】この発明の第2実施例の機能構成を示すブロッ
ク図。
FIG. 2 is a block diagram showing a functional configuration of a second embodiment of the present invention.

【図3】従来の音響信号変換符号化・復号化方法におけ
る機能構成例を示すブロック図。
FIG. 3 is a block diagram showing an example of a functional configuration in a conventional audio signal conversion encoding / decoding method.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 神 明夫 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 ────────────────────────────────────────────────── ─── Continuing from the front page (72) Inventor Akio Kami 3-19-2 Nishishinjuku, Shinjuku-ku, Tokyo Nippon Telegraph and Telephone Corporation

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 フレーム単位に、音響信号の周波数特性
の概形が取り除かれた周波数領域係数を得る第1の段階
と、 上記周波数特性の概形を得る第2の段階と、 上記周波数特性の概形の形状を強調する第3の段階と、 上記第3の段階で得られた強調された周波数特性の概形
を用いて第1の段階で得られた周波数領域係数に周波数
特性を付加して逆平坦化する第4の段階と、を有するこ
とを特徴とする音響信号処理方法。
1. A first step of obtaining a frequency domain coefficient from which an outline of a frequency characteristic of an acoustic signal is removed in a frame unit; a second step of obtaining an outline of the frequency characteristic; Adding a frequency characteristic to the frequency domain coefficient obtained in the first step by using a third step of enhancing the outline shape, and using the outline of the emphasized frequency characteristic obtained in the third step. And a fourth step of performing inverse flattening.
【請求項2】 上記第2の段階は、周波数特性の概形と
して、バークスケール上で等間隔の周波数分解能を持つ
スケールファクタを含むことを特徴とする請求項1記載
の音響信号処理方法。
2. The acoustic signal processing method according to claim 1, wherein the second step includes, as an outline of the frequency characteristic, a scale factor having a frequency resolution of equal intervals on a bark scale.
【請求項3】 上記第3の段階は、周波数特性の概形の
各サンプルの値が大きいサンプルは更に値を大きくする
第5の段階を含むことを特徴とする請求項1または2記
載の音響信号処理方法。
3. The sound according to claim 1, wherein the third step includes a fifth step in which a sample having a large value of each sample of the approximate shape of the frequency characteristic further increases the value. Signal processing method.
【請求項4】 上記第3の段階は、周波数特性の概形の
各サンプルの値が小さいサンプルは更に値を小さくする
第6の段階を含むことを特徴とする請求項1または2記
載の音響信号処理方法。
4. The sound according to claim 1, wherein the third step includes a sixth step in which a sample having a small value of each sample of the approximate shape of the frequency characteristic further reduces the value. Signal processing method.
JP23379996A 1996-09-04 1996-09-04 Sound signal processing method Expired - Lifetime JP3384523B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23379996A JP3384523B2 (en) 1996-09-04 1996-09-04 Sound signal processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23379996A JP3384523B2 (en) 1996-09-04 1996-09-04 Sound signal processing method

Publications (2)

Publication Number Publication Date
JPH1078797A true JPH1078797A (en) 1998-03-24
JP3384523B2 JP3384523B2 (en) 2003-03-10

Family

ID=16960767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23379996A Expired - Lifetime JP3384523B2 (en) 1996-09-04 1996-09-04 Sound signal processing method

Country Status (1)

Country Link
JP (1) JP3384523B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007100137A1 (en) * 2006-03-03 2007-09-07 Nippon Telegraph And Telephone Corporation Reverberation removal device, reverberation removal method, reverberation removal program, and recording medium
JP2009530685A (en) * 2006-03-20 2009-08-27 マインドスピード・テクノロジーズ・インコーポレイテッド Speech post-processing using MDCT coefficients
JP4954069B2 (en) * 2005-06-17 2012-06-13 パナソニック株式会社 Post filter, decoding device, and post filter processing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4954069B2 (en) * 2005-06-17 2012-06-13 パナソニック株式会社 Post filter, decoding device, and post filter processing method
US8315863B2 (en) 2005-06-17 2012-11-20 Panasonic Corporation Post filter, decoder, and post filtering method
WO2007100137A1 (en) * 2006-03-03 2007-09-07 Nippon Telegraph And Telephone Corporation Reverberation removal device, reverberation removal method, reverberation removal program, and recording medium
US8271277B2 (en) 2006-03-03 2012-09-18 Nippon Telegraph And Telephone Corporation Dereverberation apparatus, dereverberation method, dereverberation program, and recording medium
JP2009530685A (en) * 2006-03-20 2009-08-27 マインドスピード・テクノロジーズ・インコーポレイテッド Speech post-processing using MDCT coefficients

Also Published As

Publication number Publication date
JP3384523B2 (en) 2003-03-10

Similar Documents

Publication Publication Date Title
EP1953738B1 (en) Time warped modified transform coding of audio signals
CN1838238B (en) Apparatus for enhancing audio source decoder
RU2596584C2 (en) Coding of generalised audio signals at low bit rates and low delay
JP3483958B2 (en) Broadband audio restoration apparatus, wideband audio restoration method, audio transmission system, and audio transmission method
EP0698876A2 (en) Method of decoding encoded speech signals
US6678655B2 (en) Method and system for low bit rate speech coding with speech recognition features and pitch providing reconstruction of the spectral envelope
JPH1020898A (en) Method and device for compressing audio signal
US6593872B2 (en) Signal processing apparatus and method, signal coding apparatus and method, and signal decoding apparatus and method
JP7073491B2 (en) Devices and methods for encoding and decoding audio signals using downsampling or interpolation of scale parameters
JPH06332496A (en) Device and method for voice coding, decoding and post processing
US6052658A (en) Method of amplitude coding for low bit rate sinusoidal transform vocoder
WO2009125588A1 (en) Encoding device and encoding method
JPH07261800A (en) Transformation encoding method, decoding method
JPH11177434A (en) Voice code decoding system
JP3087814B2 (en) Acoustic signal conversion encoding device and decoding device
JP4359949B2 (en) Signal encoding apparatus and method, and signal decoding apparatus and method
JP3353266B2 (en) Audio signal conversion coding method
JP4281131B2 (en) Signal encoding apparatus and method, and signal decoding apparatus and method
JP3353267B2 (en) Audio signal conversion encoding method and decoding method
JP3384523B2 (en) Sound signal processing method
JP3348759B2 (en) Transform coding method and transform decoding method
JP4618823B2 (en) Signal encoding apparatus and method
JP2000259190A (en) Method for compressing and decoding audio signal, and audio signal compressing device
JP4721355B2 (en) Coding rule conversion method and apparatus for coded data
JP3186013B2 (en) Acoustic signal conversion encoding method and decoding method thereof

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071227

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081227

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091227

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101227

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101227

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111227

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111227

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121227

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121227

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131227

Year of fee payment: 11

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term