JPH09106299A - Coding and decoding methods in acoustic signal conversion - Google Patents

Coding and decoding methods in acoustic signal conversion

Info

Publication number
JPH09106299A
JPH09106299A JP7261236A JP26123695A JPH09106299A JP H09106299 A JPH09106299 A JP H09106299A JP 7261236 A JP7261236 A JP 7261236A JP 26123695 A JP26123695 A JP 26123695A JP H09106299 A JPH09106299 A JP H09106299A
Authority
JP
Japan
Prior art keywords
coefficient
decoding
frequency domain
coefficients
acoustic signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7261236A
Other languages
Japanese (ja)
Other versions
JP3353868B2 (en
Inventor
Naoki Iwagami
直樹 岩上
Takehiro Moriya
健弘 守谷
Satoshi Miki
聡 三樹
Kazunaga Ikeda
和永 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP26123695A priority Critical patent/JP3353868B2/en
Publication of JPH09106299A publication Critical patent/JPH09106299A/en
Application granted granted Critical
Publication of JP3353868B2 publication Critical patent/JP3353868B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To obtain a high quantization efficiency. SOLUTION: Input signals are converted into frequency domain coefficients. Prescribed number of coefficients having large values are extracted from the frequency domain coefficients. The extracted coefficient numbers are coded by a coding means 14 and outputted as a sample order index IS. The values of the extracted coefficients are also coded by a coding means 15 and outputted as a sample value index IR. The index IR is decoded by a decoding means 22 in a decoder 21 and frequency domain coefficients are obtained. The inputted index IS is decoded by a decoding means 25 and coefficient numbers are obtained. Then, the decoded coefficients are arranged in the positions of decoded coefficient numbers in the order of larger ones by a means 22. A means 26 reconstructs the frequency domain coefficients and converts them into time domain signals.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明はオーディオ信号、
特に音楽信号や音声信号などの音響信号を、周波数領域
係数に変換し、その周波数領域係数をできるだけ少ない
情報量でディジタル符号化する符号化方法、およびその
符号化音響信号を復号化する復号化方法に関する。
The present invention relates to an audio signal,
In particular, a coding method for converting an acoustic signal such as a music signal or a voice signal into a frequency domain coefficient, and digitally coding the frequency domain coefficient with the least amount of information, and a decoding method for decoding the coded acoustic signal. Regarding

【0002】[0002]

【従来の技術】現在、オーディオ信号を高能率に符号化
する方法として、原音をフレームと呼ばれる5〜50m
s 程度の一定間隔の区間に分割し、その1フレームの信
号に時間−周波数変換(フーリエ変換)を行って得た周
波数領域係数(周波数軸上のそれぞれの点におけるサン
プル値)を、その周波数特性の包絡形状(スペクトラム
概形)と、周波数領域係数をスペクトラム概形で平坦化
して得られる残差係数との2つの情報に分離し、それぞ
れを符号化することが提案されている。このような符号
化法として、適応スペクトラム聴感制御エントロピー符
号化法(ASPEC :Adaptive Spectral Perceptual Entrop
y Coding)や、重み付きベクトル量子化による変換符号
化法(TCWVQ : Transform Coding with Weighted Vecto
r Quantization) 、エムペグーオーディオ・レイヤ3方
式(MPEG-Audio Layer lll) などがある。それぞれの技
術については、K.Brandenburg, J.Herre, J.D.Johnston
etal : "ASPEC : Adaptive spectral entropy coding
of high quality music signals", Proc. AES '91 およ
びT.Moriya, H.Suda :"An 8 Kbit/s transform coderfo
r noisychannels," Proc.ICASSP '89, pp196-199および
ISO/IEC 標準IS-11172-3に述べられている。
2. Description of the Related Art At present, as a method of encoding an audio signal with high efficiency, an original sound is called a frame by 5 to 50 m.
Frequency domain coefficients (sample values at each point on the frequency axis) obtained by performing time-frequency transformation (Fourier transformation) on the signal of one frame by dividing it into sections with a fixed interval of about s are the frequency characteristics. It has been proposed that the envelope shape (spectrum outline) and the residual coefficient obtained by flattening the frequency domain coefficient by the spectrum outline be separated into two pieces of information, and that each be encoded. As such a coding method, an adaptive spectrum perceptual control entropy coding method (ASPEC: Adaptive Spectral Perceptual Entropy
y Coding) and transform coding with weighted vector quantization (TCWVQ: Transform Coding with Weighted Vecto
r Quantization), and Mpeg Audio Layer 3 method (MPEG-Audio Layer lll). About each technology, K. Brandenburg, J. Herre, JD Johnston
et al: "ASPEC: Adaptive spectral entropy coding
of high quality music signals ", Proc. AES '91 and T. Moriya, H. Suda:" An 8 Kbit / s transform coderfo
r noisychannels, "Proc.ICASSP '89, pp196-199 and
Described in ISO / IEC standard IS-11172-3.

【0003】これらの符号化法では、高能率な符号化を
実現するためには、残差係数はできるだけ周波数特性が
平坦であることが望ましい。このため、上述のASPEC や
MPEG-Audio Layer lllでは、周波数領域係数をいくつか
の小帯域に分割し、小帯域内の信号を、帯域の強さを表
すスケーリングファクタと呼ばれる値で割ることによっ
て正規化する事によって周波数特性の平坦化をはかる。
すなわち、図3に示すように入力端子11から入力され
たディジタル化された音響入力信号は時間−周波数変換
部(変形離散コサイン変換:MDCT)2により周波数
領域係数に変換され、この周波数領域係数は帯域分割部
3により複数の小帯域に分割され、これら小帯域信号は
それぞれ代表値計算・量子化部41 〜4n でその平均値
または最大値などの帯域の強さを表す代表値(スケーリ
ングファクタ)が計算され、かつそのスケーリングファ
クタは量子化されて、全体として周波数領域係数の概形
が得られる。前記分割された各小帯域信号は正規化部5
1 〜5n でそれぞれ対応する帯域の前記量子化されたス
ケーリングファクタで正規化され帯域残差係数とされ、
これら正規化によって得られた帯域残差係数は量子化部
6で帯域合成されスペクトラム残差を得る。その結果、
時間−周波数変換部2により得られた前記周波数領域係
数はその周波数特性の概形が取り除かれ、平坦化された
残差係数となりその残差係数は量子化される。この残差
係数の量子化を示すインデックスIRと、前記各代表値
を量子化したインデックスとがそれぞれ復号器へ送出さ
れる。
In these coding methods, in order to realize highly efficient coding, it is desirable that the residual coefficient have as flat a frequency characteristic as possible. Therefore, the ASPEC and
In the MPEG-Audio Layer lll, the frequency domain coefficient is divided into several small bands, and the signals in the small bands are normalized by dividing by a value called a scaling factor that represents the strength of the band. Plan for flattening.
That is, as shown in FIG. 3, the digitized acoustic input signal input from the input terminal 11 is converted into a frequency domain coefficient by the time-frequency conversion unit (modified discrete cosine transform: MDCT) 2, and this frequency domain coefficient is is divided into a plurality of small bands by the band division unit 3, a representative value representing the intensity of the band, such as those subbands signals the average or maximum value at 4 1 to 4 n, respectively representative value calculation and quantization unit (scaling Factor) is calculated and the scaling factor is quantized to obtain an overall shape of the frequency domain coefficients. Each of the divided small band signals is normalized by the normalization unit 5
1 to 5 n, which are normalized with the quantized scaling factors of the corresponding bands, to obtain band residual coefficients,
The band residual coefficients obtained by these normalizations are band-combined by the quantizer 6 to obtain a spectrum residual. as a result,
The frequency domain coefficient obtained by the time-frequency conversion unit 2 is subjected to removal of the outline of its frequency characteristic to become a flattened residual coefficient, and the residual coefficient is quantized. And index I R indicating the quantization of the residual coefficients, wherein the index of each representative values quantized is sent to each decoder.

【0004】この方法よりも高能率な周波数領域係数の
平坦化方法として、線形予測分析を用いる方法がある。
周知のように、線形予測係数は入力信号の周波数特性を
平坦化するように動作する線形予測フィルタ(逆フィル
タと呼ばれている)のインパルス応答を表している。こ
の方法では、図4に示すように端子11に与えられたデ
ィジタル音響信号を線形予測分析・予測係数量子化部7
で線形予測し、得られた線形予測係数を線形予測分析フ
ィルタ、いわゆる逆フィルタ8にフィルタ係数として設
定し、この線形予測分析フィルタ8を端子11からの入
力信号で駆動することによって周波数特性の平坦化され
た残差信号を得る。この残差信号を時間−周波数変換部
(離散コサイン変換:DCT)2で周波数領域の信号、
すなわち残差係数に変換し、残差量子化部6で量子化
し、その量子化を表すインデックスIR と線形予測係数
を量子化したインデックスIP とを復号器へ送出する。
この方法は、TCWVQで用いられている。
As a method of flattening the frequency domain coefficient that is more efficient than this method, there is a method using linear prediction analysis.
As is well known, the linear prediction coefficient represents the impulse response of a linear prediction filter (called an inverse filter) that operates to flatten the frequency characteristic of the input signal. In this method, as shown in FIG. 4, the linear prediction analysis / prediction coefficient quantization unit 7 processes the digital acoustic signal given to the terminal 11
The linear prediction coefficient is flattened by setting the obtained linear prediction coefficient as a filter coefficient in a linear prediction analysis filter, a so-called inverse filter 8, and driving the linear prediction analysis filter 8 with an input signal from the terminal 11. Obtain a quantized residual signal. This residual signal is converted into a frequency domain signal by a time-frequency conversion unit (discrete cosine transform: DCT) 2,
That is, the residual coefficient is converted and quantized by the residual quantization unit 6, and the index I R representing the quantization and the index I P obtained by quantizing the linear prediction coefficient are sent to the decoder.
This method is used in TCWVQ.

【0005】[0005]

【発明が解決しようとする課題】周波数領域に変換され
た全サンプルのうち、聴覚的に重要性の高いサンプルは
一部であり、重要性の低いサンプルは再生しなくても音
質の劣化は小さい。そこで、聴覚的に重要性の高いサン
プルのみに符号化情報を与え、残りのサンプルは再生し
ないようにすれば高い量子化能率が得られる。しかし、
上述の従来の符号化方法では、サンプルごとの再生/非
再生の選択は行われていなかった。
Among all the samples converted into the frequency domain, some of the samples have a high auditory importance, and the samples having a low importance do not deteriorate the sound quality even if they are not reproduced. . Therefore, if the coding information is given only to the samples that are acoustically important and the remaining samples are not reproduced, a high quantization efficiency can be obtained. But,
In the above-described conventional encoding method, selection of reproduction / non-reproduction for each sample is not performed.

【0006】この発明の目的は、変換符号化の方法で信
号を少ない情報量で符号化するとき、周波数領域係数の
全サンプルのうち必要なものだけを選択して能率良く符
号化する方法およびその復号化方法を提供することにあ
る。
An object of the present invention is, when a signal is coded by a transform coding method with a small amount of information, a method of efficiently selecting by selecting only necessary samples from all samples of frequency domain coefficients, and a method thereof. It is to provide a decoding method.

【0007】[0007]

【課題を解決するための手段】この発明の符号化方法
は、時間−周波数変換して得られた周波数領域係数の全
サンプルのうち、重要度の高い部分、係数(サンプル)
を符号化する。この重要度の高い部分係数とは聴覚的に
重要な係数(サンプル)であり、聴覚的に重要なものと
しては係数値(振幅)の大きい順に所定数、更に係数値
の大きさと、係数の分布状態とを考慮する。
According to the encoding method of the present invention, of all samples of frequency domain coefficients obtained by time-frequency conversion, a high importance portion, coefficient (sample).
Is encoded. The partial coefficient having a high degree of importance is a coefficient (sample) that is acoustically important, and as a factor that is acoustically important, a predetermined number in descending order of coefficient value (amplitude), the magnitude of the coefficient value, and the coefficient distribution. Consider the state and.

【0008】部分係数の符号化は、抽出された部分係数
を値の大きい順に並べ替え、その並べ替えた順序情報
(周波数係数番号(位置))を符号化し、かつ抽出され
た部分係数の値を符号化することである。この係数値の
符号化は値の大きい順に符号化してゆき、2番目以降と
その直前の符号化係数を復号し、その復号値で正規化し
たあと符号化する。
To encode the partial coefficients, the extracted partial coefficients are rearranged in descending order of value, the rearranged order information (frequency coefficient number (position)) is encoded, and the extracted partial coefficient values are set. It is to encode. Coding of the coefficient values is performed in the order of increasing values, and the second and subsequent coding coefficients and their immediately preceding coding coefficients are decoded, normalized with the decoded values, and then coded.

【0009】この発明の復号化方法では、フレーム単位
毎に周波数領域の部分係数を復号化して周波数領域係数
を得、この周波数領域係数をフレーム単位で時間領域信
号に変換する。周波数領域係数(サンプル)を得るに
は、入力されたサンプル値インデックスより複数の周波
数係数(サンプル)を復号化し、また入力されたサンプ
ル順序インデックスより並べ替え、その係数(サンプ
ル)の番号(位置)を復号化し、この復号化係数番号
に、復号化された複数の周波数領域係数を、その大きい
順に位置させて並べ替えて周波数領域係数を得る。サン
プル値インデックスの復号化は係数値の大きいものから
順に復号化してゆき、2番目以降の復号化は、直前の復
号化結果で現在の復号化結果を逆正規化して係数値(サ
ンプル)を得る。
In the decoding method of the present invention, the partial coefficient in the frequency domain is decoded for each frame unit to obtain the frequency domain coefficient, and the frequency domain coefficient is converted into the time domain signal in the frame unit. To obtain the frequency domain coefficient (sample), multiple frequency coefficients (sample) are decoded from the input sample value index, and rearranged according to the input sample order index, and the coefficient (sample) number (position) Is decoded, and a plurality of decoded frequency domain coefficients are arranged in this decoding coefficient number in the descending order, and a frequency domain coefficient is obtained. Decoding of the sample value index is performed in order from the largest coefficient value. For the second and subsequent decoding, the current decoding result is denormalized with the previous decoding result to obtain the coefficient value (sample). .

【0010】この発明では、不要係数(サンプル)は間
引いてしまい、情報量を与えないので、情報量の割り当
てを容易にでき、不快なノイズを発生しにくい。また、
符号化する係数(サンプル)を大きい順に並べることに
より、適応的ビット割り当ての効果も得られる。
In the present invention, unnecessary coefficients (samples) are thinned out and the amount of information is not given, so that the amount of information can be easily assigned and unpleasant noise is unlikely to occur. Also,
By arranging the coefficients (samples) to be encoded in descending order, the effect of adaptive bit allocation can also be obtained.

【0011】[0011]

【発明の実施の形態】この発明の符号化方法および復号
化方法の実施例を適用した符号器および復号器の構成例
を図1に示す。時間系列である入力信号は変換手段2で
時間−周波数変換が施されて周波数領域係数が生成され
る。この変換方法としては、離散コサイン変換(Discre
te Cosine Transformation,DCT) や変形離散コサイン変
換(Modified Discrete CosineTransformation,MDCT)を
用いることができる。この周波数領域係数はサンプル抽
出手段12で、フレームごとに、重要度の高いサンプル
から順に許されたサンプル数だけ抽出される。この抽出
の方法は、係数値(振幅)の大きいものから順でもよい
し、スペクトル概形を求め、これを0.5程度の係数でべ
き乗して多少強弱を強調し、この強弱を強調したスペク
トル概形で周波数領域係数を平坦化し、その係数値(振
幅)の大きいものから順に抽出してもよい。これは聴覚
的に重要なものは必ずしも係数値の大きい順でないこと
があり、このような平坦化により、小さい係数値が相対
的に大きくされ、平坦化しないで抽出した場合には抽出
されないものが抽出されることがある。なお、スペクト
ル概形で周波数領域係数を平坦化すると、平坦になり過
ぎるので、0.5程度でべき乗したものを用いる。更に係
数値(振幅)の大きい順に抽出する場合に限らず、例え
ば係数値の分布を考慮して抽出してもよい。すなわち通
常に低域にエネルギーが集中し、係数値の大きい順のみ
では低域成分のみしか抽出されない傾向にある。しか
し、周波数領域係数の分布が低域と高域とに離れて分布
している場合は、高域の係数値が可なり小さくても、耳
に聞こえることがある。従って、そのような場合は低域
側抽出数を制限して、高域側から残りの分を抽出する。
要は聴覚的に重要な部分のサンプルを抽出する。抽出す
る数は、例えば1000サンプル中60〜200程度と
する。この数は割り当てられた符号化ビット数により異
なる。このようにして抽出サンプルはサンプル並べ替え
手段13により係数値(振幅)の大きい順に並べ替えら
れる。
FIG. 1 shows an example of the configuration of an encoder and a decoder to which an embodiment of the encoding method and the decoding method of the present invention is applied. The input signal, which is a time series, is subjected to time-frequency conversion by the conversion means 2 to generate frequency domain coefficients. As this conversion method, the discrete cosine transform (Discre
te Cosine Transformation (DCT) and Modified Discrete Cosine Transformation (MDCT). This frequency domain coefficient is extracted by the sample extracting means 12 for each frame in order from the sample having the highest importance to the permitted number of samples. This extraction method may be performed in order from the largest coefficient value (amplitude), or the spectrum outline is obtained, and this is exponentially emphasized by exponentiating this with a coefficient of about 0.5, and a spectrum with this strength emphasized. It is also possible to flatten the frequency domain coefficient in a rough form and extract the coefficient values (amplitude) in descending order. This is because those that are acoustically important may not necessarily be in the descending order of coefficient values, and such flattening makes small coefficient values relatively large, and those that are not extracted when flattened are not extracted. May be extracted. If the frequency domain coefficient is flattened in the spectrum shape, it becomes too flat. Therefore, a power of about 0.5 is used. Further, the extraction is not limited to the order of the largest coefficient value (amplitude), and the coefficient value distribution may be taken into consideration, for example. That is, energy usually concentrates in the low frequency range, and only the low frequency components tend to be extracted only in the descending order of coefficient values. However, if the distribution of the frequency domain coefficients is distributed separately in the low frequency band and the high frequency band, even if the coefficient value in the high frequency band is quite small, it may be audible. Therefore, in such a case, the number of extractions on the low frequency side is limited, and the remaining amount is extracted from the high frequency side.
The point is to extract a sample of the part that is acoustically important. The number of samples to be extracted is, for example, about 60 to 200 in 1000 samples. This number depends on the number of coded bits assigned. In this way, the extracted samples are sorted by the sample sorting means 13 in descending order of coefficient value (amplitude).

【0012】この並べ替えられたサンプルの順序情報は
サンプル順序符号手段14により符号化される。この符
号化の方法は、各サンプル番号を2進数に変換したもの
を並べ替えられた順に送出してもよく、あるいはサンプ
ル番号列をハフマン符号化して送出しても良い。ハフマ
ン符号化する場合、ハフマン符号テーブルを複数用意
し、符号化ビット数が最小になるテーブルを選択するよ
うにしても良い。
The sequence information of the rearranged samples is encoded by the sample sequence encoding means 14. In this encoding method, each sample number converted into a binary number may be transmitted in the rearranged order, or the sample number sequence may be Huffman encoded and transmitted. In the case of Huffman coding, a plurality of Huffman code tables may be prepared and the table having the smallest number of coded bits may be selected.

【0013】一方、並べ替えられたサンプル列の係数値
は符号化手段15で符号化される。この符号化方法の一
例を図2Aに示す。この方法では、係数値(振幅)の大
きいサンプルから順に符号化してゆく。まず、第1サン
プルを量子化手段161 で量子化して第1インデックス
R1を出力し、次にその第1インデックスIR1を復号化
手段171 で復号化し、この復号化値で第2サンプルを
正規化手段181 で正規化し、その正規化された値を量
子化手段162 で量子化し、第2インデックスIR2を出
力する。次にその第2インデックスIR2を復号化手段1
2 で復号化し、その復号化出力を逆正規化手段191
で符号化手段171 の復号化出力により逆正規化して第
2サンプルと対応した復号化出力を得、これにより第3
サンプルを正規化手段182 で正規化し、その正規化出
力を量子化手段163 で量子化して第3インデックスI
R3を出力する。第3インデックスIR3を復号化手段17
3で復号化し、その復号化出力を逆正規化手段192
逆正規化手段191 の出力により逆正規化し、その逆正
規化出力で第4サンプルを正規化した後量子化する。以
下同様の処理を全サンプルを量子化するまで繰り返す。
また、複数のサンプル値をまとめてベクトル量子化して
もよい。ベクトル量子化は、1フレーム分のサンプル値
を一括して行っても良い、1フレーム分のサンプル値列
をサブベクトルに分割して行っても良い。
On the other hand, the coefficient values of the rearranged sample sequence are encoded by the encoding means 15. An example of this encoding method is shown in FIG. 2A. In this method, coding is performed in order from the sample with the largest coefficient value (amplitude). First, the first sample is quantized by the quantizing means 16 1 to output the first index I R1 , then the first index I R1 is decoded by the decoding means 17 1 , and the second sample is obtained with this decoded value. Is normalized by the normalizing means 18 1 , and the normalized value is quantized by the quantizing means 16 2 to output the second index I R2 . Next, the second index I R2 is decrypted by the decoding means 1
Decode by 7 2 and the decrypted output is inverse normalization means 19 1
Then, the decoding output of the encoding means 17 1 is denormalized to obtain the decoding output corresponding to the second sample, and the third output is obtained.
The sample is normalized by the normalizing means 18 2 and the normalized output is quantized by the quantizing means 16 3 to obtain the third index I.
Output R3 . Decoding means 17 for the third index I R3
Decoding is performed at 3 , the decoded output is denormalized by the denormalization means 19 2 by the output of the denormalization means 19 1 , and the fourth sample is normalized by the denormalized output and then quantized. The same process is repeated until all the samples are quantized.
Also, a plurality of sample values may be collectively vector-quantized. The vector quantization may be performed collectively on the sample values for one frame, or may be performed by dividing the sample value sequence for one frame into subvectors.

【0014】サンプル順序符号化手段14よりのサンプ
ル順序インデックスIs とサンプル値符号化手段15よ
りのサンプル値インデックスIR とが符号器20より符
号化結果として出力される。復号器21においては入力
されたサンプル値インデックスIR をサンプル値復号化
手段22で復号化されてサンプル値が生成される。図2
Aに示した符号化と対応する復号化方法の一例を図2B
に示す。この方法では、大きいサンプルから順に復号化
してゆく。まず、第1インデックスIR1を復号化手段2
1 で復号化して第1サンプルを得る。次に、第2イン
デックスIR2を復号化手段232 で復号化し、その復号
化出力を復号化された第1サンプルで逆正規化手段24
1 により逆正規化を行い、第2サンプルを得る。この要
領で順次復号化してゆく。符号化側でベクトル量子化を
行った場合には、インデックスIR はベクトル量子化の
復号を行い、サンプル値列を再構成する。サブベクトル
に分割してからベクトル量子化をした場合には、復号ベ
クトルの各係数値(サンプル値)を分割時のルールに従
って順序を並べ直す。なお、図2Aに示した量子化法は
第1サンプルではより多くのビットを割り当てて量子化
を行い、以下第2,第3…サンプルにいくに従い、割り
当てるビット数を少なくする。
The encoder 20 outputs the sample order index I s from the sample order encoder 14 and the sample value index I R from the sample value encoder 15 as an encoding result. In the decoder 21, the input sample value index I R is decoded by the sample value decoding means 22 to generate a sample value. FIG.
FIG. 2B shows an example of a decoding method corresponding to the encoding shown in FIG.
Shown in In this method, decoding is performed in order from the largest sample. First, the first index I R1 is decrypted by the decoding means 2
Decode 3 1 to get the first sample. Next, the second index I R2 is decoded by the decoding means 23 2 , and its decoded output is denormalized by the decoded first sample 24.
Denormalize by 1 to obtain the second sample. Decoding is sequentially performed in this manner. When vector quantization is performed on the encoding side, the index I R performs vector quantization decoding and reconstructs the sample value sequence. When vector quantization is performed after division into subvectors, the coefficient values (sample values) of the decoded vector are rearranged in accordance with the division rule. In the quantization method shown in FIG. 2A, more bits are allocated and quantized in the first sample, and the number of allocated bits is reduced as going to the second, third, ... Samples.

【0015】図1の説明に戻って、復号器21に入力さ
れたサンプル順序インデックスIsはサンプル順序復号
化手段25で復号化され、サンプル番号が生成される。
この復号化の方法は、符号化法と対して2進数化された
サンプル番号を復元し、あるいはハフマン符号化された
インデックスを復号化し、複数用意されたハフマン符号
テーブルの中から指定された符号テーブルに従ってイン
デックスを復号化する。テーブル指定の情報は符号器2
0から送られる。
Returning to the explanation of FIG. 1, the sample order index I s input to the decoder 21 is decoded by the sample order decoding means 25 to generate a sample number.
This decoding method is performed by restoring a sample number converted into a binary number or decoding a Huffman-coded index, which is a code table specified from a plurality of prepared Huffman code tables. Decrypt the index according to. Encoder 2 is used to specify table information
Sent from 0.

【0016】サンプル値復号化手段21で復号された各
サンプル値は、サンプル順序復号化手段25で得られた
サンプル番号(順序)に従って周波数領域係数再構築手
段26で並べ直され、符号器20のサンプル並べ替え手
段13での並べ替え前の周波数領域係数が再構築され
る。この再生された周波数領域係数は時間−周波数逆変
換手段27により、時間領域の信号に逆変換され、復号
化信号として出力される。この逆変換方法としては、符
号器20の周波数領域の変換法と対応して逆離散コサイ
ン変換(Inverse Discrete Cosine Transformation,IDC
T)や逆変形離散コサイン変換(Inverse Modified Discr
ete Cosine Transformation,IMDCT)が用いられる。
The sample values decoded by the sample value decoding means 21 are rearranged by the frequency domain coefficient reconstructing means 26 in accordance with the sample number (order) obtained by the sample order decoding means 25, and the encoder 20 of the encoder 20 The frequency domain coefficients before the rearrangement by the sample rearrangement unit 13 are reconstructed. The reproduced frequency domain coefficient is inversely transformed into a time domain signal by the time-frequency inverse transforming means 27 and output as a decoded signal. As the inverse transform method, there is an inverse discrete cosine transform (IDC) corresponding to the transform method of the encoder 20 in the frequency domain.
T) and Inverse Modified Discr transform
ete Cosine Transformation (IMDCT) is used.

【0017】[0017]

【発明の効果】以上述べたように、この発明の符号化方
法によれば情報量の割り当てが能率的に実現可能であ
り、これと対応したこの発明の復号化方法によれば不快
なノイズを発生しにくい復号器を構成できる。また、こ
の発明の符号化方法では要求される品質に応じて抽出サ
ンプルを追加することによって階層符号化を容易に構成
できる。
As described above, according to the encoding method of the present invention, the allocation of information amount can be efficiently realized, and the decoding method of the present invention corresponding to this can reduce unpleasant noise. A decoder that is hard to generate can be configured. Also, with the coding method of the present invention, hierarchical coding can be easily configured by adding extracted samples according to the required quality.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の符号化方法、復号化方法の各実施例
をそれぞれ適用した符号器、復号器の各構成を示すブロ
ック図。
FIG. 1 is a block diagram showing respective configurations of an encoder and a decoder to which respective embodiments of an encoding method and a decoding method of the present invention are applied.

【図2】Aは図1中のサンプル値符号化手段5の一例を
示すブロック図、Bは図1中のサンプル値復号化手段2
2の一例を示すブロック図である。
2A is a block diagram showing an example of a sample value encoding means 5 in FIG. 1, and B is a sample value decoding means 2 in FIG.
FIG. 2 is a block diagram showing an example of the second example.

【図3】信号の周波数特性をスケーリングファクタによ
って平坦化する従来の変換符号器を示すブロック図。
FIG. 3 is a block diagram showing a conventional transcoder that flattens the frequency characteristic of a signal by a scaling factor.

【図4】信号の周波数特性を線形予測分析フィルタで平
坦化する従来の変換符号器を示すブロック図。
FIG. 4 is a block diagram showing a conventional transform encoder that flattens the frequency characteristics of a signal with a linear prediction analysis filter.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 池田 和永 東京都千代田区内幸町1丁目1番6号 日 本電信電話株式会社内 ─────────────────────────────────────────────────── ─── Continued Front Page (72) Inventor Kazunaga Ikeda 1-1-6 Uchisaiwaicho, Chiyoda-ku, Tokyo Nihon Telegraph and Telephone Corporation

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 楽音や音声の音響信号を符号化する方法
であって、 入力音響信号をフレーム単位に、周波数領域に変換する
第1の段階と、 上記第1の段階で得られた周波数領域係数をフレーム単
位に、重要度の高い部分係数のみ符号化する第2の段階
と備えることを特徴とした音響信号変換符号化方法。
1. A method of encoding an acoustic signal of a musical sound or voice, comprising a first step of converting an input acoustic signal into a frequency domain in frame units, and a frequency domain obtained in the first step. An acoustic signal conversion coding method, comprising: a second stage in which only coefficients of high importance are coded on a frame-by-frame basis.
【請求項2】 上記第2の段階における重要度の高い部
分サンプルは、聴覚的に重要な部分係数であることを特
徴とする請求項1記載の音響信号変換符号化方法。
2. The acoustic signal conversion coding method according to claim 1, wherein the partial samples having high importance in the second step are acoustically important partial coefficients.
【請求項3】 上記第2段階は、抽出された部分係数値
の大きい順に並び替える第3の段階と、その並び替えた
順序情報を符号化する第4の段階と、上記抽出された部
分係数の値を符号化する第5の段階とからなることを特
徴とした請求項1または2記載の音響信号変換符号化方
法。
3. The second step comprises a third step of rearranging in order of decreasing extracted partial coefficient values, a fourth step of encoding the rearranged order information, and the extracted partial coefficient. The method of claim 1 or 2, further comprising the fifth step of encoding the value of.
【請求項4】 上記第5の段階は、係数値の大きな係数
から順に符号化してゆき、2番目以降を符号化する際、
直前に符号化した係数を復号化し、この復号値で正規化
してから符号化を行うことを特徴とした請求項3記載の
音響信号変換符号化方法。
4. The fifth step is to code in order from a coefficient having a large coefficient value, and when coding the second and subsequent coefficients,
4. The acoustic signal conversion coding method according to claim 3, wherein the coefficient coded immediately before is decoded, normalized by this decoded value, and then coded.
【請求項5】 楽音や音声の音響信号を復号化する方法
であって、 フレーム単位に、周波数領域の部分係数を復号化して、
周波数領域係数を得る第1の段階と、 上記周波数領域係数をフレーム単位に時間領域の信号に
変換する第2の段階を備えることを特徴とした音響信号
復号化方法。
5. A method for decoding an acoustic signal of a musical sound or voice, comprising decoding partial coefficients in the frequency domain in frame units,
An acoustic signal decoding method comprising: a first step of obtaining frequency domain coefficients; and a second step of converting the frequency domain coefficients into a time domain signal in frame units.
【請求項6】 上記第1の段階は、入力されたサンプル
値インデックスより複数の周波数領域係数を復号化する
第3の段階と、入力されたサンプル順序インデックスよ
り並び替え前の係数番号を復号化する第4の段階と、上
記復号化された複数の周波数領域係数を、その大きい順
に上記復号化された係数番号の位置に並べ替えて上記周
波数領域係数を得る第5の段階とからなることを特徴と
した請求項5記載の音響信号復号化方法。
6. The first step comprises a third step of decoding a plurality of frequency domain coefficients from an input sample value index, and the decoding of coefficient numbers before rearrangement from an input sample order index. And a fifth step of rearranging the plurality of decoded frequency domain coefficients to the position of the decoded coefficient number in the descending order to obtain the frequency domain coefficient. The acoustic signal decoding method according to claim 5, which is characterized.
【請求項7】 第4の段階は、係数値の大きいものから
順に復号化してゆき、2番目以降の復号化では、直前の
復号化結果で現在の復号化結果を逆正規化して、係数値
を得ることを特徴とした請求項6記載の音響信号復号化
方法。
7. The fourth step is to perform decoding in descending order of coefficient value, and in the second and subsequent decoding, the current decoding result is denormalized with the previous decoding result to obtain the coefficient value. The audio signal decoding method according to claim 6, wherein
JP26123695A 1995-10-09 1995-10-09 Audio signal conversion encoding method and decoding method Expired - Lifetime JP3353868B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26123695A JP3353868B2 (en) 1995-10-09 1995-10-09 Audio signal conversion encoding method and decoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26123695A JP3353868B2 (en) 1995-10-09 1995-10-09 Audio signal conversion encoding method and decoding method

Publications (2)

Publication Number Publication Date
JPH09106299A true JPH09106299A (en) 1997-04-22
JP3353868B2 JP3353868B2 (en) 2002-12-03

Family

ID=17359035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26123695A Expired - Lifetime JP3353868B2 (en) 1995-10-09 1995-10-09 Audio signal conversion encoding method and decoding method

Country Status (1)

Country Link
JP (1) JP3353868B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002374171A (en) * 2001-06-15 2002-12-26 Sony Corp Encoding device and method, decoding device and method, recording medium and program
US7191126B2 (en) 2001-09-03 2007-03-13 Mitsubishi Denki Kabushiki Kaisha Sound encoder and sound decoder performing multiplexing and demultiplexing on main codes in an order determined by auxiliary codes
JP2007193043A (en) * 2006-01-18 2007-08-02 Casio Comput Co Ltd Speech encoding device, speech decoding device, speech encoding method, and speech decoding method
US7315817B2 (en) 2001-07-25 2008-01-01 Mitsubishi Denki Kabushiki Kaisha Sound encoder and sound decoder
JP2008522214A (en) * 2004-11-29 2008-06-26 ナショナル ユニバーシティ オブ シンガポール Perceptually conscious low-power audio decoder for portable devices
JP2010510533A (en) * 2006-11-16 2010-04-02 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ Apparatus for encoding and decoding
WO2012046685A1 (en) * 2010-10-05 2012-04-12 日本電信電話株式会社 Coding method, decoding method, coding device, decoding device, program, and recording medium
JP2012128022A (en) * 2010-12-13 2012-07-05 Nippon Telegr & Teleph Corp <Ntt> Coding method, decoding method, coding device, decoding device, program, and recording medium
WO2012144128A1 (en) * 2011-04-20 2012-10-26 パナソニック株式会社 Voice/audio coding device, voice/audio decoding device, and methods thereof
WO2015049820A1 (en) * 2013-10-04 2015-04-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Sound signal encoding device, sound signal decoding device, terminal device, base station device, sound signal encoding method and decoding method
WO2015053109A1 (en) * 2013-10-09 2015-04-16 ソニー株式会社 Encoding device and method, decoding device and method, and program
JP2017138605A (en) * 2017-02-16 2017-08-10 ノキア テクノロジーズ オーユー Vector quantization
US10665247B2 (en) 2012-07-12 2020-05-26 Nokia Technologies Oy Vector quantization

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002374171A (en) * 2001-06-15 2002-12-26 Sony Corp Encoding device and method, decoding device and method, recording medium and program
US7315817B2 (en) 2001-07-25 2008-01-01 Mitsubishi Denki Kabushiki Kaisha Sound encoder and sound decoder
US7191126B2 (en) 2001-09-03 2007-03-13 Mitsubishi Denki Kabushiki Kaisha Sound encoder and sound decoder performing multiplexing and demultiplexing on main codes in an order determined by auxiliary codes
US7756699B2 (en) 2001-09-03 2010-07-13 Mitsubishi Denki Kabushiki Kaisha Sound encoder and sound encoding method with multiplexing order determination
US7756698B2 (en) 2001-09-03 2010-07-13 Mitsubishi Denki Kabushiki Kaisha Sound decoder and sound decoding method with demultiplexing order determination
JP2008522214A (en) * 2004-11-29 2008-06-26 ナショナル ユニバーシティ オブ シンガポール Perceptually conscious low-power audio decoder for portable devices
JP2007193043A (en) * 2006-01-18 2007-08-02 Casio Comput Co Ltd Speech encoding device, speech decoding device, speech encoding method, and speech decoding method
JP4548348B2 (en) * 2006-01-18 2010-09-22 カシオ計算機株式会社 Speech coding apparatus and speech coding method
JP2010510533A (en) * 2006-11-16 2010-04-02 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ Apparatus for encoding and decoding
JP5612698B2 (en) * 2010-10-05 2014-10-22 日本電信電話株式会社 Encoding method, decoding method, encoding device, decoding device, program, recording medium
WO2012046685A1 (en) * 2010-10-05 2012-04-12 日本電信電話株式会社 Coding method, decoding method, coding device, decoding device, program, and recording medium
JP2012128022A (en) * 2010-12-13 2012-07-05 Nippon Telegr & Teleph Corp <Ntt> Coding method, decoding method, coding device, decoding device, program, and recording medium
WO2012144128A1 (en) * 2011-04-20 2012-10-26 パナソニック株式会社 Voice/audio coding device, voice/audio decoding device, and methods thereof
JP5648123B2 (en) * 2011-04-20 2015-01-07 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Speech acoustic coding apparatus, speech acoustic decoding apparatus, and methods thereof
US9536534B2 (en) 2011-04-20 2017-01-03 Panasonic Intellectual Property Corporation Of America Speech/audio encoding apparatus, speech/audio decoding apparatus, and methods thereof
US10446159B2 (en) 2011-04-20 2019-10-15 Panasonic Intellectual Property Corporation Of America Speech/audio encoding apparatus and method thereof
US10665247B2 (en) 2012-07-12 2020-05-26 Nokia Technologies Oy Vector quantization
WO2015049820A1 (en) * 2013-10-04 2015-04-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Sound signal encoding device, sound signal decoding device, terminal device, base station device, sound signal encoding method and decoding method
JPWO2015049820A1 (en) * 2013-10-04 2017-03-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Acoustic signal encoding apparatus, acoustic signal decoding apparatus, terminal apparatus, base station apparatus, acoustic signal encoding method, and decoding method
WO2015053109A1 (en) * 2013-10-09 2015-04-16 ソニー株式会社 Encoding device and method, decoding device and method, and program
JPWO2015053109A1 (en) * 2013-10-09 2017-03-09 ソニー株式会社 Encoding apparatus and method, decoding apparatus and method, and program
US9781539B2 (en) 2013-10-09 2017-10-03 Sony Corporation Encoding device and method, decoding device and method, and program
JP2017138605A (en) * 2017-02-16 2017-08-10 ノキア テクノロジーズ オーユー Vector quantization

Also Published As

Publication number Publication date
JP3353868B2 (en) 2002-12-03

Similar Documents

Publication Publication Date Title
JP3336617B2 (en) Signal encoding or decoding apparatus, signal encoding or decoding method, and recording medium
EP2267698B1 (en) Entropy coding by adapting coding between level and run-length/level modes.
US6675148B2 (en) Lossless audio coder
JP4506039B2 (en) Encoding apparatus and method, decoding apparatus and method, and encoding program and decoding program
JP4786903B2 (en) Low bit rate audio coding
JP5200028B2 (en) Apparatus for encoding and decoding
KR100368854B1 (en) Digital signal encoders, decoders and record carriers thereof
US20020049586A1 (en) Audio encoder, audio decoder, and broadcasting system
KR101237413B1 (en) Method and apparatus for encoding/decoding audio signal
JP3203657B2 (en) Information encoding method and apparatus, information decoding method and apparatus, information transmission method, and information recording medium
USRE46082E1 (en) Method and apparatus for low bit rate encoding and decoding
JP2006011456A (en) Method and device for coding/decoding low-bit rate and computer-readable medium
JPH09204197A (en) Perceptual noise shaping in time area by lps prediction in frequency area
KR100968057B1 (en) Encoding method and device, and decoding method and device
JP3353868B2 (en) Audio signal conversion encoding method and decoding method
KR100952065B1 (en) Coding method, apparatus, decoding method, and apparatus
EP1668462A2 (en) A fast codebook selection method in audio encoding
JP3475985B2 (en) Information encoding apparatus and method, information decoding apparatus and method
JP4281131B2 (en) Signal encoding apparatus and method, and signal decoding apparatus and method
WO1999044291A1 (en) Coding device and coding method, decoding device and decoding method, program recording medium, and data recording medium
JP3348759B2 (en) Transform coding method and transform decoding method
JP3465697B2 (en) Signal recording medium
JP2004246038A (en) Speech or musical sound signal encoding method, decoding method, encoding device, decoding device, encoding program, and decoding program
JPS6337400A (en) Voice encoding
JPH09135173A (en) Device and method for encoding, device and method for decoding, device and method for transmission and recording medium

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070927

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080927

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080927

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090927

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090927

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100927

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100927

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110927

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120927

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130927

Year of fee payment: 11

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term