JPH0895599A - Encoding method and decoding method of signal and encoder and decoder using the same - Google Patents

Encoding method and decoding method of signal and encoder and decoder using the same

Info

Publication number
JPH0895599A
JPH0895599A JP7108614A JP10861495A JPH0895599A JP H0895599 A JPH0895599 A JP H0895599A JP 7108614 A JP7108614 A JP 7108614A JP 10861495 A JP10861495 A JP 10861495A JP H0895599 A JPH0895599 A JP H0895599A
Authority
JP
Japan
Prior art keywords
signal
coefficient
frame
vector
systems
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7108614A
Other languages
Japanese (ja)
Other versions
JP3435674B2 (en
Inventor
Takehiro Moriya
健弘 守谷
Naoki Iwagami
直樹 岩上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP10861495A priority Critical patent/JP3435674B2/en
Publication of JPH0895599A publication Critical patent/JPH0895599A/en
Application granted granted Critical
Publication of JP3435674B2 publication Critical patent/JP3435674B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE: To perform fixed bit assignment and to reduce deformation. CONSTITUTION: Power normalizing parts 31 -3n obtain the average power of input signals of plural lines CH1 -CHn every frame, generate normalized signals X1 -Xn by dividing the signals by the average power and weights V1 -Vn complied with a normalized gain. The normalized signals of plural lines are combined with predetermined arrays in an array combining part 5XY and outputted as (m) signal vectors Y1 -Ym . The array combining part 5XY converts the weights from the power normalizing parts 31 -3n to (m) weighed vectors W1 -Wm by means of the same array combination as that of the normalized signals and outputs them. Signal vectors Y1 -Ym are quantized to be weighed vectors in a vector quantization part 6 using the corresponding weighed vectors W1 -Wm and corresponding quantized indices J1 -Jm and normalized gain index are outputted as the encoded result.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は複数の系統の信号を一
括して符号化する方法とその符号を復号する方法、及び
それらの方法を使った符号化器と復号化器に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of collectively encoding signals of a plurality of systems, a method of decoding the code, and an encoder and a decoder using those methods.

【0002】[0002]

【従来の技術】複数系統(複数チャンネル)の信号とし
ては、左右チャンネルオーディオ信号、マルチチャンネ
ル信号、音響信号と映像信号の組み合わせ、単一系統の
信号を一定周期毎に複数の系列に分配して得た複数系列
信号、あるいは単一系統の信号を複数の周波数帯域で分
割して得られる複数信号系列などで、複数の信号系列間
にパワーの偏りが生じるような信号系列であればどのよ
うな信号にも適用できる。
2. Description of the Related Art As a signal of a plurality of systems (a plurality of channels), left and right channel audio signals, multi-channel signals, a combination of an audio signal and a video signal, a signal of a single system is distributed to a plurality of systems at regular intervals. What kind of signal sequence can be obtained by dividing the obtained multiple sequence signal or multiple signal sequence obtained by dividing a single system signal into multiple frequency bands, as long as there is a power bias between the multiple signal sequences? It can also be applied to signals.

【0003】例えば音声や楽音などの音響信号を高能率
に符号化する代表的な方法の1つとして、音響信号をフ
レーム毎に時間−周波数変換を行って得た周波数領域係
数(周波数特性のそれぞれの周波数点におけるサンプル
値)を、その周波数特性の包絡形状(スペクトラム概
形)で正規化し、得られた残差係数をベクトル量子化す
る変換符号化法が知られている。もう1つの代表的な方
法として、音声信号を時間領域で線形予測分析し、得ら
れた予測係数をフィルタ係数として励振信号から合成フ
ィルタにより音声を合成し、合成音声の歪が最小となる
ように励振信号を周期成分ベクトルと雑音成分ベクトル
で符号化する符号駆動線形予測符号化(Code-Excited L
inear Prediction Coding:CELP)法が知られてい
る。
For example, as one of the typical methods for highly efficiently encoding audio signals such as voices and musical sounds, frequency domain coefficients (frequency characteristics respectively) obtained by performing time-frequency conversion on the audio signal for each frame. There is known a transform coding method in which the sample value at the frequency point of 1) is normalized by the envelope shape (spectrum outline) of the frequency characteristic and the obtained residual coefficient is vector quantized. As another typical method, a speech signal is subjected to linear prediction analysis in the time domain, and the obtained prediction coefficient is used as a filter coefficient to synthesize speech from an excitation signal with a synthesis filter so that distortion of the synthesized speech is minimized. Code-Excited L code that encodes the excitation signal with a periodic component vector and a noise component vector
The inear Prediction Coding (CELP) method is known.

【0004】図1A及び1Bに従来の変換符号化法を使
った符号器10及び復号器50をそれぞれ示す。符号器
10においては入力端子11からのディジタル系列とさ
れた楽音又は音声などの音響信号AT がMDCT(Modi
fied Discrete Cosine Transform:変形離散コサイン変
換)部23に入力されてフレーム単位、例えば音楽の場
合16〜64ミリ秒程度、音声の場合10〜20ミリ秒
程度ごとに変形離散コサイン変換されて周波数領域係数
F とされる。また入力端子11からの音響信号AT
スペクトラム概形計算部24において、入力音響信号の
スペクトラムの概形(包絡)が計算され、その概形が量
子化部25で量子化され、概形インデックスIEとして出
力されると共に、この量子化された概形Eq で、MDC
T部23からの周波数領域係数AF が正規化部26にお
いて割算されて、変動の少ない残差係数Xとされる。そ
の残差係数Xはスカラー量子化部27で、スカラー量子
化されるが、入力音響信号の周波数特性に適応するよう
に周波数帯域ごとのビット割当てを行う。そのビット割
当てはビット割当計算部28で行い、その割当て情報B
を示す割当てインデックスIBが符号化部29から出力さ
れ、またそのビット割当てに従って残差係数Xはスカラ
ー量子化され、その量子化残差係数Xq が出力される。
1A and 1B show an encoder 10 and a decoder 50 using a conventional transform coding method, respectively. In the encoder 10, the acoustic signal A T such as a musical tone or a voice, which is a digital sequence from the input terminal 11, is sent to the MDCT (Modi
fied Discrete Cosine Transform: A discrete discrete cosine transform is input to the unit 23, and the discrete discrete cosine transform is performed every frame unit, for example, about 16 to 64 milliseconds for music and about 10 to 20 milliseconds for speech, and the frequency domain coefficient is applied. A F. Further, the acoustic signal A T from the input terminal 11 is calculated by the spectrum outline calculation unit 24 to calculate the outline (envelope) of the spectrum of the input audio signal, and the outline is quantized by the quantization unit 25 to obtain the outline index. It is output as I E , and with this quantized outline E q , MDC
The frequency domain coefficient AF from the T section 23 is divided by the normalization section 26 to obtain a residual coefficient X with little fluctuation. The residual coefficient X is scalar-quantized by the scalar quantizer 27, and bit allocation is performed for each frequency band so as to adapt to the frequency characteristics of the input acoustic signal. The bit allocation is performed by the bit allocation calculation unit 28, and the allocation information B
Assignment index I B indicating a is output from the coding unit 29, also residual coefficients X are scalar quantized in accordance with the bit allocation, the quantized residual coefficients X q is output.

【0005】復号器50では図1Bに示すように入力さ
れたインデックスIE及びIBがそれぞれ再生部62,63
で再生されてスペクトル外概形Eq 及びビット割当て情
報Bがそれぞれ得られる。再生部64ではビット割当て
情報Bに従って量子化残差係数Xq を残差係数X' に再
生する。この残差係数X' に対し再生された概形Eq
逆正規化部65で乗算されて逆正規化され、周波数領域
信号が復元される。この周波数領域係数AF'は逆MDC
T部66で逆変形離散コサイン変換されて時間領域の音
響信号AT'に戻されて出力端子51に出力される。図2
Aは例えば米国特許No.5,195,137に示されているCEL
Pを使った音声信号符号器とほぼ同等の構成を示す。入
力端子11に与えられた音声信号は一定長のフレーム毎
に線形予測分析部12で線形予測分析され、線形予測係
数αが求められ、LPC合成フィルタ13にフィルタ係
数として与えられる。適応符号帳14では、合成フィル
タ13に与えられた前フレームの確定された励振ベクト
ルEが保持されており、その励振ベクトルから長さSの
セグメントを1つ切り出して、それをフレーム長Tにな
るまで繰り返し接続して音声周期成分と対応する適応符
号ベクトル(周期成分ベクトルまたはピッチ成分ベクト
ルとも呼ぶ)を生成し出力する。切り出し長Sを変えて
異なる周期成分と対応する適応符号ベクトルを出力する
ことができる。雑音符号帳16には1フレーム長の複数
の雑音符号ベクトルが記録してあり、インデックスCが
指定されると対応する雑音符号ベクトルが読み出され
る。適応符号帳14及び雑音符号帳16からの適応符号
ベクトルと雑音符号ベクトルはそれぞれ乗算器15、1
7で歪み計算/探索部21からの重み係数(利得)g
0 ,g1 が乗算され、これら乗算結果は加算器18で加
算され、励振ベクトルEとして合成フィルタ13に与え
られ音声信号を合成する。
In the decoder 50, the indexes I E and I B input as shown in FIG. 1B are reproduced by the reproducing units 62 and 63, respectively.
To obtain the out-of-spectrum outline E q and the bit allocation information B, respectively. The reproducing unit 64 reproduces the quantized residual coefficient X q into the residual coefficient X ′ according to the bit allocation information B. This residual coefficient X ′ is multiplied by the reproduced outline E q in the denormalization unit 65 and denormalized to restore the frequency domain signal. This frequency domain coefficient A F 'is the inverse MDC
The inverse transform discrete cosine transform is performed in the T section 66 to be returned to the acoustic signal AT ′ in the time domain and output to the output terminal 51. Figure 2
A is for example the CEL shown in US Pat. No. 5,195,137
The configuration is almost the same as the speech signal encoder using P. The audio signal supplied to the input terminal 11 is subjected to linear prediction analysis by the linear prediction analysis unit 12 for each frame of a fixed length, a linear prediction coefficient α is obtained, and the linear prediction coefficient α is supplied to the LPC synthesis filter 13 as a filter coefficient. In the adaptive codebook 14, the fixed excitation vector E of the previous frame given to the synthesis filter 13 is held, and one segment of length S is cut out from the excitation vector and becomes the frame length T. It is repeatedly connected to generate an adaptive code vector (also referred to as a periodic component vector or a pitch component vector) corresponding to the speech periodic component and outputs it. The cut-out length S can be changed to output adaptive code vectors corresponding to different periodic components. A plurality of noise code vectors each having a frame length are recorded in the noise codebook 16, and when the index C is designated, the corresponding noise code vector is read out. The adaptive code vector and the random code vector from the adaptive code book 14 and the random code book 16 are respectively multiplied by multipliers 15 and 1.
7, the weighting coefficient (gain) g from the distortion calculation / search unit 21
0 and g 1 are multiplied, and the results of these multiplications are added by the adder 18 and given to the synthesis filter 13 as the excitation vector E to synthesize the voice signal.

【0006】まず、g1=0とし、選択した切り出し長S
のセグメントから生成した適応符号ベクトルで励振した
時の合成フィルタ13の出力合成音声信号(ベクトル)
と入力音声信号(ベクトル)との差が減算器19で求め
られる。その誤差ベクトルは必要に応じて聴感重み付け
部20で聴感重みが付けられてから歪み計算部21で要
素の自乗和(符号間距離)を合成音声の歪として計算
し、保持する。歪計算/符号帳探索部21は、切り出し
長Sを変化させて上記処理を繰り返し、歪が最小となる
切り出し長Sを決定する。これによって生成される励振
ベクトルEを合成フィルタ13に入力して合成される合
成音を入力信号ATから減算器19で除去して雑音成分を
得る。次にこの雑音成分を、雑音符号帳16からの雑音
符号ベクトルを励振ベクトルEとしたときの合成雑音の
目標値とし、歪が最小となる雑音符号ベクトルを符号帳
16から選択し、対応するインデックスCを得る。この
決定された雑音符号ベクトルから歪が最小となるg1を計
算する。決定された重みg0,g1は符号化部22で重み符
号G=(g0,g1)として符号化される。この様にして入
力音声の1フレーム毎に決定した線形予測係数α、切り
出し長S、雑音符号ベクトルインデックスC及び重み符
号Gが図2Aの符号器により入力音声に対応する符号と
して出力される。
First, with g 1 = 0, the selected cut-out length S
Output of the synthesis filter 13 when excited by the adaptive code vector generated from the segment
And the input voice signal (vector) are obtained by the subtractor 19. The error vector is given a perceptual weighting by the perceptual weighting unit 20 as necessary, and then the distortion calculation unit 21 calculates the sum of squares of the elements (inter-symbol distance) as the distortion of the synthesized speech and holds it. The distortion calculation / codebook search unit 21 changes the cutout length S and repeats the above process to determine the cutout length S that minimizes the distortion. The excitation vector E generated by this is input to the synthesis filter 13 and the synthesized sound synthesized is removed from the input signal AT by the subtractor 19 to obtain a noise component. Next, this noise component is set as the target value of the synthetic noise when the noise code vector from the noise codebook 16 is used as the excitation vector E, and the noise code vector with the minimum distortion is selected from the codebook 16 and the corresponding index is selected. Get C. From this determined random code vector, g 1 that minimizes the distortion is calculated. The determined weights g 0 and g 1 are encoded by the encoding unit 22 as weight code G = (g 0 , g 1 ). In this way, the linear prediction coefficient α, the cutout length S, the noise code vector index C, and the weight code G determined for each frame of the input voice are output as the code corresponding to the input voice by the encoder of FIG. 2A.

【0007】復号器は図2Bに示すように、与えられた
線形予測係数αを線形予測合成フィルタ52にフィルタ
係数として設定する。与えられた切り出し長S及びイン
デックスCに従ってそれぞれ適応符号帳54及び雑音符
号帳56から図2Aと同様にそれぞれ適応符号ベクトル
及び雑音符号ベクトルを出力し、乗算器55、57で重
み復号部53からの重みg0,g1と乗算される。これらの
乗算結果は加算器58で互いに加算されて励振ベクトル
として線形予測合成フィルタ52に与えられ、その結
果、合成音声が端子51に出力される。
As shown in FIG. 2B, the decoder sets the given linear prediction coefficient α in the linear prediction synthesis filter 52 as a filter coefficient. In accordance with the given cut-out length S and index C, the adaptive codebook 54 and the noise codebook 56 respectively output the adaptive code vector and the noise code vector as in FIG. 2A. It is multiplied by the weights g 0 and g 1 . These multiplication results are added to each other by the adder 58 and given to the linear prediction synthesis filter 52 as an excitation vector, and as a result, synthesized speech is output to the terminal 51.

【0008】図2Aでは適応符号帳により直前のフレー
ムの励振ベクトルから切り出したセグメントを繰り返し
てピッチ成分ベクトルを生成し、合成フィルタ13に与
える例を示したが、CELPは例えば"CODE-EXCITED LI
NEAR PREDICTION(CELP):HIGH-FREQUENCY SPEECH AT VER
Y LOW BIT RATES", M.R.Schroeder, B.S.Atal, IEEEICA
SSP '85, pp.937-940に示されているように、予め多数
の波形ベクトルを励振ベクトルとして固定的に有する符
号帳を使って合成音の歪が最小となるように励振信号を
ベクトル量子化しており、図2Aのような適応的に変化
する応符号帳を使用しないでもよい。その他のCELP
として、例えば"HIGH-QUALITY 16KB/S SPEECH CODING W
ITH A ONE-WAY DELAY LESS THAN 2MS", Juin-Hwey Che
n, IEEE ICASSP '90, p.453に示されているように、図
2Aにおいて入力音声信号ATをLPC分析して予測整数
を求める代わりに過去に合成された合成音声をLPC分
析して予測係数を求めてもよい。この方法では予測係数
を符号化して復号側に与える必要はない。
FIG. 2A shows an example in which the segment cut out from the excitation vector of the immediately preceding frame is repeatedly generated by the adaptive codebook to generate the pitch component vector and the pitch component vector is given to the synthesis filter 13. In CELP, for example, "CODE-EXCITED LI" is used.
NEAR PREDICTION (CELP): HIGH-FREQUENCY SPEECH AT VER
Y LOW BIT RATES ", MRSchroeder, BSAtal, IEEEICA
As shown in SSP '85, pp.937-940, the excitation signal is vector-quantized so that the distortion of the synthesized speech is minimized by using a codebook that has a fixed number of waveform vectors as excitation vectors in advance. However, it is not necessary to use the adaptively changing codebook as shown in FIG. 2A. Other CELP
For example, "HIGH-QUALITY 16KB / S SPEECH CODING W
ITH A ONE-WAY DELAY LESS THAN 2MS ", Juin-Hwey Che
n, IEEE ICASSP '90, p.453, instead of LPC analysis of the input speech signal AT in FIG. 2A to obtain a prediction integer, prediction of synthesized speech synthesized in the past is performed by LPC analysis. The coefficient may be obtained. In this method, it is not necessary to encode the prediction coefficient and give it to the decoding side.

【0009】[0009]

【発明が解決しようとする課題】ところで、例えば左右
2チャンネルのオーディオ信号を符号化する場合、左右
チャンネルの信号を固定的にそれぞれ5ビットの情報に
符号化すれば、それぞれの信号レベルに対する量子化誤
差は1/25である。これに対し、左右チャンネルの信号パ
ワーが非常に偏っている場合、左右チャンネルのレベル
に対する分解能を同じとし、パワーの大きいチャンネル
の信号に例えば8ビットを、パワーの小さいチャンネル
の信号に2ビットをそれぞれ割り当てれば、同じ情報量
で符号化しても量子化誤差(歪)を1/28と小さくするこ
とができる。
By the way, for example, when encoding left and right two-channel audio signals, if the left and right channel signals are fixedly encoded into 5-bit information, quantization for each signal level is performed. The error is 1/2 5 . On the other hand, when the signal powers of the left and right channels are extremely deviated, the resolutions for the levels of the left and right channels are set to be the same and, for example, 8 bits are used for the signal of the high power channel and 2 bits are used for the signal of the low power channel. assign words, the encoded even quantization error (distortion) in the same amount of information can be reduced to 1/2 8.

【0010】しかしながら、図2Aの構成を2組設け
て、例えば左右チャンネルのステレオ信号を予め決めら
れた一定情報量で符号化する場合、単に両チャンネル独
立に半分づつの情報量で符号化するだけでは、両チャン
ネル間でパワーの大きな偏りが生じるような信号に対
し、その性質を有効に使って歪を小さくすることはでき
ない。
However, when two sets of the configuration shown in FIG. 2A are provided and the stereo signals of the left and right channels are encoded by a predetermined constant information amount, for example, only the half channel information amount is independently encoded for both channels. Then, it is not possible to reduce the distortion by effectively using the characteristics of a signal in which a large power deviation occurs between both channels.

【0011】パワーの偏りに合わせた最適な符号化を構
成する方法としては、雑音符号帳のインデックスに対し
て両チャンネル間で適応ビット割当を行う方法が知られ
ている。両チャンネルの利得に合わせてビット数を分配
する割当の種類は数多く必要であり、その数に対応した
大きさの符号帳が必要になる。しかし、符号帳の大きさ
や処理量は2のビット数乗に比例して増大するので、多
くのビットを割り当てることは非現実的になる。また利
得の情報に符号誤りが生じるとインデックスの境界が混
乱してすべての再生ベクトルに大きな誤りが生じること
になる。
As a method of forming an optimum coding according to the power bias, a method of performing adaptive bit allocation between both channels with respect to the index of the random codebook is known. Many types of allocation are required to distribute the number of bits according to the gains of both channels, and a codebook of a size corresponding to that number is required. However, since the size and processing amount of the codebook increase in proportion to the power of 2 bits, it becomes unrealistic to allocate many bits. Further, if a code error occurs in the gain information, the boundary of the index is confused and a large error occurs in all reproduction vectors.

【0012】図1Aの構成を2組設けて左右2チャンネ
ルのステレオ信号を符号化する場合にも、両チャンネル
間に大きなパワーの偏りが生じるような信号に対し、同
じ情報量による符号化で量子化歪を改善するには左右チ
ャンネルにパワーの偏りに応じたビット数を左右チャン
ネルの量子化部25及びビット割当計算部28に割当を
行えばよいが、このスカラー量子化法では、スペクトラ
ム概形と相関の高いビット割当て符号(インデックス
IB)を出力する必要があるため、周波数帯域を細かく分
けて詳細なビット割当てを行うと、符号器の能率が低下
する。一方、周波数帯域を粗く分けた場合は、入力信号
の周波数特性の偏りに十分対応できないため、量子化歪
みが増大して、入力信号の冗長度利用の能率が低下す
る。またビット割当てインデックスIBに符号誤りが生じ
ると、量子化残差係数Xq に対するビット列の区切り方
が混乱し、復号側において再生残差係数X' の全体に大
きな歪が発生してしまう。またCELPの場合と同様に
ビット割当符号の再生において誤りが生じた場合、再生
音声に大きな歪を与えることになる。
Even when two sets of the configuration shown in FIG. 1A are provided to encode a stereo signal of two channels on the left and right, a signal having a large power bias between both channels is encoded by the same amount of information. To improve the distortion, the number of bits corresponding to the power deviation in the left and right channels may be allocated to the left and right channel quantizers 25 and the bit allocation calculator 28. Bit allocation code (index
Since it is necessary to output IB ), if the frequency band is finely divided and detailed bit allocation is performed, the efficiency of the encoder decreases. On the other hand, when the frequency band is roughly divided, it is not possible to sufficiently cope with the bias of the frequency characteristics of the input signal, so that the quantization distortion increases and the efficiency of using the redundancy of the input signal decreases. Further, if a bit error occurs in the bit allocation index I B , the way of dividing the bit string with respect to the quantized residual coefficient X q is confused, and a large distortion occurs in the entire reproduction residual coefficient X ′ on the decoding side. Further, as in the case of CELP, if an error occurs in the reproduction of the bit allocation code, the reproduced voice will be greatly distorted.

【0013】上述では2チャンネルの音響信号に付いて
説明したが、音声信号と映像信号を多重化して伝送する
場合でも通常はそれぞれ一定の情報量で符号化して伝送
する。この様な音声と映像で情報の偏りがある場合にも
その性質を有効に使うことが望ましい。例えば音声は無
音区間が頻繁にあり、このときはほとんど情報を伝送す
る必要がない。逆に映像でも、情報圧縮のためフレーム
間予測を行う場合、映像に動きがない場合には伝送すべ
き情報量が非常に少なくなる。音声と映像を併せた情報
量が一定になる用途では、両情報間での適応ビット配分
することで総合的な歪の削減が可能である。しかし、上
述のステレオ信号の場合と同様に、ベクトル量子化の処
理や符号誤り耐性の点で深刻な問題がある。
Although the above description has been made with respect to the two-channel audio signal, even when the audio signal and the video signal are multiplexed and transmitted, they are usually encoded with a certain amount of information and transmitted. Even if there is a bias in information between the audio and video, it is desirable to use the property effectively. For example, voice often has a silent section, and at this time, almost no information needs to be transmitted. On the other hand, even in the case of video, when inter-frame prediction is performed for information compression, the amount of information to be transmitted becomes very small when there is no motion in the video. For applications in which the amount of information for both audio and video is constant, the overall distortion can be reduced by allocating adaptive bits between both information. However, as in the case of the stereo signal described above, there are serious problems in terms of vector quantization processing and code error resistance.

【0014】この発明の目的は、複数系統の信号を多重
化して少ない情報量で符号化するとき、系統間のビット
割当を行わなくても情報量一定のもとに総合的な歪を削
減することができる符号化方法とその復号方法、及びそ
れを使った符号器と復号器を提供することである。
An object of the present invention is, when signals of a plurality of systems are multiplexed and encoded with a small amount of information, reduce overall distortion under a constant amount of information without bit allocation between systems. It is to provide an encoding method and a decoding method therefor, and an encoder and a decoder using the same.

【0015】[0015]

【課題を解決するための手段】第1の発明による符号化
方法は、以下のステップを含む: (a) 各上記系統において予め決めた長さの区間毎にその
区間の信号のパワーを求め、そのパワーに基づいて重み
を決定し、 (b) 各上記系統において上記区間毎にその区間の信号を
上記パワーで正規化して正規化信号を生成すると共に、
その正規化利得を表す利得インデックスを出力し、 (c) 上記複数の系統のそれぞれの上記正規化信号を予め
決めた配列で組み合わせ、少なくとも1系列の信号ベク
トルとして生成し、 (d) 上記複数の系統のそれぞれの上記重みを上記正規化
信号と同じ配列で組み合わせ、少なくとも1系列の重み
ベクトルとして生成し、 (e) 上記信号ベクトルを上記重みベクトルで重み付きベ
クトル量子化し、その量子化ベクトルを表す量子化イン
デックスを出力し、 (f) 上記量子化インデックスと、上記利得インデックス
とを上記複数系統の信号に対する符号化結果の少なくと
も一部として出力する。
The encoding method according to the first aspect of the present invention includes the following steps: (a) For each section of a predetermined length in each of the above systems, obtain the power of the signal in that section, The weight is determined based on the power, and (b) in each of the above systems, the signal in that section is normalized by the power in each section, and a normalized signal is generated.
A gain index representing the normalized gain is output, and (c) the normalized signals of the plurality of systems are combined in a predetermined array to generate at least one series of signal vectors, and (d) the plurality of The above-mentioned weights of each system are combined in the same array as the above-mentioned normalized signal to generate at least one series of weight vectors, and (e) the above-mentioned signal vector is weighted vector-quantized with the above-mentioned weight vector, and the quantization vector is represented. The quantization index is output, and (f) the quantization index and the gain index are output as at least a part of the encoding result for the signals of the plurality of systems.

【0016】上記第1の発明の符号化方法における第1
の観点によれば、上記ステップ(a)は例えば、(a-1) 上
記区間の信号を時間−周波数変換して周波数領域係数を
求め、(a-2) 上記周波数領域係数の概形を求め、(a-3)
上記周波数領域係数をその概形で正規化して残差係数を
求め、上記残差係数のパワーに基づいて上記重みを決定
するステップを含み、上記ステップ(b)は上記区間の上
記残差係数を上記パワーで正規化して正規化残差係数を
上記正規化信号として求めるステップである。
The first aspect of the encoding method of the first invention
From the viewpoint of, in the step (a), for example, (a-1) the frequency-domain coefficient is obtained by time-frequency transforming the signal in the section, and (a-2) the outline of the frequency-domain coefficient is obtained. , (A-3)
Obtaining the residual coefficient by normalizing the frequency domain coefficient with its outline, including the step of determining the weight based on the power of the residual coefficient, the step (b) is the residual coefficient of the section This is a step of normalizing with the power and obtaining a normalized residual coefficient as the normalized signal.

【0017】上記ステップ(a-1) の上記時間−周波数変
換は、例えば変形離散コサイン変換である。上記ステッ
プ(a-2) は、例えば上記区間の信号を線形予測分析して
予測係数を求め、上記予測係数を量子化し、その量子化
された予測係数をフーリエ変換して上記概形を求めるそ
れぞれのステップを含み、上記ステップ(f) は上記予測
係数の量子化を表すインデックスを上記概形に対応する
情報として上記信号に対する符号化結果の他の一部とし
て出力する。
The time-frequency transform of step (a-1) is, for example, a modified discrete cosine transform. The step (a-2) is, for example, linear prediction analysis is performed on the signal in the section to obtain a prediction coefficient, the prediction coefficient is quantized, and the quantized prediction coefficient is Fourier transformed to obtain the outline. In the step (f), the index representing the quantization of the prediction coefficient is output as information corresponding to the outline as another part of the coding result for the signal.

【0018】上記第1の発明の符号化方法における第2
の観点によれば、複数種類の配列のマッピングが予めメ
モリ手段に格納されており、上記ステップ(c) は上記複
数のマッピングのそれぞれを使った場合について上記ス
テップ(e) におけるベクトル量子化を行ってそのベクト
ル量子化の際に求められる量子化歪が最小となるマッピ
ングを選択し、上記ステップ(f) は上記量子化歪が最小
となる量子化インデックスと、選択したマッピングを表
す符号を上記符号化結果の他の一部として出力する。
Second aspect of the encoding method of the first aspect
From the viewpoint of, the mapping of a plurality of types of arrays is stored in advance in the memory means, and the step (c) performs the vector quantization in the step (e) in the case of using each of the plurality of mappings. Select the mapping that minimizes the quantization distortion required during vector quantization, and in step (f) above, the quantization index that minimizes the quantization distortion and the code that represents the selected mapping are the codes described above. Output as another part of the conversion result.

【0019】上記第1発明の符号化方法における第3の
観点によれば、上記複数系統の予め決めた1つの系統の
信号は映像信号である。上記第1発明の符号化方法にお
ける第4の観点によれば、更に次のステップを含む: (g) 単一系統の入力信号を一定周期のフレーム毎に分割
し、その各フレームが定常的であるか又は過渡的である
かを判定し、 (h) 過渡的フレームと判定されると、そのフレームの入
力信号を上記一定長の区間毎に分割して上記複数系統の
信号として分配し、上記ステップ(a) 〜(f) を実行し、 (i) 上記フレームが定常的であれば、上記フレームの上
記入力信号のパワーを求め、そのパワーに基づいて重み
を決定し、 (j) そのフレームの上記単一系統の上記入力信号を上記
パワーで正規化して正規化信号を得て、その正規化利得
を表す利得インデックスを出力し、 (k) 上記入力信号の上記正規化信号を並べ替えして少な
くとも1系列の信号ベクトルを生成し、 (l) 上記入力信号の上記重みを上記入力信号の正規化信
号と同じように並べ替えして少なくとも1系列の重みベ
クトルを生成し、 (m) 上記ステップ(k) で生成した上記信号ベクトルと同
じ長さの異なる複数の量子化ベクトルをそれぞれの量子
化インデックスに対応して有する符号帳を探索し、上記
ステップ(j) の上記正規化信号に対し、上記ステップ
(l) の上記重みベクトルによる重み付け距離が最小とな
る量子化ベクトルを選択し、その対応する量子化インデ
ックスを決定し、 (n) 上記ステップ(i) での上記パワーによる正規化利得
を表す利得インデックスと上記ステップ(m) で決定した
上記量子化インデックスを定常的フレームでの上記入力
信号に対する符号化結果の少なくとも一部として出力す
る。
According to the third aspect of the encoding method of the first invention, the signal of one of the plurality of systems determined in advance is a video signal. According to a fourth aspect of the encoding method of the first aspect of the present invention, the method further includes the following steps: (g) dividing a single-system input signal into frames of a constant period, and each frame is stationary. It is determined whether or not there is a transient frame, (h) when it is determined to be a transient frame, the input signal of the frame is divided into sections of the constant length and distributed as signals of the multiple systems, and Perform steps (a) to (f), (i) if the frame is stationary, determine the power of the input signal of the frame, determine the weight based on that power, and (j) the frame Of the single system of the input signal is normalized by the power to obtain a normalized signal, and outputs a gain index representing the normalized gain, (k) rearranges the normalized signal of the input signal Generate at least one sequence signal vector, and The weights of the input signal are rearranged in the same manner as the normalized signal of the input signal to generate at least one series of weight vectors, and (m) the same length as the signal vector generated in step (k) above is generated. Search for a codebook having a plurality of different quantized vectors corresponding to the respective quantized indexes, and for the normalized signal of step (j),
(l) Select the quantization vector that minimizes the weighted distance by the weight vector, determine the corresponding quantization index, and (n) the gain that represents the normalized gain by the power in step (i) above. The index and the quantization index determined in step (m) are output as at least a part of the coding result for the input signal in the stationary frame.

【0020】上記第1の発明の符号化方法の上記第4の
観点における上記ステップ(i) は、例えば(i-1) 定常的
と判定された上記フレームにおける上記入力信号を時間
−周波数変換して周波数領域係数を求め、(i-2) 上記フ
レームにおける上記入力信号のスペクトラム概形を求
め、(i-3) 上記周波数領域係数を上記スペクトラム概形
で正規化し、その結果得られる残差係数を求め、(i-4)
上記残差係数の概形を過去のフレームの残差係数から予
測し、(i-5) 上記残差係数をその予測した概形で正規化
して微細構造係数を生成する、ステップを含み、上記ス
テップ(j) は上記微細構造係数の平均パワーを求め、上
記微細構造係数を上記平均パワーで正規化して得られる
正規化微細構造係数を上記正規化信号として出力するス
テップを含み、上記ステップ(f) は上記平均パワーを表
す利得インデックスと上記スペクトラム概形を表す概形
インデックスを上記符号化結果の他の一部として出力す
る。
The step (i) in the fourth aspect of the encoding method of the first invention is, for example, (i-1) time-frequency converting the input signal in the frame determined to be stationary. The frequency domain coefficient is obtained by (i-2) the spectrum outline of the input signal in the frame is obtained, and (i-3) the frequency domain coefficient is normalized by the spectrum outline, and the resulting residual coefficient is obtained. , (I-4)
Predicting the rough shape of the residual coefficient from the residual coefficient of the past frame, (i-5) normalizing the residual coefficient with the predicted rough shape to generate a fine structure coefficient, including the step, Step (j) includes the step of obtaining the average power of the fine structure coefficient and outputting the normalized fine structure coefficient obtained by normalizing the fine structure coefficient with the average power as the normalized signal. ) Outputs the gain index indicating the average power and the outline index indicating the spectrum outline as another part of the encoding result.

【0021】第2発明による符号化方法によれば、入力
音響信号のフレーム毎に符号帳から選択したフレーム長
の励振ベクトルに利得を乗じて線形予測合成フィルタに
与え、それによって合成された音響信号と上記入力音響
信号との間の距離尺度が最小となる上記符号帳の励振ベ
クトルとそれに対する利得を決定するCELPによる符
号化方法において、上記符号帳はそれぞれのインデック
スに対応して上記フレーム長の系統数倍の統合雑音ベク
トルが予め書き込まれた統合雑音符号帳であり、複数の
音響信号が入力される複数の系列にそれぞれ対応して複
数の線形予測合成フィルタが設けれ、上記方法は以下の
ステップを含む: (a) 上記複数の系統においてフレーム毎に線形予測分析
により予測係数を求め、対応するそれぞれの線形予測合
成フィルタにフィルタ係数として与え、(b) 上記統合符
号帳から読み出した各統合ベクトルのそれぞれ予め決め
られた部分の部分ベクトルをそれぞれ対応する系統の上
記線形予測合成フィルタ励振成分ベクトルとして与え、
上記複数の系統の距離尺度の和が最小となるよう統合ベ
クトルを選択し、(c) 選択された上記統合ベクトルのそ
れぞれの系統に対応する励振成分ベクトルに対する利得
を計算し、(d) 上記選択された統合ベクトルを表すイン
デックスと、上記統合ベクトルの上記複数の系統にそれ
ぞれ対応する励振成分ベクトルに対する上記利得を表す
符号とを上記複数系統の入力音響信号に対する符号化結
果の少なくとも一部として出力する。
According to the encoding method of the second aspect of the present invention, the excitation vector having the frame length selected from the codebook for each frame of the input acoustic signal is multiplied by the gain to be applied to the linear predictive synthesis filter, and the acoustic signal synthesized by this is obtained. In the CELP coding method for determining the excitation vector of the codebook and the gain for the codebook that minimizes the distance measure between the input acoustic signal and the input acoustic signal, the codebook corresponds to each index of the frame length. The integrated noise codebook in which the integrated noise vector of the number of systems is written in advance is provided with a plurality of linear prediction synthesis filters respectively corresponding to a plurality of sequences into which a plurality of acoustic signals are input. Including the steps: (a) Obtain prediction coefficients by linear prediction analysis for each frame in the above multiple systems, and calculate the corresponding linear prediction results. It is given as the filter coefficients to the filter, given as (b) above integrated the linear prediction synthesis filter excitation component vector lines respectively corresponding portions vectors of predetermined portions each codebook the integrated vector read from,
The integrated vector is selected so that the sum of the distance measures of the plurality of systems is minimized, (c) the gain for the excitation component vector corresponding to each system of the selected integrated vector is calculated, and (d) the selection is made. An index representing the integrated vector and a code representing the gain with respect to the excitation component vectors respectively corresponding to the plurality of systems of the integrated vector are output as at least a part of the encoding result for the input acoustic signals of the plurality of systems. .

【0022】第3発明の復号化方法は、複数系統の信号
を1つの統合符号帳を使って一括ベクトル量子化して符
号化した信号の復号方法であり、(a) 一定長の区間毎に
入力された少なくとも1つのベクトル量子化インデック
スに対応する少なくとも1つの統合ベクトルを統合符号
帳から読み出し、(b) 上記ステップ(a) で得られた統合
ベクトルの要素を予め決めた配列に並べ替えて複数系統
の正規化信号を生成し、(c) 一定長の区間毎に入力され
た利得インデックスから正規化利得を再生し、上記正規
化利得により上記複数系統の対応する正規化信号を逆正
規化して上記複数系統の再生信号として出力する。
The decoding method of the third invention is a decoding method of a signal in which signals of a plurality of systems are collectively vector-quantized and coded using one integrated codebook, and (a) is input for each section of a certain length. At least one integrated vector corresponding to the at least one vector quantization index is read from the integrated codebook, and (b) the elements of the integrated vector obtained in the above step (a) are rearranged into a predetermined array and a plurality of them are arranged. Generate a normalized signal of the system, (c) reproduce the normalized gain from the gain index input for each section of constant length, and denormalize the corresponding normalized signals of the multiple systems by the normalized gain. It is output as a reproduction signal of the above-mentioned plural systems.

【0023】上記第3発明の復号化方法における第1の
観点によれば、上記ステップ(c) は例えば以下のステッ
プを含む: (d) 上記複数の系統に対し上記区間毎にそれぞれ入力さ
れた概形インデックスからスペクトラム概形を再生し、
逆正規化された上記正規化信号に乗算して周波数領域係
数を得て、(e) 上記ステップ(d) で得られた各系統の上
記周波数領域係数を上記区間毎に周波数−時間変換して
時間領域信号に変換し、上記複数系統の上記再生信号と
して出力する。
According to the first aspect of the decoding method of the third invention, the step (c) includes, for example, the following steps: (d) Each of the sections is input to the plurality of systems. Play the spectrum outline from the outline index,
The frequency domain coefficient is obtained by multiplying the denormalized normalized signal, and (e) the frequency domain coefficient of each system obtained in step (d) is frequency-time converted for each section. It is converted into a time domain signal and output as the reproduced signals of the plurality of systems.

【0024】上記第3発明の復号化方法における第2の
観点によれば、上記ステップ(b) は例えば上記区間毎に
入力された配列マッピングを表すインデックスにより、
予め決められた複数の並べ替えマッピングの1つを選択
し、その選択された並べ替えマッピングに従って上記並
べ替えを行う。上記第3発明の復号化方法における第3
の観点によれば、入力された状態符号を復号して定常的
フレームであるか過渡的フレームであるかを判別し、過
渡的フレームであれば、そのフレームに対し上記ステッ
プ(a) 〜(c) を実行し、各区間で上記複数系統に得られ
た再生信号を時間的に順次ずらして合成して上記区間の
整数倍の長さのフレームの信号とし、定常的フレームで
あれば、そのフレームに対し以下のステップを実行す
る: (d) 上記フレームに対し入力された少なくとも1つのベ
クトル量子化インデックスに対応する少なくとも1つの
統合ベクトルを統合符号帳から読み出し、(e) 上記ステ
ップ(d) で得られた統合ベクトルの要素を予め決めた配
列に並べ替えて単一系統の正規化信号を生成し、(f) 上
記フレームに対し入力された利得インデックスから正規
化利得を再生し、上記正規化利得により上記単一系統の
正規化信号を逆正規化して再生信号として出力する。
According to the second aspect of the decoding method of the third aspect of the invention, the step (b) is performed, for example, by an index representing an array mapping input for each section,
One of a plurality of predetermined rearrangement mappings is selected, and the rearrangement is performed according to the selected rearrangement mapping. Third Decoding Method of the Third Invention
From the viewpoint of, the input state code is decoded to determine whether it is a stationary frame or a transient frame, and if it is a transient frame, the above steps (a) to (c ) Is performed, and the reproduced signals obtained in the above-mentioned multiple systems in each section are sequentially shifted in time to be combined into a signal of a frame having an integral multiple of the above section. Perform the following steps for: (d) reading at least one integrated vector corresponding to at least one vector quantization index input for the frame from the integrated codebook, and (e) in step (d) above. The elements of the obtained integrated vector are rearranged in a predetermined array to generate a single-system normalized signal, and (f) the normalized gain is reproduced from the gain index input for the above frame, and The normalized signal of the single system is denormalized by the normalized gain and output as a reproduced signal.

【0025】上記第3発明の復号化方法における第4の
観点によれば、上記複数の系統のうちの予め決めた1つ
において上記ステップ(c) は、例えば逆正規化された上
記正規化信号を差分信号として得て、現区間の上記差分
信号に前区間の再生信号を加算して現区間の再生信号を
得るステップを含む。第4の発明による復号方法は、C
ELPにより符号化された複数系統の音響信号の復号方
法であり、以下のステップを含む: (a) 入力されたインデックスにより統合符号帳を参照し
て対応する統合ベクトルを読み出し、その統合ベクトル
の上記複数の系統にそれぞれ対応する部分の部分ベクト
ルを切り出してそれぞれ対応する系統に与え、(b) 入力
された利得符号から上記複数の系統に対応する利得をそ
れぞれ再生し、それぞれ対応する上記部分ベクトルに乗
算して励振ベクトルを生成し、(c) 各上記系統におい
て、予測係数がフィルタ係数として与えられた合成フィ
ルタに上記励振ベクトルを与えて音響信号を合成し、再
生音響信号として出力する。
According to a fourth aspect of the decoding method of the third invention, the step (c) in the predetermined one of the plurality of systems includes, for example, the denormalized normalized signal. As a difference signal, and adding the reproduction signal of the previous section to the difference signal of the current section to obtain the reproduction signal of the current section. A decoding method according to the fourth invention is C
A method for decoding a plurality of systems of acoustic signals encoded by ELP, including the following steps: (a) The corresponding integrated vector is read by referring to the integrated codebook by the input index, and the integrated vector described above is read. The partial vectors of the parts corresponding to the multiple systems are cut out and given to the corresponding systems, respectively, and (b) the gains corresponding to the multiple systems are reproduced from the input gain codes, and the corresponding partial vectors are respectively obtained. The excitation vector is generated by multiplication, and (c) in each of the above systems, the excitation vector is given to the synthesis filter in which the prediction coefficient is given as the filter coefficient to synthesize the acoustic signal and output as the reproduced acoustic signal.

【0026】第5の発明による符号器は、複数の系統の
信号を一括して符号化する符号器であり、各上記系統に
対し設けられ、予め決めた長さの区間毎にその区間の信
号のパワーを求め、そのパワーに基づいて重みを決定
し、その区間の信号を上記パワーで正規化して正規化信
号を生成すると共に、その正規化利得を表す利得インデ
ックスを出力するパワー正規化手段と、上記複数の系統
のそれぞれの上記パワー正規化手段からの上記正規化信
号を予め決めた配列で組み合わせ、少なくとも1系列の
信号ベクトルとして生成する信号配列組み合わせ手段
と、上記複数の系統のそれぞれの上記パワー正規化手段
からの上記重みを上記正規化信号と同じ配列で組み合わ
せ、少なくとも1系列の重みベクトルとして生成する重
み配列組み合わせ手段と、上記信号ベクトルを上記重み
ベクトルで重み付きベクトル量子化し、その量子化ベク
トルを表す量子化インデックスを出力するベクトル量子
化手段、とを含み、上記量子化インデックスと、上記利
得インデックスとは上記複数系統の信号に対する符号化
結果の少なくとも一部として出力される。
The encoder according to the fifth aspect of the present invention is an encoder that collectively encodes signals of a plurality of systems, is provided for each system, and provides a signal for each section of a predetermined length. And a power normalizing means for generating a normalized signal by normalizing the signal in the section with the power to determine a weight based on the power, and outputting a gain index representing the normalized gain. , Signal sequence combination means for combining the normalized signals from the power normalization means of each of the plurality of systems in a predetermined array to generate at least one series of signal vectors, and the signal array combination means of each of the plurality of systems. Weight array combining means for combining the weights from the power normalizing means in the same array as the normalizing signal to generate at least one series of weight vectors , A vector quantization means for quantizing the signal vector with a weight vector by the weight vector and outputting a quantization index representing the quantization vector, wherein the quantization index and the gain index are the plurality of systems. Is output as at least a part of the encoding result for the signal.

【0027】上記第5発明の符号器における第1の観点
によれば、更に各上記系統に対し上記区間の信号を時間
−周波数変換して周波数領域係数を求め、上記周波数領
域係数の概形を求め、上記周波数領域係数をその概形で
正規化して残差係数を求める残差概形計算手段と、上記
パワー正規化手段残差係数のパワーに基づいて上記重み
を決定する重み計算手段とを含み、上記パワー正規化手
段は上記区間の上記残差係数を上記パワーで正規化して
正規化残差係数を上記正規化信号として求める手段であ
る。
According to the first aspect of the encoder of the fifth aspect of the present invention, the frequency domain coefficient is obtained by time-frequency converting the signal in the section for each of the systems, and the general shape of the frequency domain coefficient is calculated. Residual outline calculation means for obtaining and calculating the residual coefficient by normalizing the frequency domain coefficient with its outline, and weight calculating means for determining the weight based on the power of the power normalizing residual coefficient In addition, the power normalizing means is means for normalizing the residual coefficient in the section with the power to obtain a normalized residual coefficient as the normalized signal.

【0028】上記第5発明の符号器における第2の観点
によれば、複数の異なる配列マッピングが格納されたメ
モリ手段が設けられ、上記複数の異なる配列マッピング
に対応して上記信号配列組み合わせ手段、上記重み配列
組み合わせ手段及び上記ベクトル量子化手段の組が複数
設けられており、複数系統の上記パワー正規化手段から
の上記正規化信号に対する、上記複数の組によるベクト
ル量子化の際にそれぞれ求められる量子化歪が与えら
れ、それらの量子化歪を比較し、最小の量子化歪を与え
た組に対応する配列マッピングを表す符号を出力する比
較手段と、上記比較手段からの符号に応答して上記複数
の組からの対応する量子化インデックスを選択出力する
選択手段とが設けられ、上記量子化歪が最小となる量子
化インデックスと、選択した配列マッピングを表す符号
が上記符号化結果の他の一部として出力される。
According to a second aspect of the encoder of the fifth aspect of the invention, a memory means for storing a plurality of different array mappings is provided, and the signal array combining means corresponds to the plurality of different array mappings. A plurality of sets of the weight array combination means and the vector quantization means are provided, and they are respectively obtained at the time of vector quantization by the plurality of sets with respect to the normalized signals from the power normalization means of a plurality of systems. Quantization distortions are given, the quantization distortions are compared, and comparing means for outputting a code representing an array mapping corresponding to the set giving the minimum quantization distortion, and in response to the code from the comparing means, A selection means for selecting and outputting a corresponding quantization index from the plurality of sets is provided, and the quantization index in which the quantization distortion is minimum, Code representing the-option arranged Mapping is outputted as another part of the coding result.

【0029】上記第5発明の符号器における第3の観点
によれば、上記複数系統の予め決めた1つに対し、上記
信号を上記区間毎に予測処理を行って差分信号を生成す
る予測手段が設けられ、上記パワー正規化手段は上記差
分信号のパワーを求め、そのパワーに基づいて上記重み
を決定し、上記差分信号を上記パワーで正規化し、上記
正規化信号とする手段である。
According to a third aspect of the encoder of the fifth aspect of the invention, a prediction means for generating a difference signal by performing prediction processing on the signal for each of the sections for a predetermined one of the plurality of systems. Is provided, the power normalizing means obtains the power of the differential signal, determines the weight based on the power, normalizes the differential signal with the power, and makes the normalized signal.

【0030】上記第5発明の符号器における第4の観点
によれば、更に:単一系統の入力信号を一定周期のフレ
ーム毎にそのフレームが定常的であるか又は過渡的であ
るかを判定する状態判定手段と、過渡的フレームと判定
されると、そのフレームの入力信号を上記一定長の区間
毎に分割して上記複数系統の信号として分配するサブフ
レーム分割手段と、定常的と判定された上記フレームの
上記入力信号のパワーを求め、そのパワーに基づいて重
みを決定し、そのフレームの上記単一系統の上記入力信
号を上記パワーで正規化して定常フレーム正規化信号を
得て、その正規化利得を表す定常フレーム利得インデッ
クスを出力する定常フレームパワー正規化手段と、上記
定常的フレームの入力信号の上記定常フレーム正規化信
号を並べ替えして少なくとも1系列の定常フレーム信号
ベクトルを生成する定常フレーム信号配列組み合わせ手
段と、上記定常フレームの入力信号の上記重みを上記入
力信号の正規化信号と同じように並べ替えして少なくと
も1系列の定常フレーム重みベクトルを生成する定常フ
レーム重み配列組み合わせ手段と、上記定常フレーム信
号ベクトルと同じ長さの異なる複数の量子化ベクトルを
それぞれの量子化インデックスに対応して有する定常フ
レーム符号帳を有し、それを探索し、上記定常フレーム
正規化信号に対し、上記定常フレーム重みベクトルによ
る重み付け距離が最小となる量子化ベクトルを選択し、
その対応する定常フレーム量子化インデックスを決定す
る定常フレームベクトル量子化手段と、が設けられ、上
記定常フレーム利得インデックスと上記定常フレーム量
子化インデックスは定常的フレームでの上記入力信号に
対する符号化結果の少なくとも一部として出力される。
According to a fourth aspect of the encoder of the fifth aspect of the present invention, further: it is judged whether the input signal of a single system is stationary or transient for each frame of a constant cycle. When it is determined that the frame is a transient frame, the input signal of the frame is divided into sections of the constant length and divided as the signals of the plurality of systems, and the sub-frame division unit is determined to be stationary. Then, the power of the input signal of the frame is determined, the weight is determined based on the power, the input signal of the single system of the frame is normalized by the power to obtain a stationary frame normalized signal, and The stationary frame power normalizing means for outputting a stationary frame gain index representing the normalized gain and the stationary frame normalized signal of the input signal of the stationary frame are rearranged. At least one series of stationary frame signal array combining means for generating at least one series of stationary frame signal vectors and at least one series of stationary signals by rearranging the weights of the input signals of the stationary frames in the same manner as the normalized signals of the input signals. A stationary frame weight array combination means for generating a frame weight vector, and a stationary frame codebook having a plurality of quantization vectors having the same length as the stationary frame signal vector and corresponding to each quantization index, For the stationary frame normalized signal, select a quantization vector that minimizes the weighting distance by the stationary frame weight vector,
Stationary frame vector quantization means for determining its corresponding stationary frame quantization index, said stationary frame gain index and said stationary frame quantization index being at least a result of encoding the input signal in a stationary frame. It is output as a part.

【0031】上記第5発明の符号器の上記第4観点によ
る符号器において、定常的と判定された上記フレームに
おける上記入力信号を時間−周波数変換して周波数領域
係数を求め、上記フレームにおける上記入力信号のスペ
クトラム概形を求め、上記周波数領域係数を上記スペク
トラム概形で正規化し、その結果得られる残差係数を求
める定常フレーム残差概形計算手段と、上記残差係数の
概形を過去のフレームの残差係数から予測する残差概形
予測手段と、上記残差係数をその予測した概形で正規化
して微細構造係数を生成する残差概形正規化手段と、上
記微細構造係数の平均パワーを求め、上記微細構造係数
を上記平均パワーで正規化して得られる正規化微細構造
係数を上記定常フレーム正規化信号として出力する定常
フレームパワー正規化手段と、を含み、上記微細構造係
数の平均パワーを表す定常フレーム利得インデックスと
上記定常フレームスペクトラム概形を表す概形インデッ
クスは上記符号化結果の他の一部として出力される。
In the encoder according to the fourth aspect of the encoder of the fifth invention, the input signal in the frame determined to be stationary is subjected to time-frequency conversion to obtain a frequency domain coefficient, and the input in the frame is input. The spectrum outline of the signal is obtained, the frequency domain coefficient is normalized by the spectrum outline, and the residual frame coefficient is calculated by the steady frame residual outline calculating means and the residual coefficient obtained in the past. Residual rough shape prediction means for predicting from the residual coefficient of the frame, residual rough shape normalization means for normalizing the residual coefficient with the predicted rough shape to generate a fine structure coefficient, and The average power is calculated, and the normalized fine structure coefficient obtained by normalizing the fine structure coefficient with the average power is output as the steady frame normalization signal. Reduction comprises means and the, outline index representing the steady frame gain index and the stationary frame spectrum envelope representing the average power of the fine structure coefficients is outputted as another part of the coding result.

【0032】第6の発明による符号器は、複数の系統の
入力音響信号を符号化する符号器であり、各上記系統毎
に設けられ、フレーム毎の線形予測分析により予測係数
を得る線形予測分析手段と、フレーム長を上記系統数倍
した長さの複数の統合ベクトルがそれぞれのインデック
スに対応して予め書き込まれてある統合符号帳手段と、
任意の1つの上記統合ベクトルが選択されるとその統合
ベクトルのそれぞれ予め決められた部分の部分ベクトル
がそれぞれ対応する系統に与えられ、上記複数の系統の
それぞれに設けられ、上記線形予測分析手段からの上記
予測係数がフィルタ係数として与えられ、励振成分クト
ルから音響信号を合成する合成フィルタ手段と、上記複
数の系統のそれぞれに設けられ、上記統合符号帳から読
み出された統合ベクトルのそれぞれの部分ベクトルをそ
れぞれの利得により重み付けして励振成分ベクトルとし
て上記合成フィルタ手段に与える重み付け手段と、上記
複数の系統のそれぞれに設けられ、上記合成フィルタ手
段からの合成音響信号と上記複数の系統の入力音響信号
との差分を求める減算手段と、上記複数の系統における
上記減算手段からの差分から上記合成音響信号と上記入
力音響信号間の距離尺度をそれぞれ求め、それぞれの系
統における上記距離尺度の総和を統合歪として求め、上
記統合歪が最小となる統合ベクトルを上記統合符号帳か
ら選択し、選択された上記統合ベクトルの部分ベクトル
に対する利得をそれぞれ決定する歪計算/符号帳探索手
段と、を含み、選択された上記統合ベクトルを表すイン
デックスと、上記部分ベクトルに対しそれぞれ決定され
た上記利得を表す符号とを上記複数系統の入力音響信号
に対するフレーム毎の符号化結果の少なくとも一部とし
て出力する。
The encoder according to the sixth aspect of the present invention is an encoder for encoding input acoustic signals of a plurality of systems, which is provided for each system and is a linear prediction analysis for obtaining a prediction coefficient by a linear prediction analysis for each frame. Means, and an integrated codebook means in which a plurality of integrated vectors having a length obtained by multiplying the frame length by the number of systems are written in advance corresponding to respective indexes,
When any one of the integrated vectors is selected, a partial vector of a predetermined part of the integrated vector is given to the corresponding system, respectively, is provided in each of the plurality of systems, and the linear predictive analysis means is provided. The prediction coefficient is given as a filter coefficient, a synthesis filter means for synthesizing an acoustic signal from the excitation component vector, and a portion of each integrated vector read from the integrated codebook provided in each of the plurality of systems. Weighting means for weighting the vector with each gain and giving it to the synthesizing filter means as an excitation component vector, and synthetic sound signals from the synthesizing filter means and the input sound of the plurality of systems provided in each of the plurality of systems. From the subtraction means for obtaining the difference from the signal and the subtraction means in the plurality of systems, The distance scale between the synthetic acoustic signal and the input acoustic signal is obtained from the difference, the sum of the distance scales in each system is obtained as integrated distortion, and the integrated vector that minimizes the integrated distortion is selected from the integrated codebook. And a distortion calculation / codebook search means for respectively determining a gain for the partial vector of the selected integrated vector, an index representing the selected integrated vector, and the above-mentioned index determined for the partial vector. A code indicating the gain is output as at least a part of the coding result for each frame for the input acoustic signals of the plurality of systems.

【0033】第7の発明による復号器は、複数系統の信
号を1つの統合符号帳を使って一括ベクトル量子化して
符号化した信号の復号器であり、それぞれの量子化イン
デックスに対応して統合ベクトルが書き込まれてあり、
一定長の区間毎に入力された少なくとも1つの量子化イ
ンデックスに対応する少なくとも1つの統合ベクトルを
読み出すための統合符号帳と、上記統合符号帳から得ら
れた上記統合ベクトルの要素を予め決めた配列に並べ替
えて複数系統の正規化信号として出力する逆配列手段
と、一定長の区間毎に入力された利得インデックスから
正規化利得を再生し、上記正規化利得により上記複数系
統の対応する正規化信号を逆正規化して上記複数系統の
再生信号として出力する逆正規化手段と、を含む。
A decoder according to a seventh aspect of the invention is a decoder for a signal in which signals of a plurality of systems are collectively vector-quantized and coded using one integrated codebook, and integrated in correspondence with respective quantization indexes. The vector is written,
An integrated codebook for reading at least one integrated vector corresponding to at least one quantization index input for each fixed-length section, and an array in which elements of the integrated vector obtained from the integrated codebook are predetermined Inverse arraying means for rearranging into a plurality of systems and outputting as a normalized signal of a plurality of systems, and a normalized gain is reproduced from a gain index input for each section of a constant length, and the normalized gain corresponds to the plurality of systems by the normalized gain. Denormalizing means for denormalizing the signal and outputting it as the reproduction signals of the plurality of systems.

【0034】上記第7発明の復号器における第1の観点
によれば、更に:上記複数の系統にそれぞれ設けられ、
上記区間毎にそれぞれ入力された概形インデックスから
スペクトラム概形を再生し、逆正規化された上記正規化
信号に乗算して周波数領域係数を得る周波数領域係数再
生手段と、上記複数系統にそれぞれ設けられ、各系統の
上記周波数領域係数を上記区間毎に周波数−時間変換し
て時間領域信号に変換し、上記複数系統の上記再生信号
として出力する周波数−時間変換手段とを含む。
According to the first aspect of the decoder of the seventh aspect of the invention, further: each of the plurality of systems is provided,
Frequency domain coefficient reproducing means for reproducing a spectrum outline from the outline index input for each of the sections, and multiplying the denormalized normalized signal to obtain a frequency domain coefficient, and the frequency domain coefficient reproducing means respectively provided in the plurality of systems. And frequency-time conversion means for frequency-time converting the frequency domain coefficient of each system for each section to convert it into a time domain signal and outputting it as the reproduction signal of the plurality of systems.

【0035】上記第7発明の復号器における第2の観点
によれば、複数の異なる配列マッピングが予め格納され
ているメモリ手段が設けられており、上記逆配列手段は
上記区間毎に入力された配列マッピングを表すインデッ
クスにより、上記メモリ手段中の複数の配列マッピング
の1つを選択し、その選択された配列マッピングに従っ
て上記配列を行う。
According to a second aspect of the decoder of the seventh aspect of the invention, a memory means for storing a plurality of different array mappings in advance is provided, and the inverse array means is input for each section. One of the plurality of array mappings in the memory means is selected by the index representing the array mapping and the array is performed according to the selected array mapping.

【0036】上記第7発明の復号器における第3の観点
によれば、更に入力された状態符号を復号して定常的フ
レームであるか過渡的フレームであるかを判別し、過渡
的フレームに対し上記複数系統の上記逆正規化手段によ
る再生を実行し、各区間で上記複数系統に得られた再生
信号を時間的に順次ずらして合成して上記区間の整数倍
の長さのフレームの信号とするフレーム合成手段が設け
られており、常的フレームに対し、定常フレーム用の統
合ベクトルが定常フレームインデックスに対応して書き
込まれている定常フレーム統合符号帳と、入力された少
なくとも1つの量子化インデックスに対応して上記統合
符号帳から読み出された少なくとも1つの統合ベクトル
の要素を予め決めた配列に並べ替えて単一系統の正規化
信号を生成する定常フレーム逆配列手段と、上記定常フ
レームに対し入力された利得インデックスから再生され
た正規化利得により上記単一系統の正規化信号を逆正規
化して再生信号として出力する定常フレーム逆正規化手
段とが設けられている。
According to the third aspect of the decoder of the seventh aspect of the invention, the input state code is further decoded to determine whether it is a stationary frame or a transient frame, and The reproduction by the denormalization means of the plurality of systems is executed, and the reproduction signals obtained in the plurality of systems in each section are sequentially shifted in time and combined to form a signal of a frame having an integral multiple of the section. And a constant frame integrated codebook in which an integrated vector for a stationary frame is written corresponding to a stationary frame index for a stationary frame, and at least one input quantization index. Corresponding to the above, the elements of at least one integrated vector read from the integrated codebook are rearranged into a predetermined array to generate a single-system normalized signal. The frame reverse arrangement means and the stationary frame inverse normalization means for denormalizing the single-system normalized signal by the normalized gain reproduced from the gain index input for the stationary frame and outputting it as a reproduced signal. It is provided.

【0037】上記第7発明の上記第3観点による復号器
において、上記複数系統のそれぞれに設けられ、入力さ
れた概形インデックスから再生されたスペクトラム概形
を、逆正規化された上記正規化信号に乗算して周波数領
域係数を得る乗算手段と、上記複数系統のそれぞれに設
けられ、上記周波数領域係数を周波数−時間変換して時
間領域信号を得て、上記再生信号として出力する周波数
−時間変換手段とを含む。
In the decoder according to the third aspect of the seventh aspect of the invention, the spectrum outline reproduced from the input outline index provided in each of the plurality of systems is inversely normalized to the normalized signal. And a frequency conversion unit which is provided in each of the plurality of systems to frequency-time-convert the frequency-domain coefficient to obtain a time-domain signal and output it as the reproduction signal. And means.

【0038】上記第7発明の上記第3観点による復号器
において、上記定常的フレームにおいて入力された概形
インデックスから再生されたスペクトラム概形を使っ
て、逆正規化された上記正規化信号から周波数領域係数
を得る残差係数再生手段と、上記周波数領域係数を周波
数−時間変換して時間領域信号に変換し、上記再生信号
として出力する周波数−時間変換手段を含む。
In the decoder according to the third aspect of the seventh aspect of the invention, using the spectrum outline reproduced from the outline index input in the stationary frame, the frequency is calculated from the denormalized signal. Residual coefficient reproducing means for obtaining a domain coefficient, and frequency-time converting means for frequency-time converting the frequency domain coefficient to convert it into a time domain signal and outputting it as the reproduced signal.

【0039】上記第7発明の復号器における第4観点に
よれば、上記複数の系統のうちの予め決めた1つにおい
て逆正規化された上記正規化信号は差分信号であり、現
区間の上記差分信号に前区間の再生信号を加算して現区
間の再生信号を得る予測手段をを含む。第8の発明によ
る復号器は、CELPにより符号化された複数系統の音
響信号の復号器であり、フレーム毎に入力された符号か
ら複数系統に対するそれぞれの利得を再生する利得再生
手段と、それぞれのインデックスに対応して、フレーム
長を上記複数倍した長さの統合ベクトルが書き込まれて
いる統合符号帳と、上記統合符号帳から読み出された統
合ベクトルの上記複数の系統にそれぞれ対応する部分の
部分ベクトルに上記利得を乗算して励振ベクトルを生成
する重み付け手段と、上記複数の系統のそれぞれに設け
られ、線形予測係数をフィルタ係数として有し、上記励
振ベクトルから音響信号を合成する合成フィルタ手段
と、を含む。
According to a fourth aspect of the decoder of the seventh aspect of the invention, the normalized signal denormalized in a predetermined one of the plurality of systems is a difference signal, and the normalized signal is in the current section. It includes a prediction unit that adds the reproduction signal of the previous section to the difference signal to obtain the reproduction signal of the current section. A decoder according to an eighth aspect of the present invention is a decoder for a plurality of systems of acoustic signals coded by CELP, and a gain reproducing means for reproducing respective gains for a plurality of systems from a code input for each frame, and respective decoders. Corresponding to the index, an integrated codebook in which an integrated vector having a length that is a multiple of the frame length is written, and a portion of the integrated vector read from the integrated codebook that corresponds to each of the multiple systems. Weighting means for generating an excitation vector by multiplying the partial vector by the gain, and synthesis filter means provided in each of the plurality of systems, having a linear prediction coefficient as a filter coefficient, and synthesizing an acoustic signal from the excitation vector. And, including.

【0040】この発明によれば、複数系統の信号成分
を、それらのパワー成分と対応した重みと共に複数系統
間で互いに組み合わせて得た信号ベクトルとして、統合
された符号帳により重み付きベクトル量子化するので、
ビット割当てを適応的に行わなくても、複数系統の信号
間のパワーの偏りを利用して量子化歪を小さくできる。
しかも、1系統の信号を複数のサブチャンネルに分割し
てこの発明を適用すれば時間軸方向のパワーの偏りも有
効に量子化歪の低減に利用され、高能率な符号化を実現
できる。
According to this invention, weighted vector quantization is performed by the integrated codebook as a signal vector obtained by combining signal components of a plurality of systems with weights corresponding to those power components, among the plurality of systems. So
Even if the bit allocation is not adaptively performed, the quantization distortion can be reduced by utilizing the power imbalance between the signals of a plurality of systems.
Moreover, if the signal of one system is divided into a plurality of sub-channels and the present invention is applied, the bias of the power in the time axis direction is effectively used for the reduction of the quantization distortion, and the highly efficient encoding can be realized.

【0041】[0041]

【実施例】図3Aはこの発明の原理を説明するための符
号器の機能ブロック図を示し、n個(nは2以上の整
数)の系統の信号(ディジタル信号であるものとする)
がそれぞれチャンネルCH1〜CHnに入力され、これらの信
号を符号化する場合である。それぞれの系統の信号はフ
レーム分割部41〜4nで一定長のフレーム毎に区切られ
てパワー正規化部31〜3nに与えられる。パワー正規化
部31〜3nはそれぞれフレーム内の信号の所望の成分の
平均パワーを求め、その平均パワーでそれぞれの信号を
正規化(割算)し、正規化信号XN1〜XNnを生成する。そ
れと共に、その正規化利得G1〜Gn(平均パワーに対応
している)と、その平均パワーに対応した重みV1〜Vn
出力する。
FIG. 3A is a functional block diagram of an encoder for explaining the principle of the present invention, in which n (n is an integer of 2 or more) system signals (assumed to be digital signals).
Are input to channels CH 1 to CH n , respectively, and these signals are encoded. The signals of the respective systems are divided by the frame division units 4 1 to 4 n into frames of a fixed length and are given to the power normalization units 3 1 to 3 n . The power normalization units 3 1 to 3 n each obtain the average power of a desired component of a signal in a frame, normalize (divide) each signal by the average power, and generate normalized signals X N1 to X Nn . To generate. At the same time, the normalized gains G 1 to G n (corresponding to the average power) and the weights V 1 to V n corresponding to the average power are output.

【0042】パワー正規化部31〜3nの処理は、時間領
域の処理であってもよいし、周波数領域の処理であって
もよい。平均パワーG1〜Gnはそれぞれのフレームに1つ
の値が決定される。一方、例えば入力信号として音響信
号を扱う場合には、聴感重みも考慮することが一般的で
あるので、重みV1〜Vnはそれぞれ複数の要素からなるベ
クトルを表しているものとする。あるいは後述のよう
に、パワー正規化部31〜3n において周波数領域での
処理を行う場合に、各信号のスペクトラム概形を重みに
寄与させることにより周波数領域のパワーの偏りも量子
化歪の低減に利用することができ、その場合も重みV1
Vnはそれぞれ複数の要素からなるベクトルとして扱う。
しかしながらこの発明では重みV1〜Vnが利得G1〜Gnにの
み依存した値であってもよい。その場合は、各ベクトル
V1〜Vn内の要素が互いに等しい値となっている。
The processing of the power normalization units 3 1 to 3 n may be processing in the time domain or may be processing in the frequency domain. One value is determined for each frame of the average powers G 1 to G n . On the other hand, for example, when an acoustic signal is treated as an input signal, it is common to consider the perceptual weight, so that the weights V 1 to V n each represent a vector composed of a plurality of elements. Alternatively, as will be described later, when the power normalization units 3 1 to 3 n perform the processing in the frequency domain, the spectrum deviation of each signal is contributed to the weight so that the bias of the power in the frequency domain also causes the quantization distortion. Can be used for reduction, and in that case as well, weights V 1 ~
Each V n is treated as a vector consisting of multiple elements.
However, in the present invention, the weights V 1 to V n may be values that depend only on the gains G 1 to G n . In that case, each vector
The elements in V 1 to V n have the same value.

【0043】パワー正規化部31〜3nからの正規化信号
はインタリーブ部5で予め決めた配列で互いに組み合わ
されて、予め決めた数m(mは1以上の整数)の信号ベ
クトルY1〜Ymとして出力される。この配列組み合わせ
は、各信号ベクトルY1〜Ymに2つ以上の異なる系統の入
力信号に対応した要素を含むように行われる。インタリ
ーブ部5はパワー正規化部31〜3nからの重みV1〜Vn
インタリーブ部5における正規化信号と同じに配列組み
合わせされて、m個の重みベクトルW1〜Wmとして出力さ
れる。従って重みベクトルW1〜Wmのそれぞれの要素と信
号ベクトルY1〜Ymのそれぞれの要素との対応関係は維持
されている。
The normalized signals from the power normalizers 3 1 to 3 n are combined with each other in a predetermined array in the interleaver 5, and a predetermined number m (m is an integer of 1 or more) of a signal vector Y 1 is combined. It is output as ~ Y m . This array combination is performed so that each signal vector Y 1 to Y m includes elements corresponding to two or more different input signals. Interleaving section 5 is the same arranged in combination with the normalized signal in the interleaving unit 5 weights V 1 ~V n from the power normalization unit 3 1 to 3 n, is output as m pieces of the weight vector W 1 to W-m It Therefore, the correspondence relationship between each element of the weight vectors W 1 to W m and each element of the signal vectors Y 1 to Y m is maintained.

【0044】ベクトル量子化部6は上述の実施例で説明
するように、内部に符号帳6CBを有し、符号帳6CBには
それぞれのインデックスに対応して各信号ベクトルと同
じ長さの量子化ベクトルが書き込まれている。従来一般
に行われているベクトル量子化では1つの系統の信号の
ベクトル量子化には、1つの符号帳が使われるのに対
し、この発明では1つの符号帳6CBの各量子化ベクトル
は複数の異なる系統の信号対応した要素を含む各信号ベ
クトルY1〜Ymの量子化に使われるので、統合ベクトルと
呼び、多数の統合ベクトルからなる符号帳6CBを以下で
は統合符号帳と呼ぶ。
As described in the above embodiment, the vector quantizer 6 has a codebook 6CB inside, and the codebook 6CB has a quantization of the same length as each signal vector corresponding to each index. The vector has been written. In the conventional vector quantization, one codebook is used for vector quantization of a signal of one system, whereas in the present invention, each quantization vector of one codebook 6CB is different from each other. Since it is used for quantizing each signal vector Y 1 to Y m including elements corresponding to the signals of the system, it is called an integrated vector, and the codebook 6CB composed of a large number of integrated vectors is called an integrated codebook below.

【0045】ベクトル量子化部6は各信号ベクトルY1
Ymに対し、統合符号帳6CBを探索し、量子化ベクトルと
の対応する重みベクトルW1〜Wmにより重み付き距離尺度
が最小となる(即ち最も量子化歪が小さくなる)量子化
ベクトルをそれぞれ決定し、対応する量子化インデック
スJ1〜Jmを出力する。ベクトル量子化部6におけるこの
様なベクトル量子化によれば、信号ベクトルの量子化に
おいて、量子化歪の値に対しパワーの大きい系統に対応
する要素の寄与が大きくなるので、量子化歪が最小とな
る統合ベクトルを選択することにより、自動的にパワー
の大きい系統の信号に対し、量子化歪のより小さい符号
かが行われることになる。
The vector quantizer 6 calculates each signal vector Y 1 ...
For Y m , the integrated codebook 6CB is searched, and the weighted distance scale is minimized (that is, the quantization distortion is the smallest) by the weight vectors W 1 to W m corresponding to the quantization vector. Each is determined, and the corresponding quantization indexes J 1 to J m are output. According to such vector quantization in the vector quantization unit 6, in the quantization of the signal vector, the contribution of the element corresponding to the system having a large power to the value of the quantization distortion becomes large, so that the quantization distortion is minimized. By selecting the integrated vector that becomes, the sign of the quantization distortion is automatically applied to the signal of the system having the large power.

【0046】図3Aの符号器から利得を表す符号G1〜Gn
と量子化インデックスJ1〜Jmが系統CH1〜CHnの信号のフ
レーム毎の符号化結果として出力される。これらの符号
G1〜GnとインデックスJ1〜Jmは、図3Bに示す復号器に
与えられ、次のように復号が行われる。量子化インデッ
クス72はベクトル再生部72に与えられる。ベクトル
再生部72は図3Aの符号器のベクトル量子化部6に設
けられている符号帳6CBと同じ統合符号帳7CBを有し、
与えられた量子化インデックスJ1〜Jmに対応する統合ベ
クトルY1'〜Ym'を符号帳7CBから読みだし、逆配列部7
6に与える。逆配列部76は与えられたベクトルY1'〜Y
m'の全要素を図3Aにおける組み合わせ配列部5におけ
る配列と逆に配列することにより、n系列の正規化信号
X〜Xを得る。これらの正規化信号X1〜Xnは逆正規化部
(乗算器)771〜77nに与えられ、それぞれ利得G1
Gnが乗算されて系統CH1〜CHnの信号が復号される。
Codes G 1 to G n representing gains from the encoder of FIG. 3A
And the quantization indexes J 1 to J m are output as the coding results for each frame of the signals of the channels CH 1 to CH n . These signs
G 1 to G n and indexes J 1 to J m are given to the decoder shown in FIG. 3B, and decoding is performed as follows. The quantization index 72 is given to the vector reproducing unit 72. The vector reproduction unit 72 has the same integrated codebook 7CB as the codebook 6CB provided in the vector quantization unit 6 of the encoder of FIG. 3A,
The integrated vectors Y 1 'to Y m ' corresponding to the given quantization indexes J 1 to J m are read from the codebook 7CB, and the inverse array unit 7
Give to 6. The inverse array unit 76 receives the given vector Y 1 'to Y
By arranging all the elements of m ′ in the reverse order to the arrangement in the combination arrangement section 5 in FIG.
Get X to X. These normalized signals X 1 to X n are given to denormalization units (multipliers) 77 1 to 77 n , and gains G 1 to
The signals of the systems CH 1 to CH n are decoded by being multiplied by G n .

【0047】図4Aは左右チャンネルの音響信号を図1
Aの場合と同様に周波数領域で符号化する場合であり、
左右チャンネルのパワーの偏りのみならず、時間軸方向
のパワーの偏り及び周波枢軸方向のパワーの偏りをも利
用して符号化による歪を削減させている。時間軸方向の
パワーの偏りは左右各チャンネルの入力音響信号の各フ
レームをn個(nは2以上の整数)のサブフレームに分
割し、それをn個のサブチャンネルに分配することによ
りn個の信号系列(サブ系列)をを得て、それら間のパ
ワーの偏りとして利用する。周波数軸方向のパワーの偏
りとしては、各サブチャンネルの音響信号を周波数領域
の残差係数のパワーの偏りを利用する。以下、図4Aの
符号器に付いて詳細に説明する。この符号器は左右チャ
ンネルの端子11L、11Rに与えられたディジタル入力
音響信号の各フレームをn個のサブフレームに分割し、
n個のサブチャンネルに分配するサブフレーム分割部3
L、31Rと、各サブチャンネルの音響信号をサブフレ
ーム毎に周波数領域の残差係数とスペクトラム概形を求
める残差/概形計算部31L1〜31Ln、31R1〜31Rnと、各サ
ブチャンネルの残差係数のパワーを正規化するパワー正
規化部33L1〜33Ln、33R1〜33Rnと、各サブチャンネルの
スペクトラム概形にパワー正規化利得を乗算し、必要に
応じて更に聴感重み係数を乗算した結果を重み係数V
(ベクトル)として出力する重み計算部34L1〜34Ln、34
R1〜34 Rnと、左右サブチャンネルの残差係数を予め決め
た順に並び替える残差インタリーブ部35XYと、左右サブ
チャンネルの重み係数を残差係数と同じ順に並び替える
重みインタリーブ部35VWと、並び替えられた残差係数
と、それに対応する並び替えられた重み係数により重み
付きベクトル量子化を行うベクトル量子化部36と、か
ら構成されている。
FIG. 4A shows the acoustic signals of the left and right channels in FIG.
As in the case of A, it is a case of encoding in the frequency domain,
Not only the power deviation of the left and right channels, but also the time axis direction
Power deviation and power deviation in the frequency axis direction.
Is used to reduce distortion due to encoding. Along the time axis
The power imbalance is due to the input acoustic signal of each channel on the left and right channels.
Divide the ram into n subframes (n is an integer of 2 or more)
By dividing it and distributing it to n subchannels
N signal sequences (sub-sequences) are obtained, and the
It is used as a bias of work. Power deviation along the frequency axis
For each sub-channel, the acoustic signal
The bias of the power of the residual coefficient of is used. Below, in FIG. 4A
The encoder will be described in detail. This encoder is
Channel terminal 11L, 11RDigital input given to
Divide each frame of the acoustic signal into n subframes,
Subframe division unit 3 for distributing to n subchannels
1L, 31RAnd the audio signal of each sub-channel
Frequency-domain residual coefficient and spectrum outline for each
Residual / Approximate calculation part 31L1~ 31Ln, 31R1~ 31RnAnd each service
Power positive to normalize the power of the residual coefficient of the subchannel
Normalization section 33L1~ 33Ln, 33R1~ 33RnAnd for each subchannel
Multiply the spectrum outline by the power normalization gain and add
Accordingly, the result obtained by further multiplying the perceptual weighting coefficient is the weighting coefficient V
Weight calculation section 34 for outputting as (vector)L1~ 34Ln, 34
R1~ 34 RnAnd the left and right subchannel residual coefficient
Residual interleaving section 35 that sorts in the orderXYAnd the left and right sub
Sort channel weighting factors in the same order as residual coefficients
Weight interleaving unit 35VWAnd the sorted residual coefficients
And the corresponding sorted weighting factors
A vector quantizer 36 for performing vector quantization with
It is composed of

【0048】一般に、入力音響信号の周波数領域での符
号化に必要な情報量(ビット数)を低減する1つの方法
として、入力音響信号の周波数特性(スペクトラム)の
概形を平坦化して残差係数を求め、そのスペクトラム概
形と残差係数を符号化する方法があるが、その残差係数
を求める方法としては例えば次の2つ考えられる。 (a) 入力信号を周波数領域係数に変換すると共に、入力
信号のスペクトラム概形を求め、前記周波数領域係数を
そのスペクトラム概形で正規化して残差係数を得る。
Generally, as one method of reducing the amount of information (the number of bits) required for encoding the input acoustic signal in the frequency domain, the residual characteristic is obtained by flattening the outline of the frequency characteristic (spectrum) of the input acoustic signal. There is a method of obtaining the coefficient and encoding the spectrum outline and the residual coefficient. The following two methods can be considered as the method of obtaining the residual coefficient. (a) The input signal is converted into frequency domain coefficients, the spectrum outline of the input signal is obtained, and the frequency domain coefficients are normalized by the spectrum outline to obtain residual coefficients.

【0049】(b) 線形予測係数で制御される逆フィルタ
により時間領域で入力信号を処理して残差信号を求め、
その残差信号を周波数領域係数に変換し、残差係数を得
る。上記方法(a) において、入力信号のスペクトラム概
形を得る方法として次の3つの方法が考えられる。 (c) 上述の事実を応用して、入力信号の線形予測係数を
時間−周波数変換(例えばフーリエ変換)して求める。
(B) The input signal is processed in the time domain by the inverse filter controlled by the linear prediction coefficient to obtain the residual signal,
The residual signal is converted into frequency domain coefficients to obtain residual coefficients. In the above method (a), the following three methods are conceivable as methods for obtaining the spectrum outline of the input signal. (c) Applying the above facts, the linear prediction coefficient of the input signal is obtained by time-frequency transform (for example, Fourier transform).

【0050】(d) 入力信号を時間−周波数変換して得た
周波数領域係数を複数のサブ帯域に分割し、それぞれの
サブ帯域のスケールファクタ(例えばサブ帯域の平均パ
ワー)をスペクトラム概形として得る。 (e) 入力信号を時間−周波数変換して得た周波数領域係
数の絶対値を逆変換して得た時間領域信号の線形予測係
数を求め、その線形予測係数をフーリエ変換して求め
る。
(D) The frequency domain coefficient obtained by time-frequency converting the input signal is divided into a plurality of sub-bands, and the scale factor of each sub-band (for example, the average power of the sub-bands) is obtained as a spectrum outline. . (e) The linear prediction coefficient of the time domain signal obtained by inverse transforming the absolute value of the frequency domain coefficient obtained by time-frequency transforming the input signal is obtained, and the linear prediction coefficient is Fourier transformed.

【0051】方法(c) と(e) は次の事実に基づいてい
る。線形予測係数は、入力信号の周波数特性を表してお
り、従って線形予測係数のスペクトラム概形は、入力信
号のスペクトラム概形に対応している。詳しくいえば、
線形予測係数をフーリエ変換して得られるスペクトラム
振幅は、入力信号のスペクトラム概形の逆数となってい
る。
The methods (c) and (e) are based on the following facts. The linear prediction coefficient represents the frequency characteristic of the input signal. Therefore, the spectrum outline of the linear prediction coefficient corresponds to the spectrum outline of the input signal. In detail,
The spectrum amplitude obtained by Fourier transforming the linear prediction coefficient is the reciprocal of the spectrum outline of the input signal.

【0052】この発明による図4Aの実施例では、各サ
ブチャンネルにおいて、2N個のサンプルからなる各サ
ブフレームの音響信号サブ系列に対し上記方法(a) と
(c) 又は(d) 又は(e) のどの組み合わせを使ってもよ
い。ここでは上記方法(a) と(c)の組み合わせを使った
場合の各残差/概形計算部32(32L1〜32Ln、32R1〜32
Rnの任意の1つ)の例を図4Bに示す。残差/概形計算
部32は図4Bに示すように、サブフレーム音響信号に
所望の窓関数を掛ける窓掛け部32Aと、その出力をM
DCTにより周波数領域係数に変換するMDCT部32
Bと、窓掛け部32Aの出力を線形予測分析して線形予
測係数を得る線形予測分析部32Cと、得られた線形予
測係数を量子化してその量子化予測係数と量子化インデ
ックス(スペクトラム概形に対応するので概形インデッ
クスと呼ぶことにする)IEを出力する量子化部32D
と、量子化予測係数からスペクトラム概形Eを求める概
形計算部32Eと、MDCT部32Bからの周波数領域
係数をスペクトラム概形で正規化(割算)し、残差係数
Xを出力する正規化部32Fとから構成される。
In the embodiment of FIG. 4A according to the present invention, the above method (a) is applied to the acoustic signal sub-sequence of each sub-frame consisting of 2N samples in each sub-channel.
Any combination of (c) or (d) or (e) may be used. Here, each residual / rough shape calculation unit 32 (32 L1 to 32 Ln , 32 R1 to 32) when the combination of the above methods (a) and (c) is used.
An example of any one of Rn ) is shown in FIG. 4B. As shown in FIG. 4B, the residual / rough shape calculation unit 32 outputs a windowing unit 32A that multiplies the sub-frame acoustic signal by a desired window function, and outputs its output by M.
MDCT unit 32 for converting into a frequency domain coefficient by DCT
B, a linear prediction analysis unit 32C that obtains a linear prediction coefficient by performing a linear prediction analysis on the output of the windowing unit 32A, a quantized prediction coefficient and a quantization index (spectrum outline Quantizer 32D that outputs I E because it corresponds to
And a shape calculating unit 32E for obtaining the spectrum outline E from the quantized prediction coefficient, and a frequency domain coefficient from the MDCT unit 32B is normalized (divided) by the spectrum outline, and a residual coefficient X is output. And a part 32F.

【0053】図4Aのサブフレーム分割部31L は、左
チャンネルの端子11L に与えられた左チャンネル音響
信号の各フレーム(例えば楽音信号の場合16〜64m
s、音声信号の場合10〜20ms)をNサンプル毎に
そのNサンプルと直前のNサンプルの2Nサンプルのサ
ブ系列を重ね合わせ直交変換(LOT:Lapped Orthogo
nal Transform )処理用フレームとして生成し、n個の
サブチャンネルに順次循環して分配し、残差/概形計算
部32L1〜32Lnに与える。即ち、n=4の場合を図5に示
すように、左チャンネル音響信号のフレームF1,F2,…
(行A)が順次入力されると、各フレーム、例えばフレ
ームF1をそれぞれがNサンプルから成る4つのサブフレ
ームF11,F12,F13,F14(行B)に分割し、それら各サ
ブフレームとその直前のサブフレームからなる2Nサン
プルのサブ系列{F04,F11},{F1 1,F12},{F12,F13},
{F13,F14} をLOT処理用フレームとしてそれぞれ対
応するサブチャンネルCH1〜CH4の残差/概形計算部32
1 〜324 に与える。フレームF2,F3,…についても
同様である。LOTについては例えばH.S.Malvar,"Sign
al Processing with Lapped Transform", Artech House
に説明されている。
The sub-frame dividing unit 31 L of FIG. 4A is provided for each frame of the left channel acoustic signal given to the terminal 11 L of the left channel (for example, 16 to 64 m for a tone signal).
s, 10 to 20 ms in the case of a voice signal), every N samples, the N samples and the immediately preceding N samples of the 2N sample sub-sequences are overlapped and orthogonally transformed (LOT: Lapped Orthogo).
nal Transform) processing frame, which is sequentially circulated and distributed to n sub-channels, and given to residual / rough shape calculation units 32 L1 to 32 Ln . That is, in the case of n = 4, as shown in FIG. 5, the frames F 1 , F 2 , ...
When (row A) is sequentially input, each frame, for example, frame F 1 is divided into four subframes F 11 , F 12 , F 13 , F 14 (row B) each of which has N samples, and each of them is divided into four subframes F 11 , F 12 , F 13 , F 14 (row B). subframe and sub-sequence of 2N samples that consist immediately preceding subframe {F 04, F 11}, {F 1 1, F 12}, {F 12, F 13},
Residual / rough shape calculation unit 32 of subchannels CH 1 to CH 4 corresponding to {F 13 , F 14 } as LOT processing frames, respectively.
Give to 1-32 4. The same applies to the frames F 2 , F 3 , ... For LOT, for example, HSMalvar, "Sign
al Processing with Lapped Transform ", Artech House
Explained.

【0054】図4Bに示す各サブチャンネルの残差/概
形計算部32は、与えられた2Nサンプルの各サブ系列
に窓掛け部32Aで時間窓が掛けられる。窓の形状はハ
ニング窓を用いるのが一般的である。窓掛けされた2N
サンプルの各サブ系列はMDCT部32Bで直交変換の
一種であるN次の変形離散コサイン変換され、Nサンプ
ルの周波数領域係数が得られる。窓掛け部32Aの出力
は他方で線形予測分析部32Cで線形予測分析され、P
次の予測係数α0,…,αPが求められる。この予測係数α
0,…,αPを量子化部32Dで例えばLSPパラメータ、
あるいはkパラメータに変換してから量子化して予測係
数に対応した概形インデックスIEを得る。
In the residual / rough shape calculation unit 32 of each sub-channel shown in FIG. 4B, a windowing unit 32A applies a time window to each given 2N-sample sub-sequence. A Hanning window is generally used as the window shape. 2N window hanging
Each sub-sequence of samples is subjected to Nth-order modified discrete cosine transform, which is a kind of orthogonal transform, in the MDCT unit 32B, and N-sample frequency domain coefficients are obtained. On the other hand, the output of the windowing unit 32A is subjected to linear prediction analysis by the linear prediction analysis unit 32C, and P
The following prediction coefficients α 0 , ..., α P are obtained. This prediction coefficient α
0 , ..., α P is used as a LSP parameter by the quantizer 32D,
Alternatively, it is converted into a k parameter and then quantized to obtain a rough index I E corresponding to the prediction coefficient.

【0055】予測係数α0,…,αPのスペクトラム概形が
概形計算部32Eで求められる。予測係数のスペクトラ
ム概形を得るには、例えば図6Aに示すように、P+1
個の量子化予測係数の後に、(4N-P-1)個の0をつなげて
得た長さ4Nのサンプル系列を離散フーリエ変換(例え
ば高速フーリエ変換FFT)し、更にその2N次のパワ
ースペクトラムを計算し、このスペクトラムの偶数次を
間引いて各奇数次をそれぞれ取り出し、それらについて
それぞれ平方根を取る。この様にして得られたN点のス
ペクトラム振幅は、スペクトラム概形Eの逆数を表して
いる。
The outline calculation unit 32E obtains the spectrum outline of the prediction coefficients α 0 , ..., α P. To obtain the spectrum outline of the prediction coefficient, for example, as shown in FIG.
After quantized prediction coefficients, 4N-length sample sequences obtained by connecting (4N-P-1) 0s are subjected to discrete Fourier transform (eg, fast Fourier transform FFT), and the 2Nth power spectrum Is calculated, the even orders of this spectrum are decimated to extract the odd orders, and the square roots of the odd orders are taken. The N-point spectrum amplitude thus obtained represents the reciprocal of the spectrum outline E.

【0056】あるいは、図6Bに示すようにP+1個の
量子化予測係数の後ろに(2N-P-1)個の0をつなげた長さ
2Nのサンプル系列をFFT分析し、その結果について
N次のパワースペクトラムを計算する。0番目から始ま
ってi番目のスペクトラム概形係数の逆数は、i=N−
1以外ではi+1番目とi番目の各パワースペクトラム
の平方根を平均して、つまり補間して得る。N−1番目
のスペクトラム概形係数の逆数は、N−1番目のパワー
スペクトラムの平方根を取って得る。
Alternatively, as shown in FIG. 6B, FFT analysis is performed on a sample sequence of length 2N in which (2N-P-1) zeros are connected after P + 1 quantized prediction coefficients, and the result is N-th order. Calculate the power spectrum of. The reciprocal of the i-th spectrum outline coefficient starting from the 0th is i = N−
Other than 1, the square roots of the i + 1-th and i-th power spectra are averaged, that is, interpolated. The inverse of the (N-1) th spectrum shape coefficient is obtained by taking the square root of the (N-1) th power spectrum.

【0057】正規化部32Fはこの様にして得られたス
ペクトラム概形で、MDCT部32Bからのスペクトラ
ム振幅を各対応するサンプル毎に割算して正規化し、残
差係数Xを得る。ただし、上述のように量子化部予測係
数をフーリエ変換して直接得られるものはスペクトラム
概形Eの逆数であり、従って実際には正規化部32Fは
MDCT部32Bの出力とスペクトラム概形計算部32
Eの出力(スペクトラム概形Eの逆数)を単に乗算すれ
ばよい。しかしながら、以降の説明においても便宜上、
スペクトラム概形計算部32Eはスペクトラム概形Eを
出力するものとする。
The normalization section 32F obtains the residual coefficient X by dividing the spectrum amplitude from the MDCT section 32B for each corresponding sample and normalizing the spectrum outline thus obtained. However, what is directly obtained by performing the Fourier transform of the quantization unit prediction coefficient as described above is the reciprocal of the spectrum outline E. Therefore, the normalization unit 32F actually outputs the output of the MDCT unit 32B and the spectrum outline calculation unit. 32
The output of E (the reciprocal of the spectrum outline E) may simply be multiplied. However, for convenience in the following description,
The spectrum outline calculation unit 32E outputs the spectrum outline E.

【0058】図4Aに戻って、左チャンネルの各サブチ
ャンネルCH1〜CHnの残差/概形計算部32L1〜32Lnからの
残差係数Xとスペクトラム概形Eは、パワー正規化部33
L1〜33Lnと重み計算部34L1〜34Lnにそれぞれ与えられ
る。パワー正規化部33L1〜33Lnは処理フレーム毎の残差
係数Xのパワーの平均値を求め、そのパワーの平均値で
残差係数Xを割算して正規化残差係数XN(Nサンプルか
ら成るベクトル)を求め、残差インタリーブ部35XYに与
える。それと共に、そのパワーの平均値を利得Gとして
重み計算部34L1〜34Lnに与え、その利得Gを表すインデ
ックスIG1〜IGnを出力する。重み計算部34L1〜34Lnはス
ペクトラム概形Eに利得Gを乗算し、乗算結果を重み係
数V(N個の要素から成るベクトル)として出力し重み
インタリーブ部35VWに与える。もし必要であれば、前記
乗算結果に更に聴感重み(N要素のベクトル)を乗算し
てその乗算結果を前記重み係数Vとして出力する。従っ
て、この様にして得られる重み係数Vは、スペクトラム
概形とパワー正規化利得Gの積(必要に応じて更に聴感
重みの積)に対応している。
Returning to FIG. 4A, the residual coefficient X and the spectrum outline E from the residual / rough shape calculation units 32 L1 to 32 Ln of the left sub-channels CH 1 to CH n are the power normalization unit. 33
It is given to L1 to 33 Ln and weight calculation units 34 L1 to 34 Ln , respectively. The power normalization units 33 L1 to 33 Ln obtain the average value of the power of the residual coefficient X for each processing frame, divide the residual coefficient X by the average value of the powers, and normalize the residual coefficient X N (N A vector consisting of samples) is obtained and given to the residual interleaving unit 35 XY . At the same time, the average value of the power is given as a gain G to the weight calculation units 34 L1 to 34 Ln , and the indexes I G1 to I Gn representing the gain G are output. The weight calculation units 34 L1 to 34 Ln multiply the spectrum outline E by a gain G, and output the multiplication result as a weighting coefficient V (vector consisting of N elements) to be given to the weighting interleaving unit 35 VW . If necessary, the multiplication result is further multiplied by a perceptual weight (a vector of N elements), and the multiplication result is output as the weight coefficient V. Therefore, the weighting coefficient V thus obtained corresponds to the product of the spectrum outline and the power-normalized gain G (and the product of the perceptual weight, if necessary).

【0059】この聴感重み付けの例としては、スペクト
ラム概形に対し-0.6前後の定数がべき乗され、小さい値
を大とし、大きい値を小とするように聴感制御される。
この他の聴感制御方法として、エムペグ−オーディオ方
式で用いられている聴覚モデルによって求めた各サンプ
ルごとに必要なSNR(Signal to Noise Ratio:信号帯雑
音比)を非対数化して前記スペクトラム概形の逆数と掛
け合わせる方法としてもよい。この方法では、入力信号
を分析して得られた周波数特性から、各周波数サンプル
ごとに聴感的にノイズが検知できる最小のSNR を、聴覚
モデルによってマスキング量を推定することによって計
算する。このSNR が各サンプルごとに必要なSNR であ
る。エムペグ−オーディオにおける聴覚モデルの技術に
ついては ISO/IEC 標準IS-11172-3 に述べられている。
また聴感制御を省略して、前記スペクトラム概形の逆数
を重みづけ信号としてもよい。
As an example of the perceptual weighting, the perceptual control is performed such that a constant of about −0.6 is raised to the power of the spectrum outline, and a small value is large and a large value is small.
As another auditory control method, the SNR (Signal to Noise Ratio) required for each sample obtained by the auditory model used in the Mpeg-audio system is non-logarithmized to obtain the above-mentioned spectrum outline shape. A method of multiplying by the reciprocal may be used. In this method, from the frequency characteristics obtained by analyzing the input signal, the minimum SNR at which noise can be detected perceptually for each frequency sample is calculated by estimating the masking amount using an auditory model. This SNR is the required SNR for each sample. The technology of auditory models in mpeg-audio is described in ISO / IEC standard IS-11172-3.
Further, the auditory sense control may be omitted, and the reciprocal of the spectrum outline may be used as the weighting signal.

【0060】右チャンネルのサブフレーム分割部31
L 、残差/概形計算部32L1〜32Ln、パワー正規化部33R1
〜33Rn、重み計算部34R1〜34Rnも上述の左チャンネル側
と同様に動作し、各サブチャンネルの残差/概形計算部
32R1〜32Rnから量子化インデックスIPR1〜IPRnが出力さ
れる。また、パワー正規化部33R1〜33Rnから利得インデ
ックスIGR1〜IGRn及び正規化残差係数Xが出力され、後
者が残差インタリーブ部35XYに与えられ、重み計算部34
R1〜34Rnから重み係数Vが出力され重みインタリーブ部
35VWに与えられる。
Right-channel subframe division unit 31
L , residual / rough shape calculator 32 L1 to 32 Ln , power normalizer 33 R1
~ 33 Rn , weight calculator 34 R1 to 34 Rn also operate in the same way as the above left channel side, and residual / rough shape calculator of each sub-channel
Quantization indexes I PR1 to I PRn are output from 32 R1 to 32 Rn . Further, the power normalization units 33 R1 to 33 Rn output the gain indexes I GR1 to I GRn and the normalized residual coefficient X, the latter being given to the residual interleaving unit 35 XY , and the weight calculation unit 34.
The weight coefficient V is output from R1 to Rn and the weight interleave unit
Given to 35 VW .

【0061】このようにして入力音響信号の各フレーム
毎に得られた左右両チャンネルの全2n個の残差係数
(従って全サンプル数は2nN)は残差インタリーブ部
35で各フレーム毎に並べ替えられてm個の系列として
出力される。このインタリーブはなるべく互いに混ぜ合
わさるようにし、つまり、時間的パワーの偏りや入力端
子11L,11Rの左、右信号と対応する残差係数間のパ
ワーの偏り及び周波数領域内のパワーの偏りが混ぜ合せ
により、1フレーム内でほぼ均一化される。
The residual interleaving unit 35 rearranges all 2n residual coefficients (that is, the total number of samples is 2nN) of the left and right channels thus obtained for each frame of the input acoustic signal in each frame. And output as m sequences. This interleaving is made to be mixed with each other as much as possible, that is, the deviation of the temporal power, the deviation of the power between the left and right signals of the input terminals 11 L and 11 R and the corresponding residual coefficients, and the deviation of the power in the frequency domain. By mixing, it becomes almost uniform in one frame.

【0062】この様なインタリーブの例を、例えば左右
チャンネルの音響信号をそれぞれ2つずつ(即ちn=
2)のサブチャンネルCHL1,CHL2及びCHR1,CHR2の信号
サブ系列に分割する場合で説明する。左チャンネル側の
サブチャンネルCHL1,CHL2に得られる正規化残差係数ベ
クトルXL1,XL2をそれらの周波数成分xで {x1,1,x1,2,…,x1,N},{x2,1,x2,2,…,x2,N} と表し、右チャンネル側のサブチャンネルCHR1,CHR2
得られる正規化残差係数ベクトルXR1,XR2を、それぞれ
それらの周波数成分xで {x3,1,x3,2,…,x3,N},{x4,1,x4,2,…,x4,N} と表す。これらの残差係数ベクトルを図7に示すように
各ベクトルの要素(周波数成分)が列方向となるよう
に、横方向にサブチャンネル番号順に配列し、これら4
つのサブチャンネルの成分のマトリクス配列の第1〜4
行中のそれぞれの成分x1,1,x2,1,…,x4,4 から出発し、
サブチャンネル番号方向に順次循環しながら周波数軸方
向に4つずつ順次シフトした位置の成分をそれぞれ5つ
取り出して、それらを要素とする系列 Y1={x1,1,x2,5,x3,9,x4,13,x1,17}, Y2={x2,1,x3,5,x4,9,x1,13,x2,17}, Y3={x3,1,x4,5,x0,9,x2,13,x3,17}, … Ym={x1,N-16,x2,N-12,x3,N-8,x4,N-4,x1,N} を生成し、m個の系列Y1〜Ymを得る。これらの系列を Y1={y1 1,y2 1,y3 1,y4 1,y5 1}, Y2={y1 2,y2 2,y3 2,y4 2,y5 2}, Y3={y1 3,y2 3,y3 3,y4 3,y5 3}, … Ym={y1 m,y2 m,y3 m,y4 m,y5 m} と表すことにする。従って、例えばy1 1=x1,1,y2 1=x2,5,
…,y1 2=x2,1,y2 2=x3,5,…である。図7の例では、それ
ぞれ5個の要素を有するベクトルY1,Y2,Y3, …を得るた
め、要素抽出位置を最初の4行4列の各要素から出発し
て4回巡回シフトを繰り返すので、最初の16個のベク
トルの第5要素が得られるのは第17〜20行の位置で
ある。同様に第21〜24行の各要素から再び出発して
4回の巡回シフトを繰り返し、次の16個のベクトルが
得られる。この様にして巡回シフトを行うことにより2
0行毎に16個のベクトルが得られる。例えばN=12
8の場合、128÷20=6余り8となるので、最後の
8行に付いては例えば別の抽出方法を使ってそれぞれ5
つの要素を有するベクトルを生成し、最後の2つの要素
についてはそれら2つだけで1つのベクトルを構成す
る。従ってこの場合、全ベクトル数mは103である。
An example of such interleaving is, for example, two acoustic signals for each of the left and right channels (that is, n =
2) Sub-channels CH L1 , CH L2 and CH R1 , CH R2 are divided into signal sub-sequences. The normalized residual coefficient vector X L1 , X L2 obtained in the left channel side sub-channels CH L1 , CH L2 is {x 1,1 , x 1,2 , ..., x 1, N } with their frequency components x. , {X 2,1 , x 2,2 , ..., x 2, N }, and the normalized residual coefficient vectors X R1 and X R2 obtained on the right channel side sub-channels CH R1 and CH R2 , respectively, These frequency components x are represented as {x 3,1 , x 3,2 , ..., x 3, N }, {x 4,1 , x 4,2 , ..., x 4, N }. As shown in FIG. 7, these residual coefficient vectors are arranged in the horizontal direction in the order of sub-channel numbers so that the elements (frequency components) of the respective vectors are in the column direction.
First to fourth of matrix arrangement of components of one sub-channel
Starting from each component x 1,1 , x 2,1 ,…, x 4,4 in the row,
Sequentially circulate in the sub-channel number direction, sequentially extract four components at positions shifted four by four in the frequency axis direction, and obtain a sequence Y 1 = {x 1,1 , x 2,5 , x 3,9 , x 4,13 , x 1,17 }, Y 2 = {x 2,1 , x 3,5 , x 4,9 , x 1,13 , x 2,17 }, Y 3 = {x 3,1 , x 4,5 , x 0,9 , x 2,13 , x 3,17 },… Y m = {x 1, N-16 , x 2, N-12 , x 3, N-8 , x 4, N-4 , x 1, N } is generated to obtain m sequences Y 1 to Y m . These sequences are Y 1 = {y 1 1 , y 2 1 , y 3 1 , y 4 1 , y 5 1 }, Y 2 = {y 1 2 , y 2 2 , y 3 2 , y 4 2 , y 5 2 }, Y 3 = {y 1 3 ,, y 2 3 , y 3 3 , y 4 3 , y 5 3 },… Y m = {y 1 m , y 2 m , y 3 m , y 4 m , y 5 m }. Therefore, for example, y 1 1 = x 1,1 , y 2 1 = x 2,5 ,
…, Y 1 2 = x 2,1 , y 2 2 = x 3,5 ,…. In the example of FIG. 7, in order to obtain a vector Y 1 , Y 2 , Y 3 , ... Which has 5 elements each, the element extraction position is shifted from the first element in the 4th row by 4th column by four cyclic shifts. Again, it is at position 17-20 that the fifth element of the first 16 vectors is obtained. Similarly, starting from each element of the 21st to 24th rows, the cyclic shift is repeated 4 times, and the next 16 vectors are obtained. By performing the cyclic shift in this way, 2
16 vectors are obtained every 0 rows. For example, N = 12
In the case of 8, since 128 ÷ 20 = 6, the remainder is 8, so for the last 8 lines, for example, another extraction method is used to obtain 5 respectively.
Generate a vector with two elements, and for the last two elements, only two of them make up one vector. Therefore, in this case, the total number of vectors m is 103.

【0063】重み計算部34L1,34L2,34R1,34R2から与
えられた2n(この例ではn=2)個の重み係数ベクト
ル VL1={v1,1,v1,2,…,v1,N}, VL2={v2,1,v2,2,…,v2,N}, VR1={v3,1,v3,2,…,v3,N}, VR2={v4,1,v4,2,…,v4,N} も重みインタリーブ部35において残差並び替えと全く
同じ並び替えが行われ、 W1={v1,1,v2,5,v3,9,v4,13,v1,17}, W2={v2,1,v3,5,v4,9,v1,13,v2,17}, W3={v3,1,v4,5,v1,9,v2,13,v3,17}, … Wm={v1,N-16,v2,N-12,v3,N-8,v4,N-4,v1,N} を生成し、m個の重み係数系列W1〜Wmが得られる。これ
らの系列も W1={w1 1,w2 1,w3 1,w4 1,w5 1}, W2={w1 2,w2 2,w3 2,w4 2,w5 2}, W3={w1 3,w2 3,w3 3,w4 3,w5 3}, … Wm={w1 m,w2 m,w3 m,w4 m,w5 m} と表すことにする。これらもベクトル量子化部36に与
えられる。
2n (n = 2 in this example) weighting coefficient vectors V L1 = {v 1,1 , v 1,2 , ... Which are given from the weight calculating units 34 L1 , 34 L2 , 34 R1 , 34 R2 , v 1, N }, V L2 = {v 2,1 , v 2,2 , ..., v 2, N }, V R1 = {v 3,1 , v 3,2 , ..., v 3, N } , V R2 = {v 4,1 , v 4,2 , ..., v 4, N } is subjected to exactly the same sort as the residual sort in the weight interleaving unit 35, and W 1 = {v 1,1 , v 2,5 , v 3,9 , v 4,13 , v 1,17 }, W 2 = {v 2,1 , v 3,5 , v 4,9 , v 1,13 , v 2,17 } , W 3 = {v 3,1 , v 4,5 , v 1,9 , v 2,13 , v 3,17 },… W m = {v 1, N-16 , v 2, N-12 , v 3, N-8, v 4, N-4, v 1, to generate a N}, m-number of weight coefficient sequence W 1 to W-m can be obtained. These sequences are also W 1 = {w 1 1 , w 2 1 , w 3 1 , w 4 1 , w 5 1 }, W 2 = {w 1 2 , w 2 2 , w 3 2 , w 4 2 , w 5 2 }, W 3 = {w 1 3 ,, w 2 3 , w 3 3 , w 4 3 , w 5 3 },… W m = {w 1 m , w 2 m , w 3 m , w 4 m , w 5 m }. These are also provided to the vector quantizer 36.

【0064】他の並べ替えの例を図8に示す。この例は
図7の場合の左サブチャンネルCHL1の正規化残差係数ベ
クトルXL1={x1,1,x1,2,…,x1,N}の要素の配列を基準
にし、正規化残差係数ベクトルXL2,XR1,XR2 のそれぞ
れN個の要素の配列を図8に示すように要素数1、2及
び3だけそれぞれ周波数軸方向に循環シフトしてマトリ
クス配置し、図7の場合と同じように配列の第1〜4行
の各成分から出発して4つのサブチャンネルを順次循環
しながら下方向に4つずつずれた位置の成分をそれぞれ
5つ取り出すことを繰り返してそれぞれ5つの成分を要
素とする系列 Y1={x1,1,x2,6,x3,11,x4,16,x1,17}, Y2={x2,2,x3,7,x4,12,x1,13,x2,18}, Y3={x3,3,x4,8,x1,9,x2,14,x3,19}, … と並び替えたm個の系列Y1〜Ymを得る。重み係数につい
ても同様である。
Another example of rearrangement is shown in FIG. This example is based on the array of elements of the normalized residual coefficient vector X L1 = {x 1,1 , x 1,2 , ..., x 1, N } of the left sub-channel CH L1 in the case of FIG. As shown in FIG. 8, the array of N elements of each of the vectorized residual coefficient vectors X L2 , X R1 , and X R2 is cyclically shifted in the frequency axis direction by the number of elements 1, 2, and 3, respectively, and arranged in a matrix. In the same manner as in the case of 7, repeating the procedure starting from each component of the 1st to 4th rows of the array while sequentially circulating four subchannels and extracting five components at positions shifted by 4 downwards. Sequence Y 1 = {x 1,1 , x 2,6 , x 3,11 , x 4,16 , x 1,17 }, each having 5 components Y 2 = {x 2,2 , x 3 , 7, x 4,12, x 1,13 , x 2,18}, Y 3 = {x 3,3, x 4,8, x 1,9, x 2,14, x 3,19}, ... get the m-number of series Y 1 ~Y m rearranged with. The same applies to the weighting factor.

【0065】図7A又は8Aの例に示したような残差係
数及び重み係数の並べ替えは、前述したようにそれらの
係数がサブチャンネル間及び周波数領域内でなるべく混
ぜ合わされることが好ましく、従って重複することな
く、ランダムに行った方がよく、規則的に行う必要はな
い。例えば各並べ替えられた系列Y1〜Ymについてその第
1番目の要素はどのチャネルの何番目の要素を持って来
ればよいかと、各要素について何れのチャネルの何番目
の要素を持って来ればよいかを示すテーブルを用意して
おきこのテーブルに従って並べ替えを行えばよい。比較
的簡単な演算で各要素を並べ替え位置を決定してもよ
い。
The reordering of the residual and weight coefficients as shown in the example of FIG. 7A or 8A is preferably such that the coefficients are intermixed between subchannels and in the frequency domain, as described above, and thus overlap. It is better not to do it randomly, and it is not necessary to do it regularly. For example, for each rearranged sequence Y 1 to Y m , the first element of which channel should bring which element, and for each element what channel of which channel should bring. It is possible to prepare a table indicating whether or not to do so and perform the rearrangement according to this table. You may determine a rearrangement position of each element by a comparatively simple operation.

【0066】このようにして得られた残差インタリーブ
部35XYからの各系列Y1〜Ymはそれぞれベクトル量子化部
36において、それぞれ対応する重み系列W1〜Wmによる
重み付きベクトル量子化される。図9はベクトル量子化
部36の構成例であり、インタリーブ後のk番目の残差
系列(図7A又は8Aと同様に要素数を5とする) Yk={y1 k,y2 k,…,y5 k}={yi k|i=1〜5} と、それに対応するインタリーブ後のk番目の重み系列 Wk={w1 k,w2 k,…,w5 k}={wi k|i=1〜5} とによる重み付きベクトル量子化を行う場合について示
している。統合符号帳36Aにはそれぞれのインデック
スに対応して一定長の予期される様々な統合ベクトルが
予め格納されている。正規化残差系列Ykは、統合符号帳
36Aのインデックスjから読み出された統合ベクトル
C(j)のi番目の要素をci(j) と表すと、ベクトルYkとC
(j)の対応する要素間の差yi k-ci(j) がi=1〜5につ
いて減算器36Bで求められ、それらの差分がそれぞれ
2乗器36Cで2乗され、内積計算部36Eに与えられ
る。一方、重みベクトルWkの各成分wi k は2乗器36D
で2乗され、内積計算部36Eに与えられ、前記差の2
乗との内積がベクトル量子化の際の重み付き距離尺度dk
(j) として求められ、最適符号探索部36Fに与えられ
る。即ち、重み付き距離尺度は次式で表される。
The respective sequences Y 1 to Y m from the residual interleaving unit 35 XY thus obtained are respectively weighted by the corresponding weight sequences W 1 to W m in the vector quantizing unit 36. To be done. FIG. 9 shows an example of the configuration of the vector quantization unit 36. The k-th residual sequence after interleaving (the number of elements is 5 as in FIG. 7A or 8A) Y k = {y 1 k , y 2 k , …, Y 5 k } = {y i k | i = 1 to 5} and the corresponding interleaved k-th weight sequence W k = {w 1 k , w 2 k , ..., w 5 k } = The case where the weighted vector quantization is performed by {w i k | i = 1 to 5} is shown. In the integrated codebook 36A, various expected integrated vectors having a certain length are stored in advance corresponding to the respective indexes. The normalized residual sequence Y k is an integrated vector read from the index j of the integrated codebook 36A.
Representing the i-th element of C (j) as c i (j), the vectors Y k and C
The difference y i k -c i (j) between the corresponding elements of (j) is obtained by the subtractor 36B for i = 1 to 5, and the difference is squared by the squarer 36C, and the inner product calculation unit 36E. On the other hand, each component w i k of the weight vector W k is a squarer 36D.
Squared with the difference of 2 of the difference given to the inner product calculation unit 36E.
Weighted distance measure d k when the dot product with the power is vector quantization
It is obtained as (j) and given to the optimum code searching unit 36F. That is, the weighted distance measure is expressed by the following equation.

【0067】dk(j)=Σ[wi k{yi k−ci(j)}]2 ただし、Σはi=1〜5に付いての加算オペレータであ
る。符号帳探索部36Fは全てのインデックスjに対し
て統合符号帳36Aから読み出した符号ベクトルC(j)に
ついて上述のようにして求めた距離尺度dk(j) が最小と
なる符号ベクトルのインデックスjを探索し、決定され
たベクトル量子化インデックスJkとして出力する。以下
同様にk=1〜mの全ての残差系列Y1〜Ymについての重
み付きベクトル量子化を行い、決定されたm個のベクト
ル量子化インデックスJ1〜Jmが図4Aの端子37に出力
される。
D k (j) = Σ [w i k {y i k −c i (j)} 2 where Σ is an addition operator for i = 1 to 5. The codebook search unit 36F uses the index j of the code vector that minimizes the distance measure d k (j) obtained as described above for the code vector C (j) read from the integrated codebook 36A for all the indexes j. Is output and is output as the determined vector quantization index J k . Similarly, weighted vector quantization is performed on all residual sequences Y 1 to Y m of k = 1 to m , and the determined m vector quantization indexes J 1 to J m are the terminals 37 of FIG. 4A. Is output to.

【0068】図4Aにおいて各残差/概形計算部32L1
32Ln、32R1〜32Rnは図4Bの構成例に限らず、図10A
に示すように窓掛け部32Aで時間窓が掛けられたLO
T処理用フレームをMDCT部32Bで変換して得た周
波数領域係数を分岐し、その各サンプル(スペクトル)
の絶対値を絶対値計算部32Gでとり、その絶対値出力
を逆フーリエ変換部32Hで逆フーリエ変換することに
より自己相関係数を求め、その自己相関係数である時間
領域信号を線形予測分析部32Cで線形予測分析し、そ
の後は図4Bについて述べたと同様に量子化部32Dで
予測係数を量子化してその量子化予測係数を表すインデ
ックスを概形インデックスIEとして出力すると共に、量
子化予測係数を概形計算部32Eに与えてスペクトラム
概形Vを計算し、正規化部32Fに与えて残差係数を求
めてもよい。あるいは図10Bに示すようにMDCT部
32Bからの周波数領域係数をいくつかの小帯域に分け
て帯域代表値計算部32J1〜32JPで各分割された小帯域内
係数の代表値SF1〜SFP(スケールファクタ)をそれぞれ
計算し、かつその代表値SF1〜SFPを量子化部32Kで量
子化して量子化スケールファクタを表すインデックスを
概形インデックスIEとして出力すると共に、その量子化
代表値を概形Vとして正規化部32Fに与えてもよい。
各代表値としては、例えばその小帯域内の係数の2乗平
均値を使うことができる。
In FIG. 4A, each residual / rough shape calculation unit 32 L1 ...
32 Ln and 32 R1 to 32 Rn are not limited to the configuration example of FIG.
As shown in FIG.
The frequency domain coefficient obtained by transforming the T processing frame by the MDCT unit 32B is branched, and each sample (spectrum) thereof is divided.
The absolute value of is calculated by the absolute value calculation unit 32G, the absolute value output is inverse Fourier transformed by the inverse Fourier transform unit 32H to obtain the autocorrelation coefficient, and the time domain signal which is the autocorrelation coefficient is subjected to linear prediction analysis. linear prediction analysis in part 32C, with then outputs the prediction coefficients in the same quantization unit 32D and described for Figure 4B an index representing the quantized prediction coefficients are quantized as envelope index I E, quantised prediction The coefficient may be given to the rough shape calculation unit 32E to calculate the spectrum rough shape V, and may be given to the normalization unit 32F to obtain the residual coefficient. Alternatively representative value SF 1 - SF sub-band coefficients each divided by the band representative value calculating unit 32J 1 ~32J P frequency-domain coefficients is divided into several small band from the MDCT unit 32B as shown in FIG. 10B P a (scale factor) is calculated respectively, and outputs the representative value SF 1 - SF P indexes representing the quantized scale factors are quantized by the quantization unit 32K as envelope index I E, the quantization representative The value may be given to the normalization unit 32F as the outline V.
As each representative value, for example, the root mean square value of the coefficients in the small band can be used.

【0069】図11に図4Aの符号器に対する復号器の
実施例を示す。入力端子71からベクトル量子化インデ
ックスJ1〜Jmがベクトル再生部72に入力されて、各イ
ンデックスと対応したm個のベクトルY1'〜Ym'が再生さ
れ、また入力端子73から概形インデックスIEL1
IELn,IER1〜IERnが概形再生部62に入力されてそれぞ
れ概形EL1〜ELn,ER1〜ERnが再生される。即ち、各サブ
チャンネルに対応して設けられた再生部62Aで各サブ
チャネルごとの予測係数αがフレームごとに再生され、
その再生された予測係数αから図4Bに示す符号器の残
差/概形計算部32におけるスペクトラム概形計算部3
2Eと同様な計算を行う概形計算部62Bで周波数特性
の概形が各サブチャネルの各フレーム毎に計算されて、
概形EL1〜ELn,ER1〜ERnが得られる。入力端子74から
利得インデックスIGL1〜IGLn,IGR1〜IGRnが利得再生部
75に入力されて各サブチャネルの各フレームごとの正
規化利得(平均パワー)GL1〜GLn,GR1〜GRnがそれぞれ
再生される。
FIG. 11 shows an embodiment of a decoder for the encoder shown in FIG. 4A. The vector quantization indexes J 1 to J m are input to the vector reproducing unit 72 from the input terminal 71, and the m vectors Y 1 'to Y m ' corresponding to the respective indexes are reproduced, and the general shape is input from the input terminal 73. Index I EL1 ~
I ELn and I ER1 to I ERn are input to the outline reproduction unit 62, and the outlines E L1 to E Ln and E R1 to E Rn are reproduced respectively. That is, the prediction coefficient α for each sub-channel is reproduced for each frame by the reproducing unit 62A provided corresponding to each sub-channel,
From the reproduced prediction coefficient α, the spectrum outline calculation unit 3 in the residual / shape calculation unit 32 of the encoder shown in FIG. 4B.
The approximate shape of the frequency characteristic is calculated for each frame of each sub-channel by the approximate shape calculation unit 62B that performs the same calculation as in 2E,
The approximate shapes E L1 to E Ln and E R1 to E Rn are obtained. The gain indexes I GL1 to I GLn and I GR1 to I GRn are input to the gain reproducing unit 75 from the input terminal 74 and the normalized gains (average power) G L1 to G Ln and G R1 G Rn is played respectively.

【0070】ベクトル再生部71で再生されたm個のベ
クトルY1'〜Ym'は逆インタリーブ部76YXで、図4Aの符
号化器のインタリーブ部35で行われたインタリーブと
逆のインタリーブを行ってn個の左チャンネル側残差係
数XL1〜XLnと、n個の右チャンネル側残差係数XR1〜XRn
とを得る。これら残差係数ベクトルXL1〜XLn,XR1〜X Rn
はそれぞれ逆正規化部77L1〜77Ln,77R1〜77Rnで対応す
る再生利得GL1〜GLn,GR1〜GRnが乗算され、即ち逆正規
化され、その各乗算出力はそれぞれ、乗算器65 L1〜6
5Ln,65R1〜65Rnに与えられ、再生された概形EL1
ELn,ER1〜ERnと乗算することにより概形が与えられ、
それぞれ周波数領域係数が再生される。これら周波数領
域係数はそれぞれMDCT部66L1〜66Ln,66R1〜66Rn
逆MDCTされてそれぞれ2Nサンプル(サブフレーム
長の2倍:処理フレーム)の時間領域信号に変換されて
から必要に応じて時間窓が掛けられ、フレーム重ね合わ
せ部78L1〜78Ln、78R1〜78Rnで、それぞれの処理フレー
ムの時間領域信号はそれぞれのサブチャンネルにおいて
その後半のNサンプルと、直前の処理フレームの前半の
Nサンプルとが重ね合わされて、それぞれNサンプルの
サブフレーム信号として対応する左、右チャンネルのフ
レーム合成部79L、79Rに与えられる。各フレーム毎
に左チャンネルフレーム合成部79L では左側サブチャ
ンネルのNサンプルずつのサブフレーム信号をサブフレ
ーム周期(Nサンプル)ずつ順次互いにずらして合成さ
れて1フレームの左チャンネル信号が再生されて出力端
子51L に出力され、同様に右チャンネルフレーム合成
部79R では右側サブチャンネルのNサンプルずつのサ
ブフレーム信号をサブフレーム周期ずつ順次互いにずら
して合成されて1フレームの右チャンネル信号が再生さ
れて出力端子51R に出力される。
The m vectors reproduced by the vector reproducing unit 71 are
Cutle Y1'~ Ym'Is the reverse interleave section 76YXAnd the mark in Figure 4A
Interleaving performed by the interleaving unit 35 of the encoder
Reverse left interleaving to find the n left channel side residuals
Number XL1~ XLnAnd n residual coefficient X on the right channel sideR1~ XRn
And get. These residual coefficient vectors XL1~ XLn, XR1~ X Rn
Denormalization unit 77L1~ 77Ln, 77R1~ 77RnCorrespond with
Playback gain GL1~ GLn, GR1~ GRnIs multiplied, that is, the inverse normal
And each of its multiplication outputs is multiplied by a multiplier 65. L1~ 6
FiveLn, 65R1~ 65RnShape E given and reproduced inL1~
ELn, ER1~ ERnMultiplying with gives an outline,
Each frequency domain coefficient is reproduced. These frequency ranges
MDCT section 66L1~ 66Ln, 66R1~ 66Rnso
2N samples (subframe
Twice the length: processed frame)
A time window is applied from the
Sete 78L1~ 78Ln, 78R1~ 78RnSo each processing frame
Time domain signal on each subchannel
The N samples in the latter half and the first half of the immediately preceding processing frame
N samples are overlaid and each of N samples
Corresponding left and right channel frames as sub-frame signals
Lame combiner 79L, 79RGiven to. For each frame
Left channel frame synthesizer 79L Then left subcha
Subframe signal of N samples each
Sequence is sequentially shifted by N cycles (N samples).
1 frame left channel signal is reproduced and output end
Child 51L To the right channel frame synthesis as well
Part 79R Now, for each N subsample of the right subchannel,
The subframe signals are sequentially shifted by subframe periods.
Then, the right channel signal of one frame is played back and reproduced.
Output terminal 51R Is output to.

【0071】図4Aの実施例では残差インタリーブ部35
XYと重みインタリーブ部35VWで常に予め決められた同じ
インタリーブマッピングに従って並び替えを行う場合を
示したが、複数の並び替えマッピングを予め用意してお
き、ベクトル量子化の歪が最小となるマッピングを選択
するように構成してもよい。その例を図12Aに示す。
この例では図4Aにおける残差インタリーブ部と重みイ
ンタリーブ部とベクトル量子化部の組を2組35XY1,35
VW1,361 及び35XY2,35VW2,362 設け、これらの
インタリーブ部35XY1,35VW1と35XY2,35VW2に与える予
め決めた互いに異なるインタリーブマッピングを格納し
たマッピングテーブルTB1,TB2と、2つのベクトル
量子化部361、362における量子化歪の大小を比較す
る比較器38と、2つのベクトル量子化部361、362
の出力のうち、比較器38の比較結果に基づいて歪の小
さい方の出力を選択出力する選択器39とが設けられて
いる。なお、図を簡単にするため図4Aにおけるサブフ
レーム分割部31L、31R、残差/概形計算部32L1〜32
Ln、32R1〜32Rnは図示せず、パワー正規化部33L1〜3
3 Ln、33R1〜33Rn及び重み計算部34L1〜34Ln、34R1〜34
Rnはそれぞれ33L、33R、34L、34Rで表してい
る。
In the embodiment of FIG. 4A, the residual interleaving unit 35
XYAnd weight interleaving section 35VWAlways the same predetermined
If you want to sort according to interleave mapping
As shown, prepare multiple sorting mappings in advance.
Select the mapping that minimizes the distortion of vector quantization.
It may be configured to do so. An example thereof is shown in FIG. 12A.
In this example, the residual interleaving part and weight
2 sets of interleave part and vector quantization part 35XY1, 35
VW1, 361 And 35XY2, 35VW2, 362 Provided these
Interleave section 35XY1, 35VW1And 35XY2, 35VW2To give to
Store different interleaved mappings
Mapping table TB1, TB2And two vectors
Quantizer 361, 362The magnitude of quantization distortion in
Comparator 38 and two vector quantizers 361, 362
Based on the comparison result of the comparator 38,
And a selector 39 for selecting and outputting the other output
There is. In addition, in order to simplify the figure, the subframe in FIG.
Lame division unit 31L, 31R, Residual / rough shape calculator 32L1~ 32
Ln, 32R1~ 32RnIs not shown, and the power normalization unit 33L1~ 3
3 Ln, 33R1~ 33RnAnd weight calculation unit 34L1~ 34Ln, 34R1~ 34
Rn33 for eachL, 33R, 34L, 34RIs represented by
It

【0072】パワー正規化部33L、33Rからの正規化
残差係数Xは残差インタリーブ部35 XY1、35XY2でそれぞ
れマッピングテーブルTB1,TB2に示されている並び替え
マッピングに従ってそれぞれ異なる並び替えを行う。同
様に重み計算部34L、34Rからの重み係数Vは重みインタ
リーブ部35VW1、35VW2でそれぞれマッピングテーブルTB
1,TB2に示されているインタリーブマッピングに従って
それぞれ並び替えを行う。テーブルTB1 に従って並び
替えられた残差係数系列と、それに対応する重み係数系
列はベクトル量子化部361 に与えられ、残差係数系列
の重み付きベクトル量子化が行われる。同様にテーブル
TBに従って並び替えられた残差係数系列とそれに対応
する重み係数系列はベクトル量子化部362 に与えら
れ、図9で説明した残差係数系列の重み付きベクトル量
子化が行われる。これら量子化部361、362における
ベクトル量子化において求められたそれぞれの最小歪
(最小距離)di k が比較器38で互いに比較され、選択
部39は比較器38の比較結果に従ってベクトル量子化
部361、362のうち計算した歪の小さい方のベクトル
量子化部の出力インデックスJ1〜Jmを選択して、いずれ
のテーブルを使用したかを表す情報(比較結果)ISと共
に端子37に出力する。
Power normalization unit 33L, 33RNormalization from
The residual coefficient X is calculated by the residual interleaving unit 35. XY1, 35XY2And that's it
Mapping table TB1, TB2Sorted by
Sort differently according to the mapping. same
The weight calculator 34L, 34RIs a weighting coefficient V from
Leave section 35VW1, 35VW2Each mapping table TB
1, TB2According to the interleave mapping shown in
Sort each. Table TB1 Arranged according to
Replaced residual coefficient sequence and corresponding weight coefficient system
The column is the vector quantizer 36.1 The residual coefficient series given to
Weighted vector quantization is performed. Table as well
Residual coefficient sequence sorted according to TB and corresponding
The weighting coefficient sequence to be used is the vector quantization unit 36.2 Given to
And the weighted vector amount of the residual coefficient sequence described in FIG.
Childhood is performed. These quantizers 361, 362In
Minimum distortion obtained in vector quantization
(Minimum distance) di k Are compared with each other in the comparator 38 and selected
The unit 39 performs vector quantization according to the comparison result of the comparator 38.
Part 361, 362The vector with the smaller distortion calculated
Output index J of the quantizer1~ JmSelect any
Information that indicates whether the table in (I) is used (comparison result) ISTogether with
To the terminal 37.

【0073】図12Aに示したように量子化歪が小さく
なるようにインタリーブマッピングを選択する符号器に
対する復号器は、図11に示す復号器において図12B
に示すように、図12AのマッピングテーブルTB1,TB2
と対応し、元に戻す並べ替えを行うためのマッピングテ
ーブルITB1,ITB2が設けられ、ベクトル量子化インデッ
クスJ1〜Jmと共に端子71に入力された、選択したマッ
ピングテーブルを表すインデックスISによりセレクタ8
1が制御され、マッピングテーブルITB1,ITB2の対応し
たものが選択されて逆インタリーブ部76における並べ
替えに用いられる。以降の構成は図11と同じであり、
図示してない。図11の概形再生部62においては図1
0Bに示した小帯域の代表値SF1〜SFPを示す概形インデ
ックスIEが入力された場合はその概形インデックスIE
応じて各小帯域の代表値を単に再生して出力すればよ
い。
As shown in FIG. 12A, the decoder for the encoder which selects the interleave mapping so that the quantization distortion becomes small is the decoder shown in FIG.
12A, the mapping tables TB 1 and TB 2 of FIG.
Corresponding to, the mapping tables ITB 1 and ITB 2 for performing the rearrangement to be restored are provided, and the index I S representing the selected mapping table is input to the terminal 71 together with the vector quantization indexes J 1 to J m. By selector 8
1 is controlled, and corresponding ones of the mapping tables ITB 1 and ITB 2 are selected and used for rearrangement in the deinterleaving unit 76. The subsequent configuration is the same as that of FIG. 11,
Not shown. In the outline reproduction section 62 of FIG.
If only it reproduced and outputted representative value of each subband according to its envelope index I E If envelope index I E indicating a representative value SF 1 - SF P sub-band shown is input to 0B Good.

【0074】上述においてはステレオの左、右2チャネ
ルを入力とし、更に各チャネルを、フレームごとに複数
のサブフレームに分割してそれぞれ複数のサブチャネル
にしたが、ステレオの4チャネルあるいは5チャネル信
号を入力し、それぞれを複数のサブフレームに分割して
多チャネル信号としてもよい。1つの入力信号を低域側
信号と高域側信号とに分離して図4Aの入力端子1
L,11Rに入力してもよい。上述では複数の入力端子
11L,11Rよりの信号をフレームごとに複数のサブフ
レームに分割したが、サブフレームに分割することな
く、複数の端子11L,11R に入力された信号のフレ
ーム毎の残差係数をインタリーブ部35XYで並べ替えてm
個の系列とし、同様にフレーム毎のスペクトラム概形と
パワーから生成された重み係数もインタリーブ部35VW
並べ替えて、重み付きベクトル量子化をm個の各系列に
ついて行ってもよい。また1つの入力信号、つまり1モ
ラル信号を入力して、フレームごとに複数の副フレーム
に分割して、それぞれの残差信号を得、重み付きベクト
ル量子化をしてもよい。
In the above description, the left and right stereo channels are input, and each channel is divided into a plurality of subframes for each frame to form a plurality of subchannels. However, a stereo four-channel or five-channel signal is used. May be input, and each may be divided into a plurality of subframes to form a multichannel signal. One input signal is separated into a low-frequency side signal and a high-frequency side signal, and the input terminal 1 of FIG.
You may input to 1 L and 11 R. In the above description , the signals from the plurality of input terminals 11 L and 11 R are divided into a plurality of subframes for each frame, but the frame of the signal input to the plurality of terminals 11 L and 11 R is not divided into subframes. Residual coefficients for each are sorted by interleaving section 35 XY and m
Alternatively, the weighting vector quantization may be performed for each of the m sequences by similarly rearranging the weighting factors generated from the spectrum outline and power for each frame in the interleaving unit 35 VW . Alternatively, one input signal, that is, one moral signal may be input, divided into a plurality of subframes for each frame, each residual signal may be obtained, and weighted vector quantization may be performed.

【0075】上述では周波数領域信号への変換をMDC
Tで行ったが、フレームを副フレームと分割する場合以
外は、他の直交変換手段によって周波数領域信号に変換
してもよい。復号化側は符号化の変換と逆の変換とな
る。以上述べたように図4A及び11の実施例によれ
ば、チャネル間のパワーの偏りや、各フレーム内の時間
軸上でのパワー偏りがあると、ビット割当てを適応的に
変化させないでも量子化歪を低減することができ、ビッ
ト割当てのため演算を必要としない。またビット割当て
情報を伝送しないため、符号誤りにも強い。従って、こ
の発明の復号化方法は上記符号化方法による復号を正し
く復号することができる。
In the above, conversion to the frequency domain signal is performed by MDC.
Although it is performed at T, it may be transformed into a frequency domain signal by other orthogonal transformation means except when the frame is divided into subframes. On the decoding side, the conversion is the reverse of the encoding conversion. As described above, according to the embodiments of FIGS. 4A and 11, when there is a power imbalance between channels or a power imbalance on the time axis in each frame, quantization is performed without adaptively changing bit allocation. The distortion can be reduced and no operation is required for bit allocation. Moreover, since the bit allocation information is not transmitted, it is resistant to code errors. Therefore, the decoding method of the present invention can correctly decode the decoding by the above coding method.

【0076】図4Aで示した符号器の実施例では、入力
音響信号を常にフレーム毎にサブフレームに分割して複
数のサブチャンネルに分配する場合を示したが、この発
明は信号の時間方向のパワーの偏りを利用して符号化に
必要な情報量を削減する(言い替えれば符号化歪を小さ
くする)ので、入力信号のパワーが定常的な場合は効果
がない。それにもかかわらず全てのサブチャンネルのベ
クトル量子化インデックスJ1〜Jm、概形インデックスI
EL1〜IELn、IER1〜IERn、正規化利得インデックスIGL1
〜IGLn、IGR1〜IGRnを常に出力するのはむしろサブチャ
ンネルに分けないで符号化する場合より多くの符号化情
報量を必要とすることが有り得る。また、符号化のため
の処理量がサブチャンネルに分けない場合より多くなる
ことが有り得る。この点を改善した符号器の実施例をま
ず1チャンネル入力音響信号に対する符号器の場合につ
いて図13に示す。
In the embodiment of the encoder shown in FIG. 4A, the input acoustic signal is always divided into subframes for each frame and distributed to a plurality of subchannels. Since the amount of information required for encoding is reduced by using the power bias (in other words, the encoding distortion is reduced), there is no effect when the power of the input signal is stationary. Nevertheless, the vector quantization indexes J 1 to J m of all subchannels, the rough index I
EL1 to I ELn , I ER1 to I ERn , Normalized gain index I GL1
It is possible that the output of ~ I GLn and I GR1 ~ I GRn always requires a larger amount of coded information than the case of coding without dividing into subchannels. Further, the processing amount for encoding may be larger than that when not divided into subchannels. An embodiment of an encoder in which this point is improved is shown in FIG. 13 for the case of the encoder for a one-channel input acoustic signal.

【0077】図13において、サブフレーム分割部3
1、残差/概形計算部321〜32n、パワー正規化部3
1〜33n、重み計算部341〜34n、残差インタリー
ブ部35 XY、重みインタリーブ部35VW、ベクトル量子化部
36の構成は図4Aに示す符号器において例えば右チャ
ンネル側に係わる構成を除去したものと同じであり、動
作も同じである。この実施例では更に、入力音響信号を
フレーム毎に分割するフレーム分割部41、フレーム毎
の信号の状態を判定する状態判定部42、定常フレーム
の残差係数及びスペクトラム概形を求める残差/概形計
算部320 、定常フレームの残差係数のパワーを正規化
するパワー正規化部330 、定常フレームのスペクトラ
ム概形と正規化利得から重み係数を求める重み計算部3
0 、正規化残差係数を複数の系列に並べ替える残差イ
ンタリーブ部43XY、重み係数を残差係数と同じ複数の系
列に並べ替える重みインタリーブ部43VW、残差サブ系列
を対応する重みサブ系列で重み付きベクトル量子化する
ベクトル量子化部44、ベクトル量子化部36と44の
出力をフレームの状態に応じて選択出力するセレクタ4
5A、定常フレームと過渡フレームの概形インデックス
IE0 とIE1〜IEnをフレームの状態に応じて選択出力する
セレクタ45B、定常フレームと過渡フレームの正規化
利得インデックスIG0 とIG1〜IGnをフレームの状態に応
じて選択出力するセレクタ45Cが設けられている。各
残差/概形計算部320 、321〜32nの構成は同じで
あり、図4B、10A又は10Bで示したどれを使って
もよい。
In FIG. 13, the subframe division unit 3
1. Residual / rough shape calculation unit 321~ 32n, Power normalization unit 3
Three1~ 33n, Weight calculator 341~ 34n, Residual interleaving
Part 35 XY, Weight interleaving section 35VW, Vector quantizer
In the encoder shown in FIG.
It is the same as the one with the configuration related to the tunnel side removed.
The work is the same. In this embodiment, the input acoustic signal is
Frame division unit 41 for dividing each frame, for each frame
State determination unit 42 for determining the state of the signal of the stationary frame
Residual / Approximation meter for finding residual coefficient and spectrum outline of
Arithmetic unit 320 , Normalize the power of residual coefficients of stationary frames
Power normalizing unit 330 , Spectra of stationary frame
Weight calculation unit 3 for obtaining a weight coefficient from the outline shape and the normalized gain
Four0 , The residual error that rearranges the normalized residual coefficient into multiple series.
Interleave section 43XY, The weighting coefficient is the same as the residual coefficient
Weight interleaving section 43 for rearranging in columnsVW, Residual subseries
Vector-quantize with a corresponding weight subsequence
Vector quantizer 44, vector quantizers 36 and 44
Selector 4 that selectively outputs the output according to the state of the frame
5A, stationary and transient frame shape indices
IE0 And IE1~ IEnOutput depending on the state of the frame
Selector 45B, normalization of steady and transient frames
Gain index IG0 And IG1~ IGnAccording to the condition of the frame
A selector 45C for selectively outputting the same is also provided. each
Residual / rough shape calculation unit 320 , 321~ 32nThe configuration is the same
Yes, using whichever one shown in Figure 4B, 10A or 10B
Good.

【0078】入力端子11からの入力ディジタル音響信
号系列はフレーム分割部41に入力され、Mサンプルご
とのフレームに分割されて残差/概形計算部320 と、
状態判定部42と、サブフレーム分割部31とに供給さ
れる。状態判定部42で上記Mサンプルごとの各フレー
ムの信号が定常的か過渡的かの判定がされる。つまりフ
レーム内の時間変動が大きい場合、即ちパワーの変動や
スペクトル包絡の変化が急な場合は過渡的フレームと判
定する。そのために、例えば各フレームを時間的に4分
割し、その各分割された部分の平均パワーあるいは平均
的スペクトラム概形を求め、これら4つの部分のパワー
の変化率あるいはスペクトラム概形の変化率を求め、そ
の変化率が所定値より大であれば過渡的と判定し、所定
値以下であれば定常的と判定する。状態判定部42での
判定は、各フレームF1,F2,…毎に行われるが、例えば
図14に示すように、MDCTを行う単位(処理フレー
ム)、つまり各フレームとその直前のフレームの2Mサ
ンプルの信号系列が定常的か過渡的かを、Mサンプル
(1フレーム)ずつずらしながら行われる。例えばフレ
ームF2でそのフレームと直前のフレームF1から成る2M
サンプルの処理フレームが定常的と判定されると、その
2Mサンプルに対し、窓関数WFが掛けられて、残差/
概形計算部32 0 においてMDCTが行われる。また例
えばフレームF4でそのフレームと直前のフレームF3から
成る2Mサンプルの処理フレームが過渡的と判定される
と、その2Mサンプルの中央部におけるMサンプル分が
n(この例ではn=4)個のサブフレームSF41〜SF44
分割され、それらの各サブフレームは残差/概形計算部
321〜324においてその直前のサブフレームSF34,SF
41,SF42,SF43とそれぞれ合わせた各々2M/nサンプルか
ら成る2サブフレーム単位でMDCTされ、その窓関数
WSS は図14に示すように、その2サブフレームにまた
がるものである。またサブフレームへの分割の前後で、
定常的フレームと過渡的フレームとの境界が連続的につ
ながるように、図14に示すような窓関数WFA 、つまり
過渡側は、窓関数WFS の各一半部とし、定常側はWFS
最大値とする。これら窓関数WFS,WFAは一例であり、そ
の他の手法でもよい。
Input digital audio signal from the input terminal 11
The signal sequence is input to the frame division unit 41, and every M samples.
And the residual / rough shape calculation unit 32 is divided into frames0When,
It is supplied to the state determination unit 42 and the subframe division unit 31.
Be done. In the state determination unit 42, each frame for each of the above M samples
It is determined whether the signal of the system is stationary or transient. In other words
If the time variation in the frame is large, that is, the power variation or
If the spectral envelope changes suddenly, it is judged as a transient frame.
Set. So, for example, each frame is 4 minutes in time
Average power or average of each divided part
To obtain the general spectrum outline, and the power of these four parts
Change rate or spectrum change rate, and
If the rate of change of
If it is less than or equal to the value, it is determined to be stationary. In the state determination unit 42
Judgment is for each frame F1, F2, ..., but is done every time, for example
As shown in FIG. 14, a unit for performing MDCT (processing frame
2M service of each frame and the frame immediately before it.
Whether the sample signal sequence is stationary or transient, M samples
It is performed while shifting by (one frame). For example
Arm F2And that frame and the previous frame F12M consisting of
When the processing frame of a sample is determined to be stationary, its
The window function WF is applied to the 2M sample, and the residual /
Outline calculator 32 0 At MDCT is performed. Also an example
Frame FFourAnd that frame and the previous frame F3From
2M sample processing frames are determined to be transient
And the M samples in the center of the 2M samples
n (n = 4 in this example) subframes SF41~SCIENCE FICTION44To
It is divided, and each of those subframes is the residual / rough shape calculation unit.
321~ 32FourSubframe SF immediately before34,SCIENCE FICTION
41,SCIENCE FICTION42,SCIENCE FICTION432M / n samples combined with
MDCT in units of 2 subframes and its window function
WSS As shown in FIG.
It is something that is worth. Also, before and after dividing into subframes,
The boundaries between stationary and transient frames are
As you can see, the window function WF as shown in FIG.A , That is,
On the transient side, the window function WFS Each half, and the steady side is WFS of
Maximum value. These window functions WFS, WFAIs an example,
Other methods may be used.

【0079】定常的と判定されると、残差/概形計算部
420 はそのフレームのスペクトラム概形E0と周波数領
域の残差係数X0を計算して出力すると共に、スペクトラ
ム概形の計算時に求めた概形インデックスIE0 を出力す
る。即ち、例えば残差/概形計算部420 として図4B
に示すものを使った場合、前述と同様に入力Mサンプル
毎に直前のMサンプルとを加えた2Mサンプルの処理フ
レームに対し窓掛け部32Aで時間窓を掛け、MDCT
部32Bで周波数領域係数に変換する。また、線形予測
分析部32C、予測係数量子化部32D、スペクトラム
概形計算部32Eによりスペクトラム概形Eを求めると
共に、概形インデックスIE0 を出力する。
If it is determined to be stationary, the residual / rough shape calculation unit 42 0 calculates and outputs the spectrum rough shape E 0 of the frame and the residual coefficient X 0 in the frequency domain and outputs the spectrum rough shape. The rough index I E0 calculated at the time of calculation is output. That is, for example, as the residual / rough shape calculation unit 42 0 shown in FIG.
When the one shown in FIG. 2 is used, the windowing unit 32A applies a time window to the processing frame of 2M samples obtained by adding the immediately preceding M samples for each input M sample, and the MDCT is performed.
The unit 32B converts the frequency domain coefficient. In addition, the linear prediction analysis unit 32C, the prediction coefficient quantization unit 32D, and the spectrum outline calculation unit 32E determine the spectrum outline E and output the outline index I E0 .

【0080】残差/概形計算部320 からの残差係数は
パワー正規化部330 で処理フレーム内平均パワーで正
規化され、その正規化残差係数XN0 を残差インタリーブ
部43 XYに与える。その正規化利得G0は重み計算部340
に与えられ、スペクトラム概形E0に乗算されて重み係数
V0とされ、重みインタリーブ部43VWに与えられる。残差
係数XN0 は残差インタリーブ部43XYにより前述したよう
に複数(例えばh=4個)の小系列に並び替えられ、ベ
クトル量子化部44に与えられる。その各小系列の概形
はほぼ同一になるように並べ替えることが望ましい。ま
た重み計算部340 からの重み係数V0も重みインタリー
ブ部43VWにより残差並べ替えと同じ並べ替えによりh個
の小系列に並べ替えられ、ベクトル量子化部44に与え
られる。ベクトル量子化部44はh個の残差小系列を、
対応する重み小系列を使ってそれぞれ重み付きベクトル
量子化し、h個の量子化インデックスJ1〜J4を出力し、
セレクタ45Aの一方の入力に与える。
Residual / rough shape calculation unit 320The residual coefficient from is
Power normalization unit 330 With the average power in the processing frame is positive
Normalized and its normalized residual coefficient XN0 Residual interleaving
Part 43 XYGive to. Its normalized gain G0Is the weight calculator 340 
Given to the spectrum outline E0Is multiplied by the weighting factor
V0And the weight interleaving unit 43VWGiven to. Residual error
Coefficient XN0 Is the residual interleave section 43XYAs mentioned above
Are sorted into multiple (for example, h = 4) small series,
It is provided to the Kuttor quantizer 44. Outline of each sub-series
It is desirable to rearrange so that they are almost the same. Well
Weight calculator 340 Weighting factor from V0Also weight interleaving
Part 43VWBy the same sort as the residual sort by
To the vector quantization unit 44.
To be The vector quantizer 44 uses h residual small series as
Each weighted vector using the corresponding weight subsequence
Quantize h quantization indices J1~ JFourAnd output
It is given to one input of the selector 45A.

【0081】状態判定部42で過渡的フレームと判定さ
れると、図4Aの場合と同様にサブフレーム分割部31
でMサンプルの各フレームはn個のサブフレームに等分
割され、n個のサブチャンネルCH1〜CHnにそれぞれ対応
するサブフレームとその直前のサブフレームの2M/hサン
プル(処理フレーム)ずつが分配される。その分配され
たn個の処理フレームから図4Aの場合と同様に残差/
概形計算部321 〜32n で残差係数X1〜Xnとスペクト
ラム概形E1〜Enが生成される。パワー正規化部331
33nは残差係数X1〜Xnをそれぞれのサブフレームの平
均パワーにより正規化し、その正規化残差係数XN1〜XNn
を残差インタリーブ部35XYに与え、正規化利得G1〜Gn
重み計算部341〜34nに与えると共にそれらの利得を
表すインデックスIG1〜IGnを出力する。重み計算部34
1〜34nはスペクトラム概形E1〜Enに正規化利得G1〜Gn
をそれぞれ乗算して重み係数V1〜Vnを生成し、重みイン
タリーブ部35VWに与える。
When the state determination unit 42 determines that the frame is a transient frame, the sub-frame division unit 31 is used as in the case of FIG. 4A.
Then, each frame of M samples is equally divided into n sub-frames, and the sub-frames corresponding to the n sub-channels CH 1 to CH n and 2 M / h samples (processing frames) of the immediately preceding sub-frame are respectively generated. To be distributed. From the distributed n processing frames, the residual /
Residual coefficients X 1 to X n and the spectrum envelope E 1 to E n is generated by the envelope calculation section 32 1 to 32 n. Power normalization unit 33 1 ~
33 n normalizes the residual coefficients X 1 to X n with the average power of each subframe, and the normalized residual coefficients X N1 to X Nn.
To the residual interleaving unit 35 XY , the normalized gains G 1 to G n to the weight calculating units 34 1 to 34 n , and outputs the indexes I G1 to I Gn representing those gains. Weight calculator 34
1 to 34 n are spectrum gains E 1 to E n and normalized gains G 1 to G n
Are respectively multiplied to generate weighting factors V 1 to V n, which are applied to the weighting interleaving unit 35 VW .

【0082】このようにして得られたサブチャンネルCH
1〜CHnのn個の正規化残差サブ系列XN1〜XNnは残差イン
タリーブ部35に入力されて図4Aの場合と同様に全て
のサブ系列の成分が並べ替えられてm個の系列Y1〜Ym
して出力される。サブチャンネルCH1〜CHnのn個の重み
係数サブ系列V1〜Vnも重みインタリーブ部35で同じイ
ンタリーブが行われ、m個の系列W1〜Wmとして出力され
る。このようにして得られたインタリーブ後の残差系列
(ベクトル)Y1〜Ymはそれぞれベクトル量子化部36に
おいて、対応するインタリーブ後の重み系列(ベクト
ル)W1〜Wmを使って重み付きベクトル量子化され、量子
化インデックスJ1〜Jmが出力される。
Sub-channel CH thus obtained
The n normalized residual sub-sequences X N1 to X Nn of 1 to CH n are input to the residual interleaving unit 35 and all sub-sequence components are rearranged in the same manner as in the case of FIG. It is output as the series Y 1 to Y m . The same weighting interleaving unit 35 performs the same interleaving on the n weighting coefficient sub-sequences V 1 to V n of the sub-channels CH 1 to CH n , and outputs them as m sequences W 1 to W m . The thus-obtained residual series (vectors) Y 1 to Y m after interleaving are weighted in the vector quantizer 36 using the corresponding weighted series (vector) W 1 to W m after interleaving. The vector is quantized, and the quantized indexes J 1 to J m are output.

【0083】定常的フレームか、過渡的フレームかを示
す1ビット符号Idと、定常的フレームにおけるベクトル
量子化インデックスJ01〜J0hと、概形インデックスIE0
と、正規化利得インデックスIG0とが出力され、過渡的
フレームではベクトル量子化インデックスJ1〜Jmと、概
形インデックスIE1〜IEnと、正規化利得インデックスI
G1〜IGnとが出力される。これらベクトル量子化インデ
ックス、概形インデックス、正規化利得インデックスは
それぞれセレクタ45A,45B,45Cで状態判定符
号Idに従って選択出力される。
A 1-bit code Id indicating a stationary frame or a transient frame, vector quantization indexes J 01 to J 0h in the stationary frame, and an approximate shape index I E0
And the normalized gain index I G0 are output, and the vector quantization indices J 1 to J m , the rough index I E1 to I En, and the normalized gain index I G0 are output in the transient frame.
G1 to I Gn are output. These vector quantization index, outline index, and normalized gain index are selected and output by the selectors 45A, 45B, and 45C according to the state determination code Id.

【0084】図15に図13の符号器の実施例に対応す
る復号器の例を示し、図12と対応する部分に同様の参
照番号を付けてある。概形インデックスIE0 又はIE1〜I
Enが入力され、入力された状態判定符号Idに応じてセレ
クタ80B により概形再生部620 又は62へ供給され
る。またベクトル量子化インデックスJ01 〜J0h 又はJ1
〜Jmの何れかがセレクタ80A に入力され、符号Idに応
じてセレクタ80A によりベクトル再生部720 又は7
2に供給され、正規化利得インデックスIG0 又はIG1〜I
Gnの何れかがセレクタ80C に入力され、符号ISに応じ
て利得再生部750 又は75に供給される。概形再生部
620 及び62においては、それぞれその入力されたイ
ンデックスに応じた予測係数を再生部62A で再生し、
その再生された予測数を用いて概形計算部62B でその
周波数特性の概形が計算される。
FIG. 15 shows an example of a decoder corresponding to the embodiment of the encoder shown in FIG. 13, and parts corresponding to those in FIG. 12 are given the same reference numerals. Roughness index I E0 or I E1 ~ I
En is input and is supplied to the outline reproduction section 62 0 or 62 by the selector 80B according to the input state determination code Id. Also, the vector quantization index J 01 to J 0h or J 1
~ J m is input to the selector 80A, and the vector reproducing unit 72 0 or 7 is selected by the selector 80A according to the code Id.
2 and the normalized gain index I G0 or I G1 to I
One of Gn is input to the selector 80C and is supplied to the gain reproducing section 75 0 or 75 depending on the code I S. In the general shape reproduction units 62 0 and 62, the reproduction unit 62 A reproduces the prediction coefficient corresponding to the input index,
The approximate shape of the frequency characteristic is calculated by the approximate shape calculation unit 62B using the reproduced predicted number.

【0085】符号Idが定常的信号のフレームを示してい
る場合は、ベクトル量子化インデックスJ01〜J0hがベク
トル再生部81に与えられ、各インデックスが逆ベクト
ル量子化され、h個の小系列Y01'〜Y0h'が再生される。
これら小系列は逆インタリーブ部82YXで図13の符号器
における残差インタリーブ部45逆の並べ替えにより元
の1系列の正規化残差係数XN0に統合され、この残差係
数XN0に対し乗算器770 で、再生部75からの再生利
得G0が乗算される。この乗算出力は、パワー逆正規化部
650 において概形再生部620 からの再生概形係数E0
が乗算され、つまり逆正規化され、周波数領域係数が復
元される。その周波数領域係数は図12の復号器と同様
に逆MDCT部660 で逆変形離散コサイン変換されて
時間領域信号とされ、更にフレーム重ね合せ部780
必要に応じて窓掛けされてから2Mサンプルフレームの
前半と、その直前の2Mサンプルフレームの後半とが重
ね合わされて1フレームMサンプルの再生音響信号とし
て端子51に出力される。
When the code Id indicates a stationary signal frame, vector quantization indexes J 01 to J 0h are given to the vector reproducing unit 81, each index is inverse vector quantized, and h small series Y 01 'to Y 0h ' will be played.
These small sequences will be integrated into the deinterleaving portion 82 normalized residual coefficients X N0 by residual interleave part 45 opposite sort in the encoder of the original 1 series in FIG. 13 YX, to the residual coefficients X N0 The multiplier 77 0 multiplies the reproduction gain G 0 from the reproduction unit 75. The multiplication output is the reproduction outline coefficient E 0 from the outline reproduction unit 62 0 in the power denormalization unit 65 0 .
Are multiplied, that is, denormalized, to recover the frequency domain coefficients. Its frequency domain coefficients are reversed modified discrete cosine transformed time domain signal by the inverse MDCT section 66 0 similarly to the decoder of Figure 12, 2M since the windowed optionally in mating portion 78 0 overlaid further frame The first half of the sample frame and the second half of the immediately preceding 2M sample frame are overlapped and output to the terminal 51 as a reproduced sound signal of 1 frame of M samples.

【0086】符号Idが過渡的フレームを示している場合
は、入力された概形インデックスIE 1〜IEnからそれぞれ
概形再生部62で各サブフレームのスペクトラム概形が
再生されて概形係数E1〜Enが出力される。また入力され
た正規化利得インデックスIG 1〜IGnは利得再生部75で
それぞれ利得G1〜Gnとして再生される。更に入力された
ベクトル量子化インデックスJ1〜Jmはベクトル再生部7
2でそれぞれ再生される。これら再生されたm個のベク
トルY1〜Ymは逆インタリーブ部76YXで、図13の符号器
のインタリーブ部35XYで行われた並べ替えと逆の並べ替
えを行ってn個のサブ系列の正規化残差係数XN1〜XNn
される。これら残差係数サブ系列XN1〜XNnはそれぞれ
乗算器771〜77nで再生された対応する利得G1〜Gn
乗算される。その各乗算出力はそれぞれ、逆正規化部6
1〜65nで、再生された概形E1〜Enと乗算されて逆正
規化され、それぞれ周波数領域係数が再生される。これ
ら周波数領域係数はそれぞれ逆MDCT部661〜66n
で逆MDCTされて時間領域信号に変換され、これら時
間領域信号は更にフレーム重ね合せ部781〜78nで必
要に応じて窓掛けされ、隣接サブフレーム(隣接サブチ
ャネル)の前半と後半とが重ね合わされ、これら重ね合
わせ部分がフレーム合成部79で時間的に順次結合され
て過渡フレームにおける音響信号が再生されて出力端子
51に出力される。
When the code Id indicates a transient frame, the approximate shape reproducing section 62 reproduces the spectrum outline of each sub-frame from the input outline indexes I E 1 to I En, and the outline coefficients are obtained. E 1 to E n is outputted. The normalized gain index I G 1 ~I Gn that is input are respectively reproduced by the gain reproducing unit 75 as the gain G 1 ~G n. Further, the inputted vector quantization indexes J 1 to J m are the vector reproducing unit 7
2 will be played respectively. Vector Y 1 to Y m of m that is they play in reverse interleave part 76 YX, n sub-sequence by performing reordering encoder sorting performed in interleaving section 35 XY opposite 13 The normalized residual coefficients of X N1 to X Nn . These residual coefficient sub-sequences X N1 to X Nn are multiplied by the corresponding gains G 1 to G n reproduced by the multipliers 77 1 to 77 n , respectively. The respective multiplication outputs are respectively subjected to the denormalization unit 6
In 5 1 to 65 n, is the inverse normalization is multiplied by the envelope E 1 to E n reproduced, respectively the frequency domain coefficients are reproduced. These frequency domain coefficients are respectively used in the inverse MDCT units 66 1 to 66 n.
Are inversely MDCT-converted into a time domain signal, and these time domain signals are further windowed by the frame superimposing sections 78 1 to 78 n as needed, so that the first half and the second half of adjacent subframes (adjacent subchannels) are separated. The superposed portions are superposed, and the superposed portions are temporally sequentially combined by the frame synthesizing unit 79 to reproduce the acoustic signal in the transient frame and output it to the output terminal 51.

【0087】入力信号がステレオ信号の場合の符号器
は、図16に図13と対応する部分に、左チャンネル側
については同一参照番号に添え字“L”を、右チャンネ
ル側については同一参照番号に添え字“R”をそれぞれ
付けて示す。つまり入力端子11L,11Rから入力され
た左チャンネル信号、右チャンネル信号は、定常的フレ
ームではそれぞれ図13に示した定常的フレームに対す
る処理と同様に行われるか、過渡的フレームでは左チャ
ンネル信号フレーム、右チャンネル信号フレームの各分
割サブフレームの残差係数は互いに混ぜ合わされて、重
み付きベクトル量子化される。その他は同様である。
In the case where the input signal is a stereo signal, the encoder in FIG. 16 corresponds to FIG. 13 and has the same reference numeral for the left channel side and the same reference numeral for the right channel side. The suffix "R" is attached to each. That is, the left channel signal and the right channel signal input from the input terminals 11 L and 11 R are processed in the same manner as the processing for the stationary frame shown in FIG. The residual coefficients of the divided subframes of the frame and the right channel signal frame are mixed with each other and weighted vector quantization is performed. Others are the same.

【0088】図16のステレオ信号の符号化出力を復号
する復号器を図17に図15と対応する部分に同一参照
番号に左チャンネル側については添え字“L”を右チャ
ンネル側については添え字“R”を付けて示す。この場
合は定常的フレームでは左チャンネル信号、右チャンネ
ル信号とも図15の場合と同様に復号されるが、過渡的
フレームにおいてはベクトル再生部72で再生されたm
個のベクトルの全成分は、逆インタリーブ部76YXで図1
6の残差インタリーブ部35XYでの並べ替えを元に戻さ
れ、それぞれ、左チャンネルサブフレームの復号化され
た信号がフレーム合成部79L で合成されて、端子51
L へ出力され、右チャンネルサブフレームの復号化出力
がフレーム合成部79R にて合成されて端子51R に出
力される。
A decoder for decoding the encoded output of the stereo signal of FIG. 16 has the same reference numerals as those in FIG. 15 corresponding to those of FIG. 15 with the subscript “L” for the left channel side and the subscript for the right channel side. "R" is attached. In this case, in the stationary frame, both the left channel signal and the right channel signal are decoded as in the case of FIG. 15, but in the transient frame, m reproduced by the vector reproducing unit 72.
All components of these vectors are deinterleaved by 76 YX in Fig. 1.
6. The rearrangement by the residual interleaving unit 35 XY of 6 is restored, and the decoded signals of the left channel subframes are combined by the frame combining unit 79 L , and the terminal 51
Is output to the L, the decoded output of the right channel subframe is output after being synthesized by the frame synthesizing portion 79 R to the terminal 51 R.

【0089】図13、15、16、17においてインタ
リーブマッピング及び逆インタリーブマッピングは予め
決めておくが、複数のインタリーブマッピング法を用意
しておき、これらのそれぞれを用いてベクトル量子化
し、その時に最も歪が小さくなるマッピングを選択し、
その選択情報を伝送しても良い。スペクトル概形や正規
化利得(パワー)の補助情報(即ち概形インデックス及
び利得インデックス)は通常(定常的)のフレームでは
フレーム毎に伝送する。上記実施例では過渡的なフレー
ムではサブフレーム毎に独立にスペクトル概形と利得の
情報を伝送しているが、各フレームごとに一括してベク
トル量子化してもよい。フレーム毎に一定の情報量で伝
送するシステムでは、通常のフレームと同じビット数を
サブフレーム毎の補助情報に割り当てると全体の情報量
の中で補助情報の割合が大きくなり、全体の歪が大きく
なる可能性があるからである。また、複数のサブフレー
ムをまとめてベクトル量子化することも可能である。あ
るいは、各サブフレームのスペクトル概形と、利得とを
各サブフレームに共通に利用してもよい。
In FIGS. 13, 15, 16 and 17, interleave mapping and deinterleave mapping are determined in advance, but a plurality of interleave mapping methods are prepared and vector quantization is performed using each of them, and the most distorted distortion is obtained at that time. Choose a mapping that reduces
The selection information may be transmitted. Spectral outlines and auxiliary information of normalized gain (power) (that is, outline index and gain index) are transmitted for each frame in a normal (stationary) frame. In the above-described embodiment, in the transitional frame, the spectrum outline and gain information are transmitted independently for each subframe, but vector quantization may be performed collectively for each frame. In a system that transmits a fixed amount of information in each frame, if the same number of bits as in a normal frame is assigned to auxiliary information in each subframe, the proportion of auxiliary information in the total amount of information increases and the overall distortion increases. Because there is a possibility that It is also possible to collectively perform vector quantization on a plurality of subframes. Alternatively, the spectrum outline of each subframe and the gain may be commonly used for each subframe.

【0090】図13及び16の実施例では、定常状態で
はパワーの偏りを符号化情報量削減に利用できないた
め、定常状態のフレームと過渡状態のフレームを判別し
て、定常状態のフレームではサブフレームに分割しない
で符号化し、過渡状態のフレームではサブフレームに分
割して複数系列の信号としてこの発明の原理を適用する
場合を示した。ところで、例えば特に音声や楽音のよう
にピッチ成分を含む音響信号では、定常的状態のフレー
ムが連続する場合にフレーム間の相関が高くなるので、
そのことを利用し、図13及び16の実施例の一部を次
のように変形することにより符号化情報量を削減可能で
ある。
In the embodiments of FIGS. 13 and 16, since the power bias cannot be used for the reduction of the coded information amount in the steady state, the steady state frame and the transient state frame are discriminated, and the steady state frame is subframed. The case where the principle of the present invention is applied to a frame in a transient state is divided into subframes and applied as a plurality of series of signals is shown. By the way, particularly in an acoustic signal including a pitch component such as a voice or a musical sound, the correlation between the frames becomes high when the steady state frames are continuous,
Utilizing this fact, the amount of encoded information can be reduced by modifying a part of the embodiments of FIGS. 13 and 16 as follows.

【0091】即ち、図18に示すように、残差概形計算
部91において過去の定常的フレームの残差係数から現
フレームの残差係数の概形ERを予測し、図13における
残差/概形計算部320 中の正規化部32Fからの残差
係数X0は、残差概形正規化部92において、その予測残
差概形ERで割算することにより正規化される。音声や楽
音の場合、フレーム毎のその周波数領域の残差係数には
通常ピッチ成分が存在し、このピッチ成分は複数フレー
ムに渡って継続する場合が多い。しかしながらこの実施
例では残差概形ERで定常的フレームにおける残差係数X0
を正規化することによりそのようなピッチ成分を抑圧す
ることができ、その結果、平坦化された微細構造係数Z
とされる。つまり図18の変形実施例は残差係数をベク
トル量子化する代わりに、この微細構造係数Zをベクト
ル量子化することによりフレーム間相関を利用した予測
符号化を実現している。
That is, as shown in FIG. 18, the residual shape calculating unit 91 predicts the rough shape E R of the residual coefficient of the present frame from the residual coefficient of the past stationary frame, and calculates the residual error in FIG. / The residual coefficient X 0 from the normalization unit 32F in the approximate shape calculation unit 32 0 is normalized by being divided by the predicted residual outline E R in the residual approximate normalization unit 92. . In the case of voice or musical sound, the residual coefficient in the frequency domain for each frame usually has a pitch component, and this pitch component often continues over a plurality of frames. However, in this embodiment, the residual shape E R and the residual coefficient X 0 in a stationary frame are used.
Such a pitch component can be suppressed by normalizing, and as a result, the flattened fine structure coefficient Z
It is said. That is, the modified embodiment of FIG. 18 realizes predictive coding using inter-frame correlation by vector quantizing the fine structure coefficient Z instead of vector quantizing the residual coefficient.

【0092】スペクトラム概形計算部32Eからのスペ
クトラム概形E0と、残差概形計算部91からの残差係数
概形ERとが重み計算部93で各対応サンプルごとに掛け
合わせて重み係数V0とされる。パワー正規化部330
前記微細構造係数Zをそのパワーで正規化し、正規化利
得インデックスIG0 を出力する。そのパワー正規化され
た微細構造係数ZNはベクトル量子化部44で重み計算部
93からの重み係数V0で重み付けベクトル量子化され
る。この場合、図13の場合と同様にインタリーブ部43
ZYと43VWにより微細構造係数ZN及び重み係数V0を並べ替
えてそれぞれh個の小系列Y01〜Y0h,W01〜W0hとし、ベ
クトル量子化部44は各微細構造係数小系列Y01〜Y0h
対応する重み小系列W01〜W0hで重み付けベクトル量子化
する。この量子化インデックスJ01〜J0hが図13のセレ
クタ45Aに与えられる。また量子化インデックスJ01
〜J0hにそれぞれ対応するベクトルC(J01)〜C(J0h)は逆
正規化部94で残差概形計算部91からの残差概形ER
より逆正規化されて、残差係数Xqが復元され、残差概形
計算部91はこの残差係数Xqに基づいて次フレームの残
差概形を予測する。図18の変形例は図16の実施例に
も同様に適用できることは明かである。
The spectrum outline E 0 from the spectrum outline calculating unit 32E and the residual coefficient outline E R from the residual outline calculating unit 91 are multiplied by the weight calculating unit 93 for each corresponding sample and weighted. The coefficient is V 0 . The power normalization unit 33 0 normalizes the fine structure coefficient Z by its power and outputs a normalized gain index I G0 . The power-normalized fine structure coefficient Z N is weighted by the vector quantization unit 44 by the weighting vector V 0 from the weighting calculation unit 93. In this case, as in the case of FIG.
The fine structure coefficient Z N and the weighting coefficient V 0 are rearranged by ZY and 43 VW into h small series Y 01 to Y 0h and W 01 to W 0h , respectively, and the vector quantization unit 44 sets each fine structure coefficient small series. Weighting vector quantization is performed on Y 01 to Y 0h with the corresponding small weight series W 01 to W 0h . The quantization indexes J 01 to J 0h are given to the selector 45A in FIG. Quantization index J 01
Respectively through J 0h corresponding vector C (J 01) ~C (J 0h) is being denormalized by residual envelope E R from the residual envelope calculation section 91 in the inverse normalization unit 94, the residual The coefficient X q is restored, and the residual shape calculating unit 91 predicts the residual shape of the next frame based on the residual coefficient X q . It is obvious that the modification of FIG. 18 can be similarly applied to the embodiment of FIG.

【0093】図18のような微細構造係数Zをベクトル
量子化した場合の復号は、図15の復号器におけるベク
トル再生部81と逆正規化部650 の間の構成を図19
に示すように変形すればよい。即ち、ベクトル量子化イ
ンデックスJ01〜J0hはベクトル再生部81で各小系列の
ベクトルY01'〜Y0h'、即ちベクトルC(J01)〜C(J0h)、に
復元され、逆インタリーブ部82YZにおいて更に図18
のインタリーブ部43による並べ替えと逆に並べ替え、
1系列の正規化微細構造係数ZN' に統合される。その1
系列出力は乗算器770 で図18のパワー正規化部33
0 からの正規化利得インデックスIG0 を再生した利得G0
が乗算されて(図15の利得再生部78)、微細構造係
数Z'が再生される。この微細構造係数Zは残差概形逆正
規化部83で残差概形計算部84からの残差概形ER' に
より逆正規化されて、残差係数X0' が再生される。この
残差係数は逆正規化部650 で図15における概形計算
部62Bからのスペクトラム概形E0により逆正規化され
て、周波数領域係数とされ、図15の逆MDCT部66
0 に与えられる。その後の処理は図15の場合と同様で
ある。残差概形計算部84は、符号器の残差概形計算部
91(図18)と同様に構成され、入力された過去のフ
レームの再生残差係数X0' から現在のフレームの残差係
数の概形ER' が予測される。図19の変形を図17の復
号器にも同様に適用できる。
Decoding in the case where the fine structure coefficient Z as shown in FIG. 18 is vector-quantized, the configuration between the vector reproducing unit 81 and the denormalization unit 65 0 in the decoder of FIG. 15 is shown in FIG.
It may be modified as shown in. That is, the vector quantization indexes J 01 to J 0h are restored by the vector reproducing unit 81 to the vectors Y 01 'to Y 0h ' of the small series, that is, the vectors C (J 01 ) to C (J 0h ), and the deinterleave is performed. Further in FIG. 18 in part 82 YZ
Rearrangement by the interleaving unit 43 of
It is integrated into a series of normalized fine structure coefficients Z N '. Part 1
The sequence output is the multiplier 77 0 and the power normalization unit 33 of FIG.
Gain G 0 of reproducing normalized gain index I G0 from 0
Is multiplied (gain reproducing section 78 in FIG. 15) to reproduce the fine structure coefficient Z ′. The fine structure coefficient Z is denormalized by the residual shape inverse normalization unit 83 by the residual shape E R 'from the residual shape calculation unit 84, and the residual coefficient X 0 ' is reproduced. The residual coefficient is denormalized by the inverse normalization unit 65 0 by the spectrum outline E 0 from the outline calculation unit 62B in FIG. 15 to be a frequency domain coefficient, and the inverse MDCT unit 66 in FIG.
Given to 0 . The subsequent processing is the same as in the case of FIG. The residual rough shape calculating unit 84 is configured in the same manner as the residual rough shape calculating unit 91 (FIG. 18) of the encoder, and calculates the residual error of the current frame from the input residual error coefficient X 0 'of the past frame. Approximate coefficient E R 'is predicted. The modification of FIG. 19 can be similarly applied to the decoder of FIG.

【0094】このような微細構造として符号化し、復号
化する場合においては、例えば過渡的フレームではフレ
ーム間相関(予測符号化)を用いない符号化を行ない、
通常のフレームに戻るとき、フレーム間相関の過去の状
態をリセットする。つまり図18、19中の残差概形計
算部91、84の各内部をリセットすればよい。別の方
法として、過渡的なフレームでのサブフレームと定常的
なフレームの1フレームとは時間的な長さが異なるが、
パワー正規化利得やスペクトル概形パラメータは共通し
ているものとなみしてそのままフレーム間相関による予
測を使ってもよい。つまり、例えば2サブフレームにお
けるスペクトル概形パラメータや利得を、2フレーム前
のスペクトル概形パラメータや利得として用いて、残差
概形計算部91、84を動作させてもよい。
When encoding and decoding as such a fine structure, for example, in a transient frame, encoding is performed without using inter-frame correlation (prediction encoding),
When returning to a normal frame, the past state of interframe correlation is reset. That is, it is only necessary to reset the inside of each of the residual shape calculating units 91 and 84 in FIGS. Alternatively, a subframe in a transient frame and one frame of a stationary frame have different time lengths,
Assuming that the power normalization gain and the spectrum outline parameter are common, the prediction based on the interframe correlation may be used as they are. That is, for example, the residual shape calculating units 91 and 84 may be operated by using the spectral outline parameter or gain in two subframes as the spectral outline parameter or gain two frames before.

【0095】ステレオの4チャネルあるいは5チャネル
信号を入力し、過渡的フレームではそれぞれを複数のサ
ブフレームに分割して多チャネル信号としてもよい。1
つの入力信号を低域側信号と高域側信号とに分離して図
16の入力端子11L ,11 R に入力してもよい。これ
らに応じて復号器ではインタリーブ部76XYでは複数群の
残差係数が作られたり、各出力端子と対応する複数の残
差係数が作られたり、1つの群の残差係数が作られて1
つの時間領域信号に再生されたりする。
Stereo 4 channels or 5 channels
Input a signal, each of which is
It may be divided into subframes to form a multi-channel signal. 1
Figure shows two input signals separated into a low-frequency side signal and a high-frequency side signal
16 input terminals 11L , 11 R You may enter in. this
In the decoder, the interleaving unit 76XYThen multiple groups
Residual coefficients are created or multiple residuals corresponding to each output port are created.
The difference coefficient is created or the residual coefficient of one group is created 1
It is played back in one time domain signal.

【0096】以上述べたように図13、16の符号器の
実施例では時間軸上におけるパワー変動の大きいフレー
ムに対してのみサブフレーム単位に分割してMDCTに
より周波数領域の係数とし、これらの係数の並べ替えに
より、周波数領域でのパワーの偏り、サブフレーム間で
のパワーの偏り、すなわち時間領域での偏りの両方をベ
クトル内の重み係数の変動に反映させることができる。
そして小系列間の平均重み係数(パワー)の偏りを小さ
くすることができる。並べ替えを行なわず、順序よく小
系列を作ると小系列内の重み係数の変動が少なく、小系
列間の平均重み係数の変動が大きくなってしまう。この
場合、小系列間で適応ビット割当を行なわないと歪を小
さくすることができない。この発明では小系列間の変動
が小さいのでビット割当を固定にしても歪削減効果がほ
とんど損なわれずに済む。この発明の場合は、歪を削減
するための量子化歪の制御を重み付き、ベクトル量子化
歪の制御を重み付きベクトル量子化で行なうからであ
る。
As described above, in the embodiments of the encoders shown in FIGS. 13 and 16, only the frame in which the power fluctuation on the time axis is large is divided into sub-frame units and the coefficients in the frequency domain are obtained by MDCT. By rearranging, the deviation of the power in the frequency domain and the deviation of the power in the subframes, that is, the deviation in the time domain can both be reflected in the variation of the weighting coefficient in the vector.
Then, the deviation of the average weighting coefficient (power) between the small series can be reduced. If small series are created in order without rearrangement, the variation of the weighting coefficient within the small series is small, and the variation of the average weighting coefficient between the small series is large. In this case, the distortion cannot be reduced unless adaptive bit allocation is performed between the small sequences. According to the present invention, since the variation between the small sequences is small, even if the bit allocation is fixed, the distortion reduction effect is hardly impaired. This is because, in the case of the present invention, the control of the quantization distortion for reducing the distortion is weighted, and the control of the vector quantization distortion is performed by the weighted vector quantization.

【0097】図4A、11、16の実施例では、符号化
すべき複数の入力信号として同一種類の信号、例えば音
響信号を符号化する場合について説明したが、この発明
は、複数の信号系列にパワーの偏りが生じるものであれ
ば異なる種類の複数の信号系列に対しても適用できる。
その例として映像信号と音響信号の2系列を多重化して
一定の情報量で伝送する場合にこの発明の符号化方法を
適用した符号器について図20を参照して説明する。こ
こでは音響信号については変換符号化を、映像信号につ
いてはフレーム間予測と変換符号化の両方を使う例を示
すが、個々の信号にどの様な符号化手法を適用するかは
この発明に本質的なことではない。
In the embodiments of FIGS. 4A, 11 and 16, the case where the same type of signal, for example, an acoustic signal, is coded as a plurality of input signals to be coded has been described. It can be applied to a plurality of signal sequences of different types as long as the deviation of B occurs.
As an example, an encoder to which the encoding method of the present invention is applied when two sequences of a video signal and an audio signal are multiplexed and transmitted with a constant amount of information will be described with reference to FIG. Here, an example in which transform coding is used for an audio signal and both interframe prediction and transform coding are used for a video signal is shown. What kind of coding method is applied to each signal is essential to the present invention. That is not the case.

【0098】図20において、端子11a、11bにはそ
れぞれディジタル映像信号及びディジタル音響信号が入
力される。音響信号に対する処理は、映像信号と同じフ
レーム毎に例えば図4Aの1つのサブチャンネルにおけ
る処理と同様の処理を行う場合であり、その構成を簡略
化して示してある。音響信号は変換部32Bbでフレーム毎
に時間−周波数変換される。その結果得られる周波数領
域係数は、概形計算部32Ebと正規化部32Fbに与えられ
る。概形計算部32Ebは周波数領域係数からそのスペクト
ラム概形Ebを計算して正規化部32Fbと重み計算部34b
に与えると共に、概形を表すインデックスIEb を出力す
る。正規化部32Fbはスペクトラム概形Ebのそれぞれの成
分で周波数領域係数の対応するものを割り算することに
より残差係数を得て、更にそのフレームの平均パワーで
正規化(割り算)して正規化残差係数XNb を出力すると
共に、パワー正規化利得Gbを表すインデックスIGb を出
力する。重み計算部34b はスペクトラム概形Ebと利得
Gbを乗算し、更に必要に応じて聴感重みを乗算して重み
係数Vbを出力する。これら残差係数XNb と重み係数Vbは
それぞれ残差インタリーブ部35XYと重みインタリーブ部
35VWに与えられる。
In FIG. 20, digital video signals and digital audio signals are input to terminals 11a and 11b, respectively. The processing for the audio signal is a case where the same processing as the processing in one sub-channel of FIG. 4A is performed for each same frame as the video signal, and the configuration thereof is shown in a simplified manner. The audio signal is time-frequency converted for each frame by the conversion unit 32Bb. The frequency domain coefficient obtained as a result is given to the outline calculation unit 32Eb and the normalization unit 32Fb. The rough shape calculation unit 32Eb calculates the spectrum rough shape Eb from the frequency domain coefficient, and the normalization unit 32Fb and the weight calculation unit 34b.
And the index I Eb representing the outline is output. The normalization unit 32Fb obtains the residual coefficient by dividing the corresponding components of the spectrum outline Eb of the corresponding frequency domain coefficients, and further normalizes (divisions) by the average power of the frame to obtain the normalized residual. The difference coefficient X Nb is output, and the index I Gb representing the power normalization gain Gb is output. The weight calculation unit 34b calculates the spectrum outline Eb and the gain.
Gb is multiplied and, if necessary, the perceptual weight is also multiplied to output the weighting coefficient Vb. These residual coefficient X Nb and weighting coefficient Vb are respectively the residual interleaving section 35 XY and the weighting interleaving section.
Given to 35 VW .

【0099】一方、映像信号は、フレーム間予測部95
で前フレームから予測された信号が減算され、その差分
信号Dが変換部32Baに与えられる。変換部32Baは差分信
号Dを時間−周波数変換して周波数領域係数を生成し、
概形計算部32Eaと正規化部32Faに与える。概形計算部32
Ea、正規化部32Fa、重み計算部34a の動作は音響信号
に対する部分32Eb、32Fb、34b の動作と同様であり、
概形計算部32Eaはスペクトラム概形Eaとそれを表すイン
デックスIEa を出力し、正規化部32Faは正規化残差係数
XNa 、パワー正規化利得Ga、利得インデックスIGa を出
力し、重み計算部34a は重み係数Vaを出力する。残差
係数XNa と重み係数Vaはそれぞれ残差インタリーブ部35
XYと重みインタリーブ部35VWに与えられる。残差インタ
リーブ部35XYは残差係数XNa、XNbの成分を並べ替え、m
個の残差小系列(ベクトル)Y1〜Ymを出力しベクトル量
子化部36に与える。重みインタリーブ部35VWは重み係
数VaとVbの成分を残差並べ替えと同じに並べ替え、m個
の重み小系列W1〜Wmを出力しベクトル量子化部36に与
える。ベクトル量子化部36は残差小系列Y1〜Ymを、そ
れぞれ対応する重み小系列W1〜Wmを使って重み付きベク
トル量子化し、量子化インデックスJ1〜Jmを出力する。
結局、図20の符号器は入力映像信号と入力音響信号に
対し、フレーム毎に量子化インデックスJ1〜Jm、概形イ
ンデックスIE a,IEb、利得インデックスIGa,IGbを符号
化結果として出力する。
On the other hand, the video signal is interframe predictor 95.
At, the signal predicted from the previous frame is subtracted, and the difference signal D is given to the conversion unit 32Ba. The conversion unit 32Ba performs time-frequency conversion on the difference signal D to generate frequency domain coefficients,
It is given to the rough shape calculation unit 32Ea and the normalization unit 32Fa. Outline calculator 32
The operations of Ea, the normalization unit 32Fa, and the weight calculation unit 34a are the same as the operations of the portions 32Eb, 32Fb, and 34b for the acoustic signal,
The outline calculation unit 32Ea outputs the spectrum outline Ea and the index I Ea representing the spectrum outline Ea, and the normalization unit 32Fa outputs the normalized residual coefficient.
X Na , a power normalized gain Ga, and a gain index I Ga are output, and the weight calculation unit 34a outputs a weight coefficient Va. The residual coefficient X Na and the weighting coefficient Va are respectively the residual interleaving unit 35
XY and weight are given to interleave section 35 VW . The residual interleaving unit 35 XY rearranges the components of the residual coefficients X Na and X Nb , m
The residual small series (vectors) Y 1 to Y m are output and given to the vector quantizer 36. The weight interleaving unit 35 VW rearranges the components of the weighting factors Va and Vb in the same manner as the residual rearrangement, outputs m weighting subsequences W 1 to W m, and supplies them to the vector quantizing unit 36. The vector quantizer 36 performs weighted vector quantization on the residual small sequences Y 1 to Y m using the corresponding small weight sequences W 1 to W m , and outputs quantization indexes J 1 to J m .
After all, the encoder of FIG. 20 encodes the quantization indexes J 1 to J m , the outline indexes I E a and I Eb , and the gain indexes I Ga and I Gb for each frame with respect to the input video signal and the input audio signal. Output as a result.

【0100】図21は図20におけるフレーム間予測部
95の構成例を示す。減算器95Fは現フレームの入力
映像信号に対し、予測器95E からの前フレームで得た
予測信号を減算して差分信号Dを出力する。ベクトル量
子化部36からの現フレームの量子化インデックスJ1
Jmが再生部95A に与えられると、再生部95A はイン
デックスJ1〜Jmに対応するm個のベクトルを内部の符号
帳から読みだし(逆量子化)、残差並べ替えと逆の並べ
替えを行って残差系列XNa とXNb に対応する2系統の残
差系列を再生し、そのうち映像信号に関する残差系列X
a'を逆正規化部95B に与える。逆正規化部95B は、
残差系列Xa' に対しスペクトラム概形Eaを乗算(逆正規
化)して周波数領域係数を得て、逆変換部95C に与え
る。逆変換部95C は与えられた周波数領域係数を周波
数−時間変換して時間領域信号(再生差分信号D'に対
応)を生成し、加算器95D に与える。加算器95D は
再生差分信号D'に予測器95E からの現フレームで使用
した予測信号を加算して更新された予測信号を予測器9
5E に与える。予測器95E は更新された予測信号を保
持し、次フレームの入力映像信号に対する予測信号とし
て減算器95F に与える。
FIG. 21 shows an example of the structure of the inter-frame prediction section 95 shown in FIG. The subtractor 95F subtracts the prediction signal obtained in the previous frame from the predictor 95E from the input video signal of the current frame and outputs the difference signal D. Quantization index J 1 of the current frame from the vector quantization unit 36
When J m is given to the reproducing unit 95A, the reproducing unit 95A reads m vectors corresponding to the indexes J 1 to J m from the internal codebook (inverse quantization), and performs the residual rearrangement and the reverse arrangement. The residual series X Na and X Nb corresponding to the residual series X Na and X Nb are reproduced to reproduce the residual series X related to the video signal.
a'is given to the denormalization unit 95B. The inverse normalization unit 95B
The residual series Xa 'is multiplied (denormalized) by the spectrum outline Ea to obtain a frequency domain coefficient, which is given to the inverse transform unit 95C. The inverse transformation unit 95C frequency-time transforms the given frequency domain coefficient to generate a time domain signal (corresponding to the reproduction difference signal D '), and supplies it to the adder 95D. The adder 95D adds the prediction signal used in the current frame from the predictor 95E to the reproduction difference signal D'and updates the prediction signal to the predictor 9D.
Give to 5E. The predictor 95E holds the updated prediction signal and supplies it to the subtractor 95F as a prediction signal for the input video signal of the next frame.

【0101】図22は図20の符号器に対する復号器の
一例を簡略化して示す。ベクトル再生部72は与えられ
た量子化インデックスJ1〜Jmからm個のベクトルY1'〜Y
m'を内部の符号帳から読みだし逆インタリーブ部76に
与える。逆インタリーブ部76は図20における残差並
べ替えと逆にベクトルY1'〜Ym'の成分を並べ替え、差分
映像信号と音響信号に対応する残差系列Xa',Xb'を出力
し、それぞれ逆正規化部65a 、65b に与える。一
方、再生部62a は、与えられた概形インデックスIEa
から差分映像信号のスペクトラム概形を再生し、更に利
得インデックスIG a により指定された利得Gaを乗算して
スペクトラム概形係数として逆正規化部65a に与え
る。逆正規化部65a は残差係数Xa' の各成分に差分映
像信号のそれぞれ対応するスペクトラム概形係数を乗算
し(逆正規化)、差分映像信号の周波数領域係数を得て
逆変換部66a に与える。逆変換部66a は与えられた
周波数領域係数を周波数−時間変換して差分映像信号D'
を生成し、加算器67に与え、予測器68に保持されて
いる前フレームの復号映像信号に加算し、加算結果を現
フレームの復号映像信号として端子51a に出力すると
共に、次フレームのために予測器68に保持する。
FIG. 22 shows a simplified example of a decoder for the encoder shown in FIG. The vector reproducing unit 72 calculates m vectors Y 1 ′ to Y from the given quantization indexes J 1 to J m.
It gives the deinterleaving unit 76 reads out the m 'from within the codebook. The inverse interleaving section 76 rearranges the components of the vectors Y 1 'to Y m ' in the reverse of the residual rearrangement in FIG. 20, and outputs the residual series Xa 'and Xb' corresponding to the differential video signal and the audio signal, The denormalization units 65a and 65b are supplied to the respective denormalization units 65a and 65b. On the other hand, the reproducing unit 62a uses the given outline index I Ea.
To reproduce the spectrum outline of the differential video signal and further multiply by the gain Ga designated by the gain index I G a to give it to the denormalization unit 65a as a spectrum outline coefficient. The inverse normalization unit 65a multiplies each component of the residual coefficient Xa 'by the corresponding spectrum outline coefficient of the differential video signal (inverse normalization), obtains the frequency domain coefficient of the differential video signal, and supplies it to the inverse transform unit 66a. give. The inverse transform unit 66a frequency-time transforms the given frequency domain coefficient to perform differential video signal D '.
To the adder 67, add to the decoded video signal of the previous frame held in the predictor 68, output the addition result to the terminal 51a as the decoded video signal of the current frame, and for the next frame. It is held in the predictor 68.

【0102】同様に再生部62b はインデックスIEb,I
Gbから音響信号のスペクトラム概形係数を再生し、逆正
規化部65b に与える。逆正規化部65b は残差係数X
b' の各成分に音響信号のスペクトラム概形のそれぞれ
対応する係数を乗算して音響信号の周波数領域係数を得
て、逆変換部66b に与える。逆変換部66b は与えら
れた周波数領域係数を周波数−時間変換して復号された
音響信号を端子51b に出力する。
Similarly, the reproducing unit 62b uses the indexes I Eb , I
The spectrum outline coefficient of the acoustic signal is reproduced from Gb and given to the denormalization unit 65b. The inverse normalization unit 65b uses the residual coefficient X
Each component of b'is multiplied by the corresponding coefficient of the spectrum outline of the acoustic signal to obtain the frequency domain coefficient of the acoustic signal, which is given to the inverse transform unit 66b. The inverse transform unit 66b frequency-time transforms the given frequency domain coefficient and outputs the decoded acoustic signal to the terminal 51b.

【0103】この様に図20の実施例では映像信号と音
響信号間にパワーの偏りが生じたフレームでは、重み付
きベクトル量子化により結果的にパワーの大きい方がよ
り重要視された符号化が行われることになる。従って、
それだけ量子化歪を低減することができる。図20の実
施例では更に映像信号に対してはフレーム間予測処理を
行っているため、複数フレームに渡って画像の変化が少
ない場合には差分映像信号Dのレベルが小さくなるの
で、音響信号に対するパワーの偏りを大きくすることが
でき、それだけ映像信号と音響信号に対する符号化によ
る量子化歪を小さくすることができる。
As described above, in the embodiment shown in FIG. 20, in the frame in which the power is biased between the video signal and the audio signal, the weighted vector quantization results in the coding in which the higher power is more important. Will be done. Therefore,
Quantization distortion can be reduced to that extent. In the embodiment of FIG. 20, since the inter-frame prediction processing is further performed on the video signal, the level of the differential video signal D becomes small when the change of the image is small over a plurality of frames. The power deviation can be increased, and the quantization distortion due to the coding of the video signal and the audio signal can be reduced accordingly.

【0104】図23AはCELP方式により左右チャン
ネルのステレオ信号を符号化する符号器にこの発明を適
用した場合の実施例を示し、図2Aと対応する部分には
同じ参照番号に左右チャンネルを表すL、Rを添えて示
してある。左チャンネルと右チャンネルの入力端子11
L、11Rに対応して図2Aと同様の構成であるLPC分
析部12L、12R、LPC合成フィルタ13L、13R
適応符号帳14L 、14R 、乗算器15L、15R、加算
器18L、18R、減算器19L、19R、聴感重み付け部
20L、20Rが設けられている。しかしながら統合雑音
符号帳16、歪計算/符号帳探索部21、重み符号化部
22は左右チャンネルに共通して設けられており、それ
ぞれ図2Aで説明したと同様に動作する。左右チャンネ
ルの入力音声信号は図2Aの場合と同様にフレーム毎に
LPC分析され、線形予測係数P L,PRが求められる。
この発明が適用されたこの実施例においても特徴的なこ
とは、統合雑音符号帳16に各インデックスCに対応し
て信号系統数(チャンネル数)と等しいフレーム数の長
さの雑音符号ベクトル(統合雑音符号ベクトル呼ぶ)が
書き込まれており、各統合雑音符号ベクトルをチャンネ
ル数で等分割し、予め決めた分割部分(部分ベクトル)
がそれぞれのチャンネルの雑音符号ベクトルとして使用
されることである。この実施例では、符号帳の各インデ
ックスに対応して2フレーム長の統合雑音符号ベクトル
が格納されており、各統合雑音符号ベクトルの前半と後
半がそれぞれ左チャンネル用雑音符号ベクトルと右チャ
ンネル用雑音符号ベクトルとして使用される。統合雑音
符号帳16に対し、1つの統合雑音符号ベクトルインデ
ックスCを指定すると、対応する特定な1対の左右チャ
ンネル用雑音符号ベクトルが読み出され、それぞれ乗算
器17L、17Rに与えられる。
FIG. 23A shows the left and right channels according to the CELP method.
The present invention is suitable for an encoder that encodes a channel stereo signal.
An example of the case of application is shown, and parts corresponding to FIG.
Same reference number with L and R indicating left and right channels
I have. Left and right channel input terminals 11
L, 11RCorresponding to the LPC having the same configuration as that of FIG. 2A.
Analysis part 12L, 12R, LPC synthesis filter 13L, 13R,
Adaptive codebook 14L , 14R , Multiplier 15L, 15R, Addition
Bowl 18L, 18R, Subtractor 19L, 19R, Hearing weighting unit
20L, 20RIs provided. However integrated noise
Codebook 16, distortion calculation / codebook search unit 21, weight coding unit
22 is provided in common for the left and right channels.
Each operates in the same manner as described in FIG. 2A. Left and right channel
Input audio signal for each frame, as in the case of FIG. 2A.
LPC analysis, linear prediction coefficient P L, PRIs required.
This is a characteristic feature of this embodiment to which the present invention is applied.
Corresponds to each index C in the integrated noise codebook 16
The number of frames equal to the number of signal systems (number of channels)
Sano's noise code vector (called integrated noise code vector)
Have been written and each integrated noise code vector
A predetermined division part (partial vector)
Used as the random code vector for each channel
Is to be done. In this example, each index in the codebook is
2 frame length integrated noise code vector
Are stored, and the first half and the rear of each joint random code vector are stored.
Half are the noise code vector for the left channel and the right channel, respectively.
It is used as a random code vector for the channel. Integrated noise
For the codebook 16, one integrated noise code vector index
Box C, the corresponding specific pair of left and right
Channel noise code vector is read out and multiplied
Bowl 17L, 17RGiven to.

【0105】図2Aで説明したと同様に、まずgL1=gR1
=0として各フレーム毎に左右入力音響信号に対する合
成音の歪がそれぞれ最小となる適応符号ベクトルを与え
る切り出し長SL,SRが歪み計算/符号帳探索部21で決
定され、更にそれらの切り出し長SL,SRによって生成さ
れる適応符号ベクトル(ピッチ成分ベクトル)から、そ
れぞれの系統の歪を最小とする利得gL0,gR0が計算され
る。この様にしてSL,SR,gL0,gR0が決定された状態
で、合成フィルタ13L、13Rが出力するピッチ成分合
成音が入力音響信号から減算器19L、19Rで除去さ
れ、その結果得られる雑音成分ベクトルが、次ぎに雑音
符号ベクトルを励振ベクトルとしたときの合成フィルタ
13L、13Rによる雑音成分合成音の目標とされる。こ
の目標雑音成分合成音をRL=[RL1,…,RLn]t,RR=[RR1,
…,RRn]tと表し、合成フィルタ13L、13Rのインパル
ス応答行列をHL,HRと表し、読み出された統合雑音符
号ベクトルの左右チャンネルに対応する部分ベクトルを
Lj=[CLj1,…,CLjn]t,CRj=[CRj1,…,CLjn]tと表す
と、統合歪dは次式 d=‖RL−gL1LLj2+‖RR−gR1RRj2 で表すことができる。統合歪を最小とする統合雑音ベク
トルを決めるため図2Aで説明したと同様に暫定的にg
L1=gR1=1とおくと、dminの最小値は dmin=‖RL2+‖RR2−(RL tLLj)2/‖HLLj2 −(RR tRRj)2/‖HRRj2 となる。目標値RL,RRは定数なので統合歪dを最小と
するには次式 D=(RL tLLj)2/‖HLLj2+(RR tRRj)2/‖HRRj2 を最大とする統合ベクトルCj ={CLj,CRj}を統合
雑音符号帳16から選択すればよい。次に左右チャンネ
ルのそれぞれの歪を最小とするようにgL1,gR1を決定す
る。
Similar to that described with reference to FIG. 2A, first, g L1 = g R1
= 0, the cutout lengths S L and S R that give the adaptive code vector that minimizes the distortion of the synthesized sound with respect to the left and right input audio signals for each frame are determined by the distortion calculation / codebook search unit 21, and are further cut out. From the adaptive code vector (pitch component vector) generated by the lengths S L and S R , the gains g L0 and g R0 that minimize the distortion of each system are calculated. With S L , S R , g L0 , and g R0 determined in this way, the pitch component synthesized sound output from the synthesis filters 13 L and 13 R is removed from the input acoustic signal by subtractors 19 L and 19 R. The noise component vector obtained as a result is next targeted as the noise component synthesized sound by the synthesis filters 13 L and 13 R when the noise code vector is used as the excitation vector. This target noise component synthesized sound is represented by R L = [R L1 , ..., R Ln ] t , R R = [R R1 ,
, R Rn ] t , the impulse response matrices of the synthesis filters 13 L and 13 R are represented as H L and H R, and the partial vectors corresponding to the left and right channels of the read integrated noise code vector are C Lj = [ C Lj1 , ..., C Ljn ] t , C Rj = [C Rj1 , ..., C Ljn ] t , the integrated distortion d is expressed by the following equation: d = ‖R L −g L1 HL C Lj2 + ‖R It can be represented by R −g R1 H R C Rj2 . In order to determine the integrated noise vector that minimizes the integrated distortion, it is tentatively g
L1 = g R1 = 1 and putting the minimum value of d min is d min = ‖R L2 + ‖R R 2 - (R L t H L C Lj) 2 / ‖H L C Lj ‖ 2 - (R R t H R C Rj ) 2 / ‖H R C Rj2 Since the target values R L and R R are constants, in order to minimize the integrated distortion d, the following equation D = (R L t H L C Lj ) 2 / ‖H L C Lj2 + (R R t H R C Rj ) 2 / ‖H R C Rj2 The maximum integrated vector C j = {C Lj , C Rj } may be selected from the integrated noise codebook 16. Next, g L1 and g R1 are determined so that the distortion of each of the left and right channels is minimized.

【0106】なお、理想的な利得は次式 gL1=RL tLLj/‖HLLj2 gR1=RR tRRj/‖HRRj2 であるから上記Dは次式 D=gL1 2‖HLLj2+gR1 2‖HRRj2 で表される。即ち、このCELPを使った実施例におい
ては、統合雑音符号帳16を使って励振信号をベクトル
量子化する処理において歪を最小とする最適な利得
gL1,gR1が自動的に決定されることを意味している。
The ideal gain is the following expression g L1 = R L t H L C Lj / ‖H L C Lj2 g R1 = R R t H R C Rj / ‖H R C Rj2 Therefore, the above D is represented by the following equation D = g L1 2 ‖H L C Lj2 + g R1 2 ‖H R C Rj2 . That is, in the embodiment using this CELP, the optimum gain that minimizes the distortion in the process of vector quantizing the excitation signal using the integrated noise codebook 16 is performed.
This means that g L1 and g R1 are automatically determined.

【0107】この様にして決定された利得gL0,gR0,g
L1,gR1を符号化部22で例えばベクトル符号化して得
た符号G、及び前述の符号SL,SR,C,PL,PRが図23
Aの符号器による左右チャンネルの音響信号に対するフ
レーム毎の符号化結果として出力される。なお、上述の
図23Aでは、この発明が適用されたCELPの動作を
理解し易いように、予測分析及び符号化をフレーム毎に
行う場合について述べたが、実際には従来行われている
同様に各フレームを複数のサブフレームに分割し、サブ
フレーム毎に上述の符号SL,SR,C,Gを求めるよう
にしてもよいことは明かである。
The gains g L0 , g R0 , g determined in this way
The code G obtained by, for example, vector-coding L1 and g R1 in the coding unit 22 and the above-mentioned codes S L , S R , C, P L , and P R are shown in FIG.
It is output as the encoding result for each frame for the left and right channel acoustic signals by the A encoder. Note that, in FIG. 23A described above, the case where the prediction analysis and the encoding are performed for each frame is described so that the operation of the CELP to which the present invention is applied can be easily understood. It is obvious that each frame may be divided into a plurality of subframes and the above-mentioned codes S L , S R , C and G may be obtained for each subframe.

【0108】ここで、例えば左右チャンネルの入力音響
信号のパワーがほぼ同じであれば、利得gL0 とgR0 が同
程度となり、また利得gL1とgR1も同程度となる。従って
統合雑音符号帳16から読み出された統合雑音ベクトル
の前半及び後半である1対の左チャンネル用雑音ベクト
ルと右チャンネル用雑音ベクトルは同程度の利得が与え
られてそれぞれ周期成分ベクトルと加算されて励振ベク
トルEL,ERとされるので、統合歪を最小とするように選
択したインデックスに対応する1対の左チャンネル用雑
音ベクトルと右チャンネル用雑音ベクトルは統合歪に同
程度に寄与している。このことは、左右チャンネル音響
信号の符号化にほぼ同程度の情報量が割り当てられたこ
とを意味する。
Here, for example, if the powers of the input acoustic signals of the left and right channels are almost the same, the gains g L0 and g R0 are about the same, and the gains g L1 and g R1 are also about the same. Therefore, the pair of left channel noise vector and right channel noise vector, which are the first half and the second half of the integrated noise vector read from the integrated noise codebook 16, are given similar gains and are added to the periodic component vector, respectively. Excitation vectors E L and E R , the pair of left-channel noise vector and right-channel noise vector corresponding to the index selected to minimize the integrated distortion contribute to the integrated distortion to the same degree. ing. This means that almost the same amount of information is assigned to the encoding of the left and right channel acoustic signals.

【0109】もし、左チャンネル音響信号のパワーが右
チャンネル音響信号のパワーより著しく大きい場合に
は、それぞれのチャンネルに対する合成音の歪を最小と
するように決定される適応符号ベクトルに対する利得g
L0,gR0及び雑音符号ベクトルに対する利得gL1,gR1
関係も gL0 >> gR0 及び gL1 >> gR1 となる。後者の関
係は統合雑音符号帳16から統合歪が最小となるように
統合雑音符号ベクトルを選択する過程において、左チャ
ンネルの雑音符号ベクトルの統合歪に対する寄与が右チ
ャンネル雑音符号ベクトルの寄与より著しく大となるこ
とを意味しており、従ってパワーの大きい左チャンネル
音響信号に重きをおいて符号化により多くの情報量を割
り当てたことと等価である。ただし、この実施例では時
間方向のパワーの偏りに付いては考慮していないのでフ
レーム毎に符号化に使用される全情報量は一定である。
右チャンネルの入力音響信号のパワーが左チャンネルの
音響信号より大の場合は逆に右チャンネルの雑音ベクト
ルが重要視され、右チャンネルの音響信号により多くの
符号化情報量を割り当てたことと等価になる。
If the power of the left channel acoustic signal is significantly larger than the power of the right channel acoustic signal, the gain g for the adaptive code vector determined so as to minimize the distortion of the synthesized sound for each channel.
The relationship between L0 , g R0 and the gains g L1 , g R1 for the noise code vector is also g L0 >> g R0 and g L1 >> g R1 . In the latter relationship, in the process of selecting the integrated noise code vector from the integrated noise codebook 16 so that the integrated distortion is minimized, the contribution of the noise code vector of the left channel to the integrated distortion is significantly larger than the contribution of the right channel noise code vector. Therefore, it is equivalent to allocating a large amount of information to the coding by placing emphasis on the left channel acoustic signal having high power. However, in this embodiment, since the deviation of the power in the time direction is not taken into consideration, the total amount of information used for encoding is constant for each frame.
On the contrary, when the power of the input audio signal of the right channel is larger than that of the left channel, the noise vector of the right channel is considered to be more important, which is equivalent to allocating more encoded information amount to the right channel audio signal. Become.

【0110】この様に図23Aの符号器の実施例によれ
ば、左右チャンネルの音響信号のパワーの偏りに応じて
ビット割当を行わなくても、自動的にかつ柔軟に符号化
情報量が配分されるが、雑音符号帳は左右チャンネルよ
うに別々に設ける必要はなく、1つの統合雑音符号帳だ
けでよい。また、決定された利得gL1,gR1に誤りがあっ
ても全体の情報が混乱することもない。図23Bは図2
3Aの符号器によりフレーム毎に得られた符号SL,SR
PL,PR,G,Cから左右チャンネルの音響信号を復号す
る復号器の実施例を示し、図2Bと対応する部分には同
じ参照番号に左右チャンネルを表すL,Rを添えて示し
てある。この復号器は図2Bにおける合成フィルタ5
2、乗算器55、57、加算器58をそれぞれ左右両チ
ャンネルに設けるが、重み復号部53と統合雑音符号帳
56は1つずつ設けられており、統合雑音符号帳56は
図23Aにおける統合雑音符号帳16と同じものであ
る。符号SL,SRは適応符号帳54L、54Rに与えられ、
そこに保持されている直前のフレームの励振ベクトルに
対する切り出し長をそれぞれ指定する。重み復号部53
は符号Gから利得gL0,gL1,gR0,gR1を復号してそれぞ
れ乗算器55L、57L、55R、57Rに与える。
As described above, according to the embodiment of the encoder of FIG. 23A, the coded information amount is automatically and flexibly distributed without bit allocation according to the bias of the powers of the acoustic signals of the left and right channels. However, the random codebook does not need to be separately provided for the left and right channels, and only one integrated random codebook is required. Further, even if the determined gains g L1 and g R1 are incorrect, the entire information is not confused. FIG. 23B is shown in FIG.
Codes S L , S R obtained by the 3A encoder for each frame,
An embodiment of a decoder for decoding left and right channel acoustic signals from P L , P R , G, and C is shown. Parts corresponding to those in FIG. 2B are shown with the same reference numerals with L and R representing left and right channels. is there. This decoder uses the synthesis filter 5 in FIG. 2B.
2, the multipliers 55 and 57, and the adder 58 are respectively provided on the left and right channels, but one weight decoding unit 53 and one integrated noise codebook 56 are provided, and the integrated noise codebook 56 is the integrated noise in FIG. 23A. It is the same as the codebook 16. Codes S L and S R are given to adaptive code books 54 L and 54 R ,
Specify the cutout length for the excitation vector of the immediately preceding frame held there. Weight decoding unit 53
From the code G, the gains g L0 , g L1 , g R0 and g R1 are decoded and given to the multipliers 55 L , 57 L , 55 R and 57 R , respectively.

【0111】適応符号帳54L、54Rは、符号SL,SR
指定された長さの部分ベクトルを前フレームの励振ベク
トルから切り出し、それらのコピーを繰り返し接続して
1フレーム長の適応符号ベクトルを生成して乗算器55
L、55Rに与える。乗算既55L、55Rはそれらの適応
符号ベクトルに利得gL0,gR0をそれぞれ乗算して加算器
58L、58Rに与える。線形予測係数を表す符号PL,PR
は線形予測合成フィルタ52L、52Rにフィルタ係数と
して与えられる。インデックス符号Cにより指定された
統合雑音符号ベクトルが統合雑音符号長56から読み出
され、その前半と後半がそれぞれ乗算器57L、57R
与えられ、利得gL0,gR0と乗算される。乗算結果は加算
器58L、58Rで適応符号ベクトルと加算され、励振ベ
クトルEL,ERが生成され、それらは線形予測合成フィル
タ52L、52Rに与えられ、左チャンネル及び右チャン
ネルの音声が合成され、端子51L、51Rに出力され
る。左右チャンネルの信号L,Rの類似度が大きいとき
は、L+R,L−R信号に変換してそれぞれ入力するこ
とによりL+R信号にパワーを集中させることができる
ので、上述の符号化を行うことにより更に歪を小さくす
ることができる。
The adaptive codebooks 54 L and 54 R cut out a partial vector of a length designated by the codes S L and S R from the excitation vector of the previous frame, and repeatedly connect their copies to adapt one frame length. Generate a code vector and multiply by 55
Give to L and 55 R. Multipliers 55 L and 55 R multiply the adaptive code vectors by gains g L0 and g R0 , respectively, and give them to adders 58 L and 58 R. Codes P L and P R that represent linear prediction coefficients
Is given as a filter coefficient to the linear prediction synthesis filters 52 L and 52 R. The integrated noise code vector specified by the index code C is read from the integrated noise code length 56, and the first half and the latter half thereof are given to the multipliers 57 L and 57 R , respectively, and are multiplied by the gains g L0 and g R0 . The multiplication result is added to the adaptive code vector by the adders 58 L and 58 R to generate excitation vectors E L and E R , which are given to the linear prediction synthesis filters 52 L and 52 R, and are supplied to the left and right channels. The voice is synthesized and output to the terminals 51 L and 51 R. When the similarity between the left and right channel signals L and R is high, the power can be concentrated on the L + R signal by converting them into L + R and LR signals and inputting them respectively. Further, the distortion can be reduced.

【0112】図23Aの実施例において、適応符号帳1
L、14Rを省略し、統合雑音符号帳16の代わりに励
振ベクトルを統合ベクトルとして有する統合符号帳を使
ってものよいことは図2Aで説明した場合と同様であ
る。また、図23Aで線形予測分析部12L、12Rは、
過去のフレームにおける合成フィルタ13L、13Rの出
力合成音をLPC分析して予測係数PL、PRを決定しても
よい。これらの変形に対応して図23Bの復号器におい
ても適応符号帳54L、54Rを省略し、統合雑音符号帳
56の代わりに多数の励振ベクトルをインデックスに対
応して有する統合符号帳を使ってもよい。また、合成フ
ィルタ52L、52Rに与える線形予測係数PL、PRは、外
部から受信したものを使う代わりに、合成フィルタ52
L、52Rの過去の出力合成音をLPC分析して求めても
よい。
In the embodiment of FIG. 23A, adaptive codebook 1
4 L and 14 R may be omitted, and an integrated codebook having an excitation vector as an integrated vector may be used instead of the integrated noise codebook 16, as in the case described with reference to FIG. 2A. In addition, the linear prediction analysis units 12 L and 12 R in FIG.
The predictive coefficients P L and P R may be determined by LPC analysis of the output synthesized sounds of the synthesis filters 13 L and 13 R in the past frame. Corresponding to these modifications, the adaptive codebooks 54 L and 54 R are omitted also in the decoder of FIG. 23B, and an integrated codebook having a large number of excitation vectors corresponding to indexes is used instead of the integrated noise codebook 56. May be. Further, the linear prediction coefficients P L and P R given to the synthesis filters 52 L and 52 R are the same as the synthesis filters 52 L instead of using those received from the outside.
The past output synthetic sounds of L and 52 R may be obtained by LPC analysis.

【図面の簡単な説明】[Brief description of drawings]

【図1】Aは従来の適応ビット割当てスカラー量子化に
よる符号化を行う符号器のブロック図、BはAの符号器
に対する復号器を示すブロック図。
FIG. 1A is a block diagram of an encoder that performs encoding by conventional adaptive bit allocation scalar quantization, and B is a block diagram showing a decoder for the encoder of A. FIG.

【図2】Aは従来のCELPを使った符号器のブロック
図、BはAの符号器に対する復号器のブロック図。
2A is a block diagram of a conventional encoder using CELP, and B is a block diagram of a decoder for the encoder of A. FIG.

【図3】Aはこの発明の原理による符号器を説明するた
めのブロック図、Bはこの発明の原理による復号器を説
明するためのブロック図。
FIG. 3 is a block diagram for explaining an encoder according to the principle of the present invention, and B is a block diagram for explaining a decoder according to the principle of the present invention.

【図4】Aはこの発明を変換符号化方に適用した場合の
符号器の例を示すブロック図、BはAにおける残差/概
形計算部の構成例を示すブロック図。
4A is a block diagram showing an example of an encoder when the present invention is applied to a transform coding method, and FIG. 4B is a block diagram showing a configuration example of a residual / rough shape calculation unit in A. FIG.

【図5】入力信号のフレームごとのサブフレームへの分
割と、各サブチャンネルにおけるLOT処理のためのフ
レームを示すタイムチャート。
FIG. 5 is a time chart showing division of an input signal into subframes for each frame and frames for LOT processing in each subchannel.

【図6】Aは図4Aの概形計算部32Eにおいて予測系
数からスペクトラム概形を得る手順を示す図、Bは図6
Aの変形手順を示す図。
6A is a diagram showing a procedure for obtaining a spectrum outline from a prediction coefficient in the outline calculation unit 32E of FIG. 4A, and FIG.
The figure which shows the modification procedure of A.

【図7】左チャネル、右チャネルの各フレームを2分割
した場合の残差系列ベクトルの要素とそれらに対するイ
ンタリーブ法を示すベクトル要素配列図。
FIG. 7 is a vector element array diagram showing the elements of a residual series vector when each frame of the left channel and the right channel is divided into two, and the interleaving method for them.

【図8】図7のインタリーブ法の変形を示すベクトル要
素配列図。
FIG. 8 is a vector element array diagram showing a modification of the interleaving method of FIG.

【図9】ベクトル量子化部の構成を示すブロック図。FIG. 9 is a block diagram showing the configuration of a vector quantization unit.

【図10】Aは図4Aの各残差/概形計算部の他の例を
示すブロック図、Bは図4Aの各残差/概形計算部の更
に他の例を示すブロック図。
10A is a block diagram showing another example of each residual / rough shape calculation unit in FIG. 4A, and B is a block diagram showing still another example of each residual / rough shape calculation unit in FIG. 4A.

【図11】図4Aの符号器に対する復号器の例を示すブ
ロック図。
FIG. 11 is a block diagram illustrating an example of a decoder for the encoder of FIG. 4A.

【図12】Aは図4Aの符号器において複数のインタリ
ーブ法を選択する構成例を示すブロック図、Bは図12
Aの符号器に対する復号側の並べ替え法の切替えのため
の構成例を示すブロック図。
12A is a block diagram showing a configuration example of selecting a plurality of interleaving methods in the encoder of FIG. 4A, and B is FIG.
FIG. 3 is a block diagram showing a configuration example for switching a rearrangement method on the decoding side for the A encoder.

【図13】信号が過渡的状態のフレームのみサブフレー
ムに分割して符号化する構成とした符号器の機能構成を
示すブロック図。
FIG. 13 is a block diagram showing a functional configuration of an encoder configured so that only a frame whose signal is in a transient state is divided into subframes and encoded.

【図14】図13の符号器におけるフレーム分割と、過
渡的フレームのサブフレームへの分割と、各MDCTに
おける各窓関数との例を示す図。
14 is a diagram showing an example of frame division in the encoder of FIG. 13, division of a transient frame into subframes, and each window function in each MDCT.

【図15】図13の符号器に対応する復号器の機能構成
例を示すブロック図。
15 is a block diagram showing a functional configuration example of a decoder corresponding to the encoder shown in FIG.

【図16】図13の符号化方法をステレオ信号の符号化
に適用した符号器の機能構成例を示すブロック図。
16 is a block diagram showing a functional configuration example of an encoder in which the encoding method of FIG. 13 is applied to encoding a stereo signal.

【図17】図16の符号器に対応する復号器の機能構成
例を示すブロック図。
17 is a block diagram showing a functional configuration example of a decoder corresponding to the encoder of FIG.

【図18】図13及び16の符号器において残差係数の
代わりに微細構造係数を符号化するように変形した場合
の変形部の構成を示すブロック図。
FIG. 18 is a block diagram showing a configuration of a deforming unit in the case where the encoder of FIGS. 13 and 16 is modified so as to encode the fine structure coefficient instead of the residual coefficient.

【図19】図15及び17の復号器において図18の変
形に対応した変形部の構成を示すブロック図。
FIG. 19 is a block diagram showing the configuration of a modification unit corresponding to the modification of FIG. 18 in the decoder of FIGS. 15 and 17;

【図20】映像信号と音響信号を多重化して符号化する
場合にこの発明を適用した符号器の構成を示す機能ブロ
ック図。
FIG. 20 is a functional block diagram showing the configuration of an encoder to which the present invention is applied when a video signal and an audio signal are multiplexed and encoded.

【図21】図20におけるフレーム間予測部95の構成
例を示すブロック図。
21 is a block diagram showing a configuration example of an inter-frame prediction unit 95 in FIG.

【図22】図20の符号器に対応する復号器の構成を示
すブロック図。
22 is a block diagram showing a configuration of a decoder corresponding to the encoder shown in FIG.

【図23】AはCELPに適用した場合のこの発明の符
号器の例を示すブロック図、BはAの符号器に対する復
号器のブロック図。
23A is a block diagram showing an example of the encoder of the present invention when applied to CELP, and B is a block diagram of a decoder for the encoder of A. FIG.

Claims (58)

【特許請求の範囲】[Claims] 【請求項1】 複数の系統の信号を一括して符号化する
符号化方法において、以下のステップを含む: (a) 各上記系統において予め決めた長さの区間毎にその
区間の信号のパワーを求め、そのパワーに基づいて重み
を決定し、 (b) 各上記系統において上記区間毎にその区間の信号を
上記パワーで正規化して正規化信号を生成すると共に、
その正規化利得を表す利得インデックスを出力し、 (c) 上記複数の系統のそれぞれの上記正規化信号を予め
決めた配列で組み合わせ、少なくとも1系列の信号ベク
トルとして生成し、 (d) 上記複数の系統のそれぞれの上記重みを上記正規化
信号と同じ配列で組み合わせ、少なくとも1系列の重み
ベクトルとして生成し、 (e) 上記信号ベクトルを上記重みベクトルで重み付きベ
クトル量子化し、その量子化ベクトルを表す量子化イン
デックスを出力し、 (f) 上記量子化インデックスと、上記利得インデックス
とを上記複数系統の信号に対する符号化結果の少なくと
も一部として出力する。
1. A coding method for collectively coding signals of a plurality of systems, including the following steps: (a) For each section of a predetermined length in each of the above systems, the power of the signal in that section Then, the weight is determined based on the power, and (b) in each of the above systems, a signal in that section is normalized with the power to generate a normalized signal for each section, and
A gain index representing the normalized gain is output, and (c) the normalized signals of the plurality of systems are combined in a predetermined array to generate at least one series of signal vectors, and (d) the plurality of The above-mentioned weights of each system are combined in the same array as the above-mentioned normalized signal to generate at least one series of weight vectors, and (e) the above-mentioned signal vector is weighted vector-quantized with the above-mentioned weight vector, and the quantization vector is represented. The quantization index is output, and (f) the quantization index and the gain index are output as at least a part of the encoding result for the signals of the plurality of systems.
【請求項2】 請求項1記載の符号化方法における上記
ステップ(a) は、 (a-1) 上記区間の信号を時間−周波数変換して周波数領
域係数を求め、 (a-2) 上記周波数領域係数の概形を求め、 (a-3) 上記周波数領域係数をその概形で正規化して残差
係数を求め、上記残差係数のパワーに基づいて上記重み
を決定するステップを含み、上記ステップ(b)は上記区
間の上記残差係数を上記パワーで正規化して正規化残差
係数を上記正規化信号として求めるステップである。
2. The encoding method according to claim 1, wherein the step (a) comprises: (a-1) time-frequency converting the signal in the section to obtain a frequency domain coefficient; and (a-2) the frequency. Obtaining the outline of the region coefficient, (a-3) including the step of normalizing the frequency domain coefficient with the outline to obtain the residual coefficient, and determining the weight based on the power of the residual coefficient, Step (b) is a step of normalizing the residual coefficient in the section with the power to obtain a normalized residual coefficient as the normalized signal.
【請求項3】 請求項2記載の符号化方法において、上
記ステップ(a-1) の上記時間−周波数変換は変形離散コ
サイン変換である。
3. The encoding method according to claim 2, wherein the time-frequency transform in step (a-1) is a modified discrete cosine transform.
【請求項4】 請求項2又は3記載の符号化方法におい
て、上記ステップ(a-3) は少なくとも上記パワーと上記
概形とに基づいて上記重みを決定する。
4. The encoding method according to claim 2 or 3, wherein the step (a-3) determines the weight based on at least the power and the outline.
【請求項5】 請求項2、3又は4記載の符号化方法に
おいて、上記ステップ(a-3) は更に聴感重みに基づいて
重みを決定する。
5. The encoding method according to claim 2, 3 or 4, wherein the step (a-3) further determines a weight based on a perceptual weight.
【請求項6】 請求項1記載の符号化方法において、単
一系統の入力信号から一定周期毎に上記区間の長さの信
号を抽出して上記複数の系統に順次循環して分配するこ
とにより上記複数系統の信号を生成するステップを含
む。
6. The encoding method according to claim 1, wherein a signal having a length of the section is extracted from an input signal of a single system at regular intervals and sequentially circulated and distributed to the plurality of systems. Generating the signals of the plurality of systems is included.
【請求項7】 請求項6記載の符号化方法において、各
上記系統における上記区間の長さは上記周期の長さの2
倍とされ、上記ステップ(a) は、 (a-1) 上記区間の信号を変形離散コサイン変換により周
波数領域係数に変換し、 (a-2) 上記周波数領域係数の概形を求め、 (a-3) 上記周波数領域係数をその概形で正規化して残差
係数を求め、上記残差係数のパワーに基づいて上記重み
を決定するステップを含み、上記ステップ(b)は上記区
間の上記残差係数を上記パワーで正規化して正規化残差
係数を上記正規化信号として求めるステップである。
7. The encoding method according to claim 6, wherein the length of the section in each system is 2 times the length of the cycle.
In step (a), (a-1) the signal in the section is transformed into a frequency domain coefficient by a modified discrete cosine transform, and (a-2) the outline of the frequency domain coefficient is obtained. -3) Normalizing the frequency domain coefficient with its outline to obtain a residual coefficient, and determining the weight based on the power of the residual coefficient.The step (b) includes the residual of the section. It is a step of normalizing the difference coefficient with the power and obtaining a normalized residual coefficient as the normalized signal.
【請求項8】 請求項2、3、4、5又は7記載の符号
化方法において、上記ステップ(a-2) は、上記区間の信
号を線形予測分析して予測係数を求め、上記予測係数を
量子化し、その量子化された予測係数をフーリエ変換し
て上記概形を求めるそれぞれのステップを含み、上記ス
テップ(f) は上記予測係数の量子化を表すインデックス
を上記概形に対応する情報として上記信号に対する符号
化結果の他の一部として出力する。
8. The encoding method according to claim 2, 3, 4, 5, or 7, wherein in step (a-2), a prediction coefficient is obtained by performing linear prediction analysis on the signal in the section, and the prediction coefficient is calculated. , And each step of Fourier transforming the quantized prediction coefficient to obtain the above-mentioned outline, the step (f) includes an index representing the quantization of the above-mentioned prediction coefficient and information corresponding to the above-mentioned outline. Is output as another part of the encoding result for the signal.
【請求項9】 請求項2、3、4、5又は7記載の符号
化方法において、上記ステップ(a-2) は上記区間の上記
周波数領域係数の絶対値を逆フーリエ変換して時間領域
信号とし、上記時間領域信号を線形予測分析して予測係
数を求め、上記予測係数を量子化し、その量子化された
予測係数をフーリエ変換して上記概形を求めるステップ
を含み、上記ステップ(f) は上記予測係数の量子化を表
すインデックスを上記概形に対応する情報として上記信
号に対する符号化結果の他の一部として出力する。
9. The encoding method according to claim 2, 3, 4, 5 or 7, wherein the step (a-2) is a time domain signal by inverse Fourier transforming the absolute value of the frequency domain coefficient in the section. And, the prediction coefficient is obtained by linear prediction analysis of the time domain signal, the prediction coefficient is quantized, and the quantized prediction coefficient is Fourier-transformed to obtain the outline, and the step (f) is performed. Outputs an index representing the quantization of the prediction coefficient as another part of the coding result for the signal as information corresponding to the outline.
【請求項10】 請求項2、3、4、5又は7記載の符
号化方法において、上記ステップ(a-2) は上記周波数領
域係数を複数の小帯域に分割し、それぞれの上記小帯域
の周波数領域係数を代表するスケールファクタを決定
し、それぞれの上記小帯域の上記スケールファクタを量
子化して量子化されたスケールファクタを上記概形とし
て求めるステップを含み、上記ステップ(f) は上記量子
化スケールファクタを表すインデックスを上記概形に対
応する情報として上記信号に対する符号化結果の他の一
部として出力する。
10. The encoding method according to claim 2, 3, 4, 5, or 7, wherein said step (a-2) divides said frequency domain coefficient into a plurality of sub-bands. Determining a scale factor representative of frequency domain coefficients, quantizing the scale factor of each of the sub-bands to obtain a quantized scale factor as the outline, the step (f) is the quantization. An index representing the scale factor is output as information corresponding to the above outline as another part of the encoding result for the above signal.
【請求項11】 請求項1乃至10のいずれかに記載の
符号化方法において、上記ステップ(c) 及び(d) におけ
る予め決めた配列は上記区間毎にそれぞれの上記系統か
らの上記残差係数の全ての要素を、予めメモリ手段に格
納されている配列のマッピングに従って並び替え、予め
決めた数の上記信号ベクトルとして生成し、それぞれの
上記系統からの上記重みの全ての要素を、上記メモリ手
段に格納されている同じ配列のマッピングに従って並び
替え、予め決めた数の上記重みベクトルとして生成す
る。
11. The encoding method according to claim 1, wherein the predetermined array in steps (c) and (d) is the residual coefficient from each system for each section. All the elements of the above are rearranged according to the mapping of the array stored in advance in the memory means, and are generated as a predetermined number of the above-mentioned signal vectors, and all the elements of the above-mentioned weights from the respective systems are set into the above-mentioned memory means. The weighting vectors are rearranged according to the mapping of the same array stored in, and are generated as a predetermined number of the weight vectors.
【請求項12】 請求項1乃至10のいずれかに記載の
符号化方法において、複数種類の配列のマッピングが予
めメモリ手段に格納されており、上記ステップ(c) は上
記複数のマッピングのそれぞれを使った場合について上
記ステップ(e) におけるベクトル量子化を行ってそのベ
クトル量子化の際に求められる量子化歪が最小となるマ
ッピングを選択し、上記ステップ(f) は上記量子化歪が
最小となる量子化インデックスと、選択したマッピング
を表す符号を上記符号化結果の他の一部として出力す
る。
12. The encoding method according to any one of claims 1 to 10, wherein mappings of a plurality of types of arrays are stored in advance in the memory means, and the step (c) includes each of the plurality of mappings. When used, the vector quantization in step (e) above is performed and the mapping that minimizes the quantization distortion required during the vector quantization is selected, and in step (f) above, the quantization distortion is minimized. And the code representing the selected mapping is output as another part of the encoding result.
【請求項13】 請求項1に記載の符号化方法におい
て、上記予め決めた1つの系統の信号は映像信号であ
る。
13. The encoding method according to claim 1, wherein the signal of the one predetermined system is a video signal.
【請求項14】 請求項13記載の符号化方法におい
て、上記複数系統の上記予め決めた1つの系統における
上記ステップ(a) は、上記信号を上記区間毎に予測処理
を行って差分信号を生成し、上記差分信号のパワーを求
め、そのパワーに基づいて上記重みを決定するステップ
であり、上記予め決めた1つの系統における上記ステッ
プ(b) は上記差分信号を上記パワーで正規化し、上記正
規化信号とするステップである。
14. The encoding method according to claim 13, wherein the step (a) in the one predetermined system of the plurality of systems generates a differential signal by performing prediction processing on the signal for each section. Then, the power of the differential signal is obtained, and the weight is determined based on the power. The step (b) in the one predetermined system normalizes the differential signal with the power, This is a step of converting to a digitized signal.
【請求項15】 請求項13又は14記載の符号化方法
において、予め決めた他の1つの上記系統の信号は音響
信号である。
15. The encoding method according to claim 13 or 14, wherein the other predetermined signal of the system is an acoustic signal.
【請求項16】 請求項1乃至15のいずれかに記載の
符号化方法において、更に次のステップを含む: (g) 単一系統の入力信号を一定周期のフレーム毎に分割
し、その各フレームが定常的であるか又は過渡的である
かを判定し、 (h) 過渡的フレームと判定されると、そのフレームの入
力信号を上記一定長の区間毎に分割して上記複数系統の
信号として分配し、上記ステップ(a) 〜(f) を実行し、 (i) 上記フレームが定常的であれば、上記フレームの上
記入力信号のパワーを求め、そのパワーに基づいて重み
を決定し、 (j) そのフレームの上記単一系統の上記入力信号を上記
パワーで正規化して正規化信号を得て、その正規化利得
を表す利得インデックスを出力し、 (k) 上記入力信号の上記正規化信号を並べ替えして少な
くとも1系列の信号ベクトルを生成し、 (l) 上記入力信号の上記重みを上記入力信号の正規化信
号と同じように並べ替えして少なくとも1系列の重みベ
クトルを生成し、 (m) 上記ステップ(k) で生成した上記信号ベクトルと同
じ長さの異なる複数の量子化ベクトルをそれぞれの量子
化インデックスに対応して有する符号帳を探索し、上記
ステップ(j) の上記正規化信号に対し、上記ステップ
(l) の上記重みベクトルによる重み付け距離が最小とな
る量子化ベクトルを選択し、その対応する量子化インデ
ックスを決定し、 (n) 上記ステップ(i) での上記パワーによる正規化利得
を表す利得インデックスと上記ステップ(m) で決定した
上記量子化インデックスを定常的フレームでの上記入力
信号に対する符号化結果の少なくとも一部として出力す
る。
16. The encoding method according to claim 1, further comprising the following steps: (g) dividing a single-system input signal into frames of a constant period, and dividing each frame. Is a stationary or transient, and (h) when it is determined to be a transient frame, the input signal of that frame is divided into sections of the above-mentioned fixed length to obtain the signals of the above multiple systems. Distributing, performing steps (a) to (f) above, (i) if the frame is stationary, determine the power of the input signal of the frame, determine the weight based on that power, and j) The input signal of the single system of the frame is normalized with the power to obtain a normalized signal, and a gain index representing the normalized gain is output, and (k) the normalized signal of the input signal. To rearrange at least one sequence of signal vectors (L) The weights of the input signal are rearranged in the same manner as the normalized signal of the input signal to generate at least one series of weight vectors, and (m) the weight vector is generated in the step (k). Search for a codebook having a plurality of different quantization vectors of the same length as the signal vector corresponding to each quantization index, for the normalized signal of step (j), the step
(l) Select the quantization vector that minimizes the weighted distance by the weight vector, determine the corresponding quantization index, and (n) the gain that represents the normalized gain by the power in step (i) above. The index and the quantization index determined in step (m) are output as at least a part of the coding result for the input signal in the stationary frame.
【請求項17】 請求項16記載の符号化方法におい
て、上記複数の系統のそれぞれにおける上記ステップ
(a) は、 (a-1) 上記区間の上記信号を時間−周波数変換して周波
数領域係数を求め、 (a-2) 上記区間の上記信号のスペクトラム概形を求め、 (a-3) 上記周波数領域係数を上記スペクトラム概形で正
規化し残差係数を求め、上記残差係数のパワーに基づい
て重みを決定する、ステップを含み、 上記ステップ(f) は上記スペクトラム概形を表す概形イ
ンデックスを上記符号化結果の他の一部として出力す
る。
17. The encoding method according to claim 16, wherein the step in each of the plurality of systems
(a) is (a-1) Time-frequency conversion is performed on the signal in the section to obtain frequency domain coefficients, (a-2) Spectrum outline of the signal in the section is obtained, and (a-3) The frequency domain coefficient is normalized by the spectrum outline to obtain the residual coefficient, and the weight is determined based on the power of the residual coefficient.The step (f) includes the outline representing the spectrum outline. The index is output as another part of the encoded result.
【請求項18】 請求項17記載の符号化方法におい
て、上記過渡的フレームにおける各区間毎の上記ステッ
プ(f) は上記複数の系統のそれぞれの概形インデックス
の組及び上記利得インデックスの組の少なくとも一方を
一括して量子化し、対応する量子化符号を上記符号化結
果の一部として出力する。
18. The encoding method according to claim 17, wherein the step (f) for each section in the transient frame is at least one of a set of approximate indexes and a set of gain indexes of the plurality of systems. One of them is quantized together and the corresponding quantized code is output as a part of the above-mentioned coding result.
【請求項19】 請求項16、17又は18記載の符号
化方法において、上記ステップ(i) は、定常的と判定さ
れたフレームの上記入力信号を予測符号化し、それによ
って得られる符号を定常的フレームでの上記入力信号に
対する符号化結果の少なくとも一部として出力する。
19. The encoding method according to claim 16, 17 or 18, wherein the step (i) predictively encodes the input signal of a frame determined to be stationary, and the resulting code is stationary. It is output as at least a part of the encoding result of the input signal in the frame.
【請求項20】 請求項16、17又は18記載の符号
化方法において、上記ステップ(i) は、 (i-1) 定常的と判定された上記フレームの上記入力信号
を時間−周波数変換して周波数領域係数を求め、 (i-2) 上記フレームにおける上記入力信号のスペクトラ
ム概形と平均パワーを求め、 (i-3) 上記周波数領域係数を上記スペクトラム概形と上
記平均パワーで正規化し、その結果得られる正規化残差
係数を上記正規化信号として出力する、ステップを含
み、 上記ステップ(f) は上記平均パワーを表す利得インデッ
クスと上記スペクトラム概形を表す概形インデックスを
上記定常的なフレームの上記入力信号に対する符号化結
果の一部として出力する。
20. The encoding method according to claim 16, 17 or 18, wherein said step (i) comprises (i-1) time-frequency converting said input signal of said frame determined to be stationary. Obtain the frequency domain coefficient, (i-2) obtain the spectrum outline and average power of the input signal in the frame, (i-3) normalize the frequency domain coefficient with the spectrum outline and the average power, the Outputting the resulting normalized residual coefficient as the normalized signal, wherein step (f) includes the gain index representing the average power and the outline index representing the spectrum outline as the stationary frame. It is output as a part of the encoding result for the above input signal of.
【請求項21】 請求項16、17又は18記載の符号
化方法において、上記ステップ(i) は、 (i-1) 定常的と判定された上記フレームにおける上記入
力信号を時間−周波数変換して周波数領域係数を求め、 (i-2) 上記フレームにおける上記入力信号のスペクトラ
ム概形を求め、 (i-3) 上記周波数領域係数を上記スペクトラム概形で正
規化し、その結果得られる残差係数を求め、 (i-4) 上記残差係数の概形を過去のフレームの残差係数
から予測し、 (i-5) 上記残差係数をその予測した概形で正規化して微
細構造係数を生成する、ステップを含み、 上記ステップ(j) は上記微細構造係数の平均パワーを求
め、上記微細構造係数を上記平均パワーで正規化して得
られる正規化微細構造係数を上記正規化信号として出力
するステップを含み、 上記ステップ(f) は上記平均パワーを表す利得インデッ
クスと上記スペクトラム概形を表す概形インデックスを
上記符号化結果の他の一部として出力する。
21. The encoding method according to claim 16, 17 or 18, wherein said step (i) comprises: (i-1) time-frequency converting said input signal in said frame determined to be stationary. Obtain the frequency domain coefficient, (i-2) obtain the spectrum outline of the input signal in the above frame, (i-3) normalize the frequency domain coefficient with the spectrum outline, and obtain the residual coefficient obtained as a result. (I-4) Predict the outline of the residual coefficient from the residual coefficient of the past frame, and (i-5) Normalize the residual coefficient with the predicted outline to generate the fine structure coefficient. In the step (j), the average power of the fine structure coefficient is obtained, and the normalized fine structure coefficient obtained by normalizing the fine structure coefficient with the average power is output as the normalized signal. Including the above step (f) The envelope index representing the gain index and the spectrum envelope representing the average power output as another part of the coding result.
【請求項22】 入力音響信号のフレーム毎に符号帳か
ら選択したフレーム長の励振ベクトルに利得を乗じて線
形予測合成フィルタに与え、それによって合成された音
響信号と上記入力音響信号との間の距離尺度が最小とな
る上記符号帳の励振ベクトルとそれに対する利得を決定
するCELPによる符号化方法において、 上記符号帳はそれぞれのインデックスに対応して上記フ
レーム長の系統数倍の統合ベクトルが予め書き込まれた
統合符号帳であり、複数の音響信号が入力される複数の
系列にそれぞれ対応して複数の線形予測合成フィルタが
設けれ、上記方法は以下のステップを含む: (a) 上記複数の系統においてフレーム毎に線形予測分析
により予測係数を求め、対応するそれぞれの線形予測合
成フィルタにフィルタ係数として与え、 (b) 上記統合符号帳から読み出した各統合ベクトルのそ
れぞれ予め決められた部分の部分ベクトルをそれぞれ対
応する系統の上記線形予測合成フィルタの励振成分ベク
トルとして与え、上記複数の系統の距離尺度の和が最小
となるよう統合ベクトルを選択し、 (c) 選択された上記統合ベクトルのそれぞれの系統に対
応する励振成分ベクトルに対する利得を計算し、 (d) 上記選択された統合ベクトルを表すインデックス
と、上記統合ベクトルの上記複数の系統にそれぞれ対応
する励振成分ベクトルに対する上記利得を表す符号とを
上記複数系統の入力音響信号に対する符号化結果の少な
くとも一部として出力する。
22. An excitation vector having a frame length selected from a codebook for each frame of an input acoustic signal is multiplied by a gain to be applied to a linear prediction synthesis filter, and between the acoustic signal synthesized thereby and the input acoustic signal. In the CELP coding method for determining the excitation vector of the codebook with the minimum distance measure and the gain for the codebook, the codebook is preliminarily written with an integrated vector of the number of systems of the frame length corresponding to each index. And a plurality of linear prediction synthesis filters respectively corresponding to a plurality of sequences to which a plurality of acoustic signals are input, and the method includes the following steps: (a) the plurality of systems , The prediction coefficient is obtained for each frame by linear prediction analysis, and given as a filter coefficient to each corresponding linear prediction synthesis filter, (b) The partial vector of each predetermined part of each integrated vector read from the integrated codebook is given as the excitation component vector of the linear prediction synthesis filter of the corresponding system, and the sum of the distance scales of the plurality of systems is the minimum. And (c) calculate the gain for the excitation component vector corresponding to each system of the selected integrated vector, and (d) the index representing the selected integrated vector and the integrated vector. And a code representing the gain with respect to the excitation component vectors respectively corresponding to the plurality of systems, are output as at least a part of the encoding result for the input acoustic signals of the plurality of systems.
【請求項23】 複数系統の信号を1つの統合符号帳を
使って一括ベクトル量子化して符号化した信号の復号方
法であり、 (a) 一定長の区間毎に入力された少なくとも1つのベク
トル量子化インデックスに対応する少なくとも1つの統
合ベクトルを統合符号帳から読み出し、 (b) 上記ステップ(a) で得られた統合ベクトルの要素を
予め決めた配列に並べ替えて複数系統の正規化信号を生
成し、 (c) 一定長の区間毎に入力された利得インデックスから
正規化利得を再生し、上記正規化利得により上記複数系
統の対応する正規化信号を逆正規化して上記複数系統の
再生信号として出力する。
23. A method of decoding a signal in which a plurality of systems of signals are collectively vector-quantized and coded using one integrated codebook, wherein: (a) at least one vector quantum input for each section of constant length. At least one integrated vector corresponding to the generalization index is read from the integrated codebook, and (b) the elements of the integrated vector obtained in step (a) above are rearranged in a predetermined array to generate a normalized signal of multiple systems. Then, (c) the normalized gain is reproduced from the gain index input for each constant length section, and the normalized signals corresponding to the plurality of systems are denormalized by the normalized gain to obtain the reproduced signals of the plurality of systems. Output.
【請求項24】 請求項23記載の復号方法において、
上記ステップ(c) は以下のステップを含む: (d) 上記複数の系統に対し上記区間毎にそれぞれ入力さ
れた概形インデックスからスペクトラム概形を再生し、
逆正規化された上記正規化信号に乗算して周波数領域係
数を得て、 (e) 上記ステップ(d) で得られた各系統の上記周波数領
域係数を上記区間毎に周波数−時間変換して時間領域信
号に変換し、上記複数系統の上記再生信号として出力す
る。
24. The decoding method according to claim 23,
The above step (c) includes the following steps: (d) Reproducing a spectrum outline from the outline index input for each of the above intervals for each of the plurality of lines,
The denormalized signal is multiplied to obtain the frequency domain coefficient, and (e) the frequency domain coefficient of each system obtained in step (d) is frequency-time converted for each section. It is converted into a time domain signal and output as the reproduced signals of the plurality of systems.
【請求項25】 請求項24記載の復号方法において、
上記ステップ(e) の周波数−時間変換は逆変形離散コサ
イン変換である。
25. The decoding method according to claim 24,
The frequency-time transformation in step (e) above is the inverse modified discrete cosine transformation.
【請求項26】 請求項24又は25記載の復号方法に
おいて、上記ステップ(e) は上記複数系統の上記時間領
域信号を予め決めた時間順に順次結合して1つの統合さ
れた再生信号とするステップを含む。
26. The decoding method according to claim 24 or 25, wherein the step (e) is a step of sequentially combining the time domain signals of the plurality of systems in a predetermined time order to form one integrated reproduction signal. including.
【請求項27】 請求項24記載の復号方法において、
上記ステップ(e) は上記複数系統の時間領域信号をそれ
より少ない複数の統合された再生信号に結合するステッ
プを含む。
27. The decoding method according to claim 24,
The step (e) includes a step of combining the plurality of time domain signals into a plurality of integrated reproduction signals having a smaller number.
【請求項28】 請求項23乃至27のいずれかに記載
の復号方法において、上記ステップ(b) は上記区間毎に
入力された配列マッピングを表すインデックスにより、
予め決められた複数の並べ替えマッピングの1つを選択
し、その選択された並べ替えマッピングに従って上記並
べ替えを行う。
28. The decoding method according to claim 23, wherein the step (b) is performed by using an index representing an array mapping input for each section,
One of a plurality of predetermined rearrangement mappings is selected, and the rearrangement is performed according to the selected rearrangement mapping.
【請求項29】 請求項23乃至28のいずれかに記載
の復号方法において、入力された状態符号を復号して定
常的フレームであるか過渡的フレームであるかを判別
し、過渡的フレームであれば、そのフレームに対し上記
ステップ(a) 〜(c) を実行し、各区間で上記複数系統に
得られた再生信号を時間的に順次ずらして合成して上記
区間の整数倍の長さのフレームの信号とし、定常的フレ
ームであれば、そのフレームに対し以下のステップを実
行する: (d) 上記フレームに対し入力された少なくとも1つのベ
クトル量子化インデックスに対応する少なくとも1つの
統合ベクトルを統合符号帳から読み出し、 (e) 上記ステップ(d) で得られた統合ベクトルの要素を
予め決めた配列に並べ替えて単一系統の正規化信号を生
成し、 (f) 上記フレームに対し入力された利得インデックスか
ら正規化利得を再生し、上記正規化利得により上記単一
系統の正規化信号を逆正規化して再生信号として出力す
る。
29. The decoding method according to claim 23, wherein the input state code is decoded to determine whether it is a stationary frame or a transient frame, and if it is a transient frame. For example, the steps (a) to (c) are executed for the frame, and the reproduction signals obtained in the plurality of systems in each section are sequentially shifted in time and combined to produce an integer multiple of the section. As a signal of a frame, if it is a stationary frame, perform the following steps for that frame: (d) combine at least one integrated vector corresponding to at least one vector quantization index input for the above frame Read from the codebook, (e) rearrange the elements of the integrated vector obtained in step (d) above into a predetermined array to generate a single-system normalized signal, and (f) enter it into the above frame. The normalized gain is reproduced from the applied gain index, and the normalized signal of the single system is denormalized by the normalized gain and output as a reproduced signal.
【請求項30】 請求項29記載の復号方法において、
上記ステップ(c) は以下のステップを含む: (c-1) 上記複数の系統に対しそれぞれ入力された概形イ
ンデックスからスペクトラム概形を再生し、上記スペク
トラム概形を、逆正規化された上記正規化信号に乗算し
て周波数領域係数を得て、 (c-2) 上記ステップ(c-1) で得られた各系統の上記周波
数領域係数を周波数−時間変換して時間領域信号に変換
し、上記複数系統の上記再生信号として出力する。
30. The decoding method according to claim 29,
The step (c) includes the following steps: (c-1) The spectrum outline is reconstructed from the outline indexes respectively input to the plurality of lines, and the spectrum outline is denormalized as described above. The normalized signal is multiplied to obtain the frequency domain coefficient, and (c-2) the frequency domain coefficient of each system obtained in step (c-1) above is frequency-time transformed to a time domain signal. , And output as the reproduction signals of the plurality of systems.
【請求項31】 請求項29又は30記載の復号方法に
おいて、上記フレームが定常的フレームの場合、上記ス
テップ(f) は以下のステップを含む: (f-1) 上記フレームに対し入力された概形インデックス
からスペクトラム概形を再生し、逆正規化された上記正
規化信号から上記スペクトラム概形を使って周波数領域
係数を得て、 (f-2) 上記ステップ(f-1) で得られた上記周波数領域係
数を周波数−時間変換して時間領域信号に変換し、上記
再生信号として出力する。
31. The decoding method according to claim 29 or 30, wherein when the frame is a stationary frame, the step (f) includes the following steps: (f-1) an approximate input to the frame. The spectrum shape is reproduced from the shape index, the frequency domain coefficient is obtained from the denormalized signal by using the spectrum shape, and (f-2) is obtained in step (f-1). The frequency domain coefficient is subjected to frequency-time conversion to be converted into a time domain signal, which is output as the reproduction signal.
【請求項32】 請求項31記載の復号方法において、
上記ステップ(f-1)は逆正規化された上記正規化信号を
微細構造係数として再生し、その微細構造係数を過去の
フレームから予測した残差概形で逆正規化して残差係数
を得、上記残差係数に上記スペクトラム概形を乗算して
上記周波数領域係数を得るステップである。
32. The decoding method according to claim 31, wherein
In the step (f-1), the denormalized normalization signal is reproduced as a fine structure coefficient, and the fine structure coefficient is denormalized by the residual outline predicted from the past frame to obtain the residual coefficient. , The step of multiplying the residual coefficient by the spectrum outline to obtain the frequency domain coefficient.
【請求項33】 請求項32記載の復号方法において、
上記残差概形は過去の定常的フレームにおける上記ステ
ップ(f-1) で求めた残差係数からその概形として求め
る。
33. The decoding method according to claim 32,
The residual outline is obtained as an outline from the residual coefficient obtained in step (f-1) in the past stationary frame.
【請求項34】 請求項32記載の復号方法において、
上記残差概形は過去の過渡的フレームにおける1つの区
間で概形インデックスから再生されたスペクトラム概形
から求める。
34. The decoding method according to claim 32,
The residual shape is obtained from the spectrum shape reproduced from the shape index in one section in the past transient frame.
【請求項35】 請求項30記載の復号方法において、
上記状態符号が過渡的フレームを示す場合に、各系統に
おいて上記ステップ(c-1) において再生された1つの区
間の上記スペクトラム概形を、上記フレーム内のすべて
の区間に共通に利用する。
35. The decoding method according to claim 30, wherein
When the status code indicates a transient frame, the spectrum outline of one section reproduced in step (c-1) in each system is commonly used for all sections in the frame.
【請求項36】 請求項23乃至33のいずれかに記載
の復号方法において、上記複数の系統のうちの予め決め
た1つにおいて上記ステップ(c) は逆正規化された上記
正規化信号を差分信号として得て、現区間の上記差分信
号に前区間の再生信号を加算して現区間の再生信号を得
るステップを含む。
36. The decoding method according to any one of claims 23 to 33, wherein in the predetermined one of the plurality of systems, the step (c) is a step of subtracting the denormalized signal from the denormalized signal. And a reproduction signal of the previous section is added to the difference signal of the current section to obtain a reproduction signal of the current section.
【請求項37】 CELPにより符号化された複数系統
の音響信号の復号方法であり、以下のステップを含む: (a) 入力されたインデックスにより統合符号帳を参照し
て対応する統合雑音ベクトルを読み出し、その統合ベク
トルの上記複数の系統にそれぞれ対応する部分の部分ベ
クトルを切り出してそれぞれ対応する系統に与え、 (b) 入力された利得符号から上記複数の系統に対応した
部分ベクトルに対する利得をそれぞれ再生し、それぞれ
対応する上記部分ベクトルに乗算して励振ベクトルを求
め、 (c) 各上記系統において、予測係数がフィルタ係数とし
て与えられた合成フィルタに上記励振ベクトルを与えて
音響信号を合成し、再生音響信号として出力する。
37. A method of decoding a plurality of audio signals encoded by CELP, comprising the steps of: (a) reading a corresponding integrated noise vector by referring to an integrated codebook according to an input index. , The partial vector of the part of the integrated vector that corresponds to each of the above-mentioned multiple systems is cut out and given to each corresponding system, and (b) the gains for the partial vectors corresponding to the above-mentioned multiple systems are respectively reproduced from the input gain code. Then, the excitation vectors are obtained by multiplying the corresponding partial vectors respectively, (c) in each of the above systems, the excitation vector is given to the synthesis filter in which the prediction coefficient is given as the filter coefficient, and the acoustic signal is synthesized and reproduced. Output as an acoustic signal.
【請求項38】 複数の系統の信号を一括して符号化す
る符号器であり、 各上記系統に対し設けられ、予め決めた長さの区間毎に
その区間の信号のパワーを求め、そのパワーに基づいて
重みを決定し、その区間の信号を上記パワーで正規化し
て正規化信号を生成すると共に、その正規化利得を表す
利得インデックスを出力するパワー正規化手段と、 上記複数の系統のそれぞれの上記パワー正規化手段から
の上記正規化信号を予め決めた配列で組み合わせ、少な
くとも1系列の信号ベクトルとして生成する信号配列組
み合わせ手段と、 上記複数の系統のそれぞれの上記パワー正規化手段から
の上記重みを上記正規化信号と同じ配列で組み合わせ、
少なくとも1系列の重みベクトルとして生成する重み配
列組み合わせ手段と、 上記信号ベクトルを上記重みベクトルで重み付きベクト
ル量子化し、その量子化ベクトルを表す量子化インデッ
クスを出力するベクトル量子化手段、とを含み、上記量
子化インデックスと、上記利得インデックスとは上記複
数系統の信号に対する符号化結果の少なくとも一部とし
て出力される。
38. An encoder for collectively encoding signals of a plurality of systems, which is provided for each of the systems and obtains the power of the signal of the section for each section of a predetermined length, and the power thereof The weight is determined based on, the signal in the section is normalized with the power to generate a normalized signal, and a power normalizing means for outputting a gain index representing the normalized gain, and each of the plurality of systems. Signal sequence combining means for combining the normalized signals from the power normalizing means in a predetermined array to generate at least one series of signal vectors, and the power normalizing means for each of the plurality of systems. Combine the weights in the same array as the normalized signal above,
A weight array combination means for generating at least one series of weight vectors, and a vector quantization means for quantizing the signal vector with the weight vector, and outputting a quantization index representing the quantization vector; The quantization index and the gain index are output as at least a part of the encoding result for the signals of the plurality of systems.
【請求項39】 請求項38記載の符号器は、更に各上
記系統に対し上記区間の信号を時間−周波数変換して周
波数領域係数を求め、上記周波数領域係数の概形を求
め、上記周波数領域係数をその概形で正規化して残差係
数を求める残差概形計算手段と、上記残差係数のパワー
に基づいて上記重みを決定する重み計算手段とを含み、
上記パワー正規化手段は上記区間の上記残差係数を上記
パワーで正規化して正規化残差係数を上記正規化信号と
して求める手段である。
39. The encoder according to claim 38, wherein the signal of the section is subjected to time-frequency conversion for each of the systems to obtain frequency domain coefficients, and an approximate shape of the frequency domain coefficients is obtained. Residual rough shape calculating means for obtaining a residual coefficient by normalizing the coefficient with its rough shape, and weight calculating means for determining the weight based on the power of the residual coefficient,
The power normalizing means is means for normalizing the residual coefficient in the section with the power to obtain a normalized residual coefficient as the normalized signal.
【請求項40】 請求項39記載の符号器において、上
記残差概形計算手段が行う上記時間−周波数変換は変形
離散コサイン変換である。
40. The encoder according to claim 39, wherein the time-frequency conversion performed by the residual outline calculation means is a modified discrete cosine transform.
【請求項41】 請求項39記載の符号器において、各
上記系統の上記残差概形計算手段は、上記区間の信号を
線形予測分析して予測係数を求める線形予測分析手段
と、上記予測係数を量子化しその量子化を表すインデッ
クスを出力する係数量子化手段と、その量子化された予
測係数をフーリエ変換して上記概形を求める概形計算手
段とを含み、上記予測係数の量子化を表すインデックス
は上記概形に対応する情報として上記信号に対する符号
化結果の他の一部として出力される。
41. The encoder according to claim 39, wherein said residual outline calculation means of each said system obtains a prediction coefficient by performing linear prediction analysis on the signal of said section, and said prediction coefficient. Including a coefficient quantizing means for quantizing and predicting the approximate shape by Fourier transforming the quantized predictive coefficient, and quantizing the predictive coefficient. The index indicating is output as another part of the encoding result for the signal as information corresponding to the outline.
【請求項42】 請求項39記載の符号器において、各
系統の上記残差概形計算手段は、上記上記区間の上記周
波数領域係数の絶対値を求める絶対値手段と、上記絶対
値を逆フーリエ変換して時間領域信号とする逆フーリエ
変換手段と、上記時間領域信号を線形予測分析して予測
係数を求める線形予測分析手段と、上記予測係数を量子
化しその量子化予測係数を表すインデックスを出力する
係数量子化手段と、その量子化予測係数をフーリエ変換
して上記概形を求める概形計算手段とを含み、上記予測
係数の量子化を表すインデックスは上記概形に対応する
情報として上記信号に対する符号化結果の他の一部とし
て出力される。
42. The encoder according to claim 39, wherein the residual outline calculation means of each system calculates the absolute value of the frequency domain coefficient in the section and the inverse Fourier transform of the absolute value. Inverse Fourier transforming means for transforming into a time domain signal, linear predictive analyzing means for linearly predicting and analyzing the time domain signal to obtain a prediction coefficient, and outputting an index representing the quantized prediction coefficient by quantizing the prediction coefficient. Coefficient quantizing means and Fourier transform of the quantized prediction coefficient to obtain the rough shape calculating means, and the index representing the quantization of the predictive coefficient is the signal as information corresponding to the rough shape. It is output as another part of the encoding result for.
【請求項43】 請求項39記載の符号器において、各
系統の上記残差概形計算手段は、上記周波数領域係数を
複数の小帯域に分割し、それぞれの上記小帯域の周波数
領域係数を代表するスケールファクタを決定するスケー
ルファクタ計算手段と、それぞれの上記小帯域の上記ス
ケールファクタを量子化して量子化されたスケールファ
クタを上記概形として求めるスケールファクタ量子化手
段を含み、上記量子化スケールファクタを表す上記イン
デックスは上記概形に対応する情報として上記信号に対
する符号化結果の他の一部として出力される。
43. The encoder according to claim 39, wherein the residual shape calculating means of each system divides the frequency domain coefficient into a plurality of small bands, and represents the frequency domain coefficient of each of the small bands. Scale factor calculating means for determining the scale factor to be obtained, and scale factor quantizing means for quantizing the scale factor of each of the small bands to obtain a quantized scale factor as the outline. Is output as another part of the encoding result for the signal as information corresponding to the outline.
【請求項44】 請求項38乃至43のいずれかに記載
の符号器において、複数の異なる配列マッピングが格納
されたメモリ手段が設けられ、上記複数の異なる配列マ
ッピングに対応して上記信号配列組み合わせ手段、上記
重み配列組み合わせ手段及び上記ベクトル量子化手段の
組が複数設けられており、複数系統の上記パワー正規化
手段からの上記正規化信号に対する、上記複数の組によ
るベクトル量子化の際にそれぞれ求められる量子化歪が
与えられ、それらの量子化歪を比較し、最小の量子化歪
を与えた組に対応する配列マッピングを表す符号を出力
する比較手段と、上記比較手段からの符号に応答して上
記複数の組からの対応する量子化インデックスを選択出
力する選択手段とが設けられ、上記量子化歪が最小とな
る量子化インデックスと、選択した配列マッピングを表
す符号が上記符号化結果の他の一部として出力される。
44. The encoder according to claim 38, further comprising a memory means for storing a plurality of different array mappings, said signal array combining means corresponding to said plurality of different array mappings. , A plurality of sets of the weight array combining means and the vector quantizing means are provided, and the normalization signals from the power normalizing means of a plurality of systems are respectively obtained at the time of vector quantization by the plurality of sets. Quantized distortions are given, the quantized distortions are compared with each other, and the quantized distortions are compared with each other, and the quantized distortions are compared with each other. Means for selectively outputting the corresponding quantization index from the plurality of sets, and the quantization index that minimizes the quantization distortion. And a code representing the selected array mapping are output as another part of the above coding result.
【請求項45】 請求項38乃至44のいずれかに記載
の符号器において、上記複数系統の予め決めた1つに対
し、上記信号を上記区間毎に予測処理を行って差分信号
を生成する予測手段が設けられ、上記パワー正規化手段
は上記差分信号のパワーを求め、そのパワーに基づいて
上記重みを決定し、上記差分信号を上記パワーで正規化
し、上記正規化信号とする手段である。
45. The encoder according to any one of claims 38 to 44, wherein prediction is performed on the signal for each predetermined interval of the plurality of systems for each interval to generate a differential signal. Means is provided, and the power normalizing means is means for obtaining the power of the differential signal, determining the weight based on the power, normalizing the differential signal with the power, and making the normalized signal.
【請求項46】 請求項38乃至45のいずれかに記載
の符号器において、更に:単一系統の入力信号を一定周
期のフレーム毎にそのフレームが定常的であるか又は過
渡的であるかを判定する状態判定手段と、 過渡的フレームと判定されると、そのフレームの入力信
号を上記一定長の区間毎に分割して上記複数系統の信号
として分配するサブフレーム分割手段と、 定常的と判定された上記フレームの上記入力信号のパワ
ーを求め、そのパワーに基づいて重みを決定し、そのフ
レームの上記単一系統の上記入力信号を上記パワーで正
規化して定常フレーム正規化信号を得て、その正規化利
得を表す定常フレーム利得インデックスを出力する定常
フレームパワー正規化手段と、 上記定常的フレームの入力信号の上記定常フレーム正規
化信号を並べ替えして少なくとも1系列の定常フレーム
信号ベクトルを生成する定常フレーム信号配列組み合わ
せ手段と、 上記定常フレームの入力信号の上記重みを上記入力信号
の正規化信号と同じように並べ替えして少なくとも1系
列の定常フレーム重みベクトルを生成する定常フレーム
重み配列組み合わせ手段と、 上記定常フレーム信号ベクトルと同じ長さの異なる複数
の量子化ベクトルをそれぞれの量子化インデックスに対
応して有する定常フレーム符号帳を有し、それを探索
し、上記定常フレーム正規化信号に対し、上記定常フレ
ーム重みベクトルによる重み付け距離が最小となる量子
化ベクトルを選択し、その対応する定常フレーム量子化
インデックスを決定する定常フレームベクトル量子化手
段と、が設けられ、上記定常フレーム利得インデックス
と上記定常フレーム量子化インデックスは定常的フレー
ムでの上記入力信号に対する符号化結果の少なくとも一
部として出力される。
46. The encoder according to claim 38, further comprising: determining whether the input signal of a single system is stationary or transient for each frame of a constant cycle. State determination means for determining, a sub-frame dividing means for dividing the input signal of the frame into intervals of the constant length and distributing as signals of the plurality of systems when it is determined to be a transient frame, and determining as stationary The power of the input signal of the frame is determined, the weight is determined based on the power, the input signal of the single system of the frame is normalized by the power to obtain a stationary frame normalized signal, A stationary frame power normalizing means for outputting a stationary frame gain index representing the normalized gain and the stationary frame normalized signal of the input signal of the stationary frame are arranged. Stationary frame signal array combining means for generating at least one series of stationary frame signal vectors and at least one series by rearranging the weights of the input signals of the stationary frames in the same manner as the normalized signals of the input signals. And a stationary frame codebook having a plurality of quantization vectors having the same length as that of the stationary frame signal vector and corresponding to each quantization index. , The stationary frame vector quantization for searching the stationary frame normalized signal, selecting the quantization vector having the smallest weighting distance by the stationary frame weight vector, and determining the corresponding stationary frame quantization index. Means are provided, and the stationary frame gain in Box and the stationary frame quantization index is output as at least part of the coding result for said input signal in the stationary frame.
【請求項47】 請求項46記載の符号器において、 定常的と判定された上記フレームにおける上記入力信号
を時間−周波数変換して周波数領域係数を求め、上記フ
レームにおける上記入力信号のスペクトラム概形を求
め、上記周波数領域係数を上記スペクトラム概形で正規
化し、その結果得られる残差係数を求める定常フレーム
残差概形計算手段と、 上記残差係数の概形を過去のフレームの残差係数から予
測する残差概形予測手段と、 上記残差係数をその予測した概形で正規化して微細構造
係数を生成する残差概形正規化手段と、 上記微細構造係数の平均パワーを求め、上記微細構造係
数を上記平均パワーで正規化して得られる正規化微細構
造係数を上記定常フレーム正規化信号として出力する定
常フレームパワー正規化手段と、を含み、上記微細構造
係数の平均パワーを表す定常フレーム利得インデックス
と上記定常フレームスペクトラム概形を表す概形インデ
ックスは上記符号化結果の他の一部として出力される。
47. The encoder according to claim 46, wherein the input signal in the frame determined to be stationary is subjected to time-frequency conversion to obtain a frequency domain coefficient, and a spectrum outline of the input signal in the frame is calculated. Then, the frequency domain coefficient is normalized by the spectrum outline and the residual coefficient obtained as a result is calculated as a steady frame residual outline calculating means, and the outline of the residual coefficient is calculated from the residual coefficients of past frames. Residual rough shape predicting means for predicting, residual residual normalizing means for normalizing the residual coefficient with the predicted rough shape to generate a fine structure coefficient, and obtaining an average power of the fine structure coefficient, Stationary frame power normalizing means for outputting the normalized fine structure coefficient obtained by normalizing the fine structure coefficient with the average power as the stationary frame normalization signal. Envelope index indicating a steady frame gain index and the stationary frame spectrum envelope representing the average power of the fine structure coefficients is outputted as another part of the coding result.
【請求項48】 複数の系統の入力音響信号を符号化す
る符号器であり、 各上記系統毎に設けられ、フレーム毎に線形予測分析に
より予測係数を得る線形予測分析手段と、 フレーム長を上記系統数倍した長さの複数の統合ベクト
ルがそれぞれのインデックスに対応して予め書き込まれ
てある統合符号帳手段と、任意の1つの上記統合ベクト
ルが選択されるとその統合ベクトルのそれぞれ予め決め
られた部分の部分ベクトルがそれぞれ対応する複数系統
に与えられ、 上記複数の系統のそれぞれに設けられ、上記統合符号帳
から読み出された統合ベクトルのそれぞれの部分の部分
ベクトルに利得を乗算して励振ベクトルをそれぞれ生成
する重み付け手段と、 上記複数の系統のそれぞれに設けられ、上記線形予測分
析手段からの上記予測係数がフィルタ係数として与えら
れ、上記励振ベクトルから音響信号を合成する合成フィ
ルタ手段と、 上記複数の系統のそれぞれに設けられ、上記合成フィル
タ手段からの合成音響信号と上記複数の系統の入力音響
信号との差分を求める減算手段と、 上記減算手段からの差分から上記合成音響信号と上記入
力音響信号間の距離尺度を求め、それらの距離尺度の総
和を統合歪として求め、上記統合歪が最小となる統合ベ
クトルを上記統合符号帳から選択し、その選択された統
合ベクトルのそれぞれの上記部分ベクトルに対し、上記
統合歪を最小とした時の上記利得をそれぞれ計算する歪
計算/符号帳探索手段と、を含み、決定された上記利得
を表す符号と選択された上記統合ベクトルを表すインデ
ックスを上記複数系統の入力音響信号に対するフレーム
毎の符号化結果の少なくとも一部として出力する。
48. An encoder for encoding input acoustic signals of a plurality of systems, wherein the encoder is provided for each system, and a linear prediction analysis unit for obtaining a prediction coefficient by a linear prediction analysis for each frame, and a frame length are set as the above. An integrated codebook means in which a plurality of integrated vectors having a length multiplied by the number of systems is written in advance corresponding to each index, and when any one of the integrated vectors is selected, the integrated vector is determined in advance. The partial vector of each part is provided to each corresponding multiple system, is provided in each of the multiple systems, and the partial vector of each part of the integrated vector read from the integrated codebook is multiplied by the gain to excite. Weighting means for generating each vector, and the prediction coefficient from the linear prediction analysis means provided in each of the plurality of systems, Of the composite acoustic signal from the excitation filter and the composite acoustic signal from the synthetic filter means and the input acoustic signals of the plurality of systems. A subtracting means for obtaining a difference, and a distance measure between the synthetic acoustic signal and the input acoustic signal is obtained from the difference from the subtracting means, a sum of these distance measures is obtained as an integrated distortion, and the integrated distortion with the minimum integrated distortion is obtained. Distortion calculation / codebook search means for selecting a vector from the integrated codebook and calculating the gain when the integrated distortion is minimized for each of the partial vectors of the selected integrated vector. A frame for the input audio signals of the plurality of systems, including a code representing the determined gain and an index representing the selected integrated vector. And outputs as at least part of the coding result.
【請求項49】 複数系統の信号を1つの統合符号帳を
使って一括ベクトル量子化して符号化した信号の復号器
であり、 それぞれの量子化インデックスに対応して統合ベクトル
が書き込まれてあり、一定長の区間毎に入力された少な
くとも1つの量子化インデックスに対応する少なくとも
1つの統合ベクトルを読み出すための統合符号帳と、 上記統合符号帳から得られた上記統合ベクトルの要素を
予め決めた配列に並べ替えて複数系統の正規化信号とし
て出力する逆配列手段と、 一定長の区間毎に入力された利得インデックスから正規
化利得を再生し、上記正規化利得により上記複数系統の
対応する正規化信号を逆正規化して上記複数系統の再生
信号として出力する逆正規化手段と、を含む。
49. A decoder of a signal in which signals of a plurality of systems are collectively vector-quantized and coded using one integrated codebook, and integrated vectors are written corresponding to respective quantization indexes, An integrated codebook for reading at least one integrated vector corresponding to at least one quantization index input for each fixed-length section, and an array in which elements of the integrated vector obtained from the integrated codebook are predetermined Inverse arraying means for rearranging into a plurality of systems and outputting as a normalized signal of a plurality of systems, and a normalized gain is reproduced from a gain index input for each section of a certain length, and the normalized gain corresponding to the plurality of systems is reproduced by the normalized gain. Denormalizing means for denormalizing the signal and outputting it as the reproduction signals of the plurality of systems.
【請求項50】 請求項49記載の復号器において、更
に:上記複数の系統にそれぞれ設けられ、上記区間毎に
それぞれ入力された概形インデックスからスペクトラム
概形を再生し、逆正規化された上記正規化信号に乗算し
て周波数領域係数を得る周波数領域係数再生手段と、 上記複数系統にそれぞれ設けられ、各系統の上記周波数
領域係数を上記区間毎に周波数−時間変換して時間領域
信号に変換し、上記複数系統の上記再生信号として出力
する周波数−時間変換手段とを含む。
50. The decoder according to claim 49, further comprising: demultiplexing the spectrum outlines from the outline indexes respectively provided in the plurality of systems and input in each of the sections, and denormalized. Frequency domain coefficient reproducing means for multiplying the normalized signal to obtain a frequency domain coefficient, and frequency domain coefficients for each of the systems, which are respectively provided in the plurality of systems and are frequency-time converted to a time domain signal. And a frequency-time converting means for outputting the reproduction signals of the plurality of systems.
【請求項51】 請求項49又は50記載の復号器にお
いて、上記複数系統の時間領域信号を予め決めた時間順
に順次結合して少なくとも1つの統合された再生信号と
するフレーム合成手段が設けられている。
51. The decoder according to claim 49 or 50, further comprising frame synthesizing means for sequentially combining the time domain signals of the plurality of systems in a predetermined time order to form at least one integrated reproduction signal. There is.
【請求項52】 請求項49、50又は51記載の復号
器において、複数の異なる配列マッピングが予め格納さ
れているメモリ手段が設けられており、上記逆配列手段
は上記区間毎に入力された配列マッピングを表すインデ
ックスにより、上記メモリ手段中の複数の配列マッピン
グの1つを選択し、その選択された配列マッピングに従
って上記配列を行う。
52. The decoder according to claim 49, 50 or 51, further comprising memory means for storing a plurality of different array mappings in advance, and said inverse array means is an array input for each section. One of the plurality of array mappings in the memory means is selected by the index representing the mapping, and the array is performed according to the selected array mapping.
【請求項53】 請求項49乃至52のいずれかに記載
の復号器は、更に入力された状態符号を復号して定常的
フレームであるか過渡的フレームであるかを判別し、過
渡的フレームに対し上記複数系統の上記逆正規化手段に
よる再生を実行し、各区間で上記複数系統に得られた再
生信号を時間的に順次ずらして合成して上記区間の整数
倍の長さのフレームの信号とするフレーム合成手段が設
けられており、常的フレームに対し、定常フレーム用の
統合ベクトルが定常フレームインデックスに対応して書
き込まれている定常フレーム統合符号帳と、入力された
少なくとも1つの量子化インデックスに対応して上記統
合符号帳から読み出された少なくとも1つの統合ベクト
ルの要素を予め決めた配列に並べ替えて単一系統の正規
化信号を生成する定常フレーム逆配列手段と、上記定常
フレームに対し入力された利得インデックスから再生さ
れた正規化利得により上記単一系統の正規化信号を逆正
規化して再生信号として出力する定常フレーム逆正規化
手段とが設けられている。
53. The decoder according to claim 49, further decoding the input state code to determine whether it is a stationary frame or a transient frame, On the other hand, the reproduction by the denormalization means of the plurality of systems is executed, and the reproduction signals obtained in the plurality of systems in each section are sequentially shifted in time and combined to produce a signal of a frame having an integral multiple of the section. A stationary frame integrated codebook in which an integrated vector for a stationary frame is written corresponding to a stationary frame index for a stationary frame, and at least one quantization A constant for generating a single-system normalized signal by rearranging at least one integrated vector element read from the integrated codebook corresponding to the index into a predetermined array. An ordinary frame inverse arrangement means, and an ordinary frame inverse normalization means for denormalizing the single-system normalized signal by the normalized gain reproduced from the gain index input to the stationary frame and outputting it as a reproduced signal. Is provided.
【請求項54】 請求項53記載の復号器において、上
記複数系統のそれぞれに設けられ、入力された概形イン
デックスから再生されたスペクトラム概形を、逆正規化
された上記正規化信号に乗算して周波数領域係数を得る
乗算手段と、上記複数系統のそれぞれに設けられ、上記
周波数領域係数を周波数−時間変換して時間領域信号を
得て、上記再生信号として出力する周波数−時間変換手
段とを含む。
54. The decoder according to claim 53, wherein the denormalized signal is multiplied by the spectrum outline reproduced from the input outline index provided in each of the plurality of systems. A multiplication means for obtaining a frequency domain coefficient and a frequency-time conversion means provided in each of the plurality of systems for frequency-time converting the frequency domain coefficient to obtain a time domain signal and outputting the time domain signal as the reproduction signal. Including.
【請求項55】 請求項53又は54記載の復号器にお
いて、上記定常的フレームにおいて入力された概形イン
デックスから再生されたスペクトラム概形を使って、逆
正規化された上記正規化信号から周波数領域係数を得る
残差係数再生手段と、 上記周波数領域係数を周波数−時間変換して時間領域信
号に変換し、上記再生信号として出力する周波数−時間
変換手段を含む。
55. A decoder according to claim 53 or 54, wherein the spectrum domain recovered from the profile index input in the stationary frame is used to generate the frequency domain from the denormalized signal. Residual coefficient reproducing means for obtaining a coefficient, and frequency-time converting means for frequency-time converting the frequency domain coefficient to convert it into a time domain signal and outputting it as the reproduced signal.
【請求項56】 請求項55記載の復号器において、上
記残差係数再生手段は上記定常フレームにおける上記定
常フレーム逆並べ替え手段からの逆正規化された上記正
規化信号は微細構造係数であり、その微細構造係数を過
去のフレームの残差係数から残差概形を予測する残差概
形予測手段と、上記予測した残差概形で上記微細構造係
数を逆正規化して現フレームの残差係数を得る残差概形
逆正規化手段と、上記残差係数に上記スペクトラム概形
を乗算して上記周波数領域係数を得る乗算手段を含む。
56. The decoder according to claim 55, wherein the residual coefficient reproducing means is the denormalized normalized signal from the stationary frame reverse rearranging means in the stationary frame is a fine structure coefficient, Residual outline prediction means for predicting the residual shape of the fine structure coefficient from the residual coefficient of the past frame, and the residual of the current frame by denormalizing the fine structure coefficient with the predicted residual shape. Residual outline denormalization means for obtaining a coefficient, and multiplication means for multiplying the residual coefficient by the spectrum outline to obtain the frequency domain coefficient.
【請求項57】 請求項49乃至56のいずれかに記載
の復号器において、上記複数の系統のうちの予め決めた
1つにおいて逆正規化された上記正規化信号は差分信号
であり、現区間の上記差分信号に前区間の再生信号を加
算して現区間の再生信号を得る予測手段をを含む。
57. The decoder according to any one of claims 49 to 56, wherein the normalized signal denormalized in a predetermined one of the plurality of systems is a difference signal, and the current section Prediction means for obtaining the reproduction signal of the current section by adding the reproduction signal of the previous section to the above difference signal.
【請求項58】 CELPにより符号化された複数系統
の音響信号の復号器であり、 フレーム毎に入力された符号から複数系統にそれぞれ対
応する利得を再生する利得再生手段と、 それぞれのインデックスに対応して、フレーム長を上記
複数倍した長さの統合ベクトルが書き込まれている統合
符号帳と、 フレーム毎に入力されたインデックスに対応して上記統
合符号帳から読み出された統合ベクトルの上記複数の系
統にそれぞれ対応する部分ベクトルに上記利得を乗算し
て励振ベクトルを生成する重み付け手段と、 上記複数の系統のそれぞれに設けられ、線形予測係数が
フィルタ係数として与えられ、上記励振ベクトルから音
響信号を合成する合成フィルタ手段と、を含む。
58. A decoder of acoustic signals of a plurality of systems encoded by CELP, which corresponds to gain reproducing means for reproducing a gain corresponding to each of a plurality of systems from a code input for each frame and each index. Then, an integrated codebook in which an integrated vector having a length that is a multiple of the frame length is written, and the plurality of integrated vectors read from the integrated codebook corresponding to the index input for each frame. Weighting means for generating an excitation vector by multiplying the partial vector corresponding to each system by the gain, and a linear prediction coefficient provided as a filter coefficient provided in each of the plurality of systems, and an acoustic signal is generated from the excitation vector. And a synthesizing filter means for synthesizing.
JP10861495A 1994-05-06 1995-05-02 Signal encoding and decoding methods, and encoder and decoder using the same Expired - Lifetime JP3435674B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10861495A JP3435674B2 (en) 1994-05-06 1995-05-02 Signal encoding and decoding methods, and encoder and decoder using the same

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP9422794 1994-05-06
JP17533594 1994-07-27
JP6-94227 1994-07-27
JP6-175335 1994-07-27
JP10861495A JP3435674B2 (en) 1994-05-06 1995-05-02 Signal encoding and decoding methods, and encoder and decoder using the same

Publications (2)

Publication Number Publication Date
JPH0895599A true JPH0895599A (en) 1996-04-12
JP3435674B2 JP3435674B2 (en) 2003-08-11

Family

ID=27307496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10861495A Expired - Lifetime JP3435674B2 (en) 1994-05-06 1995-05-02 Signal encoding and decoding methods, and encoder and decoder using the same

Country Status (1)

Country Link
JP (1) JP3435674B2 (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002526798A (en) * 1998-09-30 2002-08-20 テレフォンアクチーボラゲット エル エム エリクソン(パブル) Encoding and decoding of multi-channel signals
WO2002086866A1 (en) * 2001-04-16 2002-10-31 Sakai, Yasue Compression method and apparatus, decompression method and apparatus, compression/decompression system, peak detection method, program, and recording medium
US6771777B1 (en) 1996-07-12 2004-08-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Process for coding and decoding stereophonic spectral values
KR100452509B1 (en) * 2000-12-23 2004-10-12 엘지전자 주식회사 Normalization method of signal power for a telecommunication system
WO2006022308A1 (en) * 2004-08-26 2006-03-02 Matsushita Electric Industrial Co., Ltd. Multichannel signal coding equipment and multichannel signal decoding equipment
JP2007226253A (en) * 2007-03-27 2007-09-06 Matsushita Electric Ind Co Ltd Voice coding device and voice decoding device
WO2007114290A1 (en) * 2006-03-31 2007-10-11 Matsushita Electric Industrial Co., Ltd. Vector quantizing device, vector dequantizing device, vector quantizing method, and vector dequantizing method
JP2010515938A (en) * 2007-01-05 2010-05-13 タグ ネットワークス,インコーポレイテッド Digital audio mixing
JP2011154400A (en) * 2002-09-04 2011-08-11 Microsoft Corp Mixed reversible audio compression
JP4812230B2 (en) * 2000-09-15 2011-11-09 テレフオンアクチーボラゲット エル エム エリクソン(パブル) Multi-channel signal encoding and decoding
US9021541B2 (en) 2010-10-14 2015-04-28 Activevideo Networks, Inc. Streaming digital video between video devices using a cable television system
US9042454B2 (en) 2007-01-12 2015-05-26 Activevideo Networks, Inc. Interactive encoded content system including object models for viewing on a remote device
US9123084B2 (en) 2012-04-12 2015-09-01 Activevideo Networks, Inc. Graphical application integration with MPEG objects
US9204203B2 (en) 2011-04-07 2015-12-01 Activevideo Networks, Inc. Reduction of latency in video distribution networks using adaptive bit rates
US9219922B2 (en) 2013-06-06 2015-12-22 Activevideo Networks, Inc. System and method for exploiting scene graph information in construction of an encoded video sequence
US9294785B2 (en) 2013-06-06 2016-03-22 Activevideo Networks, Inc. System and method for exploiting scene graph information in construction of an encoded video sequence
US9326047B2 (en) 2013-06-06 2016-04-26 Activevideo Networks, Inc. Overlay rendering of user interface onto source video
US9788029B2 (en) 2014-04-25 2017-10-10 Activevideo Networks, Inc. Intelligent multiplexing using class-based, multi-dimensioned decision logic for managed networks
US9800945B2 (en) 2012-04-03 2017-10-24 Activevideo Networks, Inc. Class-based intelligent multiplexing over unmanaged networks
US9826197B2 (en) 2007-01-12 2017-11-21 Activevideo Networks, Inc. Providing television broadcasts over a managed network and interactive content over an unmanaged network to a client device
JP2019506633A (en) * 2016-01-22 2019-03-07 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ Apparatus and method for MDCT M / S stereo with comprehensive ILD with improved mid / side decision
US10275128B2 (en) 2013-03-15 2019-04-30 Activevideo Networks, Inc. Multiple-mode system and method for providing user selectable video content
US10409445B2 (en) 2012-01-09 2019-09-10 Activevideo Networks, Inc. Rendering of an interactive lean-backward user interface on a television

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6771777B1 (en) 1996-07-12 2004-08-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Process for coding and decoding stereophonic spectral values
JP4743963B2 (en) * 1998-09-30 2011-08-10 テレフオンアクチーボラゲット エル エム エリクソン(パブル) Multi-channel signal encoding and decoding
JP2002526798A (en) * 1998-09-30 2002-08-20 テレフォンアクチーボラゲット エル エム エリクソン(パブル) Encoding and decoding of multi-channel signals
JP4812230B2 (en) * 2000-09-15 2011-11-09 テレフオンアクチーボラゲット エル エム エリクソン(パブル) Multi-channel signal encoding and decoding
KR100452509B1 (en) * 2000-12-23 2004-10-12 엘지전자 주식회사 Normalization method of signal power for a telecommunication system
WO2002086866A1 (en) * 2001-04-16 2002-10-31 Sakai, Yasue Compression method and apparatus, decompression method and apparatus, compression/decompression system, peak detection method, program, and recording medium
US6785644B2 (en) 2001-04-16 2004-08-31 Yasue Sakai Alternate window compression/decompression method, apparatus, and system
JP2011154400A (en) * 2002-09-04 2011-08-11 Microsoft Corp Mixed reversible audio compression
US8630861B2 (en) 2002-09-04 2014-01-14 Microsoft Corporation Mixed lossless audio compression
JP2013257587A (en) * 2002-09-04 2013-12-26 Microsoft Corp Mixed lossless audio compression
US7630396B2 (en) 2004-08-26 2009-12-08 Panasonic Corporation Multichannel signal coding equipment and multichannel signal decoding equipment
WO2006022308A1 (en) * 2004-08-26 2006-03-02 Matsushita Electric Industrial Co., Ltd. Multichannel signal coding equipment and multichannel signal decoding equipment
WO2007114290A1 (en) * 2006-03-31 2007-10-11 Matsushita Electric Industrial Co., Ltd. Vector quantizing device, vector dequantizing device, vector quantizing method, and vector dequantizing method
JP2010515938A (en) * 2007-01-05 2010-05-13 タグ ネットワークス,インコーポレイテッド Digital audio mixing
US9042454B2 (en) 2007-01-12 2015-05-26 Activevideo Networks, Inc. Interactive encoded content system including object models for viewing on a remote device
US9826197B2 (en) 2007-01-12 2017-11-21 Activevideo Networks, Inc. Providing television broadcasts over a managed network and interactive content over an unmanaged network to a client device
US9355681B2 (en) 2007-01-12 2016-05-31 Activevideo Networks, Inc. MPEG objects and systems and methods for using MPEG objects
JP2007226253A (en) * 2007-03-27 2007-09-06 Matsushita Electric Ind Co Ltd Voice coding device and voice decoding device
JP4525693B2 (en) * 2007-03-27 2010-08-18 パナソニック株式会社 Speech coding apparatus and speech decoding apparatus
US9021541B2 (en) 2010-10-14 2015-04-28 Activevideo Networks, Inc. Streaming digital video between video devices using a cable television system
US9204203B2 (en) 2011-04-07 2015-12-01 Activevideo Networks, Inc. Reduction of latency in video distribution networks using adaptive bit rates
US10409445B2 (en) 2012-01-09 2019-09-10 Activevideo Networks, Inc. Rendering of an interactive lean-backward user interface on a television
US9800945B2 (en) 2012-04-03 2017-10-24 Activevideo Networks, Inc. Class-based intelligent multiplexing over unmanaged networks
US10506298B2 (en) 2012-04-03 2019-12-10 Activevideo Networks, Inc. Class-based intelligent multiplexing over unmanaged networks
US10757481B2 (en) 2012-04-03 2020-08-25 Activevideo Networks, Inc. Class-based intelligent multiplexing over unmanaged networks
US9123084B2 (en) 2012-04-12 2015-09-01 Activevideo Networks, Inc. Graphical application integration with MPEG objects
US10275128B2 (en) 2013-03-15 2019-04-30 Activevideo Networks, Inc. Multiple-mode system and method for providing user selectable video content
US11073969B2 (en) 2013-03-15 2021-07-27 Activevideo Networks, Inc. Multiple-mode system and method for providing user selectable video content
US10200744B2 (en) 2013-06-06 2019-02-05 Activevideo Networks, Inc. Overlay rendering of user interface onto source video
US9326047B2 (en) 2013-06-06 2016-04-26 Activevideo Networks, Inc. Overlay rendering of user interface onto source video
US9294785B2 (en) 2013-06-06 2016-03-22 Activevideo Networks, Inc. System and method for exploiting scene graph information in construction of an encoded video sequence
US9219922B2 (en) 2013-06-06 2015-12-22 Activevideo Networks, Inc. System and method for exploiting scene graph information in construction of an encoded video sequence
US9788029B2 (en) 2014-04-25 2017-10-10 Activevideo Networks, Inc. Intelligent multiplexing using class-based, multi-dimensioned decision logic for managed networks
JP2019506633A (en) * 2016-01-22 2019-03-07 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ Apparatus and method for MDCT M / S stereo with comprehensive ILD with improved mid / side decision
JP2021119383A (en) * 2016-01-22 2021-08-12 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ Apparatus and method for mdct m/s stereo with global ild with improved mid/side decision
US11842742B2 (en) 2016-01-22 2023-12-12 Fraunhofer-Gesellschaft zur Foerderung der angewandten Forschung V. Apparatus and method for MDCT M/S stereo with global ILD with improved mid/side decision

Also Published As

Publication number Publication date
JP3435674B2 (en) 2003-08-11

Similar Documents

Publication Publication Date Title
JP3435674B2 (en) Signal encoding and decoding methods, and encoder and decoder using the same
US5651090A (en) Coding method and coder for coding input signals of plural channels using vector quantization, and decoding method and decoder therefor
AU2006332046B2 (en) Scalable compressed audio bit stream and codec using a hierarchical filterbank and multichannel joint coding
CN109509478B (en) audio processing device
US9026452B2 (en) Bitstream syntax for multi-process audio decoding
CN101821799B (en) Audio coding using upmix
CN103098126B (en) Audio encoder, audio decoder and related methods for processing multi-channel audio signals using complex prediction
AU733156B2 (en) Audio coding method and apparatus
JP3112681B2 (en) Audio coding method
JP3139602B2 (en) Acoustic signal encoding method and decoding method
US20080319739A1 (en) Low complexity decoder for complex transform coding of multi-channel sound
EP0858067B1 (en) Multichannel acoustic signal coding and decoding methods and coding and decoding devices using the same
EP1764923B1 (en) Multi-channel signal encoding method, decoding method, device thereof, program, and recording medium thereof
US7792679B2 (en) Optimized multiple coding method
CN101385075B (en) Apparatus and method for encoding/decoding signal
CA2182790A1 (en) High-frequency signal branching device
KR20100086033A (en) An encoder
JP3064947B2 (en) Audio / musical sound encoding and decoding device
KR20160015280A (en) Audio signal encoder
JP5949270B2 (en) Audio decoding apparatus, audio decoding method, and audio decoding computer program
JPH09135176A (en) Information coder and method, information decoder and method and information recording medium
Paraskevas et al. A differential perceptual audio coding method with reduced bitrate requirements
AU2011205144B2 (en) Scalable compressed audio bit stream and codec using a hierarchical filterbank and multichannel joint coding
JP4195598B2 (en) Encoding method, decoding method, encoding device, decoding device, encoding program, decoding program
Farrugia et al. Pulse-excited LPC for wideband speech and audio coding

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090606

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090606

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100606

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100606

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110606

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120606

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130606

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140606

Year of fee payment: 11

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term