JPH09127997A - Voice coding method and device - Google Patents

Voice coding method and device

Info

Publication number
JPH09127997A
JPH09127997A JP7279413A JP27941395A JPH09127997A JP H09127997 A JPH09127997 A JP H09127997A JP 7279413 A JP7279413 A JP 7279413A JP 27941395 A JP27941395 A JP 27941395A JP H09127997 A JPH09127997 A JP H09127997A
Authority
JP
Japan
Prior art keywords
vector
quantization
output
encoding
stage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP7279413A
Other languages
Japanese (ja)
Inventor
Kazuyuki Iijima
和幸 飯島
Masayuki Nishiguchi
正之 西口
Atsushi Matsumoto
淳 松本
Shiro Omori
士郎 大森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP7279413A priority Critical patent/JPH09127997A/en
Publication of JPH09127997A publication Critical patent/JPH09127997A/en
Abandoned legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To simply switch the bit rate by providing multiple coding sections for the vector quantization of the time base wave-form, reference-inputting the quantization error of the (N-1)th stage for the coding of the Nth stage, and selecting the quantization output of each stage to switch the bit rate. SOLUTION: The second coding section 120 having a CELP coding structure is constituted of multiple vector quantization process sections, e.g. two coding sections 1201 , 1202 . When the vector quantization by the closed loop search of the first stage is finished, the quantization error of the (N-1)th stage is used as the reference input for the quantization of the Nth stage (2<=N). The calculation quantity is reduced. The case that both index outputs of two coding sections 1201 , 1202 are used and the case that only the output of the coding section 1201 of the first stage is used are switched, and the bit number can be simply switched.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、入力音声信号をブロッ
ク単位で区分して、この区分されたブロックを単位とし
て符号化処理を行うような音声符号化方法及び装置に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice encoding method and apparatus for dividing an input voice signal into blocks and performing an encoding process in units of the divided blocks.

【0002】[0002]

【発明の属する技術分野】オーディオ信号(音声信号や
音響信号を含む)の時間領域や周波数領域における統計
的性質と人間の聴感上の特性を利用して信号圧縮を行う
ような符号化方法が種々知られている。この符号化方法
としては、大別して時間領域での符号化、周波数領域で
の符号化、分析合成符号化等が挙げられる。
BACKGROUND OF THE INVENTION There are various coding methods for performing signal compression by utilizing the statistical properties of audio signals (including voice signals and acoustic signals) in the time domain and frequency domain and human auditory characteristics. Are known. This encoding method is roughly classified into encoding in the time domain, encoding in the frequency domain, and analysis-synthesis encoding.

【0003】音声信号等の高能率符号化の例として、ハ
ーモニック(Harmonic)符号化、MBE(Multiband Ex
citation: マルチバンド励起)符号化等のサイン波分析
符号化や、SBC(Sub-band Coding:帯域分割符号
化)、LPC(Linear Predictive Coding: 線形予測符
号化)、あるいはDCT(離散コサイン変換)、MDC
T(モデファイドDCT)、FFT(高速フーリエ変
換)等が知られている。また、音声信号等の高能率符号
化の例としては、合成による分析法を用いて最適ベクト
ルのクローズドループサーチによるベクトル量子化を用
いた符号励起線形予測(CELP)符号化も存在する。
[0003] Examples of high-efficiency coding of voice signals and the like include harmonic coding and MBE (Multiband Ex).
citation: Sine wave analysis coding such as multi-band excitation coding, SBC (Sub-band Coding: band division coding), LPC (Linear Predictive Coding: linear predictive coding), or DCT (discrete cosine transform), MDC
T (Modified DCT), FFT (Fast Fourier Transform), etc. are known. Further, as an example of high-efficiency encoding of a speech signal or the like, there is also code-excited linear prediction (CELP) encoding using vector quantization by closed loop search of an optimum vector using an analysis method by synthesis.

【0004】[0004]

【発明が解決しようとする課題】ところで、上記音声信
号の高能率符号化の一例として例えば符号励起線形予測
符号化を用い、当該符号化された音声信号を伝送路に伝
送するようなシステムを考えた場合、上記符号励起線形
予測符号化ではストレートベクトル量子化を行い、共役
コードブック等を用いているため、例えば伝送路の容量
などに応じて伝送ビットレートを切り換えたいようなこ
とがあっても、その構造上、非常に困難である。また、
符号化側(エンコーダ)のビットレートと復号化側(デ
コーダ)のビットレートが異なっている場合、すなわち
例えばエンコーダでのビットレートがMkbpsとなっ
ており、デコーダでのビットレートがNkbpsとなっ
ているような場合には、上記Nkbpsに対応したデコ
ーダではエンコーダから供給されるMkbpsの符号化
データ列に対して対応できないことになる。
By the way, as an example of the high-efficiency coding of the above speech signal, consider a system in which, for example, code excitation linear predictive coding is used and the coded speech signal is transmitted to a transmission line. In this case, in the code excitation linear predictive coding, straight vector quantization is performed, and since a conjugate codebook or the like is used, for example, even if it is desired to switch the transmission bit rate according to the capacity of the transmission line, Due to its structure, it is very difficult. Also,
When the bit rate on the encoding side (encoder) and the bit rate on the decoding side (decoder) are different, that is, for example, the bit rate in the encoder is Mkbps and the bit rate in the decoder is Nkbps. In such a case, the decoder corresponding to Nkbps cannot support the encoded data string of Mkbps supplied from the encoder.

【0005】そこで本発明は、このような実情に鑑みて
なされたものであり、伝送ビットレートを簡単に切り換
えることができると共に、符号化側と復号化側とでビッ
トレートが異なっている場合であっても復号化側で容易
に対応可能な符号化データ列を生成することができる音
声符号化方法及び装置の提供を目的とする。
Therefore, the present invention has been made in view of such a situation, and in the case where the transmission bit rate can be easily switched and the bit rate is different between the encoding side and the decoding side. It is an object of the present invention to provide a speech coding method and apparatus capable of easily generating a coded data string that can be easily dealt with on the decoding side.

【0006】[0006]

【課題を解決するための手段】本発明に係る音声符号化
方法及び装置は、入力音声信号を時間軸上で区分した各
ブロック単位で符号化を行うものであり、合成による分
析法を用いて最適ベクトルのクローズドループサーチに
よる時間軸波形のベクトル量子化を行う符号化を複数段
有し、このうちN段目の符号化の際には、N−1段目の
量子化誤差をリファレンス入力とし、各段の符号化によ
る量子化出力を選択してビットレートを切り換えること
により、上述した課題を解決する。
A speech encoding method and apparatus according to the present invention encodes an input speech signal in units of blocks divided on a time axis, and uses an analysis method by synthesis. There are multiple stages of encoding for performing vector quantization of the time-axis waveform by the closed loop search of the optimum vector. Among them, when encoding the Nth stage, the quantization error of the (N-1) th stage is used as the reference input. , The above-mentioned problem is solved by selecting the quantized output by the encoding of each stage and switching the bit rate.

【0007】すなわち、本発明の音声符号化方法及び装
置によれば、多段構成の各符号化出力の全部或いは一部
を選択することで、出力ビットレートを切り換え可能に
している。また、多段構成の各符号化出力を合わせて出
力するようにしているため、符号化側と復号化側とでビ
ットレートが異なっていたとしても、復号化側において
例えばこれら符号化出力の全部又は一部を選択すれば所
望のビットレートの符号化出力を容易に得ることが可能
となる。
That is, according to the speech encoding method and apparatus of the present invention, the output bit rate can be switched by selecting all or a part of the encoded outputs of the multistage configuration. Further, since the encoded outputs of the multi-stage configuration are output together, even if the bit rates on the encoding side and the decoding side are different, on the decoding side, for example, all of these encoded outputs or If a part of them is selected, it becomes possible to easily obtain a coded output with a desired bit rate.

【0008】[0008]

【発明の実施の形態】以下、本発明に係る好ましい実施
の形態について説明する。先ず、図1は、本発明に係る
音声符号化方法の実施の形態が適用された符号化装置の
基本構成を示している。
BEST MODE FOR CARRYING OUT THE INVENTION Preferred embodiments of the present invention will be described below. First, FIG. 1 shows a basic configuration of an encoding apparatus to which an embodiment of a speech encoding method according to the present invention is applied.

【0009】ここで、図1の音声信号符号化装置の基本
的な考え方は、入力音声信号の短期予測残差例えばLP
C(線形予測符号化)残差を求めてサイン波分析(sinu
soidal analysis )符号化、例えばハーモニックコーデ
ィング(harmonic coding )を行う第1の符号化部11
0と、入力音声信号に対して位相伝送を行う波形符号化
により符号化する第2の符号化部120とを有し、入力
信号の有声音(V:Voiced)の部分の符号化に第1の符
号化部110を用い、入力信号の無声音(UV:Unvoic
ed)の部分の符号化には第2の符号化部120を用いる
ようにすることである。
Here, the basic idea of the speech signal coding apparatus of FIG. 1 is that the short-term prediction residual of the input speech signal, for example, LP.
Sine wave analysis (sinu
soidal analysis) First encoding unit 11 that performs encoding, for example, harmonic coding
0 and a second coding unit 120 that performs coding by waveform coding that performs phase transmission on the input speech signal, and is the first for coding the voiced sound (V: Voiced) portion of the input signal. Of the input signal unvoiced sound (UV: Unvoic
The second encoding unit 120 is used for encoding the portion (ed).

【0010】上記第1の符号化部110には、例えばL
PC残差をハーモニック符号化やマルチバンド励起(M
BE)符号化のようなサイン波分析符号化を行う構成が
用いられる。上記第2の符号化部120には、例えば合
成による分析法を用いて最適ベクトルのクローズドルー
プサーチによるベクトル量子化を用いた符号励起線形予
測(CELP)符号化の構成が用いられる。
The first encoding unit 110 has, for example, L
Harmonic coding and multi-band excitation (M
A configuration for performing sine wave analysis encoding such as BE) encoding is used. The second encoding unit 120 employs, for example, a configuration of code excitation linear prediction (CELP) encoding using vector quantization by closed loop search of an optimal vector using an analysis method based on synthesis.

【0011】図1の例では、入力端子101に供給され
た音声信号が、第1の符号化部110のLPC逆フィル
タ111及びLPC分析・量子化部113に送られてい
る。LPC分析・量子化部113から得られたLPC係
数あるいはいわゆるαパラメータは、LPC逆フィルタ
111に送られて、このLPC逆フィルタ111により
入力音声信号の線形予測残差(LPC残差)が取り出さ
れる。また、LPC分析・量子化部113からは、後述
するようにLSP(線スペクトル対)の量子化出力が取
り出され、これが出力端子102に送られる。LPC逆
フィルタ111からのLPC残差は、サイン波分析符号
化部114に送られる。サイン波分析符号化部114で
は、ピッチ検出やスペクトルエンベロープ振幅計算が行
われると共に、V(有声音)/UV(無声音)判定部1
15によりV/UVの判定が行われる。サイン波分析符
号化部114からのスペクトルエンベロープ振幅データ
がベクトル量子化部116に送られる。スペクトルエン
ベロープのベクトル量子化出力としてのベクトル量子化
部116からのコードブックインデクスは、スイッチ1
17を介して出力端子103に送られ、サイン波分析符
号化部114からの出力は、スイッチ118を介して出
力端子104に送られる。また、V/UV判定部115
からのV/UV判定出力は、出力端子105に送られる
と共に、スイッチ117、118の制御信号として送ら
れており、上述した有声音(V)のとき上記インデクス
及びピッチが選択されて各出力端子103及び104か
らそれぞれ取り出される。
In the example of FIG. 1, the audio signal supplied to the input terminal 101 is sent to the LPC inverse filter 111 and the LPC analysis / quantization unit 113 of the first encoding unit 110. The LPC coefficient or the so-called α parameter obtained from the LPC analysis / quantization unit 113 is sent to the LPC inverse filter 111, and the LPC inverse filter 111 extracts a linear prediction residual (LPC residual) of the input audio signal. . Also, a quantized output of an LSP (line spectrum pair) is extracted from the LPC analysis / quantization unit 113 and sent to the output terminal 102 as described later. The LPC residual from LPC inverse filter 111 is sent to sine wave analysis encoding section 114. In the sine wave analysis encoding unit 114, pitch detection and spectrum envelope amplitude calculation are performed, and a V (voiced sound) / UV (unvoiced sound) determination unit 1 is performed.
15 is used to determine V / UV. The spectrum envelope amplitude data from the sine wave analysis encoding unit 114 is sent to the vector quantization unit 116. The codebook index from the vector quantization unit 116 as the vector quantization output of the spectrum envelope is
The output from the sine wave analysis encoding unit 114 is sent to the output terminal 104 via the switch 118. Also, the V / UV determination unit 115
Is output to the output terminal 105 and is also sent as a control signal for the switches 117 and 118. In the case of the above-mentioned voiced sound (V), the index and the pitch are selected and each output terminal is output. 103 and 104 respectively.

【0012】図1の第2の符号化部120は、この例で
はCELP(符号励起線形予測)符号化構成を有してお
り、雑音符号帳121からの出力を、重み付きの合成フ
ィルタ122により合成処理し、得られた重み付き音声
を減算器123に送り、入力端子101に供給された音
声信号を聴覚重み付けフィルタ125を介して得られた
音声との誤差を取り出し、この誤差を距離計算回路12
4に送って距離計算を行い、誤差が最小となるようなベ
クトルを雑音符号帳121でサーチするような、合成に
よる分析(Analysis by Synthesis )法を用いたクロー
ズドループサーチを用いた時間軸波形のベクトル量子化
を行っている。このCELP符号化は、上述したように
無声音部分の符号化に用いられており、雑音符号帳12
1からのUVデータとしてのコードブックインデクス
は、上記V/UV判定部115からのV/UV判定結果
が無声音(UV)のときオンとなるスイッチ127を介
して、出力端子107より取り出される。
The second coding unit 120 of FIG. 1 has a CELP (code excitation linear prediction) coding structure in this example, and outputs the output from the random codebook 121 by a weighting synthesis filter 122. The weighted speech obtained by the synthesis processing is sent to the subtractor 123, the speech signal supplied to the input terminal 101 is taken out as an error from the speech obtained through the auditory weighting filter 125, and this error is calculated by the distance calculation circuit. 12
4 to calculate the distance, and search for a vector that minimizes the error in the noise codebook 121 by using a closed-loop search using an analysis by synthesis method. Vector quantization is performed. This CELP coding is used for coding the unvoiced sound portion as described above,
The codebook index as UV data from No. 1 is extracted from the output terminal 107 via a switch 127 that is turned on when the V / UV determination result from the V / UV determination unit 115 is unvoiced (UV).

【0013】次に、図2は、本発明に係る音声復号化方
法の一実施の形態が適用された音声信号復号化装置とし
て、上記図1の音声信号符号化装置に対応する音声信号
復号化装置の基本構成を示すブロック図である。
Next, FIG. 2 shows a speech signal decoding apparatus to which an embodiment of the speech decoding method according to the present invention is applied, which corresponds to the speech signal decoding apparatus of FIG. It is a block diagram which shows the basic composition of an apparatus.

【0014】この図2において、入力端子202には上
記図1の出力端子102からの上記LSP(線スペクト
ル対)の量子化出力としてのコードブックインデクスが
入力される。入力端子203、204、及び205に
は、上記図1の各出力端子103、104、及び105
からの各出力、すなわちエンベロープ量子化出力として
のインデクス、ピッチ、及びV/UV判定出力がそれぞ
れ入力される。また、入力端子207には、上記図1の
出力端子107からのUV(無声音)用のデータとして
のインデクスが入力される。
In FIG. 2, a codebook index as a quantized output of the LSP (line spectrum pair) from the output terminal 102 of FIG. 1 is input to the input terminal 202. The input terminals 203, 204, and 205 include the output terminals 103, 104, and 105 of FIG.
, That is, an index, a pitch, and a V / UV determination output as an envelope quantization output. The input terminal 207 receives an index as UV (unvoiced sound) data from the output terminal 107 shown in FIG.

【0015】入力端子203からのエンベロープ量子化
出力としてのインデクスは、逆ベクトル量子化器212
に送られて逆ベクトル量子化され、LPC残差のスペク
トルエンベロープが求められて有声音合成部211に送
られる。有声音合成部211は、サイン波合成により有
声音部分のLPC(線形予測符号化)残差を合成するも
のであり、この有声音合成部211には入力端子204
及び205からのピッチ及びV/UV判定出力も供給さ
れている。有声音合成部211からの有声音のLPC残
差は、LPC合成フィルタ214に送られる。また、入
力端子207からのUVデータのインデクスは、無声音
合成部220に送られて、雑音符号帳を参照することに
より無声音部分のLPC残差が取り出される。このLP
C残差もLPC合成フィルタ214に送られる。LPC
合成フィルタ214では、上記有声音部分のLPC残差
と無声音部分のLPC残差とがそれぞれ独立に、LPC
合成処理が施される。あるいは、有声音部分のLPC残
差と無声音部分のLPC残差とが加算されたものに対し
てLPC合成処理を施すようにしてもよい。ここで入力
端子202からのLSPのインデクスは、LPCパラメ
ータ再生部213に送られて、LPCのαパラメータが
取り出され、これがLPC合成フィルタ214に送られ
る。LPC合成フィルタ214によりLPC合成されて
得られた音声信号は、出力端子201より取り出され
る。
The index as the envelope quantization output from the input terminal 203 is the inverse vector quantizer 212.
, And is subjected to inverse vector quantization, and the spectrum envelope of the LPC residual is obtained and sent to the voiced sound synthesis unit 211. The voiced sound synthesizer 211 synthesizes an LPC (linear predictive coding) residual of the voiced sound part by sine wave synthesis.
, And the pitch and V / UV determination outputs from 205 are also provided. The LPC residual of the voiced sound from the voiced sound synthesis unit 211 is sent to the LPC synthesis filter 214. Further, the index of the UV data from the input terminal 207 is sent to the unvoiced sound synthesizer 220, and the LPC residual of the unvoiced sound portion is extracted by referring to the noise codebook. This LP
The C residual is also sent to LPC synthesis filter 214. LPC
In the synthesis filter 214, the LPC residual of the voiced part and the LPC residual of the unvoiced part are independently LPC residuals.
A combining process is performed. Alternatively, LPC synthesis processing may be performed on the sum of the LPC residual of the voiced sound part and the LPC residual of the unvoiced sound part. Here, the index of the LSP from the input terminal 202 is sent to the LPC parameter reproducing unit 213, the α parameter of the LPC is extracted, and this is sent to the LPC synthesis filter 214. An audio signal obtained by LPC synthesis by the LPC synthesis filter 214 is extracted from the output terminal 201.

【0016】次に、上記図1に示した音声信号符号化装
置のより具体的な構成について、図3を参照しながら説
明する。なお、図3において、上記図1の各部と対応す
る部分には同じ指示符号を付している。
Next, a more specific structure of the speech signal coding apparatus shown in FIG. 1 will be described with reference to FIG. In FIG. 3, parts corresponding to the respective parts in FIG. 1 are given the same reference numerals.

【0017】この図3に示された音声信号符号化装置に
おいて、入力端子101に供給された音声信号は、ハイ
パスフィルタ(HPF)109にて不要な帯域の信号を
除去するフィルタ処理が施された後、LPC(線形予測
符号化)分析・量子化部113のLPC分析回路132
と、LPC逆フィルタ回路111とに送られる。
In the speech signal coding apparatus shown in FIG. 3, the speech signal supplied to the input terminal 101 is filtered by a high-pass filter (HPF) 109 to remove a signal in an unnecessary band. After that, the LPC analysis circuit 132 of the LPC (linear predictive coding) analysis / quantization unit 113.
To the LPC inverse filter circuit 111.

【0018】LPC分析・量子化部113のLPC分析
回路132は、入力信号波形の256サンプル程度の長
さを1ブロックとしてハミング窓をかけて、自己相関法
により線形予測係数、いわゆるαパラメータを求める。
データ出力の単位となるフレーミングの間隔は、160
サンプル程度とする。サンプリング周波数fsが例えば
8kHzのとき、1フレーム間隔は160サンプルで20
msec となる。
The LPC analysis circuit 132 of the LPC analysis / quantization unit 113 obtains a linear prediction coefficient, so-called α parameter, by the autocorrelation method by applying a Hamming window with one block having a length of about 256 samples of the input signal waveform. .
The framing interval, which is the unit of data output, is 160
It is about a sample. When the sampling frequency fs is, for example, 8 kHz, one frame interval is 20 for 160 samples.
msec.

【0019】LPC分析回路132からのαパラメータ
は、α→LSP変換回路133に送られて、線スペクト
ル対(LSP)パラメータに変換される。これは、直接
型のフィルタ係数として求まったαパラメータを、例え
ば10個、すなわち5対のLSPパラメータに変換す
る。変換は例えばニュートン−ラプソン法等を用いて行
う。このLSPパラメータに変換するのは、αパラメー
タよりも補間特性に優れているからである。
The α parameter from the LPC analysis circuit 132 is sent to the α → LSP conversion circuit 133 and converted into a line spectrum pair (LSP) parameter. This converts the α parameter obtained as the direct type filter coefficient into, for example, 10 pieces, that is, 5 pairs of LSP parameters. The conversion is performed using, for example, the Newton-Raphson method. The conversion to the LSP parameter is because it has better interpolation characteristics than the α parameter.

【0020】α→LSP変換回路133からのLSPパ
ラメータは、LSP量子化器134によりマトリクスあ
るいはベクトル量子化される。このとき、フレーム間差
分をとってからベクトル量子化してもよく、複数フレー
ム分をまとめてマトリクス量子化してもよい。ここで
は、20msec を1フレームとし、20msec 毎に算出
されるLSPパラメータを2フレーム分まとめて、マト
リクス量子化及びベクトル量子化している。
The LSP parameter from the α → LSP conversion circuit 133 is quantized into a matrix or vector by the LSP quantizer 134. At this time, vector quantization may be performed after obtaining an inter-frame difference, or matrix quantization may be performed on a plurality of frames at once. Here, 20 msec is defined as one frame, and LSP parameters calculated every 20 msec are combined for two frames, and are subjected to matrix quantization and vector quantization.

【0021】このLSP量子化器134からの量子化出
力、すなわちLSP量子化のインデクスは、端子102
を介して取り出され、また量子化済みのLSPベクトル
は、LSP補間回路136に送られる。
The quantized output from the LSP quantizer 134, that is, the index of the LSP quantizer is the terminal 102.
And the quantized LSP vector is sent to the LSP interpolation circuit 136.

【0022】LSP補間回路136は、上記20msec
あるいは40msec 毎に量子化されたLSPのベクトル
を補間し、8倍のレートにする。すなわち、2.5mse
c 毎にLSPベクトルが更新されるようにする。これ
は、残差波形をハーモニック符号化復号化方法により分
析合成すると、その合成波形のエンベロープは非常にな
だらかでスムーズな波形になるため、LPC係数が20
msec 毎に急激に変化すると異音を発生することがある
からである。すなわち、2.5msec 毎にLPC係数が
徐々に変化してゆくようにすれば、このような異音の発
生を防ぐことができる。
The LSP interpolation circuit 136 has the above-mentioned 20 msec.
Alternatively, the LSP vector quantized every 40 msec is interpolated to make the rate eight times higher. That is, 2.5 mse
The LSP vector is updated every c. This is because when the residual waveform is analyzed and synthesized by the harmonic encoding / decoding method, the envelope of the synthesized waveform becomes a very smooth and smooth waveform.
This is because an abnormal sound may be generated if it changes abruptly every msec. That is, if the LPC coefficient is gradually changed every 2.5 msec, the occurrence of such abnormal noise can be prevented.

【0023】このような補間が行われた2.5msec 毎
のLSPベクトルを用いて入力音声の逆フィルタリング
を実行するために、LSP→α変換回路137により、
LSPパラメータを例えば10次程度の直接型フィルタ
の係数であるαパラメータに変換する。このLSP→α
変換回路137からの出力は、上記LPC逆フィルタ回
路111に送られ、このLPC逆フィルタ111では、
2.5msec 毎に更新されるαパラメータにより逆フィ
ルタリング処理を行って、滑らかな出力を得るようにし
ている。このLPC逆フィルタ111からの出力は、サ
イン波分析符号化部114、具体的には例えばハーモニ
ック符号化回路、の直交変換回路145、例えばDFT
(離散フーリエ変換)回路に送られる。
In order to execute the inverse filtering of the input voice using the LSP vector for every 2.5 msec which has been interpolated in this way, the LSP → α conversion circuit 137
The LSP parameter is converted into, for example, an α parameter which is a coefficient of a direct type filter of about 10th order. This LSP → α
The output from the conversion circuit 137 is sent to the LPC inverse filter circuit 111, where the LPC inverse filter 111
Inverse filtering is performed using the α parameter updated every 2.5 msec to obtain a smooth output. An output from the LPC inverse filter 111 is output to an orthogonal transform circuit 145 of a sine wave analysis encoding unit 114, specifically, for example, a harmonic encoding circuit,
(Discrete Fourier transform) circuit.

【0024】LPC分析・量子化部113のLPC分析
回路132からのαパラメータは、聴覚重み付けフィル
タ算出回路139に送られて聴覚重み付けのためのデー
タが求められ、この重み付けデータが後述する聴覚重み
付きのベクトル量子化器116と、第2の符号化部12
0の聴覚重み付けフィルタ125及び聴覚重み付きの合
成フィルタ122とに送られる。
The α parameter from the LPC analysis circuit 132 of the LPC analysis / quantization unit 113 is sent to the perceptual weighting filter calculation circuit 139 to obtain data for perceptual weighting. Vector quantizer 116 and second encoding unit 12
0 and a synthesis filter 122 with a perceptual weight.

【0025】ハーモニック符号化回路等のサイン波分析
符号化部114では、LPC逆フィルタ111からの出
力を、ハーモニック符号化の方法で分析する。すなわ
ち、ピッチ検出、各ハーモニクスの振幅Amの算出、有
声音(V)/無声音(UV)の判別を行い、ピッチによ
って変化するハーモニクスのエンベロープあるいは振幅
Amの個数を次元変換して一定数にしている。
A sine wave analysis coding unit 114 such as a harmonic coding circuit analyzes the output from the LPC inverse filter 111 by a harmonic coding method. That is, pitch detection, calculation of the amplitude Am of each harmonic, determination of voiced sound (V) / unvoiced sound (UV) are performed, and the number of the envelopes or amplitudes Am of the harmonics that change with the pitch is dimensionally converted to a constant number. .

【0026】図3に示すサイン波分析符号化部114の
具体例においては、一般のハーモニック符号化を想定し
ているが、特に、MBE(Multiband Excitation: マル
チバンド励起)符号化の場合には、同時刻(同じブロッ
クあるいはフレーム内)の周波数軸領域いわゆるバンド
毎に有声音(Voiced)部分と無声音(Unvoiced)部分と
が存在するという仮定でモデル化することになる。それ
以外のハーモニック符号化では、1ブロックあるいはフ
レーム内の音声が有声音か無声音かの択一的な判定がな
されることになる。なお、以下の説明中のフレーム毎の
V/UVとは、MBE符号化に適用した場合には全バン
ドがUVのときを当該フレームのUVとしている。
In the concrete example of the sine wave analysis coding unit 114 shown in FIG. 3, general harmonic coding is assumed, but particularly in the case of MBE (Multiband Excitation) coding, The modeling is performed on the assumption that there is a voiced sound (Voiced) portion and an unvoiced sound (Unvoiced) portion in each frequency axis region of the same time (in the same block or frame), that is, in each band. In other harmonic coding, an alternative determination is made as to whether voice in one block or frame is voiced or unvoiced. In the following description, the term “V / UV for each frame” means that when all bands are UV when applied to MBE coding, the UV of the frame is used.

【0027】図3のサイン波分析符号化部114のオー
プンループピッチサーチ部141には、上記入力端子1
01からの入力音声信号が、またゼロクロスカウンタ1
42には、上記HPF(ハイパスフィルタ)109から
の信号がそれぞれ供給されている。サイン波分析符号化
部114の直交変換回路145には、LPC逆フィルタ
111からのLPC残差あるいは線形予測残差が供給さ
れている。オープンループピッチサーチ部141では、
入力信号のLPC残差をとってオープンループによる比
較的ラフなピッチのサーチが行われ、抽出された粗ピッ
チデータは高精度ピッチサーチ146に送られて、後述
するようなクローズドループによる高精度のピッチサー
チ(ピッチのファインサーチ)が行われる。また、オー
プンループピッチサーチ部141からは、上記粗ピッチ
データと共にLPC残差の自己相関の最大値をパワーで
正規化した正規化自己相関最大値r(p) が取り出され、
V/UV(有声音/無声音)判定部115に送られてい
る。
The open-loop pitch search section 141 of the sine wave analysis coding section 114 of FIG.
The input voice signal from 01 is again the zero cross counter 1
Signals from the HPF (high-pass filter) 109 are supplied to 42 respectively. The LPC residual or the linear prediction residual from the LPC inverse filter 111 is supplied to the orthogonal transform circuit 145 of the sine wave analysis encoding unit 114. In the open loop pitch search section 141,
An LPC residual of the input signal is used to perform a relatively rough pitch search by an open loop, and the extracted coarse pitch data is sent to a high-precision pitch search 146, and a high-precision closed loop as described later is used. A pitch search (fine search of the pitch) is performed. From the open loop pitch search section 141, a normalized autocorrelation maximum value r (p) obtained by normalizing the maximum value of the autocorrelation of the LPC residual with power together with the coarse pitch data is extracted.
V / UV (voiced sound / unvoiced sound) determination unit 115.

【0028】直交変換回路145では例えばDFT(離
散フーリエ変換)等の直交変換処理が施されて、時間軸
上のLPC残差が周波数軸上のスペクトル振幅データに
変換される。この直交変換回路145からの出力は、高
精度ピッチサーチ部146及びスペクトル振幅あるいは
エンベロープを評価するためのスペクトル評価部148
に送られる。
The orthogonal transform circuit 145 performs an orthogonal transform process such as DFT (discrete Fourier transform) to transform the LPC residual on the time axis into spectrum amplitude data on the frequency axis. The output from the orthogonal transform circuit 145 is a high precision pitch search unit 146 and a spectrum evaluation unit 148 for evaluating the spectrum amplitude or envelope.
Sent to

【0029】高精度(ファイン)ピッチサーチ部146
には、オープンループピッチサーチ部141で抽出され
た比較的ラフな粗ピッチデータと、直交変換部145に
より例えばDFTされた周波数軸上のデータとが供給さ
れている。この高精度ピッチサーチ部146では、上記
粗ピッチデータ値を中心に、0.2〜0.5きざみで±数サ
ンプルずつ振って、最適な小数点付き(フローティン
グ)のファインピッチデータの値へ追い込む。このとき
のファインサーチの手法として、いわゆる合成による分
析 (Analysis by Synthesis)法を用い、合成されたパワ
ースペクトルが原音のパワースペクトルに最も近くなる
ようにピッチを選んでいる。このようなクローズドルー
プによる高精度のピッチサーチ部146からのピッチデ
ータについては、スイッチ118を介して出力端子10
4に送っている。
High precision (fine) pitch search unit 146
Is supplied with relatively rough coarse pitch data extracted by the open loop pitch search unit 141 and data on the frequency axis, for example, DFT performed by the orthogonal transform unit 145. The high-precision pitch search unit 146 oscillates ± several samples at intervals of 0.2 to 0.5 around the coarse pitch data value to drive the value of the fine pitch data with a decimal point (floating) to an optimum value. At this time, as a method of fine search, a so-called analysis by synthesis method is used, and the pitch is selected so that the synthesized power spectrum is closest to the power spectrum of the original sound. The pitch data from the high-precision pitch search unit 146 by such a closed loop is output via the switch 118 to the output terminal 10.
4

【0030】スペクトル評価部148では、LPC残差
の直交変換出力としてのスペクトル振幅及びピッチに基
づいて各ハーモニクスの大きさ及びその集合であるスペ
クトルエンベロープが評価され、高精度ピッチサーチ部
146、V/UV(有声音/無声音)判定部115及び
聴覚重み付きのベクトル量子化器116に送られる。
The spectrum evaluation unit 148 evaluates the size of each harmonics and the spectrum envelope which is a set thereof based on the spectrum amplitude and the pitch as the orthogonal transformation output of the LPC residual, and the high precision pitch search unit 146, V / It is sent to the UV (voiced sound / unvoiced sound) determination unit 115 and the perceptual weighted vector quantizer 116.

【0031】V/UV(有声音/無声音)判定部115
は、直交変換回路145からの出力と、高精度ピッチサ
ーチ部146からの最適ピッチと、スペクトル評価部1
48からのスペクトル振幅データと、オープンループピ
ッチサーチ部141からの正規化自己相関最大値r(p)
と、ゼロクロスカウンタ412からのゼロクロスカウン
ト値とに基づいて、当該フレームのV/UV判定が行わ
れる。さらに、MBEの場合の各バンド毎のV/UV判
定結果の境界位置も当該フレームのV/UV判定の一条
件としてもよい。このV/UV判定部115からの判定
出力は、出力端子105を介して取り出される。
V / UV (voiced sound / unvoiced sound) determination section 115
Are the output from the orthogonal transformation circuit 145, the optimum pitch from the high-precision pitch search unit 146, and the spectrum evaluation unit 1
48 and the normalized autocorrelation maximum value r (p) from the open loop pitch search unit 141.
And the zero-cross count value from the zero-cross counter 412, the V / UV determination of the frame is performed. Further, the boundary position of the V / UV determination result for each band in the case of MBE may be used as one condition for the V / UV determination of the frame. The determination output from the V / UV determination unit 115 is taken out via the output terminal 105.

【0032】ところで、スペクトル評価部148の出力
部あるいはベクトル量子化器116の入力部には、デー
タ数変換(一種のサンプリングレート変換)部が設けら
れている。このデータ数変換部は、上記ピッチに応じて
周波数軸上での分割帯域数が異なり、データ数が異なる
ことを考慮して、エンベロープの振幅データ|Am|を
一定の個数にするためのものである。すなわち、例えば
有効帯域を3400kHzまでとすると、この有効帯域が
上記ピッチに応じて、8バンド〜63バンドに分割され
ることになり、これらの各バンド毎に得られる上記振幅
データ|Am|の個数mMX+1も8〜63と変化するこ
とになる。このためデータ数変換部119では、この可
変個数mMX+1の振幅データを一定個数M個、例えば4
4個、のデータに変換している。
By the way, an output unit of the spectrum evaluation unit 148 or an input unit of the vector quantizer 116 is provided with a data number conversion unit (a kind of sampling rate conversion unit). The number-of-data converters are used to make the amplitude data | A m | of the envelope a constant number in consideration of the fact that the number of divided bands on the frequency axis varies according to the pitch and the number of data varies. It is. That is, for example, if the effective band is up to 3400 kHz, this effective band is divided into 8 bands to 63 bands according to the pitch, and the amplitude data | A m | of each of these bands is obtained. The number m MX +1 also changes from 8 to 63. Therefore, the data number conversion unit 119 converts the variable number m MX +1 of amplitude data into a fixed number M, for example, 4
It is converted into four data.

【0033】このスペクトル評価部148の出力部ある
いはベクトル量子化器116の入力部に設けられたデー
タ数変換部からの上記一定個数M個(例えば44個)の
振幅データあるいはエンベロープデータが、ベクトル量
子化器116により、所定個数、例えば44個のデータ
毎にまとめられてベクトルとされ、重み付きベクトル量
子化が施される。この重みは、聴覚重み付けフィルタ算
出回路139からの出力により与えられる。ベクトル量
子化器116からの上記エンベロープのインデクスは、
スイッチ117を介して出力端子103より取り出され
る。なお、上記重み付きベクトル量子化に先だって、所
定個数のデータから成るベクトルについて適当なリーク
係数を用いたフレーム間差分をとっておくようにしても
よい。
The fixed number M (for example, 44) of amplitude data or envelope data from the data number conversion unit provided at the output unit of the spectrum evaluation unit 148 or the input unit of the vector quantizer 116 is a vector quantum. By the digitizer 116, a predetermined number, for example, 44 pieces of data are put together into a vector, and weighted vector quantization is performed. This weight is given by the output from the auditory weighting filter calculation circuit 139. The index of the envelope from the vector quantizer 116 is
It is taken out from the output terminal 103 via the switch 117. Prior to the weighted vector quantization, an inter-frame difference using an appropriate leak coefficient may be calculated for a vector composed of a predetermined number of data.

【0034】次に、第2の符号化部120について説明
する。第2の符号化部120は、いわゆるCELP(符
号励起線形予測)符号化構成を有しており、特に、入力
音声信号の無声音部分の符号化のために用いられてい
る。この無声音部分用のCELP符号化構成において、
雑音符号帳、いわゆるストキャスティック・コードブッ
ク(stochastic code book)121からの代表値出力で
ある無声音のLPC残差に相当するノイズ出力を、ゲイ
ン回路126を介して、聴覚重み付きの合成フィルタ1
22に送っている。重み付きの合成フィルタ122で
は、入力されたノイズをLPC合成処理し、得られた重
み付き無声音の信号を減算器123に送っている。減算
器123には、上記入力端子101からHPF(ハイパ
スフィルタ)109を介して供給された音声信号を聴覚
重み付けフィルタ125で聴覚重み付けした信号が入力
されており、合成フィルタ122からの信号との差分あ
るいは誤差を取り出している。この誤差を距離計算回路
124に送って距離計算を行い、誤差が最小となるよう
な代表値ベクトルを雑音符号帳121でサーチする。こ
のような合成による分析(Analysis by Synthesis )法
を用いたクローズドループサーチを用いた時間軸波形の
ベクトル量子化を行っている。
Next, the second encoder 120 will be described. The second encoding unit 120 has a so-called CELP (Code Excited Linear Prediction) encoding configuration, and is particularly used for encoding an unvoiced sound portion of an input audio signal. In this unvoiced CELP coding configuration,
A noise output corresponding to an LPC residual of unvoiced sound, which is a representative value output from a noise codebook, that is, a so-called stochastic codebook 121, is passed through a gain circuit 126 to a synthesis filter 1 with auditory weights.
22. The weighted synthesis filter 122 performs an LPC synthesis process on the input noise, and sends the obtained weighted unvoiced sound signal to the subtractor 123. A signal obtained by subjecting the audio signal supplied from the input terminal 101 via the HPF (high-pass filter) 109 to auditory weighting by the auditory weighting filter 125 is input to the subtractor 123, and the difference from the signal from the synthesis filter 122 is input to the subtractor 123. Alternatively, the error is extracted. This error is sent to the distance calculation circuit 124 to calculate the distance, and a representative value vector that minimizes the error is searched in the noise codebook 121. Vector quantization of the time axis waveform is performed using the closed loop search using such an analysis by synthesis method.

【0035】このCELP符号化構成を用いた第2の符
号化部120からのUV(無声音)部分用のデータとし
ては、雑音符号帳121からのコードブックのシェイプ
インデクスと、ゲイン回路126からのコードブックの
ゲインインデクスとが取り出される。雑音符号帳121
からのUVデータであるシェイプインデクスは、スイッ
チ127sを介して出力端子107sに送られ、ゲイン
回路126のUVデータであるゲインインデクスは、ス
イッチ127gを介して出力端子107gに送られてい
る。
As the data for the UV (unvoiced sound) portion from the second encoding unit 120 using this CELP encoding structure, the shape index of the codebook from the noise codebook 121 and the code from the gain circuit 126 are used. The gain index and the book are retrieved. Noise codebook 121
Is sent to the output terminal 107s via the switch 127s, and the gain index which is UV data of the gain circuit 126 is sent to the output terminal 107g via the switch 127g.

【0036】ここで、これらのスイッチ127s、12
7g及び上記スイッチ117、118は、上記V/UV
判定部115からのV/UV判定結果によりオン/オフ
制御され、スイッチ117、118は、現在伝送しよう
とするフレームの音声信号のV/UV判定結果が有声音
(V)のときオンとなり、スイッチ127s、127g
は、現在伝送しようとするフレームの音声信号が無声音
(UV)のときオンとなる。
Here, these switches 127s, 12s
7g and the switches 117 and 118 are connected to the V / UV
On / off control is performed based on the V / UV determination result from the determination unit 115, and the switches 117 and 118 are turned on when the V / UV determination result of the audio signal of the frame to be currently transmitted is voiced (V). 127s, 127g
Is turned on when the audio signal of the frame to be transmitted at present is unvoiced (UV).

【0037】次に、図4は、上記図2に示した本発明に
係る実施の形態としての音声信号復号化装置のより具体
的な構成を示している。この図4において、上記図2の
各部と対応する部分には、同じ指示符号を付している。
Next, FIG. 4 shows a more specific structure of the speech signal decoding apparatus as the embodiment according to the present invention shown in FIG. In FIG. 4, parts corresponding to the respective parts in FIG. 2 are denoted by the same reference numerals.

【0038】この図4において、入力端子202には、
上記図1、3の出力端子102からの出力に相当するL
SPのベクトル量子化出力、いわゆるコードブックのイ
ンデクスが供給されている。
In FIG. 4, the input terminal 202 has:
L corresponding to the output from the output terminal 102 in FIGS.
An SP vector quantization output, a so-called codebook index, is supplied.

【0039】このLSPのインデクスは、LPCパラメ
ータ再生部213のLSPの逆ベクトル量子化器231
に送られてLSP(線スペクトル対)データに逆ベクト
ル量子化され、LSP補間回路232、233に送られ
てLSPの補間処理が施された後、LSP→α変換回路
234、235でLPC(線形予測符号)のαパラメー
タに変換され、このαパラメータがLPC合成フィルタ
214に送られる。ここで、LSP補間回路232及び
LSP→α変換回路234は有声音(V)用であり、L
SP補間回路233及びLSP→α変換回路235は無
声音(UV)用である。またLPC合成フィルタ214
は、有声音部分のLPC合成フィルタ236と、無声音
部分のLPC合成フィルタ237とを分離している。す
なわち、有声音部分と無声音部分とでLPCの係数補間
を独立に行うようにして、有声音から無声音への遷移部
や、無声音から有声音への遷移部で、全く性質の異なる
LSP同士を補間することによる悪影響を防止してい
る。
This LSP index is the LSP inverse vector quantizer 231 of the LPC parameter reproducing unit 213.
Is subjected to inverse vector quantization to LSP (line spectrum pair) data, sent to LSP interpolation circuits 232 and 233 and subjected to LSP interpolation processing, and then subjected to LPC (linear) by LSP → α conversion circuits 234 and 235. The α parameter is transmitted to the LPC synthesis filter 214. Here, the LSP interpolation circuit 232 and the LSP → α conversion circuit 234 are for voiced sound (V).
The SP interpolation circuit 233 and the LSP → α conversion circuit 235 are for unvoiced sound (UV). Also, the LPC synthesis filter 214
Separates the LPC synthesis filter 236 for the voiced portion and the LPC synthesis filter 237 for the unvoiced portion. That is, LPC coefficient interpolation is performed independently for voiced and unvoiced parts, and LSPs having completely different properties are interpolated between the transition from voiced to unvoiced and the transition from unvoiced to voiced. To prevent the adverse effects of doing so.

【0040】また、図4の入力端子203には、上記図
1、図3のエンコーダ側の端子103からの出力に対応
するスペクトルエンベロープ(Am)の重み付けベクト
ル量子化されたコードインデクスデータが供給され、入
力端子204には、上記図1、図3の端子104からの
ピッチのデータが供給され、入力端子205には、上記
図1、図3の端子105からのV/UV判定データが供
給されている。
The input terminal 203 of FIG. 4 is supplied with the coded index data of the spectral envelope (Am) weighted vector quantized corresponding to the output from the encoder side terminal 103 of FIGS. The input terminal 204 is supplied with the pitch data from the terminal 104 in FIGS. 1 and 3, and the input terminal 205 is supplied with the V / UV determination data from the terminal 105 in FIGS. ing.

【0041】入力端子203からのスペクトルエンベロ
ープAmのベクトル量子化されたインデクスデータは、
逆ベクトル量子化器212に送られて逆ベクトル量子化
が施され、上記データ数変換に対応する逆変換が施され
て、スペクトルエンベロープのデータとなって、有声音
合成部211のサイン波合成回路215に送られてい
る。
The vector-quantized index data of the spectral envelope Am from the input terminal 203 is
The data is sent to the inverse vector quantizer 212, subjected to inverse vector quantization, subjected to an inverse transform corresponding to the above-described data number conversion, becomes spectral envelope data, and becomes a sine wave synthesizing circuit of the voiced sound synthesizer 211. 215.

【0042】なお、エンコード時にスペクトルのベクト
ル量子化に先だってフレーム間差分をとっている場合に
は、ここでの逆ベクトル量子化後にフレーム間差分の復
号を行ってからデータ数変換を行い、スペクトルエンベ
ロープのデータを得る。
If the interframe difference is taken before the vector quantization of the spectrum at the time of encoding, the number of data is converted after decoding the interframe difference after the inverse vector quantization here, and the spectrum envelope is converted. Get the data of.

【0043】サイン波合成回路215には、入力端子2
04からのピッチ及び入力端子205からの上記V/U
V判定データが供給されている。サイン波合成回路21
5からは、上述した図1、図3のLPC逆フィルタ11
1からの出力に相当するLPC残差データが取り出さ
れ、これが加算器218に送られている。
The sine wave synthesis circuit 215 has an input terminal 2
04 and the V / U from the input terminal 205
V determination data is supplied. Sine wave synthesis circuit 21
5, the LPC inverse filter 11 shown in FIGS.
LPC residual data corresponding to the output from 1 is extracted and sent to the adder 218.

【0044】また、逆ベクトル量子化器212からのエ
ンベロープのデータと、入力端子204、205からの
ピッチ、V/UV判定データとは、有声音(V)部分の
ノイズ加算のためのノイズ合成回路216に送られてい
る。このノイズ合成回路216からの出力は、重み付き
重畳加算回路217を介して加算器218に送ってい
る。これは、サイン波合成によって有声音のLPC合成
フィルタへの入力となるエクサイテイション(Excitati
on:励起、励振)を作ると、男声等の低いピッチの音で
鼻づまり感がある点、及びV(有声音)とUV(無声
音)とで音質が急激に変化し不自然に感じる場合がある
点を考慮し、有声音部分のLPC合成フィルタ入力すな
わちエクサイテイションについて、音声符号化データに
基づくパラメータ、例えばピッチ、スペクトルエンベロ
ープ振幅、フレーム内の最大振幅、残差信号のレベル等
を考慮したノイズをLPC残差信号の有声音部分に加え
ているものである。
The envelope data from the inverse vector quantizer 212, the pitch from the input terminals 204 and 205, and the V / UV determination data are used as a noise synthesis circuit for adding noise in the voiced sound (V) portion. Have been sent to 216. The output from the noise synthesis circuit 216 is sent to an adder 218 via a weighted superposition addition circuit 217. This is an excitation (Excitati) which is input to the LPC synthesis filter of voiced sound by sine wave synthesis.
When on (excitation, excitation) is made, there is a case where there is a feeling of nasal congestion with a low pitch sound such as a male voice, and the sound quality changes suddenly between V (voiced sound) and UV (unvoiced sound) and feels unnatural. Considering a certain point, the LPC synthesis filter input of the voiced sound portion, that is, the excitation, was considered in consideration of parameters based on the speech coded data, for example, pitch, spectrum envelope amplitude, maximum amplitude in a frame, residual signal level, and the like. Noise is added to the voiced portion of the LPC residual signal.

【0045】加算器218からの加算出力は、LPC合
成フィルタ214の有声音用の合成フィルタ236に送
られてLPCの合成処理が施されることにより時間波形
データとなり、さらに有声音用ポストフィルタ238v
でフィルタ処理された後、加算器239に送られる。
The addition output from the adder 218 is sent to the voiced sound synthesis filter 236 of the LPC synthesis filter 214 and subjected to LPC synthesis processing to become time waveform data, and further to the voiced sound post filter 238v.
, And sent to the adder 239.

【0046】次に、図4の入力端子207s及び207
gには、上記図3の出力端子107s及び107gから
のUVデータとしてのシェイプインデクス及びゲインイ
ンデクスがそれぞれ供給され、無声音合成部220に送
られている。端子207sからのシェイプインデクス
は、無声音合成部220の雑音符号帳221に、端子2
07gからのゲインインデクスはゲイン回路222にそ
れぞれ送られている。雑音符号帳221から読み出され
た代表値出力は、無声音のLPC残差に相当するノイズ
信号成分であり、これがゲイン回路222で所定のゲイ
ンの振幅となり、窓かけ回路223に送られて、上記有
声音部分とのつなぎを円滑化するための窓かけ処理が施
される。
Next, the input terminals 207s and 207 of FIG.
The shape index and the gain index as UV data from the output terminals 107 s and 107 g in FIG. 3 are supplied to g, and are sent to the unvoiced sound synthesis unit 220. The shape index from the terminal 207s is stored in the noise codebook 221 of the unvoiced sound synthesizer 220 in the terminal 2
The gain index from 07g is sent to the gain circuit 222, respectively. The representative value output read from the noise codebook 221 is a noise signal component corresponding to the LPC residual of the unvoiced sound. The noise signal component has an amplitude of a predetermined gain in the gain circuit 222 and is sent to the windowing circuit 223. A windowing process is performed to smooth the connection with the voiced sound portion.

【0047】窓かけ回路223からの出力は、無声音合
成部220からの出力として、LPC合成フィルタ21
4のUV(無声音)用の合成フィルタ237に送られ
る。合成フィルタ237では、LPC合成処理が施され
ることにより無声音部分の時間波形データとなり、この
無声音部分の時間波形データは無声音用ポストフィルタ
238uでフィルタ処理された後、加算器239に送ら
れる。
The output from the windowing circuit 223 is the output from the unvoiced sound synthesizing section 220, which is the LPC synthesis filter 21.
4 is sent to the synthesis filter 237 for UV (unvoiced sound). The synthesis filter 237 performs LPC synthesis processing to obtain unvoiced sound time waveform data. The unvoiced sound time waveform data is filtered by the unvoiced sound post filter 238u, and then sent to the adder 239.

【0048】加算器239では、有声音用ポストフィル
タ238vからの有声音部分の時間波形信号と、無声音
用ポストフィルタ238uからの無声音部分の時間波形
データとが加算され、出力端子201より取り出され
る。
In the adder 239, the time waveform signal of the voiced sound portion from the voiced sound post filter 238v and the time waveform data of the unvoiced sound portion from the unvoiced sound post filter 238u are added together and taken out from the output terminal 201.

【0049】上記音声信号符号化装置では、出力データ
のビットレートが可変されて出力される。具体的には、
出力データのビットレートを、低ビットレートと高ビッ
トレートとに切り換えることができる。例えば、低ビッ
トレートを2kbpsとし、高ビットレートを6kbpsとす
る場合には、以下の表1に示す各ビットレートのデータ
が出力される。
In the above audio signal encoding device, the bit rate of the output data is changed and output. In particular,
The bit rate of output data can be switched between a low bit rate and a high bit rate. For example, when the low bit rate is 2 kbps and the high bit rate is 6 kbps, the data of each bit rate shown in Table 1 below is output.

【0050】[0050]

【表1】 [Table 1]

【0051】出力端子104からのピッチデータについ
ては、有声音時に、常に8bits/20msecで出力さ
れ、出力端子105から出力されるV/UV判定出力
は、常に1bit/20msecである。出力端子102から
出力されるLSP量子化のインデクスは、32bits/4
0msecと48bits/40msecとの間で切り換えが行わ
れる。また、出力端子103から出力される有声音時
(V)のインデクスは、15bits/20msecと87bit
s/20msecとの間で切り換えが行われ、出力端子10
7s、107gから出力される無声音時(UV)のイン
デクスは、11bits/10msecと23bits/5msecと
の間で切り換えが行われる。これにより、有声音時
(V)の出力データは、2kbpsでは40bits/20ms
ecとなり、6kbpsでは120bits/20msecとなる。
また、無声音時(UV)の出力データは、2kbpsでは
39bits/20msecとなり、6kbpsでは117bits/
20msecとなる。
The pitch data from the output terminal 104 is always output at 8 bits / 20 msec during voiced sound, and the V / UV determination output from the output terminal 105 is always 1 bit / 20 msec. The LSP quantization index output from the output terminal 102 is 32 bits / 4
Switching is performed between 0 msec and 48 bits / 40 msec. The index of the voiced sound (V) output from the output terminal 103 is 15 bits / 20 msec and 87 bits.
Switching between s / 20 msec and output terminal 10
The index at the time of unvoiced sound (UV) output from 7s and 107g is switched between 11 bits / 10 msec and 23 bits / 5 msec. Thus, the output data at the time of voiced sound (V) is 40 bits / 20 ms at 2 kbps.
ec, which is 120 bits / 20 msec at 6 kbps.
The output data at the time of unvoiced sound (UV) is 39 bits / 20 msec at 2 kbps, and 117 bits / 20 msec at 6 kbps.
20 msec.

【0052】尚、上記LSP量子化のインデクス、有声
音時(V)のインデクス、及び無声音時(UV)のイン
デクスについては、後述する各部の構成と共に説明す
る。
The LSP quantization index, the voiced sound (V) index, and the unvoiced sound (UV) index will be described together with the configuration of each unit described later.

【0053】次に、図5及び図6を用いて、LSP量子
化器134におけるマトリクス量子化及びベクトル量子
化について詳細に説明する。
Next, the matrix quantization and the vector quantization in the LSP quantizer 134 will be described in detail with reference to FIGS. 5 and 6.

【0054】上述のように、LPC分析回路132から
のαパラメータは、α→LSP変換回路133に送られ
て、LSPパラメータに変換される。例えば、LPC分
析回路132でP次のLPC分析を行う場合には、αパ
ラメータはP個算出される。このP個のαパラメータ
は、LSPパラメータに変換され、バッファ610に保
持される。
As described above, the α parameter from the LPC analysis circuit 132 is sent to the α → LSP conversion circuit 133 and converted into the LSP parameter. For example, when the P order LPC analysis is performed by the LPC analysis circuit 132, P α parameters are calculated. The P α parameters are converted into LSP parameters and stored in the buffer 610.

【0055】このバッファ610からは、2フレーム分
のLSPパラメータが出力される。2フレーム分のLS
Pパラメータはマトリクス量子化部620でマトリクス
量子化される。マトリクス量子化部620は、第1のマ
トリクス量子化部6201と第2のマトリクス量子化部
6202とから成る。2フレーム分のLSPパラメータ
は、第1のマトリクス量子化部6201でマトリクス量
子化され、これにより得られる量子化誤差が、第2のマ
トリクス量子化部6202でさらにマトリクス量子化さ
れる。これらのマトリクス量子化により、時間軸方向の
相関を取り除く。
This buffer 610 outputs LSP parameters for two frames. LS for 2 frames
The P parameter is subjected to matrix quantization by the matrix quantization unit 620. Matrix quantizer 620 consists of a first matrix quantizer 620 1 and a second matrix quantizer 620 2. The LSP parameters for two frames are subjected to matrix quantization in the first matrix quantization section 620 1 , and the resulting quantization error is further subjected to matrix quantization in the second matrix quantization section 620 2 . By these matrix quantization, the correlation in the time axis direction is removed.

【0056】マトリクス量子化部6202からの2フレ
ーム分の量子化誤差は、ベクトル量子化部640に入力
される。ベクトル量子化部640は、第1のベクトル量
子化部6401と第2のベクトル量子化部6402とから
成る。さらに、第1のベクトル量子化部6401は、2
つのベクトル量子化部650、660から成り、第2の
ベクトル量子化部6402は、2つのベクトル量子化部
670、680から成る。第1のベクトル量子化部64
1のベクトル量子化部650、660で、マトリクス
量子化部620からの量子化誤差が、それぞれ1フレー
ム毎にベクトル量子化される。これにより得られる量子
化誤差ベクトルは、第2のベクトル量子化部6402
ベクトル量子化部670、680で、さらにベクトル量
子化される。これらのベクトル量子化により、周波数軸
方向の相関を処理する。
The quantization error for two frames from the matrix quantizer 620 2 is input to the vector quantizer 640. The vector quantization unit 640 includes a first vector quantization unit 640 1 and a second vector quantization unit 640 2 . Further, the first vector quantizer 640 1
The second vector quantizer 640 2 comprises two vector quantizers 650 and 660, and the second vector quantizer 640 2 comprises two vector quantizers 670 and 680. First vector quantizer 64
The vector quantization units 650 and 660 of 0 1 vector-quantize the quantization error from the matrix quantization unit 620 for each frame. The quantization error vector thus obtained is further vector-quantized by the vector quantizers 670 and 680 of the second vector quantizer 640 2 . By these vector quantizations, the correlation in the frequency axis direction is processed.

【0057】このように、マトリクス量子化を施す工程
を行うマトリクス量子化部620は、第1のマトリクス
量子化工程を行う第1のマトリクス量子化部620
1と、この第1のマトリクス量子化による量子化誤差を
マトリクス量子化する第2のマトリクス量子化工程を行
う第2のマトリクス量子化部6202とを少なくとも有
し、上記ベクトル量子化を施す工程を行うベクトル量子
化部640は、第1のベクトル量子化工程を行う第1の
ベクトル量子化部6401と、この第1のベクトル量子
化の際の量子化誤差ベクトルをベクトル量子化する第2
のベクトル量子化工程を行う第2のベクトル量子化部6
402とを少なくとも有する。
As described above, the matrix quantizing unit 620 for performing the matrix quantizing process has the first matrix quantizing unit 620 for performing the first matrix quantizing process.
1 and at least a second matrix quantizer 620 2 for performing a second matrix quantization step of matrix quantizing a quantization error due to the first matrix quantization, and performing the above vector quantization. The vector quantizer 640 for performing the first vector quantization step 640 1 for performing the first vector quantization step, and the second vector quantizer 640 for vector quantizing the quantization error vector at the time of the first vector quantization.
Vector quantization unit 6 that performs the vector quantization process of
Having at least a 40 2.

【0058】次に、マトリクス量子化及びベクトル量子
化について具体的に説明する。
Next, the matrix quantization and the vector quantization will be specifically described.

【0059】バッファ610に保持された、2フレーム
分のLSPパラメータ、すなわち10×2の行列は、マ
トリクス量子化器6201に送られる。上記第1のマト
リクス量子化部6101では、2フレーム分のLSPパ
ラメータが加算器621を介して重み付き距離計算器6
23に送られ、最小となる重み付き距離が算出される。
The LSP parameters for two frames, that is, the 10 × 2 matrix held in the buffer 610 are sent to the matrix quantizer 620 1 . In the first matrix quantizer 610 1 , the LSP parameters for two frames are sent to the weighted distance calculator 6 via the adder 621.
23, and a minimum weighted distance is calculated.

【0060】この第1のマトリクス量子化部6201
よるコードブックサーチ時の歪尺度dMQ1は、LSPパ
ラメータX1、量子化値 1を用い、(1)式で示す。
The distortion measure d MQ1 at the time of codebook search by the first matrix quantizer 620 1 is expressed by the equation (1) using the LSP parameter X 1 and the quantized value X 1 .

【0061】[0061]

【数1】 (Equation 1)

【0062】ここで、tはフレーム番号、iはP次元の
番号を示す。
Here, t is a frame number and i is a P-dimensional number.

【0063】また、このときの、周波数軸方向及び時間
軸方向に重みの制限を考慮しない場合の重みWを(2)
式で示す。
Further, at this time, the weight W when the limitation of the weight is not taken into consideration in the frequency axis direction and the time axis direction is (2)
It is shown by the formula.

【0064】[0064]

【数2】 (Equation 2)

【0065】この(2)式の重みWは、後段のマトリク
ス量子化及びベクトル量子化でも用いられる。
The weight W in the equation (2) is also used in matrix quantization and vector quantization in the latter stage.

【0066】算出された重み付き距離はマトリクス量子
化器(MQ1)622に送られて、マトリクス量子化が
行われる。このマトリクス量子化により出力される8ビ
ットのインデクスは信号切換器690に送られる。ま
た、マトリクス量子化による量子化値は、加算器621
で、バッファ610からの次の2フレーム分のLSPパ
ラメータから減算される。重み付き距離計算器623で
は、加算器621からの出力を用いて、最小となる重み
付き距離が算出される。このように、2フレーム毎に、
順次、重み付き距離計算器623では重み付き距離が算
出されて、マトリクス量子化器622でマトリクス量子
化が行われる。また、加算器621からの出力は、第2
のマトリクス量子化部6202の加算器631に送られ
る。
The calculated weighted distance is sent to the matrix quantizer (MQ 1 ) 622 and matrix quantization is performed. The 8-bit index output by the matrix quantization is sent to the signal switch 690. The quantization value obtained by the matrix quantization is added to an adder 621.
Then, it is subtracted from the LSP parameters for the next two frames from the buffer 610. The weighted distance calculator 623 uses the output from the adder 621 to calculate the minimum weighted distance. In this way, every two frames
The weighted distance calculator 623 sequentially calculates the weighted distance, and the matrix quantizer 622 performs matrix quantization. The output from the adder 621 is the second
Is sent to the adder 631 of the matrix quantizer 620 2 .

【0067】第2のマトリクス量子化部6202でも第
1のマトリクス量子化部6201と同様にして、マトリ
クス量子化を行う。上記加算器621からの出力は、加
算器631を介して重み付き距離計算器633に送ら
れ、最小となる重み付き距離が算出される。
The second matrix quantizer 620 2 also performs matrix quantization in the same manner as the first matrix quantizer 620 1 . The output from the adder 621 is sent to the weighted distance calculator 633 via the adder 631, and the minimum weighted distance is calculated.

【0068】この第2のマトリクス量子化部6202
よるコードブックサーチ時の歪尺度dMQ2を、第1のマ
トリクス量子化部6201からの量子化誤差X2、量子化
2により、(3)式で示す。
The distortion measure d MQ2 at the time of codebook search by the second matrix quantizer 620 2 is calculated by the quantization error X 2 and the quantization value X 2 from the first matrix quantizer 620 1. It is shown by the equation 3).

【0069】[0069]

【数3】 (Equation 3)

【0070】この重み付き距離はマトリクス量子化器
(MQ2)632に送られて、マトリクス量子化が行わ
れる。このマトリクス量子化により出力される8ビット
のインデクスは信号切換器690に送られる。また、マ
トリクス量子化による量子化値は、加算器631で、次
の2フレーム分の量子化誤差から減算される。重み付き
距離計算器633では、加算器631からの出力を用い
て、最小となる重み付き距離が順次算出される。また、
加算器631からの出力は、第1のベクトル量子化部6
401の加算器651、661に1フレームずつ送られ
る。
This weighted distance is sent to the matrix quantizer (MQ 2 ) 632 for matrix quantization. The 8-bit index output by the matrix quantization is sent to the signal switch 690. Further, the quantized value obtained by the matrix quantization is subtracted from the quantization error for the next two frames by the adder 631. The weighted distance calculator 633 sequentially calculates the minimum weighted distance using the output from the adder 631. Also,
The output from the adder 631 is the first vector quantization unit 6
One frame is sent to the adders 651 and 661 of 40 1 .

【0071】この第1のベクトル量子化部6401
は、1フレーム毎にベクトル量子化が行われる。加算器
631からの出力は、1フレーム毎に、加算器651、
661を介して重み付き距離計算器653、663にそ
れぞれ送られ、最小となる重み付き距離が算出される。
The first vector quantizer 640 1 performs vector quantization for each frame. The output from the adder 631 is added to the adder 651,
The weighted distance is sent to weighted distance calculators 653 and 663 via 661 to calculate the minimum weighted distance.

【0072】量子化誤差X2と量子化値 2との差分は、
10×2の行列であり、 X2−X2’=[ 3-1 3-2] と表すときの、この第1のベクトル量子化部6401
ベクトル量子化器652、662によるコードブックサ
ーチ時の歪尺度dVQ1、dVQ2を、(4)、(5)式で示
す。
The difference between the quantization error X 2 and the quantization value X 2 is
It is a 10 × 2 matrix and is represented by the vector quantizers 652 and 662 of the first vector quantizer 640 1 when X 2 −X 2 ′ = [ X 3-1 , X 3-2 ]. The distortion measures d VQ1 and d VQ2 at the time of codebook search are shown by equations (4) and (5).

【0073】[0073]

【数4】 (Equation 4)

【0074】この重み付き距離はベクトル量子化器(V
1)652、ベクトル量子化器(VQ2)662にそれ
ぞれ送られて、ベクトル量子化が行われる。このベクト
ル量子化により出力される各8ビットのインデクスは信
号切換器690に送られる。また、ベクトル量子化によ
る量子化値は、加算器651、661で、次に入力され
る2フレーム分の量子化誤差ベクトルから減算される。
重み付き距離計算器653、663では、加算器65
1、661からの出力を用いて、最小となる重み付き距
離が順次算出される。また、加算器651、661から
の出力は、第2のベクトル量子化部6402の加算器6
71、681にそれぞれ送られる。
This weighted distance is calculated by the vector quantizer (V
Q 1 ) 652 and vector quantizer (VQ 2 ) 662, respectively, and vector quantization is performed. Each 8-bit index output by this vector quantization is sent to a signal switch 690. Further, the quantized value obtained by the vector quantization is subtracted by the adders 651 and 661 from the quantized error vector of the next two frames.
In the weighted distance calculators 653 and 663, the adder 65
Using the outputs from 1 and 661, the minimum weighted distance is sequentially calculated. The outputs from the adders 651 and 661 are the outputs of the adder 6 of the second vector quantizer 640 2.
71 and 681 respectively.

【0075】ここで、 4-1 =X3-13-1 4-2 =X3-23-2 と表すときの、この第2のベクトル量子化部6402
ベクトル量子化器672、682によるコードブックサ
ーチ時の歪尺度dVQ3、dVQ4を、(6)、(7)式で示
す。
Here, this second vector quantizer 640 when X 4-1 = X 3-1 −X3-1 X 4-2 = X 3-2 −X3-2 is expressed. the distortion measure d VQ3, d VQ4 during codebook search by the second vector quantizer 672, 682, (6), shown in equation (7).

【0076】[0076]

【数5】 (Equation 5)

【0077】この重み付き距離はベクトル量子化器(V
3)672、ベクトル量子化器(VQ4)682にそれ
ぞれ送られて、ベクトル量子化が行われる。このベクト
ル量子化により出力される各8ビットのインデクスは信
号切換器690に送られる。また、ベクトル量子化によ
る量子化値は、加算器671、681で、次に入力され
る2フレーム分の量子化誤差ベクトルから減算される。
重み付き距離計算器673、683では、加算器67
1、681からの出力を用いて、最小となる重み付き距
離が順次算出される。
This weighted distance is calculated by the vector quantizer (V
Q 3 ) 672 and vector quantizer (VQ 4 ) 682, respectively, for vector quantization. Each 8-bit index output by this vector quantization is sent to a signal switch 690. Further, the quantized value obtained by the vector quantization is subtracted from the quantized error vectors for the next two frames to be inputted by the adders 671 and 681.
In the weighted distance calculators 673 and 683, the adder 67
Using the outputs from 1 and 681, the minimum weighted distance is sequentially calculated.

【0078】また、コードブックの学習時には、上記各
歪尺度をもとにして、一般化ロイドアルゴリズム(GL
A)により学習を行う。
Further, at the time of learning the codebook, the generalized Lloyd algorithm (GL
Learning is performed according to A).

【0079】尚、コードブックサーチ時と学習時の歪尺
度は、異なる値であっても良い。
The distortion scales at the time of codebook search and at the time of learning may have different values.

【0080】上記マトリクス量子化器622、632、
ベクトル量子化器652、662、672、682から
の各8ビットのインデクスは、信号切換器690で切り
換えられて、出力端子691から出力される。
The matrix quantizers 622, 632,
The 8-bit indexes from the vector quantizers 652, 662, 672, and 682 are switched by the signal switch 690 and output from the output terminal 691.

【0081】具体的には、低ビットレート時には、上記
第1のマトリクス量子化工程を行う第1のマトリクス量
子化部6201、上記第2のマトリクス量子化工程を行
う第2のマトリクス量子化部6202、及び上記第1の
ベクトル量子化工程を行う第1のベクトル量子化部64
1での出力を取り出し、高ビットレート時には、上記
低ビットレート時の出力に上記第2のベクトル量子化工
程を行う第2のベクトル量子化部6402での出力を合
わせて取り出す。
Specifically, when the bit rate is low, the first matrix quantizing section 620 1 for performing the first matrix quantizing step and the second matrix quantizing section for performing the second matrix quantizing step are described. 620 2 , and a first vector quantization unit 64 that performs the first vector quantization step.
0 output at 1 taken out, at the time of high bit-rate, taken together outputs of the second vector quantizer 640 2 carrying out the second vector quantization process on the output when the low bit rate.

【0082】これにより、2kbps時には、32bits/
40msecのインデクスが出力され、6kbps時には、4
8bits/40msecのインデクスが出力される。
As a result, at 2 kbps, 32 bits /
An index of 40 msec is output and 4 at 6 kbps.
The 8bits / 40msec index is output.

【0083】また、上記マトリクス量子化部620及び
上記ベクトル量子化部640では、上記LPC係数を表
現するパラメータの持つ特性に合わせた、周波数軸方向
又は時間軸方向、あるいは周波数軸及び時間軸方向に制
限を持つ重み付けを行う。
Further, in the matrix quantizing unit 620 and the vector quantizing unit 640, in the frequency axis direction or the time axis direction, or in the frequency axis and time axis direction, which is in accordance with the characteristic of the parameter expressing the LPC coefficient. Weight with restrictions.

【0084】先ず、LSPパラメータの持つ特性に合わ
せた、周波数軸方向に制限を持つ重み付けについて説明
する。例えば、次数P=10とするとき、LSPパラメ
ータX(i)を、低域、中域、高域の3つの領域とし
て、 L1={X(i)|1≦i≦2} L2={X(i)|3≦i≦6} L3={X(i)|7≦i≦10} とグループ化する。そして、各グループL1、L2、L3
の重み付けを1/4、1/2、1/4とすると、各グル
ープL1、L2、L3の周波数軸方向のみに制限を持つ重
みは、(8)、(9)、(10)式となる。
First, description will be given of weighting having a limit in the frequency axis direction, which is matched with the characteristic of the LSP parameter. For example, when the degree P = 10, the LSP parameter X (i) is set to three regions of low band, middle band, and high band: L 1 = {X (i) | 1 ≦ i ≦ 2} L 2 = {X (i) | 3 ≦ i ≦ 6} L 3 = {X (i) | 7 ≦ i ≦ 10}. Then, each group L 1 , L 2 , L 3
Is 1/4, 1/2, and 1/4, the weights of each group L 1 , L 2 , and L 3 having restrictions only in the frequency axis direction are (8), (9), and (10). It becomes an expression.

【0085】[0085]

【数6】 (Equation 6)

【0086】これにより、各LSPパラメータの重み付
けは、各グループ内でのみ行われ、その重みは各グルー
プに対する重み付けで制限される。
As a result, the weighting of each LSP parameter is performed only within each group, and the weighting is limited by the weighting for each group.

【0087】ここで、時間軸方向からみると、各フレー
ムの重み付けの総和は、必ず1となるので、時間軸方向
の制限は1フレーム単位である。この時間軸方向のみに
制限を持つ重みは、(11)式となる。
Here, when viewed from the time axis direction, the sum of weighting of each frame is always 1, so that the limitation in the time axis direction is one frame unit. The weight having a restriction only in the time axis direction is given by equation (11).

【0088】[0088]

【数7】 (Equation 7)

【0089】この(11)式により、周波数軸方向での
制限のない、フレーム番号t=0,1の2つのフレーム
間で、重み付けが行われる。この時間軸方向にのみ制限
を持つ重み付けは、マトリクス量子化を行う2フレーム
間で行う。
According to the equation (11), weighting is performed between two frames having frame numbers t = 0 and 1 which are not limited in the frequency axis direction. The weighting having a limitation only in the time axis direction is performed between two frames on which matrix quantization is performed.

【0090】また、学習時には、学習データとして用い
る全ての音声フレーム、即ち全データのフレーム数Tに
ついて、(12)式により、重み付けを行う。
At the time of learning, all voice frames used as learning data, that is, the number T of frames of all data, is weighted by the equation (12).

【0091】[0091]

【数8】 (Equation 8)

【0092】また、周波数軸方向及び時間軸方向に制限
を持つ重み付けについて説明する。例えば、次数P=1
0とするとき、LSPパラメータX(i,t)を、低
域、中域、高域の3つの領域として、 L1={X(i,t)|1≦i≦2,0≦t≦1} L2={X(i,t)|3≦i≦6,0≦t≦1} L3={X(i,t)|7≦i≦10,0≦t≦1} とグループ化する。各グループL1、L2、L3の重み付
けを1/4、1/2、1/4とすると、各グループ
1、L2、L3の周波数軸方向及び時間軸方向に制限を
持つ重み付けは、(13)、(14)、(15)式とな
る。
Weighting with restrictions in the frequency axis direction and the time axis direction will be described. For example, the order P = 1
When L is 0, the LSP parameter X (i, t) is set to three regions of low band, middle band, and high band. L 1 = {X (i, t) | 1 ≦ i ≦ 2,0 ≦ t ≦ 1} L 2 = {X (i, t) | 3 ≦ i ≦ 6, 0 ≦ t ≦ 1} L 3 = {X (i, t) | 7 ≦ i ≦ 10, 0 ≦ t ≦ 1} and a group Turn into. Assuming that the weights of the groups L 1 , L 2 , L 3 are 1 /, 、, 1 /, the weights of the groups L 1 , L 2 , L 3 are limited in the frequency axis direction and the time axis direction. Becomes the expressions (13), (14), and (15).

【0093】[0093]

【数9】 (Equation 9)

【0094】この(13)、(14)、(15)式によ
り、周波数軸方向では3つの帯域毎に、時間軸方向では
マトリクス量子化を行う2フレーム間に重み付けの制限
を加えた重み付けを行う。これは、コードブックサーチ
時及び学習時共に有効となる。
According to the equations (13), (14) and (15), weighting is performed for every three bands in the frequency axis direction and in the time axis direction by weighting limitation between two frames for matrix quantization. . This is effective for both codebook search and learning.

【0095】また、学習時においては、全データのフレ
ーム数について重み付けを行う。LSPパラメータX
(i,t)を、低域、中域、高域の3つの領域として、 L1={X(i,t)|1≦i≦2,0≦t≦T} L2={X(i,t)|3≦i≦6,0≦t≦T} L3={X(i,t)|7≦i≦10,0≦t≦T} とグループ化し、各グループL1、L2、L3の重み付け
を1/4、1/2、1/4とすると、各グループL1
2、L3の周波数軸方向及び時間軸方向に制限を持つ重
み付けは、(16)、(17)、(18)式となる。
At the time of learning, the number of frames of all data is weighted. LSP parameter X
Let (i, t) be the three regions of low band, middle band, and high band. L 1 = {X (i, t) | 1 ≦ i ≦ 2, 0 ≦ t ≦ T} L 2 = {X ( i, t) | 3 ≦ i ≦ 6, 0 ≦ t ≦ T} L 3 = {X (i, t) | 7 ≦ i ≦ 10, 0 ≦ t ≦ T}, and each group L 1 , L If the weighting of 2 and L 3 is 1/4, 1/2, and 1/4, each group L 1 ,
The weights L 2 and L 3 having restrictions in the frequency axis direction and the time axis direction are given by equations (16), (17) and (18).

【0096】[0096]

【数10】 (Equation 10)

【0097】この(16)、(17)、(18)式によ
り、周波数軸方向では3つの帯域毎に重み付けを行い、
時間軸方向では全フレーム間で重み付けを行うことがで
きる。
By the equations (16), (17) and (18), weighting is performed for each of the three bands in the frequency axis direction,
In the time axis direction, weighting can be performed between all frames.

【0098】さらに、上記マトリクス量子化部620及
び上記ベクトル量子化部640では、上記LSPパラメ
ータの変化の大きさに応じて重み付けを行う。音声フレ
ーム全体においては少数フレームとなる、V→UV、U
V→Vの遷移(トランジェント)部において、子音と母
音との周波数特性の違いから、LSPパラメータは大き
く変化する。そこで、(19)式に示す重みを、上述の
重みW’(i,t)に乗算することにより、上記遷移部
を重視する重み付けを行うことができる。
Further, the matrix quantizer 620 and the vector quantizer 640 perform weighting according to the magnitude of change in the LSP parameter. V → UV, U, which is a small number of frames in the entire audio frame
In the transition (transient) portion of V → V, the LSP parameter greatly changes due to a difference in frequency characteristics between the consonant and the vowel. Therefore, by multiplying the weight W '(i, t) described above by the weight shown in the equation (19), weighting with emphasis on the transition part can be performed.

【0099】[0099]

【数11】 [Equation 11]

【0100】尚、(19)式の代わりに、(20)式を
用いることも考えられる。
It is also possible to use equation (20) instead of equation (19).

【0101】[0101]

【数12】 (Equation 12)

【0102】このように、LSP量子化器134では、
2段のマトリクス量子化及び2段のベクトル量子化を行
うことにより、出力するインデクスのビット数を可変に
することができる。
Thus, in the LSP quantizer 134,
By performing two-stage matrix quantization and two-stage vector quantization, the number of bits of an output index can be made variable.

【0103】次に、ベクトル量子化部116の基本構成
を図7、図7のベクトル量子化部116のより具体的な
構成を図8に示し、ベクトル量子化器116におけるス
ペクトルエンベロープ(Am)の重み付きベクトル量子
化の具体例について説明する。
Next, the basic configuration of the vector quantizer 116 is shown in FIG. 7, and the more specific configuration of the vector quantizer 116 of FIG. 7 is shown in FIG. 8, and the spectrum envelope (Am) of the vector quantizer 116 is shown. A specific example of weighted vector quantization will be described.

【0104】先ず、図3の音声信号符号化装置におい
て、スペクトル評価部148の出力側あるいはベクトル
量子化器116の入力側に設けられたスペクトルエンベ
ロープの振幅のデータ数を一定個数にするデータ数変換
の具体例について説明する。
First, in the speech signal coding apparatus of FIG. 3, data number conversion to make the number of amplitude envelope data provided on the output side of the spectrum evaluation section 148 or the input side of the vector quantizer 116 a fixed number. A specific example of will be described.

【0105】このデータ数変換には種々の方法が考えら
れるが、本実施の形態においては、例えば、周波数軸上
の有効帯域1ブロック分の振幅データに対して、ブロッ
ク内の最後のデータからブロック内の最初のデータまで
の値を補間するようなダミーデータを付加してデータ個
数をNF 個に拡大した後、帯域制限型のOS 倍(例えば
8倍)のオーバーサンプリングを施すことによりOS
の個数の振幅データを求め、このOS 倍の個数((mMX
+1)×OS 個)の振幅データを直線補間してさらに多
くのNM 個(例えば2048個)に拡張し、このNM
のデータを間引いて上記一定個数M(例えば44個)の
データに変換している。
Various methods are conceivable for this data number conversion, but in the present embodiment, for example, for the amplitude data for one block of the effective band on the frequency axis, from the last data in the block to the block. After adding dummy data for interpolating the values up to the first data in the table to expand the number of data to N F , the band-limited O S times (for example, 8 times) oversampling is performed to obtain O. obtain an amplitude data of S times the number, the O S times the number ((m MX
(+1) × O S pieces of amplitude data are linearly interpolated to be expanded to a larger number of N M pieces (for example, 2048 pieces), and the N M pieces of data are thinned out to obtain the fixed number of M pieces (for example, 44 pieces) of data. Has been converted to.

【0106】図7の重み付きベクトル量子化を行うベク
トル量子化器116は、第1のベクトル量子化工程を行
う第1のベクトル量子化部500と、この第1のベクト
ル量子化部500における第1のベクトル量子化の際の
量子化誤差ベクトルを量子化する第2のベクトル量子化
工程を行う第2のベクトル量子化部510とを少なくと
も有する。この第1のベクトル量子化部500は、いわ
ゆる1段目のベクトル量子化部であり、第2のベクトル
量子化部510は、いわゆる2段目のベクトル量子化部
である。
The vector quantizer 116 for performing the weighted vector quantization shown in FIG. 7 includes a first vector quantizer 500 for performing the first vector quantizing process and a first vector quantizer 500 in the first vector quantizer 500. And a second vector quantizer 510 that performs a second vector quantization step of quantizing a quantization error vector at the time of vector quantization of 1. The first vector quantization unit 500 is a so-called first-stage vector quantization unit, and the second vector quantization unit 510 is a so-called second-stage vector quantization unit.

【0107】第1のベクトル量子化部500の入力端子
501には、スペクトル評価部148の出力ベクトル
、即ち一定個数Mのエンベロープデータが入力され
る。この出力ベクトルは、ベクトル量子化器502で
重み付きベクトル量子化される。これにより、ベクトル
量子化器502から出力されるシェイプインデクスは出
力端子503から出力され、また、量子化値 0’は出
力端子504から出力されると共に、加算器505、5
13に送られる。加算器505では、出力ベクトル
ら量子化値 0’が減算されて、複数次元の量子化誤差
ベクトルが得られる。
The output vector of the spectrum evaluation unit 148 is connected to the input terminal 501 of the first vector quantization unit 500.
X , that is, a fixed number M of envelope data is input. This output vector X is weighted vector quantized by the vector quantizer 502. As a result, the shape index output from the vector quantizer 502 is output from the output terminal 503, the quantized value X 0 'is output from the output terminal 504, and the adders 505, 5
Sent to 13. In the adder 505, the quantized value X 0 'is subtracted from the output vector X to obtain a multidimensional quantization error vector Y.

【0108】この量子化誤差ベクトルは、第2のベク
トル量子化部510内のベクトル量子化部511に送ら
れる。このベクトル量子化部511は、複数個のベクト
ル量子化器で構成され、図7では、2個のベクトル量子
化器5111、5112から成る。量子化誤差ベクトル
は次元分割されて、2個のベクトル量子化器5111
5112で、それぞれ重み付きベクトル量子化される。
これらのベクトル量子化器5111、5112から出力さ
れるシェイプインデクスは、出力端子5121、5122
からそれぞれ出力され、また、量子化値 1’、 2’は
次元方向に接続されて、加算器513に送られる。この
加算器513では、量子化値 1’、 2’と量子化値
0’とが加算されて、量子化値 1’が生成される。この
量子化値 1’は出力端子514から出力される。
This quantization error vector Y is sent to the vector quantization unit 511 in the second vector quantization unit 510. This vector quantization section 511 is composed of a plurality of vector quantizers, and in FIG. 7, is composed of two vector quantizers 511 1 and 511 2 . Quantization error vector Y
Is dimensionally divided into two vector quantizers 511 1 ,
At 511 2 , each is weighted vector quantized.
The shape indexes output from these vector quantizers 511 1 and 511 2 are output to output terminals 512 1 and 512 2.
Respectively, and the quantized values Y 1 'and Y 2 ' are connected in the dimension direction and are sent to the adder 513. In the adder 513, the quantized values Y 1 'and Y 2 ' and the quantized value X
0'and are added to generate a quantized value X 1 '. This quantized value X 1 'is output from the output terminal 514.

【0109】これにより、低ビットレート時には、上記
第1のベクトル量子化部500による第1のベクトル量
子化工程での出力を取り出し、高ビットレート時には、
上記第1のベクトル量子化工程での出力及び上記第2の
量子化部510による第2のベクトル量子化工程での出
力を取り出す。
As a result, when the bit rate is low, the output of the first vector quantization step by the first vector quantizer 500 is taken out, and when the bit rate is high, the output is obtained.
The output in the first vector quantization step and the output in the second vector quantization step by the second quantization unit 510 are extracted.

【0110】具体的には、図8に示すように、ベクトル
量子化器116内の第1のベクトル量子化部500のベ
クトル量子化器502は、L次元、例えば44次元の2
ステージ構成としている。
Specifically, as shown in FIG. 8, the vector quantizer 502 of the first vector quantizer 500 in the vector quantizer 116 has an L-dimensional, for example 44-dimensional, two-dimensional vector quantizer 502.
It has a stage configuration.

【0111】すなわち、44次元でコードブックサイズ
が32のベクトル量子化コードブックからの出力ベクト
ルの和に、ゲインgi を乗じたものを、44次元のスペ
クトルエンベロープベクトルの量子化値 0’として
使用する。これは、図8に示すように、2つのシェイプ
コードブックをCB0、CB1とし、その出力ベクトル
0i 1j、ただし0≦i,j≦31、とする。ま
た、ゲインコードブックCBgの出力をgl 、ただし0
≦l≦31、とする。gl はスカラ値である。この最終
出力 0’は、gi 0i 1j) となる。
That is, the sum of output vectors from a vector quantization codebook having a 44-dimensional codebook size of 32 and a gain g i is multiplied to obtain a quantized value X 0 'of a 44-dimensional spectral envelope vector X. To use as. As shown in FIG. 8, the two shape codebooks are CB0 and CB1, and the output vectors are s 0i and s 1j , where 0 ≦ i, j ≦ 31. The output of the gain codebook CBg is represented by gl , where 0
≦ l ≦ 31. gl is a scalar value. This final output X 0 'is g i ( s 0i + s 1j ).

【0112】LPC残差について上記MBE分析によっ
て得られたスペクトルエンベロープAmを一定次元に変
換したものをとする。このとき、をいかに効率的に
量子化するかが重要である。
Let X be a constant dimension of the spectral envelope Am obtained by the above MBE analysis of the LPC residual. At this time, how to efficiently quantize X is important.

【0113】ここで、量子化誤差エネルギEを、 E=‖W{H−Hgl 0i 1j)}‖2 ・・・ (21) =‖WH{−gl 0i 1j)}‖2 と定義する。この(21)式において、HはLPCの合
成フィルタの周波数軸上での特性であり、Wは聴覚重み
付けの周波数軸上での特性を表す重み付けのための行列
である。
[0113] Here, the quantization error energy E, E = ‖W {H X -Hg l (s 0i + s 1j)} ‖ 2 ··· (21) = ‖WH { X -g l (s 0i + S 1j )} ∥ 2 . In the equation (21), H is a characteristic of the LPC synthesis filter on the frequency axis, and W is a matrix for weighting that represents the characteristic of the auditory weighting on the frequency axis.

【0114】現フレームのLPC分析結果によるαパラ
メータを、αi (1≦i≦P)として、
The α parameter according to the LPC analysis result of the current frame is α i (1 ≦ i ≦ P),

【0115】[0115]

【数13】 (Equation 13)

【0116】の周波数特性からL次元、例えば44次元
の各対応する点の値をサンプルしたものである。
The value of each corresponding point in the L dimension, for example, 44 dimensions, is sampled from the frequency characteristic of.

【0117】算出手順としては、一例として、1、
α1、α2、・・・、αp に0詰めして、すなわち、1、
α1、α2、・・・、αp 、0、0、・・・、0として、
例えば256点のデータにする。その後、256点FF
Tを行い、(re 2+Im 21/2 を0〜πに対応する点に
対して算出して、その逆数をとる。それをL点、すなわ
ち例えば44点に間引いたものを対角要素とする行列
を、
The calculation procedure is, for example, 1,
α 1 , α 2 ,..., α p are padded with 0, that is, 1,
α 1 , α 2 ,..., α p , 0, 0,.
For example, data of 256 points is used. After that, 256 points FF
Perform T, it is calculated for points corresponding to 0~π the (r e 2 + I m 2 ) 1/2, taking its reciprocal. A matrix having diagonal elements obtained by thinning it out to L points, for example, 44 points,

【0118】[0118]

【数14】 [Equation 14]

【0119】とする。It is assumed that

【0120】聴覚重み付け行列Wは、The perceptual weighting matrix W is

【0121】[0121]

【数15】 (Equation 15)

【0122】とする。この(23)式で、αi は入力の
LPC分析結果である。また、λa、λbは定数であり、
一例として、λa=0.4、λb=0.9が挙げられる。
It is assumed that In this equation (23), α i is the LPC analysis result of the input. Further, λa and λb are constants,
As an example, λa = 0.4 and λb = 0.9 can be mentioned.

【0123】行列あるいはマトリクスWは、上記(2
3)式の周波数特性から算出できる。一例として、1、
α1λb、α2λb2、・・・、αpλbp、0、0、・・・、
0として256点のデータとしてFFTを行い、0以上
π以下の区間に対して(re 2[i]+Im 2[i])1/2 、0
≦i≦128、を求める。次に、1、α1λa、α2λ
a2、・・・、αpλap 、0、0、・・・、0として分母
の周波数特性を256点FFTで0〜πの区間を128
点で算出する。これを(re'2[i]+Im'2[i])1/2
0≦i≦128、とする。
The matrix or the matrix W is (2)
It can be calculated from the frequency characteristic of equation 3). As an example, 1,
α 1 λb, α 2 λb 2 ,..., α p λb p , 0, 0,.
0 As performs an FFT as 256 points data for 0 or π following section (r e 2 [i] + I m 2 [i]) 1/2, 0
≦ i ≦ 128 is calculated. Next, 1, α 1 λa, α 2 λ
a 2 , ..., α p λ a p , 0, 0, ..., 0, the frequency characteristic of the denominator is 256 points FFT, and the interval of 0 to π is 128.
Calculate in points. This is (r e ' 2 [i] + I m ' 2 [i]) 1/2 ,
0 ≦ i ≦ 128.

【0124】[0124]

【数16】 (Equation 16)

【0125】として、上記(23)式の周波数特性が求
められる。
As the above, the frequency characteristic of the equation (23) is obtained.

【0126】これをL次元、例えば44次元ベクトルの
対応する点について、以下の方法で求める。より正確に
は、直線補間を用いるべきであるが、以下の例では最も
近い点の値で代用している。
This is obtained by the following method for the corresponding points of the L-dimensional, for example, 44-dimensional vector. More precisely, linear interpolation should be used, but the following example substitutes the value of the closest point.

【0127】すなわち、 ω[i]=ω0[nint(128i/L)] 1≦i≦L ただし、nint(X)は、Xに最も近い整数を返す関数 である。That is, ω [i] = ω 0 [nint (128i / L)] 1 ≦ i ≦ L where nint (X) is a function that returns an integer closest to X.

【0128】また、上記Hに関しても同様の方法で、h
(1)、h(2)、・・・、h(L)を求めている。すなわち、
Further, with respect to the above H, in the same manner, h
(1), h (2), ..., h (L) are calculated. That is,

【0129】[0129]

【数17】 [Equation 17]

【0130】となる。Is obtained.

【0131】ここで、他の例として、FFTの回数を減
らすのに、H(z)W(z)を先に求めてから、周波数特性
を求めてもよい。すなわち、
Here, as another example, in order to reduce the number of FFTs, H (z) W (z) may be obtained first, and then the frequency characteristic may be obtained. That is,

【0132】[0132]

【数18】 (Equation 18)

【0133】この(25)式の分母を展開した結果を、The result of expanding the denominator of the equation (25) is

【0134】[0134]

【数19】 [Equation 19]

【0135】とする。ここで、1、β1、β2、・・・、
β2p、0、0、・・・、0として、例えば256点のデ
ータにする。その後、256点FFTを行い、振幅の周
波数特性を、
It is assumed that Here, 1, β 1 , β 2 , ...,
As β 2p , 0, 0,... After that, a 256-point FFT is performed, and the frequency characteristic of the amplitude is

【0136】[0136]

【数20】 (Equation 20)

【0137】とする。これより、It is assumed that Than this,

【0138】[0138]

【数21】 (Equation 21)

【0139】これをL次元ベクトルの対応する点につい
て求める。上記FFTのポイント数が少ない場合は、直
線補間で求めるべきであるが、ここでは最寄りの値を使
用している。すなわち、
This is calculated for the corresponding points of the L-dimensional vector. When the number of FFT points is small, it should be obtained by linear interpolation, but the nearest value is used here. That is,

【0140】[0140]

【数22】 (Equation 22)

【0141】である。これを対角要素とする行列をW’
とすると、
It is The matrix with this as diagonal elements is W '
Then

【0142】[0142]

【数23】 (Equation 23)

【0143】となる。(26)式は上記(24)式と同
一のマトリクスとなる。
It becomes: Equation (26) is the same matrix as equation (24).

【0144】このマトリクス、すなわち重み付き合成フ
ィルタの周波数特性を用いて、上記(21)式を書き直
すと、
Using the matrix, that is, the frequency characteristics of the weighted synthesis filter, the above equation (21) can be rewritten.

【0145】[0145]

【数24】 (Equation 24)

【0146】となる。[0146]

【0147】ここで、シェイプコードブックとゲインコ
ードブックの学習法について説明する。
Here, a method of learning the shape codebook and the gain codebook will be described.

【0148】先ず、CB0に関しコードベクトル 0c
選択する全てのフレームkに関して歪の期待値を最小化
する。そのようなフレームがM個あるとして、
First, the expected value of distortion is minimized for all frames k that select the code vector s 0c for CB0. Assuming there are M such frames,

【0149】[0149]

【数25】 (Equation 25)

【0150】を最小化すればよい。この(28)式中
で、W'kはk番目のフレームに対する重み、 k はk番
目のフレームの入力、gk はk番目のフレームのゲイ
ン、 1kはk番目のフレームについてのコードブックC
B1からの出力、をそれぞれ示す。
It is only necessary to minimize In the equation (28), W ′ k is a weight for the kth frame, X k is an input of the kth frame, g k is a gain of the kth frame, and s 1k is a codebook for the kth frame. C
Output from B1.

【0151】この(28)式を最小化するには、To minimize the equation (28),

【0152】[0152]

【数26】 (Equation 26)

【0153】[0153]

【数27】 [Equation 27]

【0154】次に、ゲインに関しての最適化を考える。Next, optimization regarding gain will be considered.

【0155】ゲインのコードワードgc を選択するk番
目のフレームに関しての歪の期待値Jg は、
The expected distortion value J g for the kth frame selecting the gain codeword g c is

【0156】[0156]

【数28】 [Equation 28]

【0157】上記(31)式及び(32)式は、シェイ
0i 1i及びゲインgi 、0≦i≦31の最適なセ
ントロイドコンディション(Centroid Condition)、すな
わち最適なデコーダ出力を与えるものである。なお、
1iに関しても 0iと同様に求めることができる。
The above equations (31) and (32) are the optimum centroid condition (Centroid Condition) of the shapes s 0i , s 1i and the gain g i , 0 ≦ i ≦ 31, that is, the optimum conditions. It provides a decoder output. In addition, s
The value of 1i can be calculated in the same manner as s 0i .

【0158】次に、最適エンコード条件(Nearest Neig
hbour Condition )を考える。
Next, the optimum encoding condition (Nearest Neig
hbour Condition).

【0159】歪尺度を求める上記(27)式、すなわ
ち、E=‖W'(−gl 0i 1j))‖2 を最小化
する 0i 1jを、入力、重みマトリクスW' が与え
られる毎に、すなわち毎フレームごとに決定する。
[0159] The obtaining the distortion measure (27), i.e., E = ‖W '(X -g l (s 0i + s 1j)) ‖ 2 minimizes s 0i, the s 1j, the input X, the weight It is determined every time the matrix W ′ is given, that is, every frame.

【0160】本来は、総当り的に全てのgl(0≦l≦
31)、 0i(0≦i≦31)、 1 j(0≦j≦31)
の組み合せの、32×32×32=32768通りにつ
いてEを求めて、最小のEを与えるgl 0i 1j
組を求めるべきであるが、膨大な演算量となるので、本
実施の形態では、シェイプとゲインのシーケンシャルサ
ーチを行っている。なお、 0i 1jとの組み合せにつ
いては、総当りサーチを行うものとする。これは、32
×32=1024通りである。以下の説明では、簡単化
のため、 0i 1j m と記す。
Originally, all g l (0 ≦ l ≦
31), s 0i (0 ≦ i ≦ 31), s 1 j (0 ≦ j ≦ 31)
It is necessary to find E for 32 × 32 × 32 = 32768 combinations of the above, and find the set of g l , s 0i , and s 1j that gives the minimum E, but this is an enormous amount of calculation. In this form, a sequential search of shape and gain is performed. Note that a brute force search is performed for the combination of s 0i and s 1j . This is 32
× 32 = 1024 patterns. In the following description, for simplicity, the s 0i + s 1j referred to as s m.

【0161】上記(27)式は、E=‖W'(−gl
m)‖2 となる。さらに簡単のため、 w=W' w
=W' m とすると、
[0161] The above equation (27) is, E = ‖W '(X -g l s
m)2 to become. For further simplicity, X w = W 'X, s w
= When W 's m,

【0162】[0162]

【数29】 (Equation 29)

【0163】となる。従って、gl の精度が充分にとれ
ると仮定すると、
It becomes Therefore, assuming that the accuracy of gl is sufficiently high,

【0164】[0164]

【数30】 [Equation 30]

【0165】という2つのステップに分けてサーチする
ことができる。元の表記を用いて書き直すと、
The search can be performed by dividing it into two steps. Rewriting using the original notation,

【0166】[0166]

【数31】 (Equation 31)

【0167】となる。この(35)式が最適エンコード
条件(Nearest Neighbour Condition)である。
It becomes: This equation (35) is the optimum encoding condition (Nearest Neighbor Condition).

【0168】ここで上記(31)、(32)式の条件
(Centroid Condition)と、(35)式の条件を用い
て、LBG(Linde-Buzo-Gray)アルゴリズム、いわゆる
一般化ロイドアルゴリズム(Generalized Lloyd Algori
thm:GLA)によりコードブック(CB0、CB1、C
Bg)を同時にトレーニングできる。
Here, using the conditions (Centroid Condition) of the above equations (31) and (32) and the condition of the equation (35), an LBG (Linde-Buzo-Gray) algorithm, a so-called generalized Lloyd algorithm is used. Algori
thm: GLA) and the codebook (CB0, CB1, C
Bg) can be trained simultaneously.

【0169】ところで、ベクトル量子化器116でのベ
クトル量子化の際の聴覚重み付けに用いられる重みW’
については、上記(26)式で定義されているが、過去
のW’も加味して現在のW’を求めることにより、テン
ポラルマスキングも考慮したW’が求められる。
By the way, the weight W'used for perceptual weighting at the time of vector quantization in the vector quantizer 116.
Is defined by the above equation (26), and W'in consideration of temporal masking is also obtained by obtaining the current W'in consideration of the past W '.

【0170】上記(26)式中のwh(1),wh(2),・・・,w
h(L)に関して、時刻n、すなわち第nフレームで算出さ
れたものをそれぞれwhn(1),whn(2),・・・,whn(L) とす
る。
Wh (1), wh (2), ..., w in the above equation (26)
respect h (L), the time n, that each wh n (1) those which are calculated in the n-th frame, wh n (2), ··· , and wh n (L).

【0171】時刻nで過去の値を考慮した重みをA
n(i)、1≦i≦L と定義すると、 An(i)=λAn-1(i)+(1−λ)whn(i) (whn(i)≦An-1(i)) =whn(i) (whn(i)>An-1(i)) とする。ここで、λは例えばλ=0.2とすればよい。
このようにして求められたAn(i)、1≦i≦L につい
て、これを対角要素とするマトリクスを上記重みとして
用いればよい。
At time n, the weight considering the past value is A
If n (i) and 1 ≦ i ≦ L are defined, A n (i) = λA n-1 (i) + (1-λ) wh n (i) (wh n (i) ≦ A n-1 ( i)) = wh n (i) (wh n (i)> A n-1 (i)). Here, λ may be, for example, λ = 0.2.
For A n (i), 1 ≦ i ≦ L obtained in this way, a matrix having diagonal elements may be used as the weight.

【0172】このように重み付きベクトル量子化により
得られたシェイプインデクス 0i 1jは、出力端子5
20、522からそれぞれ出力され、ゲインインデクス
lは、出力端子521から出力される。また、量子化
0’は、出力端子504から出力されると共に、加
算器505に送られる。
Shape indexes s 0i and s 1j thus obtained by weighted vector quantization are output terminal 5
20, 522, and the gain index gl is output from the output terminal 521. The quantized value X 0 ′ is output from the output terminal 504 and is also sent to the adder 505.

【0173】この加算器505では、出力ベクトル
ら量子化値 0’が減算されて、量子化誤差ベクトル
が生成される。この量子化誤差ベクトルは、具体的に
は、8個のベクトル量子化器5111〜5118から成る
ベクトル量子化部511に送られて、次元分割され、各
ベクトル量子化器5111〜5118で重み付きのベクト
ル量子化が施される。
In this adder 505, the quantized value X 0 'is subtracted from the output vector X , and the quantized error vector Y
Is generated. Specifically, this quantization error vector Y is sent to a vector quantizer 511 composed of eight vector quantizers 511 1 to 511 8 , and is dimensionally divided, and each vector quantizer 511 1 to 511 is quantized. Weighted vector quantization is applied at 8 .

【0174】第2のベクトル量子化部510では、第1
のベクトル量子化部500と比較して、かなり多くのビ
ット数を用いるため、コードブックのメモリ容量及びコ
ードブックサーチのための演算量(Complexity)が非常
に大きくなり、第1のベクトル量子化部500と同じ4
4次元のままでベクトル量子化を行うことは、不可能で
ある。そこで、第2のベクトル量子化部510内のベク
トル量子化部511を複数個のベクトル量子化器で構成
し、入力される量子化値を次元分割して、複数個の低次
元ベクトルとして、重み付きのベクトル量子化を行う。
In the second vector quantizer 510, the first vector quantizer 510
Since a considerably large number of bits are used as compared with the vector quantization unit 500, the memory capacity of the codebook and the amount of calculation (Complexity) for the codebook search become very large, and the first vector quantization unit 500 Same as 500 4
It is impossible to perform vector quantization with four dimensions. Therefore, the vector quantizer 511 in the second vector quantizer 510 is composed of a plurality of vector quantizers, and the input quantized value is dimensionally divided into a plurality of low-dimensional vectors and weighted. Perform vector quantization with.

【0175】ベクトル量子化器5111〜5118で用い
る各量子化値 0 7と、次元数と、ビット数との関係
を、表2に示す。
Table 2 shows the relationship between the quantized values Y 0 to Y 7 used in the vector quantizers 511 1 to 511 8 , the number of dimensions, and the number of bits.

【0176】[0176]

【表2】 [Table 2]

【0177】ベクトル量子化器5111〜5118から出
力されるインデクスIdvq0〜Idvq7は、各出力端
子5231〜5238からそれぞれ出力される。これらの
インデクスの合計は72ビットである。
[0177] index Idvq 0 ~Idvq 7 output from the vector quantizer 511 1 to 511 8 are outputted from the output terminals 523 1 to 523 8. The sum of these indexes is 72 bits.

【0178】また、ベクトル量子化器5111〜5118
から出力される量子化値 0’〜 ’を次元方向に接
続した値を’とすると、加算器513では、量子化値
’と量子化値 ’とが加算されて、量子化値 1
が得られる。よって、この量子化値 1’は、 1 ’= 0’+’ =’ で表される。すなわち、最終的な量子化誤差ベクトル
は、’−となる。
Further, the vector quantizers 511 1 to 511 8
If a value obtained by connecting the quantized values Y 0 'to Y 7 ' in the dimension direction is Y ', the quantized value
Y ′ and the quantized value X 0 ′ are added to each other to obtain the quantized value X 1 ′.
Is obtained. Therefore, the quantized value X 1 ′ is represented by X 1 ′ = X 0 ′ + Y ′ = XY + Y ′. That is, the final quantization error vector is Y'- Y .

【0179】尚、音声信号復号化装置側では、この第2
のベクトル量子化部510からの量子化値 1’を復号
化するときには、第1のベクトル量子化部500からの
量子化値 0’は不要であるが、第1のベクトル量子化
部500及び第2のベクトル量子化部510からのイン
デクスは必要とする。
On the audio signal decoding device side, this second
When decoding the quantized value X 1 'from the vector quantizer 510, the quantized value X 0 ' from the first vector quantizer 500 is unnecessary, but the first vector quantizer 500 And the index from the second vector quantizer 510 is required.

【0180】次に、上記ベクトル量子化部511におけ
る学習法及びコードブックサーチについて説明する。
Next, the learning method and codebook search in the vector quantizer 511 will be described.

【0181】先ず、学習法においては、量子化誤差ベク
トル及び重みW’を用い、表2に示すように、8つの
低次元ベクトル 0 7及びマトリクスに分割する。こ
のとき、重みW’は、例えば44点に間引いたものを対
角要素とする行列、
First, in the learning method, the quantization error vector Y and the weight W'are used to divide into eight low-dimensional vectors Y 0 to Y 7 and a matrix as shown in Table 2. At this time, the weight W ′ is, for example, a matrix having diagonal elements obtained by thinning out 44 points,

【0182】[0182]

【数32】 (Equation 32)

【0183】とすると、以下の8つの行列に分割され
る。
Then, it is divided into the following eight matrices.

【0184】[0184]

【数33】 [Equation 33]

【0185】このように、及びW’の低次元に分割さ
れたものを、それぞれ i 、Wi’ (1≦i≦8) とする。
The low-dimensional divisions of Y and W'in this way are defined as Y i and W i '(1≤i≤8), respectively.

【0186】ここで、歪尺度Eを、 E=‖Wi'( i)‖2 ・・・(37) と定義する。このコードベクトル iの量子化結果
であり、歪尺度Eを最小化する、コードブックのコード
ベクトルがサーチされる。
Here, the distortion measure E is defined as E = ‖W i '( Y is ) ‖ 2 ... (37). This code vector s is the quantization result of Y i , and the code vector s of the codebook that minimizes the distortion measure E is searched.

【0187】尚、Wi’は、学習時には重み付けがあ
り、サーチ時には重み付け無し、すなわち単位行列と
し、学習時とコードブックサーチ時とでは異なる値を用
いるようにしてもよい。
Note that W i ′ may be weighted at the time of learning and not weighted at the time of searching, that is, may be a unit matrix, and different values may be used at the time of learning and at the time of codebook search.

【0188】また、コードブックの学習では、一般化ロ
イドアルゴリズム(GLA)を用い、さらに重み付けを
行っている。先ず、学習のための最適なセントロイドコ
ンディションについて説明する。コードベクトルを最
適な量子化結果として選択した入力ベクトルがM個あ
る場合に、トレーニングデータを kとすると、歪の期
待値Jは、全てのフレームkに関して重み付け時の歪の
中心を最小化するような(38)式となる。
In the codebook learning, a generalized Lloyd algorithm (GLA) is used and further weighting is performed. First, an optimal centroid condition for learning will be described. When there are M input vectors Y in which the code vector s is selected as the optimum quantization result, and the training data is Y k , the expected value J of the distortion is that the center of the distortion at the time of weighting is the minimum for all frames k. The equation (38) becomes

【0189】[0189]

【数34】 (Equation 34)

【0190】上記(39)式で示すは最適な代表ベク
トルであり、最適なセントロイドコンディションであ
る。
S shown in the above equation (39) is an optimum representative vector, which is an optimum centroid condition.

【0191】また、最適エンコード条件は、‖Wi'(
i)‖2 の値を最小化するをサーチすればよい。
ここで、サーチ時のWi'は、必ずしも学習時と同じWi'
である必要はなく、重み無しで
The optimum encoding condition is ‖W i '( Y
It is sufficient to search for s that minimizes the value of is ) ‖ 2 .
Here, W i 'at the time of searching is not always the same as W i ' at the time of learning.
Need not be, with no weight

【0192】[0192]

【数35】 (Equation 35)

【0193】のマトリクスとしてもよい。The matrix of may be used.

【0194】このように、音声信号符号化装置内のベク
トル量子化部116を2段のベクトル量子化部から構成
することにより、出力するインデクスのビット数を可変
にすることができる。
As described above, by configuring the vector quantizer 116 in the speech signal coding apparatus with the two-stage vector quantizer, the number of bits of the output index can be made variable.

【0195】次に、本発明の前記CELP符号化構成を
用いた第2の符号化部120は、より具体的には図9に
示すような、多段のベクトル量子化処理部(図9の例で
は2段の符号化部1201と1202)の構成を有するも
のとなされている。なお、当該図9の構成は、伝送ビッ
トレートを例えば前記2kbpsと6kbpsとで切り
換え可能な場合において、6kbpsの伝送ビットレー
トに対応した構成を示しており、さらにシェイプ及びゲ
インインデクス出力を23ビット/5msecと15ビ
ット/5msecとで切り換えられるようにしているも
のである。また、この図9の構成における処理の流れは
図10に示すようになっている。
Next, the second coding unit 120 using the CELP coding structure of the present invention is more specifically a multi-stage vector quantization processing unit (example of FIG. 9) as shown in FIG. In the above, the two-stage encoding units 120 1 and 120 2 ) are included. The configuration of FIG. 9 shows a configuration corresponding to a transmission bit rate of 6 kbps when the transmission bit rate can be switched between 2 kbps and 6 kbps, for example, and the shape and gain index output are 23 bits / The switching is made between 5 msec and 15 bits / 5 msec. The flow of processing in the configuration of FIG. 9 is as shown in FIG.

【0196】この図9において、例えば、図9の第1の
符号化部200は前記図3の第1の符号化部113と略
々対応し、図9のLPC分析回路302は前記図3に示
したLPC分析回路132と対応し、図9のLSPパラ
メータ量子化回路303は図3の前記α→LSP変換回
路133からLSP→α変換回路137までの構成と対
応し、図9の聴覚重み付けフィルタ304は図3の前記
聴覚重み付けフィルタ算出回路139及び聴覚重み付け
フィルタ125と対応している。したがって、この図9
において、端子305には前記図3の第1の符号化部1
13のLSP→α変換回路137からの出力と同じもの
が供給され、また、端子307には前記図3の聴覚重み
付けフィルタ算出回路139からの出力と同じものが、
端子306には前記図3の聴覚重み付けフィルタ125
からの出力と同じものが供給される。ただし、この図5
の聴覚重み付けフィルタ304では、前記図3の聴覚重
み付けフィルタ125とは異なり、前記LSP→α変換
回路137の出力を用いずに、入力音声データと量子化
前のαパラメータとから、前記聴覚重み付けした信号
(すなわち前記図3の聴覚重み付けフィルタ125から
の出力と同じ信号)を生成している。
In FIG. 9, for example, the first encoding unit 200 of FIG. 9 substantially corresponds to the first encoding unit 113 of FIG. 3, and the LPC analysis circuit 302 of FIG. Corresponding to the LPC analysis circuit 132 shown, the LSP parameter quantization circuit 303 of FIG. 9 corresponds to the configuration from the α → LSP conversion circuit 133 to the LSP → α conversion circuit 137 of FIG. Reference numeral 304 corresponds to the auditory weighting filter calculation circuit 139 and the auditory weighting filter 125 of FIG. Therefore, this FIG.
At the terminal 305, the first encoding unit 1 of FIG.
The same output from the LSP → α conversion circuit 137 of FIG. 13 is supplied, and the same output from the auditory weighting filter calculation circuit 139 of FIG. 3 is supplied to the terminal 307.
At the terminal 306, the perceptual weighting filter 125 of FIG.
The same output from is supplied. However, FIG.
Unlike the perceptual weighting filter 125 of FIG. 3, the perceptual weighting filter 304 of FIG. 3 performs the perceptual weighting from the input voice data and the α parameter before quantization without using the output of the LSP → α conversion circuit 137. Signal (ie, the same signal as the output from the perceptual weighting filter 125 of FIG. 3 above).

【0197】また、この図9に示す2段構成の第2の符
号化部1201及び1202において、減算器313及び
323は図3の減算器123と対応し、距離計算回路3
14及び324は図3の距離計算回路124と、ゲイン
回路311及び321は図3のゲイン回路126と、ス
トキャスティックコードブック310,320及びゲイ
ンコードブック315,325は図3の雑音符号帳12
1とそれぞれ対応している。
In addition, in the two-stage second coding units 120 1 and 120 2 shown in FIG. 9, the subtractors 313 and 323 correspond to the subtractor 123 of FIG. 3, and the distance calculation circuit 3
Reference numerals 14 and 324 denote the distance calculation circuit 124 of FIG. 3, gain circuits 311 and 321 denote the gain circuit 126 of FIG. 3, and stochastic codebooks 310 and 320 and gain codebooks 315 and 325 denote the noise codebook 12 of FIG.
It corresponds to 1 respectively.

【0198】このような図9の構成において、先ず、図
10のステップS1に示すように、LPC分析回路30
2では、端子301から供給された入力音声データ
前述同様に適当なフレームに分割してLPC分析を行
い、αパラメータを求める。LSPパラメータ量子化回
路303では、上記LPC分析回路302からのαパラ
メータをLSPパラメータに変換して量子化し、さらに
この量子化したLSPパラメータを補間した後、αパラ
メータに変換する。次に、当該LSPパラメータ量子化
回路303では、当該量子化したLSPパラメータを変
換したαパラメータ、すなわち量子化されたαパラメー
タから、LPC合成フィルタ関数1/H(z)を生成
し、これを端子305を介して1段目の第2の符号化部
1201の聴覚重み付き合成フィルタ312に送る。
In the configuration of FIG. 9 as described above, first, as shown in step S1 of FIG.
In 2, the input voice data x supplied from the terminal 301 is divided into appropriate frames as described above and LPC analysis is performed to obtain the α parameter. The LSP parameter quantization circuit 303 converts the α parameter from the LPC analysis circuit 302 into an LSP parameter, quantizes the LSP parameter, interpolates the quantized LSP parameter, and converts it into an α parameter. Next, the LSP parameter quantizing circuit 303 generates an LPC synthesis filter function 1 / H (z) from the α parameter obtained by converting the quantized LSP parameter, that is, the quantized α parameter. 305 via a letter to the second encoding unit 120 1 of the perceptually weighted synthesis filter 312 of the first stage.

【0199】一方、聴覚重み付けフィルタ304では、
LPC分析回路302からのαパラメータ(すなわち量
子化前のαパラメータ)から、前記図3の聴覚重み付け
フィルタ算出回路139によるものと同じ聴覚重み付け
のためのデータを求め、この重み付けのためのデータが
端子307を介して、1段目の第2の符号化部1201
の聴覚重み付き合成フィルタ312に送られる。また、
当該聴覚重み付けフィルタ304では、図10のステッ
プS2に示すように、入力音声データと量子化前のαパ
ラメータとから、前記聴覚重み付けした信号(前記図3
の聴覚重み付けフィルタ125からの出力と同じ信号)
を生成する。すなわち、先ず、量子化前のαパラメータ
から聴覚重み付けフィルタ関数W(z)を生成し、さら
に入力音声データに当該フィルタ関数W(z)をかけ
Wを生成し、これを上記聴覚重み付けした信号とし
て、端子306を介して1段目の第2の符号化部120
1の減算器313に送る。
On the other hand, in the perceptual weighting filter 304,
From the α parameter from the LPC analysis circuit 302 (that is, the α parameter before quantization), the same data for perceptual weighting as obtained by the perceptual weighting filter calculation circuit 139 in FIG. 3 is obtained. 307, the second encoding unit 120 1 in the first stage
To the auditory weighted synthesis filter 312. Also,
In the perceptual weighting filter 304, as shown in step S2 in FIG. 10, the perceptually weighted signal (see FIG. 3 above) is calculated from the input voice data and the α parameter before quantization.
The same signal as the output from the auditory weighting filter 125)
Generate That is, first, the perceptual weighting filter function W (z) is generated from the α parameter before quantization, the input audio data x is further multiplied by the filter function W (z) to generate x W, and the perceptual weighting is performed. As a generated signal via the terminal 306 to the second encoding unit 120 of the first stage.
1 to the subtractor 313.

【0200】1段目の第2の符号化部1201では、9
ビットシェイプインデクス出力のストキャスティックコ
ードブック(stochastic code book)310からの代表
値出力(無声音のLPC残差に相当するノイズ出力)が
ゲイン回路311に送られ、このゲイン回路311に
て、ストキャスティックコードブック310からの代表
値出力に6ビットゲインインデクス出力のゲインコード
ブック315からのゲイン(スカラ値)を乗じ、このゲ
イン回路311にてゲインが乗じられた代表値出力が、
1/A(z)=(1/H(z))・W(z)の聴覚重み
付きの合成フィルタ312に送られる。この重み付きの
合成フィルタ312からは、図10のステップS3のよ
うに、1/A(z)のゼロ入力応答出力が減算器313
に送られる。当該減算器313では、上記聴覚重み付き
合成フィルタ312からのゼロ入力応答出力と、上記聴
覚重み付けフィルタ304からの上記聴覚重み付けした
信号 Wとを用いた減算が行われ、この差分或いは誤差
が参照ベクトルとして取り出される。図10のステッ
プS4に示すように、1段目の第2の符号化部1201
でのサーチ時には、この参照ベクトルが、距離計算回
路314に送られ、ここで距離計算が行われ、量子化誤
差エネルギEを最小にするシェイプベクトルとゲイン
gがサーチされる。ただし、ここでの1/A(z)はゼ
ロ状態である。すなわち、コードブック中のシェイプベ
クトルをゼロ状態の1/A(z)で合成したものを
synとするとき、式(40)を最小にするシェイプベク
トルとゲインgをサーチする。
In the second encoding section 120 1 of the first stage, 9
A representative value output (a noise output corresponding to the LPC residual of unvoiced sound) from the stochastic code book 310 of the bit shape index output is sent to the gain circuit 311, and the stochastic code is output from the gain circuit 311. The representative value output from the book 310 is multiplied by the gain (scalar value) from the gain codebook 315 of the 6-bit gain index output, and the representative value output multiplied by the gain in the gain circuit 311 is:
1 / A (z) = (1 / H (z)) · W (z) is sent to the synthesis filter 312 with the auditory weight. From the weighted synthesis filter 312, the zero input response output of 1 / A (z) is subtracted by the subtractor 313 as in step S3 of FIG.
Sent to In the subtractor 313, the zero-input response output from the auditory weighting synthesis filter 312, is subtracted with the above perceptually weighted signal x W from the perceptually weighted filter 304 is performed, the difference or error reference Extracted as a vector r . As shown in step S4 of FIG. 10, the second encoding unit 120 1 in the first stage
At the time of the search, the reference vector r is sent to the distance calculation circuit 314, where the distance calculation is performed, and the shape vector s and the gain g that minimize the quantization error energy E are searched. Here, 1 / A (z) is in a zero state. That is, the shape vector s in the codebook is synthesized by 1 / A (z) of the zero state to s
When syn is set, a shape vector s and a gain g that minimize Expression (40) are searched.

【0201】[0201]

【数36】 [Equation 36]

【0202】ここで、量子化誤差エネルギEを最小とす
とgをフルサーチしてもよいが、計算量を減らすた
めに、以下のような方法をとることができる。
Here, s and g which minimize the quantization error energy E may be fully searched, but the following method can be adopted in order to reduce the amount of calculation.

【0203】第1の方法として、以下の式(41)に定
義するEsを最小とするシェイプベクトルをサーチす
る。
As a first method, a shape vector s that minimizes E s defined in the following equation (41) is searched for.

【0204】[0204]

【数37】 (37)

【0205】第2の方法として、第1の方法により得ら
れたより、理想的なゲインは、式(42)のようにな
るから、式(43)を最小とするgをサーチする。
As the second method, since the ideal gain is as shown in equation (42) from s obtained by the first method, g which minimizes equation (43) is searched for.

【0206】[0206]

【数38】 (38)

【0207】 Eg=(gref−g)2 (43) ここで、Eはgの二次関数であるから、Egを最小にす
るgはEを最小化する。
E g = (g ref −g) 2 (43) Here, since E is a quadratic function of g , g that minimizes E g minimizes E.

【0208】上記第1,第2の方法によって得られた
とgより、量子化誤差ベクトル(n)は次の式(4
4)のように計算できる。
S obtained by the above first and second methods
And g, the quantization error vector e (n) is given by the following equation (4
It can be calculated as in 4).

【0209】 (n)=(n)−g syn(n) (44) これを、2段目の第2の符号化部1202のリファレン
ス入力として1段目と同様にして量子化する。
E (n) = r (n) −g s syn (n) (44) Quantize this as the reference input of the second-stage second encoding unit 120 2 in the same manner as in the first-stage. To do.

【0210】すなわち、上記1段目の第2の符号化部1
201の聴覚重み付き合成フィルタ312からは、端子
305及び端子307に供給された信号がそのまま2段
目の第2の符号化部1202の聴覚重み付き合成フィル
タ322に送られる。また、当該2段目の第2の符号化
部1202減算器323には、1段目の第2の符号化部
1201にて求めた上記量子化誤差ベクトル(n)が
供給される。
That is, the second encoding unit 1 in the first stage
From 20 1 of the auditory weighting synthesis filter 312 is sent to the second perceptually weighted synthesis filter 322 of the encoding unit 120 2 of the signal supplied to the terminal 305 and the terminal 307 as the second stage. Further, the quantization error vector e (n) obtained by the second encoding unit 120 1 of the first stage is supplied to the second encoding unit 120 2 subtractor 323 of the second stage. .

【0211】次に、図10のステップS5において、当
該2段目の第2の符号化部1202でも1段目と同様に
処理が行われる。すなわち、5ビットシェイプインデク
ス出力のストキャスティックコードブック320からの
代表値出力がゲイン回路321に送られ、このゲイン回
路321にて、当該コードブック320からの代表値出
力に3ビットゲインインデクス出力のゲインコードブッ
ク325からのゲインを乗じ、このゲイン回路321の
出力が、聴覚重み付きの合成フィルタ322に送られ
る。当該重み付きの合成フィルタ322からの出力は減
算器323に送られ、当該減算器323にて上記聴覚重
み付き合成フィルタ322からの出力と1段目の量子化
誤差ベクトル(n)との差分が求められ、この差分が
距離計算回路324に送られてここで距離計算が行わ
れ、量子化誤差エネルギEを最小にするシェイプベクト
とゲインgがサーチされる。
Next, in step S5 of FIG. 10, the second coding section 120 2 in the second stage also performs the same processing as in the first stage. That is, a representative value output from the stochastic codebook 320 of the 5-bit shape index output is sent to the gain circuit 321, and the gain of the 3-bit gain index output is added to the representative value output from the codebook 320 by the gain circuit 321. The output from the gain circuit 321 is multiplied by the gain from the codebook 325 and sent to a synthesis filter 322 with auditory weights. The output from the weighted synthesis filter 322 is sent to the subtractor 323, and the subtractor 323 outputs the difference between the output from the auditory weighted synthesis filter 322 and the first-stage quantization error vector e (n). Is calculated, and this difference is sent to the distance calculation circuit 324 where distance calculation is performed, and the shape vector s and the gain g that minimize the quantization error energy E are searched.

【0212】上述したような1段目の第2の符号化部1
201のストキャストコードブック310からのシェイ
プインデクス出力及びゲインコードブック315からの
ゲインインデクス出力と、2段目の第2の符号化部12
2のストキャストコードブック320からのインデク
ス出力及びゲインコードブック325からのインデクス
出力は、インデクス出力切り換え回路330に送られる
ようになっている。ここで、当該第2の符号化部120
から前記23ビット出力を行うときには、上記1段目と
2段目の第2の符号化部1201及び1202のストキャ
ストコードブック310,320及びゲインコードブッ
ク315,325からの各インデクスを合わせて出力
し、一方、前記15ビット出力を行うときには、上記1
段目の第2の符号化部1201のストキャストコードブ
ック310とゲインコードブック315からの各インデ
クスを出力する。
The second-stage coding unit 1 in the first stage as described above
20 1 of the gain index output from the shape index output and the gain codebook 315 of the strike cast codebook 310, second encoding unit 12 of the second stage
0 index output from the index output and the gain codebook 325 of the second strike cast codebook 320 are sent to the index output switching circuit 330. Here, the second encoding unit 120
When performing the 23-bit output from, the indexes from the astcast codebooks 310 and 320 and the gain codebooks 315 and 325 of the first-stage and second-stage second encoding units 120 1 and 120 2 are combined. When the 15-bit output is performed, the above 1
The respective indexes from the cast code codebook 310 and the gain codebook 315 of the second encoding unit 120 1 in the second stage are output.

【0213】その後は、ステップS6のようにフィルタ
状態がアップデートされる。
After that, the filter state is updated as in step S6.

【0214】ところで、本実施の形態では、2段目の第
2の符号化部1202のインデクスビット数が、シェイ
プベクトルについては5ビットで、ゲインについては3
ビットと非常に少ない。このような場合、適切なシェイ
プ、ゲインがコードブックに存在しないと、量子化誤差
を減らすどころか逆に増やしてしまう可能性がある。
By the way, in the present embodiment, the number of index bits of the second coding section 120 2 in the second stage is 5 bits for the shape vector and 3 for the gain.
A bit and very little. In such a case, if the appropriate shape and gain do not exist in the codebook, the quantization error may be increased rather than reduced.

【0215】この問題を防ぐためには、ゲインに0を用
意しておけばよいが、ゲインは3ビットしかなく、その
うちの一つを0にしてしまうのは量子化器の性能を大き
く低下させてしまう。そこで、比較的多いビット数を割
り当てたシェイプベクトルに、要素が全て0のベクトル
を用意する。そして、このゼロベクトルを除いて、前述
のサーチを行い、量子化誤差が最終的に増えてしまった
場合に、ゼロベクトルを選択するようにする。なお、こ
のときのゲインは任意である。これにより、2段目の第
2の符号化部1202が量子化誤差を増すことを防ぐこ
とができる。
To prevent this problem, it is sufficient to prepare 0 for the gain, but the gain has only 3 bits, and making one of them 0 makes the performance of the quantizer largely deteriorate. I will end up. Therefore, a vector having all zero elements is prepared for a shape vector to which a relatively large number of bits are allocated. Then, the above-described search is performed excluding the zero vector, and when the quantization error finally increases, the zero vector is selected. The gain at this time is arbitrary. Thus, second-stage second encoding unit 120 2 can be prevented from increasing the quantization error.

【0216】なお、図9の例では、2段構成の場合を例
に挙げているが、2段に限らず複数段構成とすることが
できる。この場合、1段目のクローズドループサーチに
よるベクトル量子化が終了したら、N段目(2≦N)で
はN−1段目の量子化誤差をリファレンス入力として量
子化を行い、さらにその量子化誤差をN+1段目のリフ
ァレンス入力とする。
In the example of FIG. 9, the case of a two-stage configuration is taken as an example, but the number of stages is not limited to two, and a multi-stage configuration is also possible. In this case, when the vector quantization by the closed loop search of the first stage is completed, the Nth stage (2 ≦ N) performs the quantization with the quantization error of the N−1th stage as a reference input, and further the quantization error. Is the N + 1th stage reference input.

【0217】上述したように、図9及び図10から、第
2の符号化部に多段のベクトル量子化器を用いることに
より、従来のような同じビット数のストレートベクトル
量子化や共役コードブックなどを用いたものと比較し
て、計算量が少なくなる。特に、CELP符号化では、
合成による分析(Analysis by Synthesis )法を用いた
クローズドループサーチを用いた時間軸波形のベクトル
量子化を行っているため、サーチの回数が少ないことが
重要である。また、2段の第2の符号化部1201と1
202の両インデクス出力を用いる場合と、1段目の第
2の符号化部1201のインデクス出力のみを用いる
(2段目の第2の符号化部1202の出力インデクスを
用いない)場合とを切り換えることにより、簡単にビッ
ト数を切り換えることが可能となっている。さらに上述
したように、1段目と2段目の第2の符号化部1201
と1202の両インデクス出力を合わせて出力するよう
なことを行えば、後のデコーダ側において例えば何れか
を選ぶようにすることで、デコーダ側でも容易に対応で
きることになる。すなわち例えば6kbpsでエンコー
ドしたパラメータを、2kbpsのデコーダでデコード
するときに、デコーダ側で容易に対応できることにな
る。またさらに、例えば2段目の第2の符号化部120
2のシェイプコードブックにゼロベクトルを含ませるこ
とにより、割り当てられたビット数が少ない場合でも、
ゲインに0を加えるよりは少ない性能劣化で量子化誤差
が増加することを防ぐことが可能となっている。
As described above, from FIG. 9 and FIG. 10, by using a multi-stage vector quantizer in the second coding unit, straight vector quantization with the same number of bits and a conjugate codebook as in the conventional art are performed. The amount of calculation is smaller than that using. In particular, in CELP coding,
Since the vector quantization of the time-axis waveform is performed using a closed-loop search using an analysis by synthesis method, it is important that the number of searches is small. Also, two-stage second encoding units 120 1 and 120 1
20 in the case of using both index outputs of the 2, (not using the second output index encoding unit 120 2 of the second stage) of the first-stage second encoding unit 120 using only one index output when The number of bits can be easily switched by switching between. Further, as described above, the second encoding units 120 1 in the first and second stages
If by performing the like and outputs the combined both index outputs of 120 2, by to choose one example the decoder side after, so that can be easily associated with the decoder side. That is, for example, when a parameter encoded at 6 kbps is decoded by a 2 kbps decoder, the decoder can easily cope with it. Further, for example, the second encoding unit 120 at the second stage
By including a zero vector in the shape codebook of 2 , even if the number of allocated bits is small,
It is possible to prevent the quantization error from increasing with less performance degradation than adding 0 to the gain.

【0218】次に、上記ストキャスティックコードブッ
クのコードベクトル(シェイプベクトル)は例えば以下
のようにして生成することができる。
Next, the code vector (shape vector) of the above stochastic code book can be generated as follows, for example.

【0219】例えば、ストキャスティックコードブック
のコードベクトルは、いわゆるガウシアンノイズのクリ
ッピングにより生成することができる。具体的には、ガ
ウシアンノイズを発生させ、これを適当なスレシホール
ド値でクリッピングし、それを正規化することで、コー
ドブックを構成することができる。
For example, the stochastic codebook code vector can be generated by so-called Gaussian noise clipping. More specifically, a codebook can be constructed by generating Gaussian noise, clipping it with an appropriate threshold value, and normalizing it.

【0220】ところが、音声には様々な形態があり、例
えば「さ,し,す,せ,そ」のようなノイズに近い子音
の音声には、ガウシアンノイズが適しているが、例えば
「ぱ,ぴ,ぷ,ぺ,ぽ」のような立ち上がりの激しい子
音(急峻な子音)の音声については、対応しきれない。
However, there are various forms of voice, and Gaussian noise is suitable for consonant voices that are close to noise such as "sa, shi, su, se, so". It is not possible to deal with consonant sounds with a sharp rise (a sharp consonant sound) such as "pi, pu, pe, po".

【0221】そこで、本発明では、全コードベクトルの
うち、適当な数はガウシアンノイズとし、残りを学習に
より求めて上記立ち上がりの激しい子音とノイズに近い
子音の何れにも対応できるようにする。例えば、スレシ
ホールド値を大きくとると、大きなピークを幾つか持つ
ようなベクトルが得られ、一方、スレシホールド値を小
さくとると、ガウシアンノイズそのものに近くなる。し
たがって、このようにクリッピングスレシホールド値の
バリエーションを増やすことにより、例えば「ぱ,ぴ,
ぷ,ぺ,ぽ」のような立ち上がりの激しい子音や、例え
ば「さ,し,す,せ,そ」のようなノイズに近い子音な
どに対応でき、明瞭度を向上させることができるように
なる。なお、図11には、図中実線で示すガウシアンノ
イズと図中点線で示すクリッピング後のノイズの様子を
示している。また、図11の(A)はクリッピングスレ
シホールド値が1.0の場合(すなわちスレシホールド
値が大きい場合)を、図11の(B)にはクリッピング
スレシホールド値が0.4の場合(すなわちスレシホー
ルド値が小さい場合)を示している。この図11の
(A)及び(B)から、スレシホールド値を大きくとる
と、大きなピークを幾つか持つようなベクトルが得ら
れ、一方、スレシホールド値を小さくとると、ガウシア
ンノイズそのものに近くなることが判る。
Therefore, in the present invention, an appropriate number of all code vectors is Gaussian noise, and the rest is obtained by learning so as to be able to deal with both the consonant with a sharp rise and the consonant close to noise. For example, when the threshold value is increased, a vector having several large peaks is obtained. On the other hand, when the threshold value is decreased, the vector approaches Gaussian noise itself. Therefore, by increasing the variation of the clipping threshold value in this way, for example, “ぱ, ぴ,
ぷ, ぺ, ぽ ”and consonants with a sharp rise, such as consonants close to noise such as さ, ,, ,, ,, ,, な ど, etc., thereby improving clarity. . Note that FIG. 11 shows the Gaussian noise shown by the solid line in the figure and the noise after clipping shown by the dotted line in the figure. Further, (A) of FIG. 11 shows a case where the clipping threshold value is 1.0 (that is, a large threshold value), and (B) of FIG. 11 shows that the clipping threshold value is 0.4. The case (that is, the case where the threshold value is small) is shown. From FIGS. 11A and 11B, when the threshold value is increased, a vector having several large peaks is obtained, while when the threshold value is decreased, Gaussian noise itself is generated. It turns out that it will be close.

【0222】このようなことを実現するため、先ず、ガ
ウシアンノイズのクリッピングにより初期コードブック
を構成し、さらに予め適当な数だけ学習を行わないコー
ドベクトルを決めておく。この学習しないコードベクト
ルは、その分散値が小さいものから順に選ぶようにす
る。これは、例えば「さ,し,す,せ,そ」のようなノ
イズに近い子音に対応させるためである。一方、学習を
行って求めるコードベクトルは、当該学習のアルゴリズ
ムとしてLBGアルゴリズムを用いるようにする。ここ
で最適エンコード条件(Nearest Neighbour Conditio
n)でのエンコードは固定したコードベクトルと、学習
対象のコードベクトル両方を使用して行う。セントロイ
ドコンディション(Centroid Condition)においては、
学習対象のコードベクトルのみをアップデートする。こ
れにより、学習対象となったコードベクトルは「ぱ,
ぴ,ぷ,ぺ,ぽ」などの立ち上がりの激しい子音に対応
するようになる。
In order to realize such a thing, first, an initial codebook is constructed by clipping Gaussian noise, and an appropriate number of code vectors which are not learned are determined in advance. The non-learned code vectors are selected in ascending order of variance. This is to make it correspond to a consonant close to noise, for example, "sa, shi, su, se, so". On the other hand, the code vector obtained by performing the learning uses the LBG algorithm as the learning algorithm. Here is the optimal encoding condition (Nearest Neighbor Conditio
Encoding in n) is performed using both the fixed code vector and the code vector to be learned. In the Centroid Condition,
Update only the code vector to be learned. As a result, the code vector to be learned is “ぱ,
ぴ, ぷ, ぺ, ぽ ”and so on.

【0223】なお、ゲインは通常通りの学習を行うこと
で、これらのコードベクトルに対して最適なものが学習
できる。
The gain can be learned optimally with respect to these code vectors by performing learning as usual.

【0224】上述したガウシアンノイズのクリッピング
によるコードブックの構成のための処理の流れを図12
に示す。
FIG. 12 shows the flow of processing for constructing the codebook by clipping the Gaussian noise described above.
Shown in

【0225】この図12において、ステップS10で
は、初期化として、学習回数n=0とし、誤差D0=∞
とし、最大学習回数nmaxを決定し、学習終了条件を決
めるスレシホールド値εを決定する。
In FIG. 12, in step S10, as the initialization, the learning number n = 0 and the error D 0 = ∞
The maximum learning number n max is determined, and the threshold value ε that determines the learning end condition is determined.

【0226】次のステップS11では、ガウシアンノイ
ズのクリッピングによる初期コードブックを生成し、ス
テップS12では学習を行わないコードベクトルとして
一部のコードベクトルを固定する。
In the next step S11, an initial codebook is generated by clipping Gaussian noise, and in step S12, some code vectors are fixed as non-learned code vectors.

【0227】次にステップS13では上記コードブック
を用いてエンコードを行い、ステップS14では誤差を
算出し、ステップS15では(Dn-1−Dn)/Dn
ε、若しくはn=nmaxか否かを判断し、Yesと判断
した場合には処理を終了し、Noと判断した場合にはス
テップS16に進む。
Next, in step S13, the above codebook is used for encoding, in step S14 an error is calculated, and in step S15, (D n-1 -D n ) / D n <
It is determined whether or not ε or n = nmax . If the determination is Yes, the process ends. If the determination is No, the process proceeds to step S16.

【0228】ステップS16ではエンコードに使用され
なかったコードベクトルの処理を行い、次のステップS
17ではコードブックのアップデートを行う。次にステ
ップS18では学習回数nを1インクリメントし、その
後ステップS13に戻る。
In step S16, the code vector not used for encoding is processed, and the next step S16 is executed.
At 17, the code book is updated. Next, in step S18, the number of times of learning n is incremented by one, and thereafter, the process returns to step S13.

【0229】以上説明したような信号符号化装置及び信
号復号化装置は、例えば図13及び図14に示すような
携帯通信端末あるいは携帯電話機等に使用される音声コ
ーデックとして用いることができる。
The signal coding apparatus and the signal decoding apparatus as described above can be used as an audio codec used in, for example, a mobile communication terminal or a mobile phone as shown in FIGS. 13 and 14.

【0230】すなわち、図13は、上記図1、図3に示
したような構成を有する音声符号化部160を用いて成
る携帯端末の送信側構成を示している。この図13のマ
イクロホン161で集音された音声信号は、アンプ16
2で増幅され、A/D(アナログ/ディジタル)変換器
163でディジタル信号に変換されて、音声符号化部1
60に送られる。この音声符号化部160は、上述した
図1、図3に示すような構成を有しており、この入力端
子101に上記A/D変換器163からのディジタル信
号が入力される。音声符号化部160では、上記図1、
図3と共に説明したような符号化処理が行われ、図1、
図2の各出力端子からの出力信号は、音声符号化部16
0の出力信号として、伝送路符号化部164に送られ
る。伝送路符号化部164では、いわゆるチャネルコー
ディング処理が施され、その出力信号が変調回路165
に送られて変調され、D/A(ディジタル/アナログ)
変換器166、RFアンプ167を介して、アンテナ1
68に送られる。
That is, FIG. 13 shows a transmitting side configuration of a mobile terminal using the voice encoding unit 160 having the configuration as shown in FIGS. 1 and 3 above. The audio signal collected by the microphone 161 of FIG.
2 and is converted to a digital signal by an A / D (analog / digital) converter 163.
Sent to 60. The audio encoding section 160 has a configuration as shown in FIGS. 1 and 3 described above, and a digital signal from the A / D converter 163 is input to the input terminal 101. In the audio encoding unit 160, FIG.
The encoding process described with reference to FIG. 3 is performed, and FIG.
An output signal from each output terminal of FIG.
The output signal of 0 is sent to the transmission path coding unit 164. In the transmission path coding section 164, a so-called channel coding process is performed, and the output signal is output to the modulation circuit 165.
Is sent to the D / A (Digital / Analog)
Antenna 1 via converter 166 and RF amplifier 167
68.

【0231】また、図14は、上記図2、図4に示した
ような構成を有する音声復号化部260を用いて成る携
帯端末の受信側構成を示している。この図14のアンテ
ナ261で受信された音声信号は、RFアンプ262で
増幅され、A/D(アナログ/ディジタル)変換器26
3を介して、復調回路264に送られ、復調信号が伝送
路復号化部265に送られる。264からの出力信号
は、上記図2、図4に示すような構成を有する音声復号
化部260に送られる。音声復号化部260では、上記
図2、図4と共に説明したような復号化処理が施され、
図2、図4の出力端子201からの出力信号が、音声復
号化部260からの信号としてD/A(ディジタル/ア
ナログ)変換器266に送られる。このD/A変換器2
66からのアナログ音声信号がスピーカ268に送られ
る。
Further, FIG. 14 shows the configuration of the receiving side of a portable terminal using the speech decoding unit 260 having the configuration as shown in FIGS. The audio signal received by the antenna 261 of FIG. 14 is amplified by the RF amplifier 262, and the A / D (analog / digital) converter 26
3, the signal is sent to the demodulation circuit 264, and the demodulated signal is sent to the transmission path decoding unit 265. The output signal from the H.264 is sent to the audio decoding unit 260 having the configuration as shown in FIGS. The audio decoding unit 260 performs the decoding process as described with reference to FIGS.
The output signal from the output terminal 201 in FIGS. 2 and 4 is sent to the D / A (digital / analog) converter 266 as a signal from the audio decoding unit 260. This D / A converter 2
The analog audio signal from 66 is sent to the speaker 268.

【0232】なお、本発明は上記実施の形態のみに限定
されるものではなく、例えば音声分析側(エンコード
側)の構成や、音声合成側(デコード側)の構成につい
ては、各部をハードウェア的に記載しているが、いわゆ
るDSP(ディジタル信号プロセッサ)等を用いてソフ
トウェアプログラムにより実現することも可能である。
また、上記ベクトル量子化の代わりに、複数フレームの
データをまとめてマトリクス量子化を施してもよい。さ
らに、本発明が適用される音声符号化方法やこれに対応
する復号化方法は、上記マルチバンド励起を用いた音声
分析/合成方法に限定されるものではなく、有声音部分
に正弦波合成を用いたり、無声音部分をノイズ信号に基
づいて合成するような種々の音声分析/合成方法に適用
でき、用途としても、伝送や記録再生に限定されず、ピ
ッチ変換やスピード変換、規則音声合成、あるいは雑音
抑圧のような種々の用途に応用できることは勿論であ
る。
Note that the present invention is not limited to the above-described embodiment. For example, regarding the configuration on the voice analysis side (encoding side) and the configuration on the voice synthesis side (decoding side), each unit is hardware-based. However, it is also possible to realize it by a software program using a so-called DSP (digital signal processor) or the like.
Also, instead of the vector quantization, the data of a plurality of frames may be collectively subjected to matrix quantization. Furthermore, the speech coding method and the corresponding decoding method to which the present invention is applied are not limited to the speech analysis / synthesis method using the multi-band excitation described above. It can be used or applied to various voice analysis / synthesis methods such as synthesizing an unvoiced part based on a noise signal, and the application is not limited to transmission and recording / reproduction, and pitch conversion, speed conversion, regular voice synthesis, or Of course, it can be applied to various applications such as noise suppression.

【0233】[0233]

【発明の効果】以上の説明から明らかなように、本発明
に係る音声符号化方法によれば、合成による分析法を用
いて最適ベクトルのクローズドループサーチによる時間
軸波形のベクトル量子化を行う符号化を複数段有し、こ
のうちN段目の符号化の際には、N−1段目の量子化誤
差をリファレンス入力とし、各段の符号化による量子化
出力を選択してビットレートを切り換えることにより、
伝送ビットレートを簡単に切り換えることができると共
に、符号化側と復号化側とでビットレートが異なってい
る場合であっても復号化側で容易に対応可能な符号化デ
ータ列を生成することができる。
As is apparent from the above description, according to the speech coding method of the present invention, the code for performing the vector quantization of the time base waveform by the closed loop search of the optimum vector by using the analysis method by the synthesis. There are a plurality of stages of encoding, and when encoding the Nth stage, the quantization error of the N-1th stage is used as a reference input, and the quantization output by the encoding of each stage is selected to set the bit rate. By switching,
The transmission bit rate can be easily switched, and even if the encoding side and the decoding side have different bit rates, the decoding side can easily generate an encoded data string that can be handled. it can.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る音声符号化方法の実施の形態が適
用される音声信号符号化装置の基本構成を示すブロック
回路図である。
FIG. 1 is a block circuit diagram showing a basic configuration of a speech signal coding apparatus to which an embodiment of a speech coding method according to the present invention is applied.

【図2】本発明に係る音声復号化方法の実施の形態が適
用される音声信号復号化装置の基本構成を示すブロック
回路図である。
FIG. 2 is a block circuit diagram showing a basic configuration of a speech signal decoding apparatus to which an embodiment of a speech decoding method according to the present invention is applied.

【図3】本発明の実施の形態となる音声信号符号化装置
のより具体的な構成を示すブロック回路図である。
FIG. 3 is a block circuit diagram showing a more specific configuration of the audio signal encoding device according to the embodiment of the present invention.

【図4】本発明の実施の形態となる音声信号復号化装置
のより具体的な構成を示すブロック回路図である。
FIG. 4 is a block circuit diagram showing a more specific configuration of the audio signal decoding device according to the embodiment of the present invention.

【図5】LSP量子化部の基本構成を示すブロック図で
ある。
FIG. 5 is a block diagram illustrating a basic configuration of an LSP quantization unit.

【図6】LSP量子化部のより具体的な構成を示すブロ
ック図である。
FIG. 6 is a block diagram illustrating a more specific configuration of an LSP quantization unit.

【図7】ベクトル量子化部の基本構成を示すブロック図
である。
FIG. 7 is a block diagram illustrating a basic configuration of a vector quantization unit.

【図8】ベクトル量子化部のより具体的な構成を示すブ
ロック図である。
FIG. 8 is a block diagram illustrating a more specific configuration of a vector quantization unit.

【図9】本発明の音声信号符号化装置のCELP符号化
部分(第2の符号化部)の具体的構成を示すブロック回
路図である。
FIG. 9 is a block circuit diagram showing a specific configuration of a CELP coding section (second coding section) of the speech signal coding apparatus of the present invention.

【図10】図9の構成における処理の流れを示すフロー
チャートである。
10 is a flowchart showing the flow of processing in the configuration of FIG.

【図11】ガウシアンノイズと、異なるスレシホールド
値でのクリッピング後のノイズの様子を示す図である。
FIG. 11 is a diagram showing a state of Gaussian noise and noise after clipping with different threshold values.

【図12】学習によってシェイプコードブックを生成す
る際の処理の流れを示すフローチャートである。
FIG. 12 is a flowchart showing a flow of processing when a shape codebook is generated by learning.

【図13】本発明の音声信号符号化装置が適用される携
帯端末の送信側構成を示すブロック回路図である。
[Fig. 13] Fig. 13 is a block circuit diagram showing a configuration of a transmission side of a mobile terminal to which the audio signal encoding device of the present invention is applied.

【図14】本発明の音声信号復号化装置が適用される携
帯端末の受信側構成を示すブロック回路図である。
FIG. 14 is a block circuit diagram showing a configuration of a receiving side of a mobile terminal to which the audio signal decoding device of the present invention is applied.

【符号の説明】[Explanation of symbols]

110 第1の符号化部 111 LPC逆フィルタ 113 LPC分析・量子化部 114 サイン波分析符号化部 115 V/UV判定部 120,1201,1202 第2の符号化部 121 雑音符号帳 122,312,322 重み付き合成フィルタ 123,313,323 減算器 124,314,324 距離計算回路 125 聴覚重み付けフィルタ 302 LPC分析回路 303 LPCパラメータ量子化回路 304 聴覚重み付けフィルタ 310,320 ストキャスティックコードブック 315,325 ゲインコードブック 330 インデクス出力切り換え回路110 first coding unit 111 LPC inverse filter 113 LPC analysis / quantization unit 114 sine wave analysis coding unit 115 V / UV determination unit 120, 120 1 , 120 2 second coding unit 121 noise codebook 122, 312,322 Weighted synthesis filter 123,313,323 Subtractor 124,314,324 Distance calculation circuit 125 Auditory weighting filter 302 LPC analysis circuit 303 LPC parameter quantization circuit 304 Auditory weighting filter 310,320 Stochastic codebook 315,325 Gain codebook 330 Index output switching circuit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 大森 士郎 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Shiro Omori 6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 入力音声信号を時間軸上でブロック単位
に区分し、各ブロック単位で符号化を行う音声符号化方
法において、 合成による分析法を用いて最適ベクトルのクローズドル
ープサーチによる時間軸波形のベクトル量子化を行う符
号化工程を複数段有し、 N段目の符号化工程では、N−1段目の量子化誤差をリ
ファレンス入力とし、各段の符号化工程の量子化出力の
全て又は一部を選択してビットレートを切り換えること
を特徴とする音声符号化方法。
1. A speech coding method in which an input speech signal is divided into blocks on the time axis and is coded in each block, wherein a time axis waveform by a closed loop search of an optimum vector using an analysis method by synthesis. Has a plurality of stages of vector quantization, and the Nth stage of the encoding process uses the N−1th stage quantization error as a reference input, and all of the quantization outputs of the respective stages of the encoding process. Alternatively, a voice encoding method is characterized in that a bit rate is selected and a bit rate is switched.
【請求項2】 上記入力音声信号の無声音部分の信号を
上記符号化工程により符号化することを特徴とする請求
項1記載の音声符号化方法。
2. The voice encoding method according to claim 1, wherein a signal of an unvoiced sound portion of the input voice signal is encoded by the encoding step.
【請求項3】 上記各符号化工程では、シェイプコード
ブックから取り出されるシェイプベクトルにゲインコー
ドブックからのゲインを乗じたものを量子化値とし、上
記シェイプコードブックは大きさ0のシェイプベクトル
を有することを特徴とする請求項1記載の音声符号化方
法。
3. In each of the encoding steps, a quantized value is obtained by multiplying a shape vector extracted from the shape codebook by a gain from the gain codebook, and the shape codebook has a shape vector of size 0. The speech coding method according to claim 1, wherein
【請求項4】 入力音声信号を時間軸上でブロック単位
に区分し、各ブロック単位で符号化を行う音声符号化装
置において、 合成による分析法を用いて最適ベクトルのクローズドル
ープサーチによる時間軸波形のベクトル量子化を行う符
号化手段を複数段有し、 N段目の符号化手段では、N−1段目の量子化誤差をリ
ファレンス入力とし、各段の符号化手段の量子化出力の
全て又は一部を選択してビットレートを切り換えること
を特徴とする音声符号化装置。
4. A speech coder that divides an input speech signal into blocks on the time axis and performs coding on a block-by-block basis. In a speech coder, a time-axis waveform by a closed-loop search of an optimum vector using an analysis method by synthesis. Has a plurality of stages of vector quantization, and the Nth stage encoding unit uses the N-1th stage quantization error as a reference input, and all the quantization outputs of the encoding units of each stage. Alternatively, a voice encoding device is characterized in that a bit rate is selected and a bit rate is switched.
【請求項5】 上記入力音声信号の無声音部分の信号を
上記符号化手段により符号化することを特徴とする請求
項4記載の音声符号化装置。
5. The speech coding apparatus according to claim 4, wherein the unvoiced part of the input speech signal is coded by the coding means.
【請求項6】 上記各符号化手段では、シェイプコード
ブックから取り出されるシェイプベクトルにゲインコー
ドブックからのゲインを乗じたものを量子化値とし、上
記シェイプコードブックは大きさ0のシェイプベクトル
を有することを特徴とする請求項4記載の音声符号化装
置。
6. In each of the encoding means, a quantized value is obtained by multiplying a shape vector extracted from a shape codebook by a gain from a gain codebook, and the shape codebook has a shape vector of size 0. The speech coding apparatus according to claim 4, wherein the speech coding apparatus is a speech coding apparatus.
JP7279413A 1995-10-26 1995-10-26 Voice coding method and device Abandoned JPH09127997A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7279413A JPH09127997A (en) 1995-10-26 1995-10-26 Voice coding method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7279413A JPH09127997A (en) 1995-10-26 1995-10-26 Voice coding method and device

Publications (1)

Publication Number Publication Date
JPH09127997A true JPH09127997A (en) 1997-05-16

Family

ID=17610753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7279413A Abandoned JPH09127997A (en) 1995-10-26 1995-10-26 Voice coding method and device

Country Status (1)

Country Link
JP (1) JPH09127997A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010181890A (en) * 1998-08-24 2010-08-19 Mindspeed Technologies Inc Open-loop pitch processing for speech encoding

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010181890A (en) * 1998-08-24 2010-08-19 Mindspeed Technologies Inc Open-loop pitch processing for speech encoding
JP2010181889A (en) * 1998-08-24 2010-08-19 Mindspeed Technologies Inc Selection of scalar quantization (sq) and vector quantization (vq) for speech encoding

Similar Documents

Publication Publication Date Title
JP3680380B2 (en) Speech coding method and apparatus
JP4005154B2 (en) Speech decoding method and apparatus
JP3707116B2 (en) Speech decoding method and apparatus
JP3707153B2 (en) Vector quantization method, speech coding method and apparatus
JP3707154B2 (en) Speech coding method and apparatus
KR100487136B1 (en) Voice decoding method and apparatus
JP3747492B2 (en) Audio signal reproduction method and apparatus
US6532443B1 (en) Reduced length infinite impulse response weighting
JPH0869299A (en) Voice coding method, voice decoding method and voice coding/decoding method
JP3344962B2 (en) Audio signal encoding device and audio signal decoding device
JPH10214100A (en) Voice synthesizing method
JPH09127997A (en) Voice coding method and device
JP3675054B2 (en) Vector quantization method, speech encoding method and apparatus, and speech decoding method
JPH09127993A (en) Voice coding method and voice encoder
JP3194930B2 (en) Audio coding device
JP3252285B2 (en) Audio band signal encoding method
JP4230550B2 (en) Speech encoding method and apparatus, and speech decoding method and apparatus
JP3700310B2 (en) Vector quantization apparatus and vector quantization method
JPH07212239A (en) Method and device for quantizing vector-wise line spectrum frequency
JPH0473699A (en) Sound encoding system
AU7201300A (en) Speech encoding method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041012

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20041213