JP3237178B2 - Encoding method and decoding method - Google Patents
Encoding method and decoding methodInfo
- Publication number
- JP3237178B2 JP3237178B2 JP09142292A JP9142292A JP3237178B2 JP 3237178 B2 JP3237178 B2 JP 3237178B2 JP 09142292 A JP09142292 A JP 09142292A JP 9142292 A JP9142292 A JP 9142292A JP 3237178 B2 JP3237178 B2 JP 3237178B2
- Authority
- JP
- Japan
- Prior art keywords
- vector
- data
- dimensional
- frequency axis
- quantization
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Description
【0001】[0001]
【産業上の利用分野】本発明は、入力された音声信号や
音響信号等のオーディオ信号をフレーム単位で区分して
周波数上のデータに変換して符号化を施すような符号化
方法及び当該符号化方法により生成された符号列を復号
化する復号化方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an encoding method for dividing an input audio signal such as an audio signal and an audio signal into frames, converting the signal into data on a frequency, and performing encoding. The present invention relates to a decoding method for decoding a code string generated by a decoding method.
【0002】[0002]
【従来の技術】オーディオ信号(音声信号や音響信号を
含む)の時間領域や周波数領域における統計的性質と人
間の聴感上の特性を利用して信号圧縮を行うような符号
化方法が種々知られている。この符号化方法としては、
大別して時間領域での符号化、周波数領域での符号化、
分析合成符号化等が挙げられる。2. Description of the Related Art There are known various encoding methods for compressing an audio signal (including a voice signal and an acoustic signal) by utilizing a statistical property in a time domain and a frequency domain and a characteristic of human perception. ing. As this encoding method,
Coding in the time domain, coding in the frequency domain,
Analysis synthesis coding.
【0003】音声信号等の高能率符号化の例として、M
BE(Multiband Excitation: マルチバンド励起)符号
化、SBE(Singleband Excitation:シングルバンド励
起)符号化、ハーモニック(Harmonic)符号化、SBC
(Sub-band Coding:帯域分割符号化)、LPC(Linear
Predictive Coding: 線形予測符号化)、あるいはDC
T(離散コサイン変換)、MDCT(モデファイドDC
T)、FFT(高速フーリエ変換)等において、スペク
トル振幅やそのパラメータ(LSPパラメータ、αパラ
メータ、kパラメータ等)のような各種情報データを量
子化する場合に、従来においてはスカラ量子化を行うこ
とが多い。[0003] As an example of high-efficiency encoding of a speech signal or the like, M
BE (Multiband Excitation) coding, SBE (Singleband Excitation) coding, Harmonic coding, SBC
(Sub-band Coding: band division coding), LPC (Linear
Predictive Coding: Linear predictive coding) or DC
T (Discrete Cosine Transform), MDCT (Modified DC
Conventionally, when quantizing various information data such as spectrum amplitude and its parameters (LSP parameter, α parameter, k parameter, etc.) in T), FFT (Fast Fourier Transform), scalar quantization is conventionally performed. There are many.
【0004】[0004]
【発明が解決しようとする課題】ところで、ビットレー
トを例えば3〜4kbps 程度にまで低減し、量子化効率
を更に向上させようとすると、スカラ量子化では量子化
雑音(歪み)が大きくなってしまい、実用化が困難であ
った。By the way, if the bit rate is reduced to, for example, about 3 to 4 kbps and the quantization efficiency is further improved, the quantization noise (distortion) increases in the scalar quantization. It was difficult to put it to practical use.
【0005】そこで、ベクトル量子化を採用することが
考えられる。しかしながら、ベクトル量子化の出力(イ
ンデックス)のビット数をbとするとき、ベクトル量子
化器のコードブックの大きさ(サイズ)は2b に比例し
て増大し、コードブックサーチのための演算量も2b に
比例して増大する。しかしながら、出力のビット数bを
あまり小さくすると量子化雑音が増大することになるた
め、ビット数bをある程度の大きさに保ったままで、コ
ードブックのサイズやサーチ時の演算量を低減すること
が望まれる。また、周波数軸上に変換されたデータをそ
のままベクトル量子化したのでは、符号化効率を充分に
高められないことがあるため、より圧縮率を高めるため
の工夫が必要とされる。Therefore, it is conceivable to employ vector quantization. However, assuming that the number of bits of the output (index) of vector quantization is b , the size (size) of the codebook of the vector quantizer increases in proportion to 2 b , and the amount of calculation for codebook search also it increases in proportion to 2 b. However, if the number of bits b in the output is too small, quantization noise will increase. Therefore, it is possible to reduce the codebook size and the amount of calculation at the time of search while keeping the number of bits b to some extent. desired. Further, if the data converted on the frequency axis is vector-quantized as it is, the coding efficiency may not be sufficiently increased, so that a device for further increasing the compression ratio is required.
【0006】本発明は、このような実情に鑑みてなされ
たものであり、ベクトル量子化の出力ビット数を低下さ
せることなく、ベクトル量子化器のコードブックのサイ
ズやサーチ時の演算量を低減でき、また、ベクトル量子
化の際の圧縮率をより高め得るような符号化方法及び当
該符号化方法により生成された符号列を復号化する復号
化方法の提供を目的とする。The present invention has been made in view of such circumstances, and reduces the size of a codebook of a vector quantizer and the amount of calculation at the time of search without reducing the number of output bits of vector quantization. It is another object of the present invention to provide a coding method capable of further increasing the compression ratio at the time of vector quantization and a decoding method for decoding a code string generated by the coding method.
【0007】[0007]
【課題を解決するための手段】本発明に係る符号化方法
は、入力されたオーディオ信号をブロック単位で区分し
て周波数軸に変換して得られるデータに基づいてM次元
ベクトルとしての周波数軸上データを求める工程と、こ
のM次元ベクトルの周波数軸上データを複数グループに
分割して各グループ毎に代表値を求めることにより次元
をS次元(S<M)に低下させる工程と、このS次元ベ
クトルのデータに対して第1のベクトル量子化を施す工
程と、この第1のベクトル量子化出力データを逆量子化
して対応するS次元のコードベクトルを求める工程と、
このS次元のコードベクトルを元のM次元のベクトルに
拡張する工程と、この拡張されたM次元のベクトルと元
の上記M次元のベクトルの周波数軸上データとの関係を
表すデータに対して第2のベクトル量子化を施す工程と
を有することにより上述の課題を解決する。According to the present invention, there is provided an encoding method comprising the steps of dividing an input audio signal into blocks and converting the signal into a frequency axis, and converting the input audio signal into an M-dimensional vector on a frequency axis. A step of obtaining data, a step of dividing the data on the frequency axis of the M-dimensional vector into a plurality of groups, and obtaining a representative value for each group to reduce the dimension to S dimension (S <M); Performing a first vector quantization on the vector data; dequantizing the first vector quantization output data to obtain a corresponding S-dimensional code vector;
Extending the S-dimensional code vector to an original M-dimensional vector; and performing data processing on the data representing the relationship between the expanded M-dimensional vector and the original data on the frequency axis of the M-dimensional vector. And a step of performing vector quantization of 2.
【0008】ここで、上記M次元ベクトルの周波数軸上
データとして、上記ブロック単位で周波数軸に変換した
データを非線形圧縮したものを用いることができる。Here, as the data on the frequency axis of the M-dimensional vector, data obtained by nonlinearly compressing the data converted to the frequency axis in the block unit can be used.
【0009】[0009]
【0010】また、上記ベクトル量子化しようとするデ
ータのブロック間の差分をとり、このブロック間差分デ
ータに対してベクトル量子化を施すようにしてもよい。The difference between blocks of the data to be vector-quantized may be obtained, and the inter-block difference data may be subjected to vector quantization.
【0011】他の発明に係る符号化方法として、入力さ
れた音声信号をブロック単位で区分して周波数軸に変換
して得られるスペクトルの振幅をdB領域に変換してM
次元ベクトルとしての周波数軸上データを求める工程
と、このM次元ベクトルの周波数軸上データを複数グル
ープに分割して各グループ毎に平均値を求めることによ
り次元をS次元(S<M)に低下させる工程と、このS
次元ベクトルの平均値データに対して第1のベクトル量
子化を施す工程と、この第1のベクトル量子化出力デー
タを逆量子化して対応するS次元のコードベクトルを求
める工程と、このS次元のコードベクトルを元のM次元
のベクトルに拡張する工程と、この拡張されたM次元の
ベクトルと元の上記M次元のベクトルの周波数軸上デー
タとの差のデータに対して第2のベクトル量子化を施す
工程とを有することにより、上述の課題を解決すること
ができる。According to another encoding method of the present invention, an amplitude of a spectrum obtained by dividing an input audio signal in units of blocks and converting the divided signals into a frequency axis is converted into a dB area and converted into an M signal.
A step of obtaining data on the frequency axis as a dimensional vector, and dividing the data on the frequency axis of the M-dimensional vector into a plurality of groups and obtaining an average value for each group to reduce the dimension to S-dimension (S <M) And the S
Performing a first vector quantization on the average value data of the dimensional vector; dequantizing the first vector quantization output data to obtain a corresponding S-dimensional code vector; Extending the code vector to the original M-dimensional vector, and performing second vector quantization on the difference data between the expanded M-dimensional vector and the original data on the frequency axis of the M-dimensional vector. The above-mentioned problem can be solved.
【0012】また、本発明に係る復号化方法は、オーデ
ィオ信号をM次元ベクトルとして周波数軸上データを求
め、M次元からS次元(S<M)へ次元を低下させ、S
次元ベクトルのデータに対し第1のベクトル量子化を施
してインデックスを符号化し、第1のベクトル量子化出
力データを逆量子化して対応するS次元のコードベクト
ルを求め、このS次元のコードベクトルを元のM次元の
ベクトルに拡張し、拡張されたM次元のベクトルと元の
上記M次元のベクトルの周波数軸上データとの関係を表
すデータに対し第2のベクトル量子化を施して、そのイ
ンデックスを符号化することにより生成された符号列を
受け取り復号化する復号化方法であって、上記第2のベ
クトル量子化のインデックスを逆量子化して対応するコ
ードベクトルを求める第1の逆ベクトル量子化工程と、
上記第1のベクトル量子化のインデックスを逆量子化し
て対応するS次元のコードベクトルを求める第2の逆ベ
クトル量子化工程と、上記S次元のコードベクトルをM
次元のベクトルに拡張する工程と、上記第1の逆ベクト
ル量子化工程で求めたコードベクトルと上記拡張された
M次元のベクトルとから、M次元ベクトルの周波数軸上
データを求める工程と、上記M次元ベクトルの周波数軸
上データに基づいて上記オーディオ信号を復元する工程
とを有することにより、上述の課題を解決することがで
きる。Also, in the decoding method according to the present invention, data on the frequency axis is obtained by using an audio signal as an M-dimensional vector, and the dimension is reduced from M to S (S <M).
The first vector quantization is performed on the data of the dimensional vector to encode an index, and the first vector quantized output data is inversely quantized to obtain a corresponding S-dimensional code vector. The vector is expanded to the original M-dimensional vector, and the second vector quantization is performed on the data representing the relationship between the expanded M-dimensional vector and the original data on the frequency axis of the M-dimensional vector. And a decoding method for receiving and decoding a code string generated by encoding the second vector quantization, wherein the first inverse vector quantization for inversely quantizing the index of the second vector quantization to obtain a corresponding code vector. Process and
A second inverse vector quantization step of inversely quantizing the index of the first vector quantization to obtain a corresponding S-dimensional code vector;
Extending to a vector of dimensions, obtaining data on the frequency axis of an M-dimensional vector from the code vector obtained in the first inverse vector quantization step and the expanded M-dimensional vector, And restoring the audio signal based on the data on the frequency axis of the dimensional vector.
【0013】[0013]
【作用】本発明に係る符号化方法によれば、M次元ベク
トルを、S次元(S<M)ベクトルに低下させてベクト
ル量子化するような、階層構造化されたコードブックを
有するベクトル量子化を行わせることにより、コードブ
ックサーチの演算量やコードブックサイズを大幅に低減
でき、誤り訂正符号の効果的な適用が可能となる。ま
た、周波数軸上データを非線形圧縮してベクトル量子化
することにより、量子化の品質を向上でき、ブロック間
の差分をとることにより、圧縮効率をより高めることが
できる。また、本発明に係る復号化方法によれば、当該
符号化方法により生成された符号列を復号化することが
できる。According to the encoding method of the present invention, vector quantization having a hierarchically structured codebook is performed such that an M-dimensional vector is reduced to an S-dimensional (S <M) vector and vector-quantized. Is performed, the amount of calculation of the codebook search and the codebook size can be significantly reduced, and the effective application of the error correction code becomes possible. Further, the quality of the quantization can be improved by nonlinearly compressing the data on the frequency axis and performing vector quantization, and the compression efficiency can be further improved by calculating the difference between the blocks. Further, according to the decoding method of the present invention, it is possible to decode the code string generated by the encoding method.
【0014】[0014]
【実施例】以下、本発明に係る符号化方法の実施例につ
いて、図面を参照しながら説明する。図1は、本発明の
一実施例となる高能率符号化を説明するための符号化装
置(エンコーダ)の概略構成を示している。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the encoding method according to the present invention will be described below with reference to the drawings. FIG. 1 shows a schematic configuration of an encoding device (encoder) for explaining high-efficiency encoding according to one embodiment of the present invention.
【0015】図1において、入力端子11には、音声信
号あるいは音響信号が供給され、この入力信号は、周波
数軸変換処理部12にて周波数軸上のスペクトル振幅デ
ータに変換される。この周波数軸変換処理部12の内部
には、例えば入力された時間軸上の信号の所定数のサン
プル(Nサンプル)毎にブロック化するブロック化部1
2a、FFT(高速フーリエ変換)等の直交変換部12
b、スペクトルエンベロープの特徴を表す振幅情報を求
めるためのデータ処理部12c等が設けられている。周
波数軸変換処理部12からの出力は、必要に応じて例え
ばdB領域に変換する非線形圧縮部13を介し、必要に
応じてブロック間の差分をとる処理部14を介してベク
トル量子化部15に送られる。このベクトル量子化部1
5では、入力データの所定数(Mサンプル)がまとめら
れてM次元ベクトルとされ、ベクトル量子化処理が施さ
れる。このようなM次元ベクトル量子化処理は、一般的
には、入力されたM次元ベクトルに対してM次元空間上
で最も距離が近いコードベクトルがコードブックから検
索(サーチ)されて、該検索されたコードベクトルのイ
ンデックスを出力端子16から取り出すような処理であ
るが、この図1に示す実施例のベクトル量子化部15は
階層構造化されており、入力ベクトルに対して2段階の
ベクトル量子化が施されるようになっている。In FIG. 1, a voice signal or an acoustic signal is supplied to an input terminal 11, and this input signal is converted by a frequency axis conversion processing section 12 into spectrum amplitude data on the frequency axis. Inside the frequency axis conversion processing unit 12, for example, a blocking unit 1 for blocking every predetermined number of samples (N samples) of the input signal on the time axis
2a, orthogonal transform unit 12 such as FFT (fast Fourier transform)
b, a data processing unit 12c for obtaining amplitude information representing characteristics of the spectrum envelope is provided. An output from the frequency axis conversion processing unit 12 is sent to a vector quantization unit 15 via a non-linear compression unit 13 which converts the data into, for example, a dB region as needed, and a processing unit 14 which takes a difference between blocks as needed. Sent. This vector quantization unit 1
In step 5, a predetermined number (M samples) of input data is put together to form an M-dimensional vector, and a vector quantization process is performed. In such an M-dimensional vector quantization process, generally, a code vector having the closest distance in an M-dimensional space to an input M-dimensional vector is searched from a codebook, and the search is performed. This is a process of extracting the index of the code vector obtained from the output terminal 16. The vector quantization unit 15 of the embodiment shown in FIG. Is applied.
【0016】すなわち、図1に示すベクトル量子化器1
5において、ベクトル量子化の単位となる上記M次元ベ
クトルのデータ(周波数軸上データ)は、次元低減部2
1に送られることにより、複数グループに分割され各グ
ループ毎に代表値を求めることにより次元がS次元(S
<M)に低下させられる。ここで図2は、ベクトル量子
化器15に入力されるM次元ベクトルXの各要素、す
なわち周波数軸上のM個の振幅データx(n) の一具体例
を示しており、1≦n≦Mである。これらのM個の振幅
データx(n) は、例えば4サンプル毎にまとめられてそ
れぞれの代表値、例えば平均値yi が求められ、図3に
示すように、平均値データy1 〜yS のS個(この場合
はS=M/4)から成るS次元ベクトルYが得られ
る。That is, the vector quantizer 1 shown in FIG.
5, the data of the M-dimensional vector (data on the frequency axis), which is a unit of vector quantization, is
1, the data is divided into a plurality of groups, and a representative value is obtained for each group.
<M). Here, FIG. 2 shows a specific example of each element of the M-dimensional vector X input to the vector quantizer 15, that is, M pieces of amplitude data x (n) on the frequency axis, where 1 ≦ n ≦ M. These M pieces of amplitude data x (n) are put together, for example, every four samples to obtain a representative value, for example, an average value y i , and as shown in FIG. 3, the average value data y 1 to y S (In this case, S = M / 4) is obtained as an S-dimensional vector Y.
【0017】次に、このS次元ベクトルのデータに対し
てS次元ベクトル量子化器22によりベクトル量子化が
施される。すなわち、S次元ベクトル量子化器22のコ
ードブック中のS次元コードベクトルの内、入力された
S次元ベクトルにS次元空間上で最も距離が近いコード
ベクトルがサーチされ、このサーチされたコードベクト
ルのインデックスデータは出力端子26より取り出さ
れ、サーチされたコードベクトル(出力インデックスを
逆ベクトル量子化して得られるコードベクトル)は次元
拡張部23に送られる。図4は、上記図3に示すS個の
平均値データy1〜yS から成るS次元ベクトルYを
ベクトル量子化した後、逆量子化して(あるいはベクト
ル量子化器22のコードブックで上記量子化の際にサー
チされたコードベクトルを取り出して)得られたローカ
ルデコーダ出力としてのS次元ベクトルYVQの各要素
yVQ1 〜yVQS を示している。Next, the S-dimensional vector data is subjected to vector quantization by an S-dimensional vector quantizer 22. That is, from among the S-dimensional code vectors in the code book of the S-dimensional vector quantizer 22, the code vector closest to the input S-dimensional vector in the S-dimensional space is searched. The index data is extracted from the output terminal 26, and the searched code vector (a code vector obtained by inverse vector quantization of the output index) is sent to the dimension extension unit 23. FIG. 4 is a diagram illustrating an example in which the S-dimensional vector Y including the S average value data y 1 to y S shown in FIG. shows each element y VQ1 ~y VQS the S-dimensional vector Y VQ as taken out) resulting local decoder outputs the searched code vector during reduction.
【0018】次に次元拡張部23では、上記S次元のコ
ードベクトルを元のM次元のベクトルに拡張する。この
拡張されたM次元ベクトルの各要素の例を図5に示す。
この図5から明らかなように、上記逆ベクトル量子化さ
れたS次元ベクトルYVQの各要素yVQ1 〜yVQS をそ
れぞれ元の4サンプルずつに増加させることにより、4
S=M個の要素から成るM次元ベクトルを得るわけであ
る。この拡張されたM次元のベクトルと元の上記M次元
ベクトルの周波数軸上データとの関係を表すデータに対
して第2のベクトル量子化を施す。Next, the dimension extension unit 23 extends the S-dimensional code vector to the original M-dimensional vector. FIG. 5 shows an example of each element of the expanded M-dimensional vector.
As apparent from FIG. 5, by increasing each element y VQ1 ~y VQS of the inverse vector quantized S-dimensional vector Y VQ in each respective original 4 samples, 4
An M-dimensional vector consisting of S = M elements is obtained. The second vector quantization is performed on the data representing the relationship between the expanded M-dimensional vector and the original data on the frequency axis of the M-dimensional vector.
【0019】図1の実施例では、次元拡張部23からの
拡張されたM次元ベクトルデータを減算器24に送り、
元の上記M次元ベクトルの周波数軸上データから減算す
ることにより、上記S次元を拡張したM次元ベクトルと
元のM次元ベクトルとの関係を表すS個のベクトルデー
タを得ている。図6は、上記図2に示すM次元ベクトル
Xの各要素である周波数軸上のM個の振幅データx
(n) から、図5に示す拡張M次元ベクトルの各要素を減
算して得られたM個のデータr1 〜rM を示しており、
これらのM個のデータr1 〜rM の4サンプルずつを組
(ベクトル)としてS個の4次元ベクトルR1 〜R
S が得られる。In the embodiment shown in FIG. 1, the extended M-dimensional vector data from the dimension extension unit 23 is sent to a subtractor 24,
By subtracting the original M-dimensional vector from the data on the frequency axis, S vector data representing the relationship between the S-dimensionally expanded M-dimensional vector and the original M-dimensional vector is obtained. FIG. 6 shows M pieces of amplitude data x on the frequency axis which are each element of the M-dimensional vector X shown in FIG.
from (n), shows the M data r 1 ~r M obtained by subtracting each element of the extended M-dimensional vector shown in FIG. 5,
The four samples of the M data r 1 to r M are set as a set (vector) and S four-dimensional vectors R 1 to R M are set.
S is obtained.
【0020】このようにして減算器24から得られたS
個のベクトルのそれぞれに対して、ベクトル量子化器群
25のS個の各ベクトル量子化器251 〜25S により
それぞれベクトル量子化を施す。各ベクトル量子化器2
51 〜25S から出力されるインデックスは、それぞれ
出力端子271 〜27S から取り出される。図7は、ベ
クトル量子化器251 〜25S としてそれぞれ4次元ベ
クトル量子化器を用い、上記図6に示す各4次元ベクト
ルR1 〜RS をそれぞれベクトル量子化した後の各
4次元ベクトルRVQ1 〜RVQS の各要素rVQ1 〜r
VQ4 、rVQ5 〜rVQ8 、…〜rVQM を示している。The S obtained from the subtractor 24 in this manner
Each of the vectors is subjected to vector quantization by the S vector quantizers 25 1 to 25 S of the vector quantizer group 25. Each vector quantizer 2
Index output from 5 1 to 25 S are respectively taken from the output terminal 27 1 ~ 27 S. FIG. 7 shows a four-dimensional vector quantizer 25 1 to 25 S using four-dimensional vector quantizers, and the four-dimensional vectors R 1 to R S shown in FIG. R VQ1 ~R each element of the VQS r VQ1 ~r
VQ4, r VQ5 ~r VQ8, shows the ... ~r VQM.
【0021】このような階層構造化された2段階のベク
トル量子化を施すことにより、コードブックサーチのた
めの演算量を低減でき、コードブックのためのメモリ量
(例えばROM容量)を低減でき、また上記出力端子2
6から得られる上位層のより重要なインデックスに対し
て誤り訂正符号化を施して重点的に保護するようにする
こと等により、誤り訂正符号の効果的な適用が可能とな
る。なお、ベクトル量子化部15の階層構造は、2段階
に限定されず、3段階以上の多層の階層構造を持たせる
ようにしてもよい。By performing such hierarchically structured two-stage vector quantization, the amount of calculation for a codebook search can be reduced, and the amount of memory (eg, ROM capacity) for a codebook can be reduced. The output terminal 2
For example, by applying error correction coding to the more important index of the upper layer obtained from No. 6 to protect the index more importantly, it is possible to effectively apply the error correction code. Note that the hierarchical structure of the vector quantization unit 15 is not limited to two levels, and may have a multilayer structure of three or more levels.
【0022】なお、図1の各部は、全てをハードウェア
にて構成する必要はなく、例えばいわゆるDSP(ディ
ジタル信号プロセッサ)等を用いてソフトウェア的に実
現するようにしてもよい。また、ベクトル量子化部15
中の加算器28は、第1、第2のベクトル量子化器2
2、25によりそれぞれ量子化されたデータの各要素を
加算してM個の量子化データを得るためのものであり、
次元拡張部23からのM次元に拡張されたM個の各デー
タと、各ベクトル量子化器251 〜25S からのS個の
各コードベクトルの各要素データのM個とをそれぞれ加
算し、M個のデータを出力端子29から取り出してい
る。この加算器28は、後述するブロック間差分(ある
いはフレーム間差分)をとるために用いられるものであ
り、このようなブロック間差分をとらない場合には、無
くともよい。It is not necessary that all the components shown in FIG. 1 be constituted by hardware, but may be realized by software using, for example, a so-called DSP (digital signal processor). Also, the vector quantization unit 15
The adder 28 in the first and second vector quantizers 2
To obtain M pieces of quantized data by adding each element of the data quantized by 2, 25, respectively,
Each of the M pieces of data expanded to M dimensions from the dimension expansion unit 23 and the M pieces of element data of each of the S code vectors from the vector quantizers 25 1 to 25 S are added, M pieces of data are extracted from the output terminal 29. The adder 28 is used for calculating a difference between blocks (or a difference between frames) to be described later, and may be omitted when such a difference between blocks is not calculated.
【0023】次に、図8は、本発明の第2の実施例とし
ての高能率符号化方法を説明するための符号化装置(エ
ンコーダ)の概略構成を示している。この図8におい
て、入力端子11に供給された音声信号あるいは音響信
号等のオーディオ信号を、周波数軸変換処理部12にて
Nサンプルのブロック単位で区分して周波数軸に変換
し、得られたデータを非線形圧縮部13に送って、例え
ばdB領域データに変換するような非線形圧縮を行い、
得られた非線形圧縮データのM個をまとめてM次元ベク
トルとして、ベクトル量子化部15にてベクトル量子化
を施し、出力端子16から取り出している。ベクトル量
子化部15は、上記図1に示したような2段階の階層構
造を有していてもよく、3段階以上の階層構造を有して
いてもよく、あるいは階層構造を有しない通常の(1段
の)ベクトル量子化を行うものでもよい。上記非線形圧
縮部13は、dB領域データに変換するような log圧縮
(対数圧縮)の他に、例えばいわゆるμ-lawやA-lawの
ような疑似対数圧縮等を用いてもよい。このように、振
幅を対数変換して圧縮し、その結果を線形に符号化する
ことによって、能率的な符号化が実現される。Next, FIG. 8 shows a schematic configuration of an encoding device (encoder) for explaining a high-efficiency encoding method as a second embodiment of the present invention. In FIG. 8, an audio signal such as an audio signal or an acoustic signal supplied to an input terminal 11 is divided by an N-sample block unit in a frequency axis conversion processing unit 12 and converted into a frequency axis. To the non-linear compression unit 13 to perform non-linear compression such as conversion into dB area data, for example.
The obtained M pieces of non-linear compressed data are combined into an M-dimensional vector, subjected to vector quantization by the vector quantization unit 15, and extracted from the output terminal 16. The vector quantization unit 15 may have a two-stage hierarchical structure as shown in FIG. 1 above, may have a three-stage hierarchical structure, or may have a normal hierarchical structure without a hierarchical structure. A (one-stage) vector quantization may be performed. The non-linear compression unit 13 may use, for example, pseudo logarithmic compression such as so-called μ-law or A-law in addition to log compression (logarithmic compression) for converting the data into dB area data. Thus, efficient encoding is realized by logarithmically converting the amplitude, compressing the result, and linearly encoding the result.
【0024】次に、図9は、本発明の第3の実施例とし
ての高能率符号化方法を説明するための符号化装置(エ
ンコーダ)の概略構成を示している。この図9におい
て、入力端子に供給されたオーディオ信号を、周波数軸
変換処理部12にてブロック単位で区分して周波数軸に
変換し、得られたデータを、必要に応じて非線形圧縮部
13を介して、ブロック間差分をとるための処理部14
に送っている。なお、上記Nサンプルのブロックが、隣
りのブロックとの間で重複部分を有し、時間軸方向にL
サンプル(L<N)のフレーム単位で進むようなフォー
マットの場合には、処理部14ではフレーム間差分をと
ることになる。このブロック間(あるいはフレーム間)
差分をとったM個のデータが、M次元ベクトル量子化部
15に送られ、量子化されたインデックスデータが出力
端子16より取り出される。このベクトル量子化部15
は、多層構造を有していても、有していなくてもよい。Next, FIG. 9 shows a schematic configuration of an encoding device (encoder) for explaining a high-efficiency encoding method as a third embodiment of the present invention. In FIG. 9, the audio signal supplied to the input terminal is divided into blocks by the frequency axis conversion processing unit 12 and converted into the frequency axis, and the obtained data is processed by the nonlinear compression unit 13 as necessary. Processing unit 14 for obtaining a difference between blocks
Sent to. Note that the block of N samples has an overlapping portion with an adjacent block, and L blocks in the time axis direction.
In the case of a format in which the processing proceeds in units of samples (L <N), the processing unit 14 calculates the difference between frames. Between this block (or between frames)
The M data obtained by taking the difference are sent to the M-dimensional vector quantization unit 15, and the quantized index data is extracted from the output terminal 16. This vector quantization unit 15
May or may not have a multilayer structure.
【0025】上記ブロック間(あるいはフレーム間)差
分をとる処理部14は、入力データを1ブロック(ある
いは1フレーム)だけ遅延させて元の入力データとの差
分をとるようにしてもよいが、図9の例では、ベクトル
量子化部15の入力側に減算器31を挿入接続し、M次
元ベクトル量子化部15からのコードベクトル(M個の
要素データから成る)を1ブロック(あるいは1フレー
ム)遅延したものを、入力データ(M次元ベクトル)か
ら減算している。この場合、ベクトル量子化されるデー
タの差分データであるから、ベクトル量子化部15から
のコードベクトルを加算器32に送り、この加算器32
からの出力をブロック(あるいはフレーム)遅延回路3
3を介して乗算器34で係数αを乗算したものを、加算
器32に送るようにしている。この乗算器34からの出
力が減算器31に送られる。なお、M次元ベクトル量子
化部15に上記図1の2段の階層構造のものを用いる場
合には、出力端子29からのデータがベクトル量子化の
M次元のコードベクトルとして加算器32に送られるこ
とになる。The processing section 14 for calculating the difference between the blocks (or between frames) may delay the input data by one block (or one frame) to obtain the difference from the original input data. In the example of No. 9, the subtractor 31 is inserted and connected to the input side of the vector quantization unit 15, and the code vector (consisting of M element data) from the M-dimensional vector quantization unit 15 is stored in one block (or one frame). The delayed data is subtracted from the input data (M-dimensional vector). In this case, since it is difference data of the data to be vector-quantized, the code vector from the vector quantization unit 15 is sent to the adder 32, and the adder 32
Block (or frame) delay circuit 3
The value obtained by multiplying the coefficient α by the multiplier 34 through 3 is sent to the adder 32. The output from the multiplier 34 is sent to the subtractor 31. When the M-dimensional vector quantization unit 15 having the two-stage hierarchical structure shown in FIG. 1 is used, data from the output terminal 29 is sent to the adder 32 as an M-dimensional code vector for vector quantization. Will be.
【0026】このように、ブロック(フレーム)間差分
をとることにより、入力される周波数軸上の振幅データ
のM次元空間での存在領域をより狭くすることができ
る。これは、ブロック(フレーム)インターバルの間で
は、スペクトルの振幅の変化量が通常少なく、強い相関
を有しているからである。従って、量子化雑音を低減で
き、データ圧縮効率をより高めることができる。As described above, by taking the difference between blocks (frames), the region where the input amplitude data on the frequency axis exists in the M-dimensional space can be narrowed. This is because, during the block (frame) interval, the amount of change in the spectrum amplitude is usually small and has a strong correlation. Therefore, quantization noise can be reduced, and data compression efficiency can be further increased.
【0027】次に、上記周波数軸変換処理部12により
得られた周波数軸上のデータを、非線形圧縮部13によ
りスペクトルの振幅をdB領域に変換し、図9に示すよ
うなブロック間(フレーム間)差分を求めた後、図1に
示すような多層構造のベクトル量子化部15によるM次
元ベクトル量子化を施す場合の具体的な実施例につい
て、以下詳細に説明する。なお、周波数軸変換処理部1
2では種々の符号化方式の処理を採用できるが、例え
ば、後述するようなMBE(Multiband Excitation: マ
ルチバンド励起)分析処理を用いることができる。この
周波数軸変換処理部12でのブロック化の際には、Nサ
ンプルのブロックを時間軸上でLサンプルのフレーム単
位で前進させるものとする。このとき、分析は1ブロッ
クNサンプルに対して行われるが、分析結果は1フレー
ムLサンプル周期で得られる(更新される)ことにな
る。Next, the data on the frequency axis obtained by the frequency axis conversion processing unit 12 is converted into a spectrum in which the amplitude of the spectrum is converted into a dB area by the non-linear compression unit 13. After the difference is obtained, a specific example in which the M-dimensional vector quantization is performed by the vector quantization unit 15 having a multilayer structure as shown in FIG. 1 will be described in detail below. The frequency axis conversion processing unit 1
In No. 2, processing of various coding methods can be adopted. For example, MBE (Multiband Excitation) processing described later can be used. At the time of block formation in the frequency axis conversion processing unit 12, it is assumed that a block of N samples is advanced on a time axis in frame units of L samples. At this time, the analysis is performed on one block N samples, but the analysis result is obtained (updated) in one frame L sample period.
【0028】先ず、上記周波数軸変換処理部12から得
られた例えばMBE分析結果のスペクトル振幅等のデー
タの値(振幅値)をa(m) とし、上記1フレーム毎に0
≦m≦mMXのmMX+1個のサンプルが得られるものとす
る。First, the value (amplitude value) of the data such as the spectrum amplitude of the MBE analysis result obtained from the frequency axis conversion processing unit 12 is defined as a (m), and 0 (zero) is set for each frame.
It is assumed that m MX +1 samples of ≦ m ≦ m MX are obtained.
【0029】このmMX+1個のサンプルの振幅値a(m)
をdB領域に変換して、得られたデータをadB(m) とす
るとき、 adB(m) =20 log10a(m) ・・・(1) である。ここで上記MBE分析等においては、上記サン
プルの個数mMX+1はピッチ周期に依存してフレーム毎
に変化する。そこで、フレーム間差分、ベクトル量子化
のためには、1フレーム(ブロック)内に存在するdB
振幅値adB(m) の個数を一定とするのが望ましい。そこ
で、サンプリングレート変換(データ数変換)により、
mMX+1個のdB振幅値adB(m) を一定の個数Mのデー
タbdB(n)に変換する。このサンプルナンバーnは、1
フレーム(ブロック)毎に1≦n≦Mの値をとるものと
し、m=0のdB振幅値adB(0) に対応するn=0のデ
ータbdB(0) はDC(直流)成分に対応する振幅なの
で、伝送しない(常時0とする)。The amplitude value a (m) of this m MX +1 sample
Is converted to the dB region, and the obtained data is set to a dB (m), where a dB (m) = 20 log 10 a (m) (1). Here, in the MBE analysis or the like, the number m MX +1 of the samples changes for each frame depending on the pitch period. Therefore, for the inter-frame difference and the vector quantization, the dB existing in one frame (block) is used.
It is desirable to keep the number of amplitude values a dB (m) constant. Therefore, by sampling rate conversion (data number conversion)
m MX +1 The dB amplitude value a dB (m) is converted into a fixed number M of data b dB (n). This sample number n is 1
It is assumed that each frame (block) has a value of 1 ≦ n ≦ M, and the data b dB (0) of n = 0 corresponding to the dB amplitude value a dB (0) of m = 0 is a DC (direct current) component. Since it has a corresponding amplitude, it is not transmitted (always 0).
【0030】上述のようにdB領域に変換後、フレーム
間差分をとることにより、より上記データbdB(n) の存
在領域を狭くすることが可能となる。すなわち、フレー
ムインターバル(例えば約20msec )の間にスペクト
ルの振幅が大きく変化することはまれで、かなり強い相
関を持っているからである。すなわち、 cdB(n) =bdB(n) −b’dB(n) ・・・(2) のように差分をとった値cdB(n) に対して、ベクトル量
子化を施す。ここで、上記b’dB(n) は、bdB(n) の予
測値であり、上記図9に示したように、ベクトル量子化
部15からの逆量子化出力(ローカルデコーダ出力、上
記コードベクトルに相当)b”dB(n) を遅延回路33で
1フレーム遅延させた出力b”dB(n)p を乗算器34で
α倍した、 b’dB(n) =α・b”dB(n)p ・・・(3) のことである。ここで、b”dB(n)p のpは1フレーム
前を表す。As described above, by taking the inter-frame difference after the conversion into the dB area, the area where the data b dB (n) is present can be further narrowed. That is, the amplitude of the spectrum rarely changes greatly during a frame interval (for example, about 20 msec), and has a very strong correlation. That is, vector quantization is performed on a value c dB (n) obtained by taking a difference such as c dB (n) = b dB (n) −b ′ dB (n) (2). Here, b ′ dB (n) is a predicted value of b dB (n), and as shown in FIG. 9, an inverse quantization output from the vector quantization unit 15 (local decoder output, code "output b dB (n) is obtained by one-frame delay in the delay circuit 33" dB (n) p equivalent) b vector and alpha multiplied by the multiplier 34, b 'dB (n) = α · b "dB ( n) p (3) Here, p of b ″ dB (n) p represents one frame before.
【0031】このように、フレーム間の振幅の差分をと
ると、より量子化雑音を低減できる反面、符号誤りに弱
くなる。これは、あるフレームでのエラーが、次フレー
ム、次々フレーム・・・へと伝播するからである。そこ
で、一般には、α=0.7〜0.8程度の設定とし、い
わゆるリーキー差分をとるようにしている。それでもな
お符号誤りに対して強くしたい場合にはαを小さくし、
さらには、α=0として(すなわちフレーム間の差分を
とらずに)次の処理工程に移行させるようにしてもよ
い。これは、システム全体のパフォーマンスのバランス
を考えて判断することが必要とされる。As described above, when the difference between the amplitudes of the frames is calculated, the quantization noise can be further reduced, but it is susceptible to a code error. This is because an error in a certain frame propagates to the next frame, the next frame, and so on. Therefore, in general, α is set to about 0.7 to 0.8, and a so-called leaky difference is calculated. If you still want to be strong against code errors, decrease α,
Further, the process may be shifted to the next processing step with α = 0 (that is, without taking the difference between frames). This needs to be determined in consideration of the balance of the performance of the entire system.
【0032】次に、上記フレーム間差分データcdB(n)
の量子化、すなわち配列cdB(n) をM個の要素を持つM
次元ベクトルとしてベクトル量子化する例について述べ
る。差分をとらなかった場合も、α=0と考えれば、c
dB(n) に含めて扱える。このようなM次元ベクトル量子
化しようとするM個のデータをx(n) と置き換える。本
実施例の場合には、x(n) ≡cdB(n) 、1≦n≦Mであ
る。このようなM次元ベクトル量子化出力のインデック
スのビット数をbとするとき、M次元の2 b 個のコード
ベクトルを持つコードブックを直接的にサーチするスト
レートなベクトル量子化も論理的には可能であるが、ベ
クトル量子化の際のコードブックサーチは、M・2b に
比例して演算量が増大し、テーブルのROMサイズに関
しても同様である。そこで、構造化されたコードブック
を有するベクトル量子化の使用がより現実的な方法とな
る。本実施例では、M次元ベクトルを複数個の低次元ベ
クトルに分割し、各々のベクトルの平均値を算出し、そ
の平均値からなるベクトル(上位層)と、平均値を除去
したベクトル群(下位層)とに分け、各々ベクトル量子
化を行うようにしている。Next, the inter-frame difference data c dB (n)
, I.e., the array c dB (n) is transformed into an M element having M elements.
An example in which vector quantization is performed as a dimensional vector will be described. Even if the difference is not taken, if α = 0 is considered, c
can be included in dB (n). Such M data to be quantized in the M-dimensional vector is replaced with x (n). In the case of the present embodiment, x (n) ≡c dB (n), and 1 ≦ n ≦ M. When the number of bits the index of such an M-dimensional vector quantization output is b, straight vector quantization directly searching a codebook having a 2 b number of code vectors of the M-dimensional also logically although, the codebook search during vector quantization, in proportion to M · 2 b calculates the amount of increase is the same for ROM size of the table. Thus, the use of vector quantization with a structured codebook becomes a more realistic method. In this embodiment, the M-dimensional vector is divided into a plurality of low-dimensional vectors, an average value of each vector is calculated, and a vector (upper layer) including the average value and a vector group (lower layer) from which the average value is removed are set. Layers) and performs vector quantization.
【0033】先ず、上記差分データcdB(n) のようなM
個のデータx(n) を、S個のベクトルに分割する。First, M such as the difference data c dB (n)
Data x (n) is divided into S vectors.
【0034】[0034]
【数1】 (Equation 1)
【0035】この(4)式中で、X1,X2,… ,X
S はそれぞれd1,d2,… ,dS 次元のベクトルを表し、
d1 +d2 +…+dS =Mである。またtはベクトルの
転置を示す。前述した図2の具体例は、各ベクトルX
1,X2,… ,XS の次元を全て4としたもの(d1 =
d2 =…=dS =4)に相当する。[0035] in this equation (4), X 1, X 2, ... , X
S each d 1, d 2 is ..., represent d S-dimensional vector,
d 1 + d 2 +... + d S = M. Also, t indicates transposition of a vector. The above-described specific example of FIG.
1, X 2, ... , X S are all 4 dimensions (d 1 =
d 2 =... = d s = 4).
【0036】上記S個のベクトルX1,X2,… ,X
S のそれぞれの要素の平均値をy1,y2,… ,yS とする
と、yi (1≦i≦S)は、The S vectors X 1, X 2, ... , X
Assuming that the average value of each element of S is y 1, y 2, ... , Y S , y i (1 ≦ i ≦ S) becomes
【0037】[0037]
【数2】 (Equation 2)
【0038】と表せる。これらの平均値を要素とするS
次元の平均値ベクトルYを、 Y =(y 1 ,y 2 ,…,y S ) t ・・・(6) と定義する。これは、前記図3に相当する。先ずこのS
次元ベクトルYをベクトル量子化する。ベクトルY
のベクトル量子化には、ストレートベクトル量子化、シ
ェイプ−ゲインベクトル量子化等の方法が考えられる
が、本実施例では、シェイプ−ゲインベクトル量子化を
使う。このシェイプ−ゲインベクトル量子化は、M. J.
Sabin, R. M. Gray, "Product Code Vector Quantizer
for Waveformand Voice Coding", IEEE Trans. on ASS
P, vol. ASSP-32, No.3, June 1984等に述べられてい
る。Can be expressed as follows. S whose average value is an element
The dimensional average vector Y is defined as Y = (y 1 , y 2 ,..., Y s ) t (6). This corresponds to FIG. First, this S
Vector quantization of the dimension vector Y is performed. Vector y
For the vector quantization of (1), methods such as straight vector quantization and shape-gain vector quantization can be considered, but in this embodiment, shape-gain vector quantization is used. This shape-gain vector quantization is MJ
Sabin, RM Gray, "Product Code Vector Quantizer
for Waveformand Voice Coding ", IEEE Trans. on ASS
P, vol. ASSP-32, No. 3, June 1984.
【0039】S次元ベクトルYをベクトル量子化した
結果(S次元ベクトル)をYVQとする。この量子化後
のS次元ベクトルYVQを、 YVQ=(yVQ1 ,yVQ2 ,…,yVQS ) ・・・(7) と表す。このYVQは、元の配列x(n) (≡cdB(n) 、
1≦n≦M)の概略形状あるいは特徴量とみなせる。よ
って、伝送路エラーに対しては、比較的強く保護してや
る必要がある。The result of the vector quantization of the S-dimensional vector Y (S-dimensional vector) is defined as Y VQ . The S-dimensional vector Y VQ after the quantization, Y VQ = (y VQ1, y VQ2, ..., y VQS) expressed as (7). This Y VQ is equal to the original array x (n) (≡c dB (n),
(1 ≦ n ≦ M). Therefore, it is necessary to protect against transmission line errors relatively strongly.
【0040】次に、このS次元ベクトルYVQを基に元
のM次元ベクトルの入力配列x(n)(≡cdB(n) )を何
らかの方法で推定(次元拡張)する。その推定値と、元
の入力配列との誤差分を、次段のベクトル量子化の入力
信号とする。推定方法の例としては、非線形補間(例え
ば、A. Gersho, "Optimal Nonlinear InterpolativeVec
tor Quantization", IEEE Trans. on comm., vol.38, N
o.9, Sep. 1990 等参照)、スプライン補間、多項式補
間、直線補間(1次補間)、0次ホールド等が考えられ
る。ここで優れた補間を行うと、次段のベクトル量子化
への入力ベクトルの存在領域を狭くすることになり、結
果として、より低歪での量子化が可能となる。本実施例
では、最もシンプルな0次ホールドの例(図5参照)を
採用している。Next, based on the S-dimensional vector Y VQ , an input array x (n) (≡c dB (n)) of the original M-dimensional vector is estimated (dimension expansion) by some method. The error between the estimated value and the original input sequence is used as an input signal for the next stage of vector quantization. Examples of the estimation method include non-linear interpolation (for example, A. Gersho, "Optimal Nonlinear InterpolativeVec
tor Quantization ", IEEE Trans. on comm., vol.38, N
o.9, Sep. 1990, etc.), spline interpolation, polynomial interpolation, linear interpolation (first-order interpolation), zero-order hold, and the like. When excellent interpolation is performed here, the area where the input vector exists in the next stage of vector quantization is narrowed, and as a result, quantization with lower distortion can be performed. In this embodiment, the simplest zero-order hold example (see FIG. 5) is employed.
【0041】ここで、S個のベクトルに対応する平均値
除去ベクトル(量子化済み平均値を除去した残差ベクト
ル)をR1,R2,… ,RS と表すと、これらのベク
トルR1,R2,… ,RS は、[0041] Here, the average value removing vectors corresponding to the S vector (residual vector obtained by removing the quantized average value) R 1, R 2, ..., when expressed as R S, these vectors R 1 , R 2, … , R S
【0042】[0042]
【数3】 (Equation 3)
【0043】で求まる。この(8)式中のベクトルI
i (1≦i≦S)は、上記di 次元で全ての要素が1の
単位列ベクトルである。この具体例が上記図6に相当す
る。Is obtained. The vector I in this equation (8)
i (1 ≦ i ≦ S) is a unit column vector in which all the elements are 1 in the di dimension. This specific example corresponds to FIG.
【0044】これらの各残差ベクトルR1,R2,… ,
RS を、各々別々のコードブックを使用してベクトル
量子化する。ここでのベクトル量子化はストレートベク
トル量子化を用いるが、他の構造化されたベクトル量子
化でも勿論可能である。すなわち、各残差ベクトルR
1,R2,… ,RS を要素で表した[0044] Each of these residual vector R 1, R 2, ...,
R S is vector quantized using each separate codebook. Here, the vector quantization uses straight vector quantization, but other structured vector quantization is of course also possible. That is, each residual vector R
1, R 2, … , RS are represented by elements
【0045】[0045]
【数4】 (Equation 4)
【0046】に対し、ベクトル量子化後のデータを、
RVQ1,RVQ2,… ,RVQS 、一般にRVQi で記
す。On the other hand, the data after vector quantization is
R VQ1, R VQ2, ..., R VQS, generally referred to in the R VQi.
【0047】[0047]
【数5】 (Equation 5)
【0048】これは、残差ベクトルRi に対し、量子
化の誤差ベクトルεi が付加されたものとみることが
できる。すなわち、 RVQi =Ri +εi ・・・(11) つまり、This can be regarded as a result of adding a quantization error vector ε i to the residual vector R i . That is, R VQi = R i + ε i (11)
【0049】[0049]
【数6】 (Equation 6)
【0050】この量子化後の各残差ベクトルRVQ1,
RVQ2,… ,RVQS の各要素の具体例が上記図7に相
当する。Each of the quantized residual vectors R VQ1,
A specific example of each element of R VQ2 , ... , R VQS corresponds to FIG.
【0051】エンコーダ側で伝送すべきインデックス出
力は、上記YVQを表す1つのインデックスと、上記S
個の残差ベクトルRVQ1,RVQ2,… ,RVQS を表す
S個のインデクスとなる。なお、シェイプ−ゲインベク
トル量子化では、1つの出力インデックスがシェイプ用
1つとゲイン用1つで表されることになる。The index output to be transmitted on the encoder side is one index representing the Y VQ and the S index
Number of residual vector R VQ1, R VQ2, ..., the S number of the index representing the R VQS. In the shape-gain vector quantization, one output index is represented by one shape index and one gain index.
【0052】次に、ベクトル量子化のデコード値を得る
ためには、以下の処理を行う。伝送されたインデックス
よりテーブルルックアップにより、YVQ、R
VQi (1≦i≦S)を得た後、次の処理を実行する。す
なわち、上記(7)式よりyVQi を求め、XVQi を以
下の様に求める。 XVQi =RVQi +yVQi Ii (1≦i≦S) =Ri +εi +yVQi Ii =Xi −yVQi Ii +εi +yVQi Ii =Xi +εi ・・・(13)Next, the following processing is performed to obtain a decoded value of vector quantization. By table lookup from the transmitted index, Y VQ , R
After obtaining VQi (1 ≦ i ≦ S), the following processing is executed. That is, y VQi is obtained from the above equation (7), and X VQi is obtained as follows. X VQi = R VQi + y VQi I i (1 ≦ i ≦ S) = R i + ε i + y VQi I i = X i -y VQi I i + ε i + y VQi I i = X i + ε i ··· (13)
【0053】よって、デコーダ出力に現れる量子化ノイ
ズは、上記Ri の量子化時に発生したεi のみであ
る。一段目のYの量子化の善し悪しは、直接的に最終
的なノイズには現れない。しかし、その善し悪しによっ
て、二段目のRVQi のベクトル量子化の性能に影響を
与え、結果的にはデコーダ出力の量子化ノイズの大きさ
に寄与することになる。Therefore, the quantization noise appearing in the decoder output is only ε i generated during the quantization of R i . The quality of the first-stage Y quantization does not directly appear in the final noise. However, depending on the quality , the performance of vector quantization of R VQi in the second stage is affected, and as a result, it contributes to the magnitude of the quantization noise of the decoder output.
【0054】このように、ベクトル量子化のコードブッ
クを階層構造にすることにより、 (i)コードブックサーチのための乗加算回数の低減、 (ii)コードブックのためのROM容量の低減、 (iii) 階層的な誤り訂正符号の効果的な活用 が可能となる。As described above, by making the vectorbook codebook a hierarchical structure, (i) the number of times of multiplication and addition for the codebook search is reduced, (ii) the ROM capacity for the codebook is reduced, iii) Hierarchical error correction code can be effectively used.
【0055】上記(i)、(ii)の効果について、具体
例を挙げる。今、M=44、S=7、d1 =d2 =d3
=d4 =5、d5 =d6 =d7 =8とする。また、上記
データx(n) (≡cdB(n) )、1≦n≦Mの量子化に使
用するビット数を48ビットとする。Specific examples of the effects (i) and (ii) will be described. Now, M = 44, S = 7, d 1 = d 2 = d 3
= D 4 = 5 and d 5 = d 6 = d 7 = 8. The number of bits used for quantization of the data x (n) (≡c dB (n)) and 1 ≦ n ≦ M is 48 bits.
【0056】先ず、単純に、M=44次元ベクトルを4
8ビット出力のベクトル量子化すると、コードブックの
テーブルサイズは、248≒2.81×1014となり、そ
れにワード幅(=44)を乗じて、248×44≒1.2
38×1016ワードのテーブルが必要となる。テーブル
サーチの演算量も248×44のオーダの値となる。First, simply, an M = 44-dimensional vector is expressed as 4
When the vector quantization of the 8-bit output is performed, the table size of the codebook becomes 2 48 ≒ 2.81 × 10 14 , which is multiplied by the word width (= 44) to obtain 2 48 ≒ 44 ≒ 1.2.
A table of 38 × 10 16 words is required. The calculation amount of the table search is also a value on the order of 2 48 × 44.
【0057】これに対し、次のようなビット割り当てを
考える。 Y → 13ビット(8ビット:シェイプ、5ビット:ゲイン)、 次元S=7 X1 → 6ビット、 次元d1 =5 X2 → 5ビット、 次元d2 =5 X3 → 5ビット、 次元d3 =5 X4 → 5ビット、 次元d4 =5 X5 → 5ビット、 次元d5 =8 X6 → 5ビット、 次元d6 =8 X7 → 4ビット、 次元d7 =8 計 48ビット、 (M=)44次元 このときのテーブル用容量として、 Y : シェイプ:7×28 =1792、 ゲイン:25 =32 X1 : 5×26 =320 X2 : 5×25 =160 X3 : 5×25 =160 X4 : 5×25 =160 X5 : 8×25 =256 X6 : 8×25 =256 X7 : 8×24 =128 すなわち、計3264ワードが必要となる。テーブルサ
ーチの演算量は、基本的にテーブルサイズのトータルと
同じオーダになるので、略々3264のオーダとなる。
これは、実用上、全く問題のない値である。On the other hand, consider the following bit allocation. Y → 13 bits (8 bits: shape, 5 bits: gain), dimension S = 7 X 1 → 6 bits, dimension d 1 = 5 X 2 → 5 bits, dimension d 2 = 5 X 3 → 5 bits, dimension d 3 = 5 X 4 → 5 bits, Dimension d 4 = 5 X 5 → 5 bits, Dimension d 5 = 8 X 6 → 5 bits, Dimension d 6 = 8 X 7 → 4 bits, Dimension d 7 = 8 Total 48 bits , (M =) 44 dimensions As table capacity at this time, Y: shape: 7 × 2 8 = 1792, gain: 25 = 32 X 1 : 5 × 2 6 = 320 X 2 : 5 × 2 5 = 160 X 3: 5 × 2 5 = 160 X 4: 5 × 2 5 = 160 X 5: 8 × 2 5 = 256 X 6: 8 × 2 5 = 256 X 7: 8 × 2 4 = 128 words, a total of 3264 words Is required. The amount of calculation in the table search is basically the same order as the total size of the table, and is therefore on the order of approximately 3264.
This is a value that poses no problem in practical use.
【0058】また上記(iii) に関して、上記一段目のベ
クトルYの量子化出力インデックスの13ビットは、
全て畳み込み符号等のFEC(Forward Error Correcti
on)で保護するように、X1 〜X7 に関しては、例
えば、それぞれのインデックスの上位3、3、2、2、
2、2、1ビットは保護し、下位ビットは誤り訂正なし
で使う、等といった方法が可能である。その際は、ベク
トル量子化器のインデックスを表すバイナリデータのハ
ミング距離と、そのインデックスによって参照されるコ
ードベクトルのユークリッド距離の間に相互関係をもた
せておく(すなわち、コードベクトルのユークリッド距
離の近いものは、ハミング距離の近いインデックスを割
り振ること等)ことで、より効果的にFECをかけられ
る。Regarding the above (iii), the 13 bits of the quantized output index of the vector Y in the first stage are:
FEC (Forward Error Correcti
on), for X 1 to X 7 , for example, the top 3, 3, 2, 2,
2, 2, and 1 bits can be protected, and the lower bits can be used without error correction. In this case, there is a correlation between the Hamming distance of the binary data representing the index of the vector quantizer and the Euclidean distance of the code vector referred to by the index (that is, a code vector having a short Euclidean distance). Allocating an index having a short Hamming distance, etc.), so that FEC can be applied more effectively.
【0059】ところで、後述するMBE等の音声合成分
析符号化の場合に、音声の有声無声の度合い、ピッチ等
が既に特徴量として抽出されていることを考慮して、そ
れらの特徴量、特に有声/無声の判断結果によってベク
トル量子化のコードブックを切り換えることが可能であ
る。すなわち、有声音時、無声音時は、各々存在するス
ペクトルの形状が大きく異なり、各状態に対応して各々
別々にトレーニングされたコードブックを持つことは、
特性改善上、大変好ましいことである。また、階層構造
化ベクトル量子化の場合、上位層のベクトル量子化は固
定のコードブックとし、下位層のベクトル量子化のコー
ドブックのみ、有声用/無声用の2種を切り換えるよう
にしてもよい。また、周波数軸上のビットアロケーショ
ンも、例えば有声音のときは低音重視、無声音のときは
高音重視に切り換えるようにしてもよい。切換制御に
は、ピッチの有無、周波数軸上での有声音/無声音の含
有比率、スペクトルのレベルや傾き、等を利用すること
ができる。By the way, in the case of speech synthesis analysis coding such as MBE, which will be described later, in consideration of the fact that the voiced unvoiced degree, pitch, etc. of voice have already been extracted as feature quantities, these feature quantities, especially voiced It is possible to switch the codebook for vector quantization depending on the result of the / non-voice determination. That is, at the time of voiced sound, at the time of unvoiced sound, the shape of each existing spectrum is greatly different, and having a codebook trained separately for each state,
This is very favorable in terms of improving characteristics. In the case of hierarchical structured vector quantization, the upper layer vector quantization may be a fixed codebook, and only the lower layer vector quantization codebook may be switched between voiced and unvoiced. . In addition, the bit allocation on the frequency axis may be switched to, for example, emphasizing low sounds for voiced sounds and emphasizing high sounds for unvoiced sounds. The switching control, the presence or absence of the pitch, including voiced / unvoiced on the frequency axis
Yes ratio spectrum level and inclination, etc. can be utilized.
【0060】次に、上述したような高能率符号化方法が
適用可能な、音声信号の合成分析符号化装置(いわゆる
ボコーダ)の一種のMBE(Multiband Excitation: マ
ルチバンド励起)ボコーダの具体例について、図面を参
照しながら説明する。以下に説明するMBEボコーダ
は、D.W. Griffin and J.S. Lim, "MultibandExcitatio
n Vocoder," IEEE Trans.Acoustics,Speech,and Signal
Processing,vol.36, No.8, pp.1223-1235, Aug. 1988
に開示されているものであり、従来のPARCOR(PA
Rtial auto-CORrelation: 偏自己相関)ボコーダ等で
は、音声のモデル化の際に有声音区間と無声音区間とを
ブロックあるいはフレーム毎に切り換えていたのに対
し、MBEボコーダでは、同時刻(同じブロックあるい
はフレーム内)の周波数軸領域に有声音(Voiced)区間
と無声音(Unvoiced)区間とが存在するという仮定でモ
デル化している。Next, a specific example of a kind of MBE (Multiband Excitation) vocoder which is a kind of speech signal synthesis / analysis coding apparatus (so-called vocoder) to which the high efficiency coding method as described above can be applied will be described. This will be described with reference to the drawings. The MBE vocoder described below is compatible with DW Griffin and JS Lim, "MultibandExcitatio
n Vocoder, "IEEE Trans.Acoustics, Speech, and Signal
Processing, vol. 36, No. 8, pp. 1223-1235, Aug. 1988
And the conventional PARCOR (PA
Rtial auto-CORrelation: In vocoders and the like, voiced sections and unvoiced sections are switched for each block or frame when modeling speech, whereas MBE vocoders use the same time (for the same block or The modeling is performed on the assumption that a voiced section (Voiced) section and an unvoiced section (Unvoiced) section exist in the frequency axis region (in a frame).
【0061】図10は、上記MBEボコーダに本発明を
適用した実施例の全体の概略構成を示すブロック図であ
る。この図10において、入力端子101には音声信号
が供給されるようになっており、この入力音声信号は、
HPF(ハイパスフィルタ)等のフィルタ102に送ら
れて、いわゆるDC(直流)オフセット分の除去や帯域
制限(例えば200〜3400Hzに制限)のための少な
くとも低域成分(200Hz以下)の除去が行われる。こ
のフィルタ102を介して得られた信号は、ピッチ抽出
部103及び窓かけ処理部104にそれぞれ送られる。
ピッチ抽出部103では、入力音声信号データが所定サ
ンプル数N(例えばN=256)単位でブロック分割さ
れ(あるいは方形窓による切り出しが行われ)、このブ
ロック内の音声信号についてのピッチ抽出が行われる。
このような切り出しブロック(256サンプル)を、例
えば図11のAに示すようにLサンプル(例えばL=1
60)のフレーム間隔で時間軸方向に移動させており、
各ブロック間のオーバラップはN−Lサンプル(例えば
96サンプル)となっている。また、窓かけ処理部10
4では、1ブロックNサンプルに対して所定の窓関数、
例えばハミング窓をかけ、この窓かけブロックを1フレ
ームLサンプルの間隔で時間軸方向に順次移動させてい
る。FIG. 10 is a block diagram showing the overall schematic configuration of an embodiment in which the present invention is applied to the MBE vocoder. In FIG. 10, an audio signal is supplied to an input terminal 101, and this input audio signal is
The signal is sent to a filter 102 such as an HPF (high-pass filter) to remove a so-called DC (direct current) offset and to remove at least a low-frequency component (200 Hz or less) for band limitation (for example, limited to 200 to 3400 Hz). . The signal obtained through the filter 102 is sent to the pitch extraction unit 103 and the windowing processing unit 104, respectively.
In the pitch extracting section 103, the input audio signal data is divided into blocks (or cut out by a rectangular window) in units of a predetermined number N (for example, N = 256), and the pitch of the audio signal in this block is extracted. .
For example, as shown in FIG. 11A, an L sample (for example, L = 1)
60) is moved in the time axis direction at the frame interval,
The overlap between the blocks is NL samples (for example, 96 samples). In addition, the windowing processing unit 10
4, a predetermined window function for one block N samples,
For example, a hamming window is applied, and the windowed block is sequentially moved in the time axis direction at intervals of one frame L samples.
【0062】このような窓かけ処理を数式で表すと、 xw (k,q) =x(q) w(kL-q) ・・・(14) となる。この(14)式において、kはブロック番号を、q
はデータの時間インデックス(サンプル番号)を表し、
処理前の入力信号のq番目のデータx(q) に対して第k
ブロックの窓(ウィンドウ)関数w(kL-q)により窓かけ
処理されることによりデータxw (k,q) が得られること
を示している。ピッチ抽出部103内での図11のAに
示すような方形窓の場合の窓関数wr (r) は、 wr (r) =1 0≦r<N ・・・(15) =0 r<0,N≦r また、窓かけ処理部104での図11のBに示すような
ハミング窓の場合の窓関数wh (r) は、 wh (r) = 0.54 − 0.46 cos(2πr/(N-1)) 0≦r<N ・・・(16) =0 r<0,N≦r である。このような窓関数wr (r) あるいはwh (r) を
用いるときの上記(14)式の窓関数w(r) (=w(kL-
q))の否零区間は、 0≦kL−q<N これを変形して、 kL−N<q≦kL 従って例えば上記方形窓の場合に窓関数wr (kL-q)=1
となるのは、図12に示すように、kL−N<q≦kL
のときとなる。また、上記(14)〜(16)式は、長さN
(=256)サンプルの窓が、L(=160)サンプル
ずつ前進してゆくことを示している。以下、上記(15)
式、(16)式の各窓関数で切り出された各N点(0≦r
<N)の否零サンプル列を、それぞれxwr(k,r) 、xwh
(k,r) と表すことにする。When such a windowing process is represented by a mathematical formula, xw (k, q) = x (q) w (kL-q) (14) In the equation (14), k is a block number, q
Represents the time index (sample number) of the data,
For the q-th data x (q) of the input signal before processing, the k-th data
This shows that data x w (k, q) can be obtained by performing a windowing process using a block window function (w (kL-q)). The window function wr (r) in the case of a rectangular window as shown in FIG. 11A in the pitch extracting unit 103 is represented by wr (r) = 1 0 ≦ r <N (15) = 0r <0, N ≦ r Further, the window function w h (r) in the case of the Hamming window as shown in FIG. 11B in the windowing processing unit 104 is represented by w h (r) = 0.54−0.46 cos (2πr / (N-1)) 0 ≦ r <N (16) = 0 r <0, N ≦ r. When such a window function w r (r) or w h (r) is used, the window function w (r) (= w (kL−
The non-zero section of q)) is expressed as follows: 0 ≦ kL−q <N By modifying this, kL−N <q ≦ kL Therefore, for example, in the case of the rectangular window, the window function w r (kL−q) = 1
As shown in FIG. 12, kL−N <q ≦ kL
It is time of. Further, the above equations (14) to (16) indicate that the length N
(= 256) indicates that the sample window advances by L (= 160) samples. The following (15)
Each N point (0 ≦ r) extracted by each window function of the equation (16)
<N) are represented by x wr (k, r) and x wh , respectively.
(k, r).
【0063】窓かけ処理部104では、図13に示すよ
うに、上記(16)式のハミング窓がかけられた1ブロッ
ク256サンプルのサンプル列xwh(k,r) に対して17
92サンプル分の0データが付加されて(いわゆる0詰
めされて)2048サンプルとされ、この2048サン
プルの時間軸データ列に対して、直交変換部105によ
り例えばFFT(高速フーリエ変換)等の直交変換処理
が施される。As shown in FIG. 13, the windowing processing unit 104 takes 17 samples from the sample sequence x wh (k, r) of 256 samples per block to which the Hamming window of the above equation (16) is applied.
Zero data for 92 samples is added (so-called zero padding) to make 2048 samples, and the orthogonal transform unit 105 performs orthogonal transform such as FFT (fast Fourier transform) on the time axis data sequence of 2048 samples. Processing is performed.
【0064】ピッチ抽出部103では、上記xwr(k,r)
のサンプル列(1ブロックNサンプル)に基づいてピッ
チ抽出が行われる。このピッチ抽出法には、時間波形の
周期性や、スペクトルの周期的周波数構造や、自己相関
関数を用いるもの等が知られているが、本実施例では、
センタクリップ波形の自己相関法を採用している。この
ときのブロック内でのセンタクリップレベルについて
は、1ブロックにつき1つのクリップレベルを設定して
もよいが、ブロックを細分割した各部(各サブブロッ
ク)の信号のピークレベル等を検出し、これらの各サブ
ブロックのピークレベル等の差が大きいときに、ブロッ
ク内でクリップレベルを段階的にあるいは連続的に変化
させるようにしている。このセンタクリップ波形の自己
相関データのピーク位置に基づいてピッチ周期を決めて
いる。このとき、現在フレームに属する自己相関データ
(自己相関は1ブロックNサンプルのデータを対象とし
て求められる)から複数のピークを求めておき、これら
の複数のピークの内の最大ピークが所定の閾値以上のと
きには該最大ピーク位置をピッチ周期とし、それ以外の
ときには、現在フレーム以外のフレーム、例えば前後の
フレームで求められたピッチに対して所定の関係を満た
すピッチ範囲内、例えば前フレームのピッチを中心とし
て±20%の範囲内にあるピークを求め、このピーク位
置に基づいて現在フレームのピッチを決定するようにし
ている。このピッチ抽出部103ではオープンループに
よる比較的ラフなピッチのサーチが行われ、抽出された
ピッチデータは高精度(ファイン)ピッチサーチ部10
6に送られて、クローズドループによる高精度のピッチ
サーチ(ピッチのファインサーチ)が行われる。In the pitch extracting section 103, the above x wr (k, r)
Is extracted based on the sample sequence (1 block N samples). As the pitch extraction method, a method using a periodicity of a time waveform, a periodic frequency structure of a spectrum, an autocorrelation function, and the like are known.
The autocorrelation method of the center clip waveform is adopted. As for the center clip level in the block at this time, one clip level may be set for each block, but the peak level of the signal of each part (each sub-block) obtained by subdividing the block is detected, and these are detected. When the difference between the peak levels of each sub-block is large, the clip level in the block is changed stepwise or continuously. The pitch period is determined based on the peak position of the autocorrelation data of the center clip waveform. At this time, a plurality of peaks are obtained from the autocorrelation data belonging to the current frame (the autocorrelation is obtained from data of one block N samples), and the maximum peak among the plurality of peaks is equal to or larger than a predetermined threshold. In this case, the maximum peak position is used as the pitch period, and in other cases, a pitch within a pitch range that satisfies a predetermined relationship with the pitch obtained in a frame other than the current frame, for example, the previous and next frames, for example, the center of the pitch of the previous frame As a result, a peak within a range of ± 20% is obtained, and the pitch of the current frame is determined based on the peak position. In the pitch extracting section 103, a relatively rough pitch search by an open loop is performed, and the extracted pitch data is input to a high-precision (fine) pitch searching section 10
6 to perform a high-precision pitch search (fine search of pitch) by a closed loop.
【0065】高精度(ファイン)ピッチサーチ部106
には、ピッチ抽出部103で抽出された整数(インテジ
ャー)値の粗(ラフ)ピッチデータと、直交変換部10
5により例えばFFTされた周波数軸上のデータとが供
給されている。この高精度ピッチサーチ部106では、
上記粗ピッチデータ値を中心に、0.2〜0.5きざみで±
数サンプルずつ振って、最適な小数点付き(フローティ
ング)のファインピッチデータの値へ追い込む。このと
きのファインサーチの手法として、いわゆる合成による
分析 (Analysis by Synthesis)法を用い、合成されたパ
ワースペクトルが原音のパワースペクトルに最も近くな
るようにピッチを選んでいる。High precision (fine) pitch search section 106
Contains the coarse (rough) pitch data of the integer value extracted by the pitch extracting unit 103 and the orthogonal transform unit 10.
5, for example, the data on the frequency axis that has been subjected to the FFT. In the high precision pitch search unit 106,
With the coarse pitch data value as the center, ± 0.2 steps
Shake several samples at a time to drive to the optimal fine pitch data with a decimal point (floating). At this time, as a method of fine search, a so-called analysis by synthesis method is used, and the pitch is selected so that the synthesized power spectrum is closest to the power spectrum of the original sound.
【0066】このピッチのファインサーチについて説明
する。先ず、上記MBEボコーダにおいては、上記FF
T等により直交変換された周波数軸上のスペクトルデー
タとしてのS(j) を S(j) =H(j) |E(j) | 0<j<J ・・・(17) と表現するようなモデルを想定している。ここで、Jは
ω s /4π=fs /2に対応し、サンプリング周波数f
s =ω s /2πが例えば8kHzのときには4kHzに対応
する。上記(17)式中において、周波数軸上のスペクト
ルデータS(j) が図14のAに示すような波形のとき、
H(j) は、図14のBに示すような元のスペクトルデー
タS(j) のスペクトル包絡線(エンベロープ)を示し、
E(j) は、図14のCに示すような等レベルで周期的な
励起信号(エキサイテイション)のスペクトルを示して
いる。すなわち、FFTスペクトルS(j) は、スペクト
ルエンベロープH(j) と励起信号のパワースペクトル|
E(j) |との積としてモデル化される。The fine search of the pitch will be described. First, in the MBE vocoder, the FF
S (j) as spectrum data on the frequency axis orthogonally transformed by T or the like is expressed as S (j) = H (j) | E (j) | 0 <j <J (17) Model is assumed. Where J is
ω s / 4π = f s / 2 in response, the sampling frequency f
s = when ω s / 2π is, for example, 8kHz corresponding to 4kHz. In the above equation (17), when the spectrum data S (j) on the frequency axis has a waveform as shown in FIG.
H (j) indicates the spectral envelope of the original spectral data S (j) as shown in FIG.
E (j) indicates the spectrum of the excitation signal (excitation) at the same level and periodic as shown in FIG. 14C. That is, the FFT spectrum S (j) is represented by the spectrum envelope H (j) and the power spectrum of the excitation signal |
E (j) |
【0067】上記励起信号のパワースペクトル|E(j)
|は、上記ピッチに応じて決定される周波数軸上の波形
の周期性(ピッチ構造)を考慮して、1つの帯域(バン
ド)の波形に相当するスペクトル波形を周波数軸上の各
バンド毎に繰り返すように配列することにより形成され
る。この1バンド分の波形は、例えば上記図13に示す
ような256サンプルのハミング窓関数に1792サン
プル分の0データを付加(0詰め)した波形を時間軸信
号と見なしてFFTし、得られた周波数軸上のある帯域
幅を持つインパルス波形を上記ピッチに応じて切り出す
ことにより形成することができる。Power spectrum | E (j) of the above excitation signal
| Takes into account the periodicity (pitch structure) of the waveform on the frequency axis determined according to the pitch, and converts the spectrum waveform corresponding to the waveform of one band (band) for each band on the frequency axis. It is formed by arranging it repeatedly. The waveform for one band is obtained by performing a FFT by regarding a waveform obtained by adding 0 data of 1792 samples (0 padding) to a Hamming window function of 256 samples as shown in FIG. It can be formed by cutting out an impulse waveform having a certain bandwidth on the frequency axis according to the pitch.
【0068】次に、上記ピッチに応じて分割された各バ
ンド毎に、上記H(j) を代表させるような(各バンド毎
のエラーを最小化するような)値(一種の振幅)|Am
|を求める。ここで、例えば第mバンド(第m高調波の
帯域)の下限、上限の点をそれぞれam 、bm とすると
き、この第mバンドのエラーεm は、Next, for each band divided according to the pitch, a value (a kind of amplitude) | A representative of the above H (j) (to minimize the error for each band) m
| Here, for example, when the lower and upper points of the m-th band (band of the m-th harmonic) are a m and b m , respectively, the error ε m of the m-th band is
【0069】[0069]
【数7】 (Equation 7)
【0070】で表せる。このエラーεm を最小化するよ
うな|Am |は、Can be expressed by | A m | that minimizes this error ε m is
【0071】[0071]
【数8】 (Equation 8)
【0072】となり、この(19)式の|Am |のとき、
エラーεm を最小化する。このような振幅|Am |を各
バンド毎に求め、得られた各振幅|Am |を用いて上記
(18)式で定義された各バンド毎のエラーεm を求め
る。次に、このような各バンド毎のエラーεm の全バン
ドの総和値Σεm を求める。さらに、このような全バン
ドのエラー総和値Σεm を、いくつかの微小に異なるピ
ッチについて求め、エラー総和値Σεm が最小となるよ
うなピッチを求める。When | A m | in equation (19),
Minimize the error ε m . The amplitude | A m | is obtained for each band, and the error ε m for each band defined by the above equation (18) is obtained using the obtained amplitude | A m |. Next, a total value Σε m of all the bands of the error ε m for each band is obtained. Further, the error sum Shigumaipushiron m of all such bands, calculated for different pitches to some small, obtaining the pitch as an error sum Shigumaipushiron m is minimized.
【0073】すなわち、上記ピッチ抽出部103で求め
られたラフピッチを中心として、例えば 0.25 きざみで
上下に数種類ずつ用意する。これらの複数種類の微小に
異なるピッチの各ピッチに対してそれぞれ上記エラー総
和値Σεm を求める。この場合、ピッチが定まるとバン
ド幅が決まり、上記(19)式より、周波数軸上データの
パワースペクトル|S(j) |と励起信号スペクトル|E
(j) |とを用いて上記(18)式のエラーεm を求め、そ
の全バンドの総和値Σεm を求めることができる。この
エラー総和値Σεm を各ピッチ毎に求め、最小となるエ
ラー総和値に対応するピッチを最適のピッチとして決定
するわけである。以上のようにして高精度ピッチサーチ
部106で最適のファイン(例えば 0.25 きざみ)ピッ
チが求められ、この最適ピッチに対応する振幅|Am |
が決定される。That is, several types are prepared above and below, for example, in increments of 0.25 with the rough pitch obtained by the pitch extraction unit 103 as the center. Each respective pitches of different pitches to these plurality of types of fine finding the error sum Σε m. In this case, when the pitch is determined, the bandwidth is determined. From the above equation (19), the power spectrum | S (j) | of the data on the frequency axis and the excitation signal spectrum | E
(j) | seek error epsilon m of the equation (18) using a, can be obtained sum Shigumaipushiron m of all the bands. Obtains the error sum Shigumaipushiron m for each pitch, is not to determine the pitch corresponding to error sum total value which is the smallest as the optimal pitch. As described above, the optimum fine (for example, in increments of 0.25) pitch is obtained by the high-precision pitch search unit 106, and the amplitude | A m |
Is determined.
【0074】以上ピッチのファインサーチの説明におい
ては、説明を簡略化するために、全バンドが有声音(Vo
iced)の場合を想定しているが、上述したようにMBE
ボコーダにおいては、同時刻の周波数軸上に無声音(Un
voiced)領域が存在するというモデルを採用しているこ
とから、上記各バンド毎に有声音/無声音の判別を行う
ことが必要とされる。In the above description of the fine search of the pitch, in order to simplify the description, all the bands are voiced (Vo).
iced), but the MBE
In a vocoder, an unvoiced sound (Un
Since the model in which a voiced) region exists is used, it is necessary to discriminate voiced / unvoiced sounds for each band.
【0075】上記高精度ピッチサーチ部106からの最
適ピッチ及び振幅|Am |のデータは、有声音/無声音
判別部107に送られ、上記各バンド毎に有声音/無声
音の判別が行われる。この判別のために、NSR(ノイ
ズtoシグナル比)を利用する。すなわち、第mバンド
のNSRは、The data of the optimum pitch and amplitude | A m | from the high-precision pitch search unit 106 is sent to the voiced / unvoiced sound discriminating unit 107, and the voiced / unvoiced sound is discriminated for each band. For this determination, NSR (noise-to-signal ratio) is used. That is, the NSR of the m-th band is
【0076】[0076]
【数9】 (Equation 9)
【0077】と表せ、このNSR値が所定の閾値(例え
ば0.3)より大のとき(エラーが大きい)ときには、そ
のバンドでの|Am ||E(j) |による|S(j) |の近
似が良くない(上記励起信号|E(j) |が基底として不
適当である)と判断でき、当該バンドをUV(Unvoice
d、無声音)と判別する。これ以外のときは、近似があ
る程度良好に行われていると判断でき、そのバンドをV
(Voiced、有声音)と判別する。When this NSR value is larger than a predetermined threshold value (for example, 0.3) (error is large), | S (j) by | A m || E (j) | | Is not good (the excitation signal | E (j) | is inappropriate as a basis), and the band is identified by UV (Unvoice
d, unvoiced sound). In other cases, it can be determined that the approximation has been performed to some extent, and the band is
(Voiced, voiced sound).
【0078】次に、振幅再評価部108には、直交変換
部105からの周波数軸上データ、高精度ピッチサーチ
部106からのファインピッチと評価された振幅|Am
|との各データ、及び上記有声音/無声音判別部107
からのV/UV(有声音/無声音)判別データが供給さ
れている。この振幅再評価部108では、有声音/無声
音判別部107において無声音(UV)と判別されたバ
ンドに関して、再度振幅を求めている。このUVのバン
ドについての振幅|Am |UVは、Next, the amplitude re-evaluation unit 108 receives the on-frequency data from the orthogonal transformation unit 105 and the amplitude | A m evaluated as a fine pitch from the high-precision pitch search unit 106.
| And the voiced / unvoiced sound discriminating unit 107
V / UV (voiced sound / unvoiced sound) discrimination data is supplied. The amplitude reevaluating unit 108 calculates the amplitude again for the band determined to be unvoiced (UV) by the voiced / unvoiced sound determining unit 107. The amplitude | A m | UV for this UV band is
【0079】[0079]
【数10】 (Equation 10)
【0080】にて求められる。Is obtained.
【0081】この振幅再評価部108からのデータは、
データ数変換(一種のサンプリングレート変換)部10
9に送られる。このデータ数変換部109は、上記ピッ
チに応じて周波数軸上での分割帯域数が異なり、データ
数(特に振幅データの数)が異なることを考慮して、一
定の個数にするためのものである。すなわち、例えば有
効帯域を3400Hzまでとすると、この有効帯域が上記
ピッチに応じて、8バンド〜63バンドに分割されるこ
とになり、これらの各バンド毎に得られる上記振幅|A
m |(UVバンドの振幅|Am |UVも含む)データの個
数mMX+1も8〜63と変化することになる。このため
データ数変換部109では、この可変個数mMX+1の振
幅データを一定個数NC (例えば44個)のデータに変
換している。The data from the amplitude reevaluating unit 108 is
Data number conversion (a kind of sampling rate conversion) unit 10
9 The data number conversion unit 109 is provided to make the number constant in consideration of the fact that the number of division bands on the frequency axis differs according to the pitch and the number of data (particularly the number of amplitude data) differs. is there. That is, for example, if the effective band is up to 3400 Hz, this effective band is divided into 8 to 63 bands according to the pitch, and the amplitude | A obtained for each of these bands is obtained.
The number m MX +1 of m | (including the amplitude of the UV band | A m | UV ) data also changes from 8 to 63. Therefore, the data number conversion unit 109 converts the variable number m MX +1 of amplitude data into a fixed number N C (for example, 44) data.
【0082】ここで本実施例においては、周波数軸上の
有効帯域1ブロック分の振幅データに対して、ブロック
内の最後のデータからブロック内の最初のデータまでの
値を補間するようなダミーデータを付加してデータ個数
をNF 個に拡大した後、帯域制限型のKOS倍(例えば8
倍)のオーバーサンプリングを施すことによりKOS倍の
個数の振幅データを求め、このKOS倍の個数((mMX+
1)×KOS個)の振幅データを直線補間してさらに多く
のNM 個(例えば2048個)に拡張し、このNM 個の
データを間引いて上記一定個数NC (例えば44個)の
データに変換する。Here, in this embodiment, dummy data which interpolates values from the last data in a block to the first data in a block with respect to the amplitude data of one effective band on the frequency axis. Is added to expand the number of data to N F , and then the band-limited K OS times (for example, 8
Obtain an amplitude data of K OS times the number by performing oversampling multiplied), the K OS times the number ((m MX +
1) × K OS amplitude data is linearly interpolated and expanded to more N M (for example, 2048), and this N M data is decimated to obtain the constant number N C (for example, 44). Convert to data.
【0083】このデータ数変換部109からのデータ
(上記一定個数NC の振幅データ)がベクトル量子化部
110に送られて、所定個数のデータ毎にまとめられて
ベクトルとされ、ベクトル量子化が施される。このベク
トル量子化部110として、上述した図1に示すような
階層構造化されたベクトル量子化部15が用いられる。
従って、出力端子111を介して取り出されるベクトル
量子化部110からの量子化出力データは、上記図1の
S次元ベクトル量子化器22から出力端子26を介して
取り出される上位側のインデックスデータと、各ベクト
ル量子化器251〜25S から各出力端子271 〜27
S を介してそれぞれ取り出される下位側のインデックス
データとをあわせたものとなる。The data (the fixed number N C of amplitude data) from the data number conversion unit 109 is sent to the vector quantization unit 110 and is grouped into a predetermined number of data to form a vector. Will be applied. As the vector quantization unit 110, the above-described hierarchically structured vector quantization unit 15 as shown in FIG. 1 is used.
Therefore, the quantized output data from the vector quantizing unit 110 extracted via the output terminal 111 includes upper-order index data extracted from the S-dimensional vector quantizer 22 shown in FIG. Each of the vector quantizers 25 1 to 25 S to each output terminal 27 1 to 27
This is a combination of the lower index data extracted through S.
【0084】また、上記高精度のピッチサーチ部106
からの高精度(ファイン)ピッチデータは、ピッチ符号
化部115で符号化され、出力端子112を介して取り
出される。さらに、上記有声音/無声音判別部107か
らの有声音/無声音(V/UV)判別データは、出力端
子113を介して取り出される。そして、これらの各出
力端子111〜113からのデータは、所定の伝送フォ
ーマットの信号とされて伝送される。The high-precision pitch search unit 106
, High-precision (fine) pitch data is encoded by the pitch encoding unit 115 and extracted via the output terminal 112. Further, the voiced / unvoiced sound (V / UV) discrimination data from the voiced / unvoiced sound discriminating unit 107 is extracted via an output terminal 113. The data from each of these output terminals 111 to 113 is transmitted as a signal of a predetermined transmission format.
【0085】なお、これらの各データは、上記Nサンプ
ル(例えば256サンプル)のブロック内のデータに対
して処理を施すことにより得られるものであるが、ブロ
ックは時間軸上を上記Lサンプルのフレームを単位とし
て前進することから、伝送するデータは上記フレーム単
位で得られる。すなわち、上記フレーム周期でピッチデ
ータ、V/UV判別データ、振幅データが更新されるこ
とになる。Each of these data is obtained by processing the data in the block of N samples (for example, 256 samples). , The data to be transmitted is obtained in the frame unit. That is, the pitch data, V / UV discrimination data, and amplitude data are updated in the frame cycle.
【0086】次に、本発明に係る復号化方法の実施例に
ついて、図面を参照しながら説明する。図15は、伝送
されて得られた上記各データに基づき音声信号を合成す
るための、本発明の一実施例となる合成側(デコーダ
側)の概略構成を示している。この図15において、入
力端子121には上記ベクトル量子化された振幅データ
が、入力端子122には上記符号化されたピッチデータ
が、また入力端子123には上記V/UV判別データが
それぞれ供給される。入力端子121からの量子化振幅
データは、逆ベクトル量子化部124に送られて逆量子
化される。この逆ベクトル量子化部124も、上記図1
の階層構造化ベクトル量子化部15に対応する階層構造
化された逆ベクトル量子化部であり、上記各階層のイン
デックスデータに基づいて逆ベクトル量子化されたデー
タを合成して出力する。Next, an embodiment of a decoding method according to the present invention will be described with reference to the drawings. FIG. 15 shows a schematic configuration of a synthesizing side (decoder side) according to an embodiment of the present invention for synthesizing an audio signal based on each of the data obtained by transmission. 15, the input terminal 121 is supplied with the vector-quantized amplitude data, the input terminal 122 is supplied with the encoded pitch data, and the input terminal 123 is supplied with the V / UV discrimination data. You. The quantized amplitude data from the input terminal 121 is sent to the inverse vector quantizer 124 and inversely quantized. This inverse vector quantization unit 124 is also used in FIG.
Is a hierarchically structured inverse vector quantization unit corresponding to the hierarchically structured vector quantization unit 15, and synthesizes and outputs the inverse vector quantized data based on the index data of each layer.
【0087】この逆ベクトル量子化部124からの出力
データは、データ数逆変換部125に送られて逆変換さ
れ、得られた振幅データが有声音合成部126及び無声
音合成部127に送られる。入力端子122からの符号
化ピッチデータは、ピッチ復号化部128で復号化さ
れ、データ数逆変換部125、有声音合成部126及び
無声音合成部127に送られる。また入力端子123か
らのV/UV判別データは有声音合成部126及び無声
音合成部127に送られる。The output data from the inverse vector quantization unit 124 is sent to the data number inverse conversion unit 125 where it is inversely transformed, and the obtained amplitude data is sent to the voiced sound synthesis unit 126 and the unvoiced sound synthesis unit 127. The encoded pitch data from the input terminal 122 is decoded by the pitch decoder 128 and sent to the data number inverse converter 125, the voiced sound synthesizer 126, and the unvoiced sound synthesizer 127. The V / UV discrimination data from input terminal 123 is sent to voiced sound synthesis section 126 and unvoiced sound synthesis section 127.
【0088】有声音合成部126では例えば余弦(cosin
e)波合成により時間軸上の有声音波形を合成し、無声音
合成部127では例えばホワイトノイズをバンドパスフ
ィルタでフィルタリングして時間軸上の無声音波形を合
成し、これらの各有声音合成波形と無声音合成波形とを
加算部129で加算合成して、出力端子130より取り
出すようにしている。この場合、上記振幅データ、ピッ
チデータ及びV/UV判別データは、上記分析時の1フ
レーム(Lサンプル、例えば160サンプル)毎に更新
されて与えられるが、フレーム間の連続性を高める(円
滑化する)ために、上記振幅データやピッチデータの各
値を1フレーム中の例えば中心位置における各データ値
とし、次のフレームの中心位置までの間(合成時の1フ
レーム)の各データ値を補間により求める。すなわち、
合成時の1フレーム(例えば上記分析フレームの中心か
ら次の分析フレームの中心まで)において、先端サンプ
ル点での各データ値と終端(次の合成フレームの先端)
サンプル点での各データ値とが与えられ、これらのサン
プル点間の各データ値を補間により求めるようにしてい
る。The voiced sound synthesizing section 126 has, for example, a cosine (cosin
e) A voiced sound waveform on the time axis is synthesized by wave synthesis, and the unvoiced sound synthesis unit 127 synthesizes an unvoiced sound waveform on the time axis by filtering, for example, white noise with a band-pass filter. The unvoiced sound synthesized waveform is added and synthesized by the adder 129 and extracted from the output terminal 130. In this case, the amplitude data, the pitch data, and the V / UV discrimination data are updated and provided every frame (L samples, for example, 160 samples) at the time of the analysis, but the continuity between the frames is improved (smoothness). For example, each value of the amplitude data and the pitch data is set as a data value at, for example, a center position in one frame, and each data value up to the center position of the next frame (one frame at the time of synthesis) is interpolated. Ask by That is,
In one frame at the time of synthesis (for example, from the center of the analysis frame to the center of the next analysis frame), each data value at the leading sample point and the end point (the leading edge of the next combined frame)
Each data value at a sample point is given, and each data value between these sample points is obtained by interpolation.
【0089】以下、有声音合成部126における合成処
理を詳細に説明する。上記V(有声音)と判別された第
mバンド(第m高調波の帯域)における時間軸上の上記
1合成フレーム(Lサンプル、例えば160サンプル)
分の有声音をVm (n) とするとき、この合成フレーム内
の時間インデックス(サンプル番号)nを用いて、 Vm (n) =Am (n) cos(θm (n)) 0≦n<L ・・・(22) と表すことができる。全バンドの内のV(有声音)と判
別された全てのバンドの有声音を加算(ΣVm (n) )し
て最終的な有声音V(n) を合成する。Hereinafter, the synthesizing process in voiced sound synthesizing section 126 will be described in detail. The one synthesized frame (L samples, for example, 160 samples) on the time axis in the m-th band (m-th harmonic band) determined as V (voiced sound)
Assuming that the voiced sound of the minute is V m (n), V m (n) = A m (n) cos (θ m (n)) 0 using the time index (sample number) n in this synthesized frame. ≦ n <L (22) The final voiced sound V (n) is synthesized by adding (ΣV m (n)) the voiced sounds of all the bands determined as V (voiced sound) in all the bands.
【0090】この(22)式中のAm (n) は、上記合成フ
レームの先端から終端までの間で補間された第m高調波
の振幅である。最も簡単には、フレーム単位で更新され
る振幅データの第m高調波の値を直線補間すればよい。
すなわち、上記合成フレームの先端(n=0)での第m
高調波の振幅値をA0m、該合成フレームの終端(n=
L:次の合成フレームの先端)での第m高調波の振幅値
をALmとするとき、 Am (n) = (L-n)A0m/L+nALm/L ・・・(23) の式によりAm (n) を計算すればよい。A m (n) in the equation (22) is the amplitude of the m-th harmonic interpolated from the top to the end of the composite frame. In the simplest case, the value of the m-th harmonic of the amplitude data updated for each frame may be linearly interpolated.
That is, the m-th position at the end (n = 0) of the composite frame
The amplitude value of the harmonic is A 0m , and the end of the synthesized frame (n =
L: When the amplitude value of the m-th harmonic at the tip) of the next synthesized frame is A Lm, the formula A m (n) = (Ln ) A 0m / L + nA Lm / L ··· (23) A m (n) may be calculated.
【0091】次に、上記(9)式中の位相θm (n) は、 θ m (n) =mωO1n+n2 m(ωL1−ω01)/2L+φ0m+Δωn ・・・(24) により求めることができる。この(24)式中で、φ0mは
上記合成フレームの先端(n=0)での第m高調波の位
相(フレーム初期位相)を示し、ω01は合成フレーム先
端(n=0)での基本角周波数、ωL1は該合成フレーム
の終端(n=L:次の合成フレーム先端)での基本角周
波数をそれぞれ示している。上記(24)式中のΔωは、
n=Lにおける位相φLmがθm (L) に等しくなるような
最小のΔωを設定する。[0091] Next, the (9) phase theta m (n) in the expression by θ m (n) = mω O1 n + n 2 m (ω L1 -ω 01) / 2L + φ 0m + Δωn ··· (24) You can ask. In the equation (24), φ 0m indicates the phase of the m-th harmonic (frame initial phase) at the front end (n = 0) of the composite frame, and ω 01 indicates the phase at the front end (n = 0) of the composite frame. The fundamental angular frequency ω L1 indicates the fundamental angular frequency at the end of the combined frame (n = L: the leading end of the next combined frame). Δω in the above equation (24) is
The minimum Δω is set so that the phase φ Lm at n = L becomes equal to θ m (L).
【0092】以下、任意の第mバンドにおいて、それぞ
れn=0、n=LのときのV/UV判別結果に応じた上
記振幅Am (n) 、位相θm (n) の求め方を説明する。第
mバンドが、n=0、n=LのいずれもV(有声音)と
される場合に、振幅Am (n) は、上述した(23)式によ
り、伝送された振幅値A0m、ALmを直線補間して振幅A
m (n) を算出すればよい。位相θm (n) は、n=0でθ
m (0) =φ0mからn=Lでθm (L) がφLmとなるように
Δωを設定する。Hereinafter, a method of obtaining the amplitude A m (n) and the phase θ m (n) according to the V / UV discrimination result when n = 0 and n = L in an arbitrary m-th band will be described. I do. When the m-th band is V (voiced sound) for both n = 0 and n = L, the amplitude A m (n) is calculated by the above equation (23) using the transmitted amplitude values A 0m , A Amplitude A by linear interpolation of A Lm
m (n) may be calculated. The phase θ m (n) is n = 0 and θ
Δω is set so that θ m (L) becomes φ Lm when m (0) = φ 0m and n = L.
【0093】次に、n=0のときV(有声音)で、n=
LのときUV(無声音)とされる場合に、振幅Am (n)
は、Am (0) の伝送振幅値A0mからAm (L) で0となる
ように直線補間する。n=Lでの伝送振幅値ALmは無声
音の振幅値であり、後述する無声音合成の際に用いられ
る。位相θm (n) は、θm (0) =φ0mとし、かつΔω=
0とする。Next, when n = 0, V (voiced sound) and n =
If L (unvoiced sound) at L, the amplitude A m (n)
Is linearly interpolated so that 0 A m (L) from the transmission amplitude value A 0 m of A m (0). The transmission amplitude value A Lm at n = L is the amplitude value of the unvoiced sound, and is used in unvoiced sound synthesis described later. Phase θ m (n) is set to θ m (0) = φ 0m , and [Delta] [omega =
Set to 0.
【0094】さらに、n=0のときUV(無声音)で、
n=LのときV(有声音)とされる場合には、振幅Am
(n) は、n=0での振幅Am (0) を0とし、n=Lで伝
送された振幅値ALmとなるように直線補間する。位相θ
m (n) については、n=0での位相θm (0) として、フ
レーム終端での位相値φLmを用いて、 θm (0) =φLm−m(ωO1+ωL1)L/2 ・・・(25) とし、かつΔω=0とする。Further, UV (unvoiced sound) when n = 0,
If V = voiced sound when n = L, the amplitude Am
(n) sets the amplitude A m (0) at n = 0 to 0 and performs linear interpolation so that the transmitted amplitude value A Lm at n = L. Phase θ
The m (n), the phase theta m as (0) at n = 0, by using the phase value phi Lm at the frame end, θ m (0) = φ Lm -m (ω O1 + ω L1) L / 2 (25) and Δω = 0.
【0095】上記n=0、n=LのいずれもV(有声
音)とされる場合に、θm (L) がφLmとなるようにΔω
を設定する手法について説明する。上記(11)式で、n
=Lと置くことにより、 θm (L) =mωO1L+L2 m(ωL1−ω01)/2L+φ0m+ΔωL =m(ωO1+ωL1)L/2+φ0m+ΔωL =φLm となり、これを整理すると、Δωは、 Δω=(mod2π((φLm−φ0m) − mL(ωO1+ωL1)/2)/L ・・・(26) となる。この(26)式でmod2π(x) とは、xの主値を−
π〜+πの間の値で返す関数である。例えば、x=1.3
πのときmod2π(x) =−0.7π、x=2.3πのときmod2
π(x) =0.3π、x=−1.3πのときmod2π(x) =0.7
π、等である。When both n = 0 and n = L are V (voiced sound), Δω is set so that θ m (L) becomes φ Lm.
The method for setting is described. In the above equation (11), n
= By placing the L, θ m (L) = mω O1 L + L 2 m (ω L1 -ω 01) / 2L + φ 0m + ΔωL = m (ω O1 + ω L1) L / 2 + φ 0m + ΔωL = φ Lm becomes, organize this Then, [Delta] [omega is, Δω = (mod2π ((φ Lm -φ 0m) - and mL become (ω O1 + ω L1) / 2) / L ··· (26) this equation (26) in mod2π (x). Is the main value of x
This function returns a value between π and + π. For example, x = 1.3
mod2π (x) = -0.7π when π, mod2 when x = 2.3π
When π (x) = 0.3π, x = -1.3π, mod2π (x) = 0.7
π, and so on.
【0096】ここで、図16のAは、音声信号のスペク
トルの一例を示しており、バンド番号(ハーモニクスナ
ンバ)mが8、9、10の各バンドがUV(無声音)と
され、他のバンドはV(有声音)とされている。このV
(有声音)のバンドの時間軸信号が上記有声音合成部1
26により合成され、UV(無声音)のバンドの時間軸
信号が無声音合成部127で合成されるわけである。FIG. 16A shows an example of the spectrum of an audio signal. Bands (harmonic numbers) m of 8, 9, and 10 are set to UV (unvoiced sound) and other bands are set to UV (unvoiced sound). Is V (voiced sound). This V
The time axis signal of the (voiced sound) band is the voiced sound synthesis unit 1
26, and the time axis signal of the UV (unvoiced sound) band is synthesized by the unvoiced sound synthesis unit 127.
【0097】以下、無声音合成部127における無声音
合成処理を説明する。ホワイトノイズ発生部131から
の時間軸上のホワイトノイズ信号波形を、所定の長さ
(例えば256サンプル)で適当な窓関数(例えばハミ
ング窓)により窓かけをし、STFT処理部132によ
りSTFT(ショートタームフーリエ変換)処理を施す
ことにより、図16のBに示すようなホワイトノイズの
周波数軸上のパワースペクトルを得る。このSTFT処
理部132からのパワースペクトルをバンド振幅処理部
133に送り、図16のCに示すように、上記UV(無
声音)とされたバンド(例えばm=8、9、10)につ
いて上記振幅|Am |UVを乗算し、他のV(有声音)と
されたバンドの振幅を0にする。このバンド振幅処理部
133には上記振幅データ、ピッチデータ、V/UV判
別データが供給されている。バンド振幅処理部133か
らの出力は、ISTFT処理部134に送られ、位相は
元のホワイトノイズの位相を用いて逆STFT処理を施
すことにより時間軸上の信号に変換する。ISTFT処
理部134からの出力は、オーバーラップ加算部135
に送られ、時間軸上で適当な(元の連続的なノイズ波形
を復元できるように)重み付けをしながらオーバーラッ
プ及び加算を繰り返し、連続的な時間軸波形を合成す
る。オーバーラップ加算部135からの出力信号が上記
加算部129に送られる。Hereinafter, the unvoiced sound synthesizing process in the unvoiced sound synthesizing section 127 will be described. The white noise signal waveform on the time axis from the white noise generating unit 131 is windowed with an appropriate window function (for example, a hamming window) with a predetermined length (for example, 256 samples), and the STFT (short circuit) is performed by the STFT processing unit 132. By performing a term Fourier transform) process, a power spectrum on the frequency axis of white noise as shown in FIG. 16B is obtained. The power spectrum from the STFT processing unit 132 is sent to the band amplitude processing unit 133, and as shown in FIG. 16C, the amplitude | for the UV (unvoiced) band (for example, m = 8, 9, 10) Am | UV is multiplied, and the amplitude of the other V (voiced sound) bands is set to zero. The band amplitude processing section 133 is supplied with the amplitude data, the pitch data, and the V / UV discrimination data. The output from the band amplitude processing unit 133 is sent to the ISTFT processing unit 134, and the phase is converted to a signal on the time axis by performing inverse STFT processing using the phase of the original white noise. The output from the ISTFT processing unit 134 is output to an overlap adding unit 135.
And repeats the overlap and addition while weighting appropriately (to restore the original continuous noise waveform) on the time axis to synthesize a continuous time axis waveform. The output signal from the overlap adding unit 135 is sent to the adding unit 129.
【0098】このように、各合成部126、127にお
いて合成されて時間軸上に戻された有声音部及び無声音
部の各信号は、加算部129により適当な固定の混合比
で加算して、出力端子130より再生された音声信号を
取り出す。As described above, the respective signals of the voiced sound portion and the unvoiced sound portion that have been synthesized in the synthesis portions 126 and 127 and returned on the time axis are added by the addition portion 129 at an appropriate fixed mixing ratio. The reproduced audio signal is extracted from the output terminal 130.
【0099】なお、上記図10の音声分析側(エンコー
ド側)の構成や図16の音声合成側(デコード側)の構
成については、各部をハードウェア的に記載している
が、いわゆるDSP(ディジタル信号プロセッサ)等を
用いてソフトウェアプログラムにより実現することも可
能である。As for the configuration on the voice analysis side (encoding side) in FIG. 10 and the configuration on the voice synthesis side (decoding side) in FIG. 16, each part is described in terms of hardware. It can also be realized by a software program using a signal processor) or the like.
【0100】なお、本発明は上記実施例のみに限定され
るものではなく、例えば、音声信号のみならず、音響信
号を入力信号として用いることもできる。The present invention is not limited to the above embodiment. For example, not only audio signals but also audio signals can be used as input signals.
【0101】[0101]
【発明の効果】以上の説明から明らかなように、本発明
に係る符号化方法によれば、構造化されたコードブック
を用い、M次元ベクトルのデータを複数グループに分割
して各グループ毎に代表値を求めることにより次元をS
次元(S<M)に低下させ、このS次元ベクトルのデー
タに対して第1のベクトル量子化を施し、この第1のベ
クトル量子化の際のローカルデコード出力となるS次元
のコードベクトルを求め、このS次元のコードベクトル
を元のM次元のベクトルに拡張して元の上記M次元のベ
クトルの周波数軸上データとの関係を表すデータを求
め、このデータに対して第2のベクトル量子化を施して
いるため、コードブックサーチの演算量が低減され、コ
ードブックのためのメモリ容量が少なくて済み、階層構
造の上位側と下位側とへの誤り訂正符号の効果的な適用
が可能となる。As is apparent from the above description, according to the encoding method of the present invention, an M-dimensional vector data is divided into a plurality of groups by using a structured codebook, and each group is divided into a plurality of groups. By calculating the representative value, the dimension is S
Dimensional (S <M), perform first vector quantization on the data of this S-dimensional vector, and obtain an S-dimensional code vector which is a local decode output at the time of the first vector quantization. The S-dimensional code vector is extended to an original M-dimensional vector to obtain data representing the relationship between the original M-dimensional vector and the data on the frequency axis, and a second vector quantization is performed on this data. , The amount of codebook search computation is reduced, the memory capacity for the codebook is reduced, and the error correction code can be effectively applied to the upper and lower layers of the hierarchical structure. Become.
【0102】また、本発明に係る復号化方法によれば、
オーディオ信号をM次元ベクトルとして周波数軸上デー
タを求め、M次元からS次元(S<M)へ次元を低下さ
せ、S次元ベクトルのデータに対し第1のベクトル量子
化を施してインデックスを符号化し、第1のベクトル量
子化出力データを逆量子化して対応するS次元のコード
ベクトルを求め、このS次元のコードベクトルを元のM
次元のベクトルに拡張し、拡張されたM次元のベクトル
と元の上記M次元のベクトルの周波数軸上データとの関
係を表すデータに対し第2のベクトル量子化を施して、
そのインデックスを符号化することにより生成された符
号列を受け取り復号化する際に、上記第2のベクトル量
子化のインデックスを逆量子化して対応するコードベク
トルを求め、上記第1のベクトル量子化のインデックス
を逆量子化して対応するS次元のコードベクトルを求
め、上記S次元のコードベクトルをM次元のベクトルに
拡張し、上記第2のベクトル量子化のインデックスに基
づいて求められたコードベクトルと上記拡張されたM次
元のベクトルとから、M次元ベクトルの周波数軸上デー
タを求め、上記M次元ベクトルの周波数軸上データに基
づいて上記オーディオ信号を復元することにより、上述
した符号化方法により生成された符号列を復号化するこ
とができる。According to the decoding method of the present invention,
The data on the frequency axis is obtained by using the audio signal as an M-dimensional vector, the dimension is reduced from the M-dimension to the S-dimension (S <M), the first vector quantization is performed on the S-dimension vector data, and the index is encoded. , The first vector quantized output data is inversely quantized to obtain a corresponding S-dimensional code vector, and this S-dimensional code vector is converted to the original M
A second vector quantization on the data representing the relationship between the expanded M-dimensional vector and the original data on the frequency axis of the M-dimensional vector,
When receiving and decoding a code string generated by encoding the index, the second vector quantization index is inversely quantized to obtain a corresponding code vector, and the first vector quantization The index is inversely quantized to obtain a corresponding S-dimensional code vector, the S-dimensional code vector is extended to an M-dimensional vector, and the code vector obtained based on the second vector quantization index and the By obtaining data on the frequency axis of the M-dimensional vector from the expanded M-dimensional vector and restoring the audio signal based on the data on the frequency axis of the M-dimensional vector, the data generated by the above-described encoding method is obtained. The decoded code string can be decoded.
【0103】[0103]
【図1】本発明の実施例における高能率符号化方法が適
用される符号化装置(エンコーダ)側の概略構成を示す
ブロック図である。FIG. 1 is a block diagram illustrating a schematic configuration of an encoding device (encoder) to which a high-efficiency encoding method according to an embodiment of the present invention is applied.
【図2】階層構造を有するベクトル量子化の動作を説明
するための図である。FIG. 2 is a diagram for explaining an operation of vector quantization having a hierarchical structure.
【図3】階層構造を有するベクトル量子化の動作を説明
するための図である。FIG. 3 is a diagram for explaining an operation of vector quantization having a hierarchical structure.
【図4】階層構造を有するベクトル量子化の動作を説明
するための図である。FIG. 4 is a diagram for explaining an operation of vector quantization having a hierarchical structure.
【図5】階層構造を有するベクトル量子化の動作を説明
するための図である。FIG. 5 is a diagram for explaining an operation of vector quantization having a hierarchical structure.
【図6】階層構造を有するベクトル量子化の動作を説明
するための図である。FIG. 6 is a diagram for explaining an operation of vector quantization having a hierarchical structure.
【図7】階層構造を有するベクトル量子化の動作を説明
するための図である。FIG. 7 is a diagram for explaining an operation of vector quantization having a hierarchical structure.
【図8】本発明の第2の実施例における高能率符号化方
法が適用される符号化装置(エンコーダ)側の概略構成
を示すブロック図である。FIG. 8 is a block diagram illustrating a schematic configuration of an encoding device (encoder) to which a high-efficiency encoding method according to a second embodiment of the present invention is applied.
【図9】本発明の第3の実施例における高能率符号化方
法が適用される符号化装置(エンコーダ)側の概略構成
を示すブロック図である。FIG. 9 is a block diagram illustrating a schematic configuration of an encoding device (encoder) to which a high-efficiency encoding method according to a third embodiment of the present invention is applied.
【図10】本発明の実施例における高能率符号化方法が
適用される装置の具体例としての音声信号の合成分析符
号化装置の分析側(エンコード側)の概略構成を示す機
能ブロック図である。FIG. 10 is a functional block diagram illustrating a schematic configuration of an analysis side (encoding side) of a speech signal synthesis analysis encoding apparatus as a specific example of an apparatus to which the high efficiency encoding method according to the embodiment of the present invention is applied. .
【図11】窓かけ処理を説明するための図である。FIG. 11 is a diagram for explaining windowing processing.
【図12】窓かけ処理と窓関数との関係を説明するため
の図である。FIG. 12 is a diagram for explaining a relationship between a windowing process and a window function.
【図13】直交変換(FFT)処理対象としての時間軸
データを示す図である。FIG. 13 is a diagram showing time axis data as an object of orthogonal transform (FFT) processing.
【図14】周波数軸上のスペクトルデータ、スペクトル
包絡線(エンベロープ)及び励起信号のパワースペクト
ルを示す図である。FIG. 14 is a diagram showing spectrum data on a frequency axis, a spectrum envelope (envelope), and a power spectrum of an excitation signal.
【図15】本発明の実施例における高能率符号化方法が
適用される装置の具体例としての音声信号の合成分析符
号化装置の合成側(デコード側)の概略構成を示す機能
ブロック図である。FIG. 15 is a functional block diagram showing a schematic configuration of a synthesis side (decoding side) of a speech signal synthesis analysis coding apparatus as a specific example of a device to which the high efficiency coding method according to the embodiment of the present invention is applied; .
【図16】音声信号を合成する際の無音声合成を説明す
るための図である。FIG. 16 is a diagram for explaining non-speech synthesis when synthesizing a speech signal.
12・・・・・周波数軸変換処理部 13・・・・・非線形圧縮部 14・・・・・ブロック間(フレーム間)差分処理部 15・・・・・ベクトル量子化部 21・・・・・次元低減部 22・・・・・S次元ベクトル量子化器 23・・・・・次元拡張部 251〜25S・・・・・ベクトル量子化器 103・・・・・ピッチ抽出部 104・・・・・窓かけ処理部 105・・・・・直交変換(FFT)部 106・・・・・高精度(ファイン)ピッチサーチ部 107・・・・・有声音/無声音(V/UV)判別部 108・・・・・振幅再評価部 109・・・・・データ数変換(データレートコンバー
ト)部 110・・・・・ベクトル量子化部 126・・・・・有声音合成部 127・・・・・無声音合成部12: Frequency axis conversion processing unit 13: Non-linear compression unit 14: Difference processing unit between blocks (between frames) 15: Vector quantization unit 21: Dimension reduction unit 22 S-dimensional vector quantizer 23 Dimension extension unit 25 1 to 25 S Vector quantizer 103 Pitch extraction unit 104 ··· Window processing unit 105 ··· Orthogonal transform (FFT) unit 106 ··· High-precision (fine) pitch search unit 107 ··· Voiced / unvoiced (V / UV) discrimination Unit 108... Amplitude re-evaluation unit 109... Data number conversion (data rate conversion) unit 110... Vector quantization unit 126... Voiced sound synthesis unit 127. ..Unvoiced sound synthesizer
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平2−287500(JP,A) 特開 昭64−74600(JP,A) (58)調査した分野(Int.Cl.7,DB名) G10L 19/00 ────────────────────────────────────────────────── ─── Continuation of the front page (56) References JP-A-2-287500 (JP, A) JP-A-64-74600 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G10L 19/00
Claims (5)
位で区分して周波数軸に変換して得られるデータに基づ
いてM次元ベクトルとしての周波数軸上データを求める
工程と、 このM次元ベクトルの周波数軸上データを複数グループ
に分割して各グループ毎に代表値を求めることにより次
元をS次元(S<M)に低下させる工程と、 このS次元ベクトルのデータに対して第1のベクトル量
子化を施す工程と、 この第1のベクトル量子化出力データを逆量子化して対
応するS次元のコードベクトルを求める工程と、 このS次元のコードベクトルを元のM次元のベクトルに
拡張する工程と、 この拡張されたM次元のベクトルと元の上記M次元のベ
クトルの周波数軸上データとの関係を表すデータに対し
て第2のベクトル量子化を施す工程とを有することを特
徴とする符号化方法。A step of obtaining data on a frequency axis as an M-dimensional vector based on data obtained by dividing an input audio signal into blocks and converting the data into a frequency axis; Dividing the upper data into a plurality of groups and obtaining a representative value for each group to reduce the dimension to S dimension (S <M); and performing first vector quantization on the data of the S dimension vector. Applying, dequantizing the first vector quantized output data to obtain a corresponding S-dimensional code vector, extending the S-dimensional code vector to an original M-dimensional vector, Performing a second vector quantization on data representing the relationship between the extended M-dimensional vector and the original data on the frequency axis of the M-dimensional vector. Coding method comprising Rukoto.
として、上記ブロック単位で周波数軸に変換したデータ
を非線形圧縮したものを用いることを特徴とする請求項
1記載の符号化方法。2. The encoding method according to claim 1, wherein as the data on the frequency axis of the M-dimensional vector, data obtained by nonlinearly compressing the data converted to the frequency axis in block units is used.
のブロック間の差分をとり、このブロック間差分データ
に対してベクトル量子化を施すことを特徴とする請求項
1記載の符号化方法。3. The encoding method according to claim 1, wherein a difference between blocks of the data to be vector-quantized is obtained, and the inter-block difference data is subjected to vector quantization.
分して周波数軸に変換して得られるスペクトルの振幅を
dB領域に変換してM次元ベクトルとしての周波数軸上
データを求める工程と、 このM次元ベクトルの周波数軸上データを複数グループ
に分割して各グループ毎に平均値を求めることにより次
元をS次元(S<M)に低下させる工程と、 このS次元ベクトルの平均値データに対して第1のベク
トル量子化を施す工程と、 この第1のベクトル量子化出力データを逆量子化して対
応するS次元のコードベクトルを求める工程と、 このS次元のコードベクトルを元のM次元のベクトルに
拡張する工程と、この拡張されたM次元のベクトルと元
の上記M次元のベクトルの周波数軸上データとの差のデ
ータに対して第2のベクトル量子化を施す工程とを有す
ることを特徴とする符号化方法。4. A step of dividing an input audio signal into blocks and converting the amplitude of a spectrum obtained by converting the signal into a frequency domain into a dB area to obtain data on the frequency axis as an M-dimensional vector; Dividing the data on the frequency axis of the M-dimensional vector into a plurality of groups and obtaining an average value for each group to reduce the dimension to S-dimension (S <M); Applying a first vector quantization to the first vector quantized output data to obtain a corresponding S-dimensional code vector by dequantizing the first vector quantized output data; Expanding to a vector, and performing a second vector quantization on the difference data between the expanded M-dimensional vector and the original data on the frequency axis of the M-dimensional vector. Encoding method characterized by having a to process.
周波数軸上データを求め、M次元からS次元(S<M)
へ次元を低下させ、S次元ベクトルのデータに対し第1
のベクトル量子化を施してインデックスを符号化し、第
1のベクトル量子化出力データを逆量子化して対応する
S次元のコードベクトルを求め、このS次元のコードベ
クトルを元のM次元のベクトルに拡張し、拡張されたM
次元のベクトルと元の上記M次元のベクトルの周波数軸
上データとの関係を表すデータに対し第2のベクトル量
子化を施して、そのインデックスを符号化することによ
り生成された符号列を受け取り復号化する復号化方法で
あって、 上記第2のベクトル量子化のインデックスを逆量子化し
て対応するコードベクトルを求める第1の逆ベクトル量
子化工程と、 上記第1のベクトル量子化のインデックスを逆量子化し
て対応するS次元のコードベクトルを求める第2の逆ベ
クトル量子化工程と、 上記S次元のコードベクトルをM次元のベクトルに拡張
する工程と、 上記第1の逆ベクトル量子化工程で求めたコードベクト
ルと上記拡張されたM次元のベクトルとから、M次元ベ
クトルの周波数軸上データを求める工程と、 上記M次元ベクトルの周波数軸上データに基づいて上記
オーディオ信号を復元する工程と を有することを特徴と
する復号化方法。 5. An audio signal as an M-dimensional vector
Find the data on the frequency axis, and from the M dimension to the S dimension (S <M)
To the first dimension for the data of the S-dimensional vector.
The vector is quantized and the index is encoded.
The vector quantized output data of 1 is inversely quantized to correspond
Find the S-dimensional code vector and calculate the S-dimensional code vector.
Extend the vector to the original M-dimensional vector,
-Dimensional vector and the frequency axis of the original M-dimensional vector
A second vector quantity for the data representing the relationship with the upper data
By encoding the index
A decoding method that receives and decodes the generated code string
Then , the index of the second vector quantization is inversely quantized.
First inverse vector quantity for finding the corresponding code vector
Dequantizing the index of the first vector quantization
To find a corresponding S-dimensional code vector
Vector quantization process and expansion of the S-dimensional code vector to an M-dimensional vector
And the code vector obtained in the first inverse vector quantization step.
From the extended M-dimensional vector and the M-dimensional vector
Obtaining the data on the frequency axis of the vector, based on the data on the frequency axis of the M-dimensional vector,
And characterized by a step of restoring the audio signal
The decoding method to use.
Priority Applications (21)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP09142292A JP3237178B2 (en) | 1992-03-18 | 1992-03-18 | Encoding method and decoding method |
US08/150,082 US5765127A (en) | 1992-03-18 | 1993-02-18 | High efficiency encoding method |
DE69332989T DE69332989T2 (en) | 1992-03-18 | 1993-03-18 | Highly efficient coding process |
EP00116191A EP1061504B1 (en) | 1992-03-18 | 1993-03-18 | High efficiency encoding method |
DE69332991T DE69332991T2 (en) | 1992-03-18 | 1993-03-18 | Basic frequency extraction method |
EP93906790A EP0590155B1 (en) | 1992-03-18 | 1993-03-18 | High-efficiency encoding method |
DE69333046T DE69333046T2 (en) | 1992-03-18 | 1993-03-18 | Highly efficient coding process |
DE69332994T DE69332994T2 (en) | 1992-03-18 | 1993-03-18 | Highly efficient coding process |
EP00116196A EP1061502B1 (en) | 1992-03-18 | 1993-03-18 | A pitch extraction method |
PCT/JP1993/000323 WO1993019459A1 (en) | 1992-03-18 | 1993-03-18 | High-efficiency encoding method |
DE69332992T DE69332992T2 (en) | 1992-03-18 | 1993-03-18 | Highly efficient coding process |
EP00116619A EP1065655B1 (en) | 1992-03-18 | 1993-03-18 | High efficiency encoding method |
EP00116195A EP1065654B1 (en) | 1992-03-18 | 1993-03-18 | High efficiency encoding method |
DE69332990T DE69332990T2 (en) | 1992-03-18 | 1993-03-18 | Speech analysis and synthesis methods |
DE69331425T DE69331425T2 (en) | 1992-03-18 | 1993-03-18 | HIGHLY EFFECTIVE CODING PROCEDURE |
EP00116194A EP1059627B1 (en) | 1992-03-18 | 1993-03-18 | Voice analysis-synthesis method |
EP00116192A EP1061505B1 (en) | 1992-03-18 | 1993-03-18 | High efficiency encoding method |
DE69332993T DE69332993T2 (en) | 1992-03-18 | 1993-03-18 | Highly efficient coding process |
EP00116193A EP1052623B1 (en) | 1992-03-18 | 1993-03-18 | High efficiency encoding method |
US08/871,812 US5878388A (en) | 1992-03-18 | 1997-06-09 | Voice analysis-synthesis method using noise having diffusion which varies with frequency band to modify predicted phases of transmitted pitch data blocks |
US08/871,335 US5960388A (en) | 1992-03-18 | 1997-06-09 | Voiced/unvoiced decision based on frequency band ratio |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP09142292A JP3237178B2 (en) | 1992-03-18 | 1992-03-18 | Encoding method and decoding method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH05265487A JPH05265487A (en) | 1993-10-15 |
JP3237178B2 true JP3237178B2 (en) | 2001-12-10 |
Family
ID=14025942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP09142292A Expired - Lifetime JP3237178B2 (en) | 1992-03-18 | 1992-03-18 | Encoding method and decoding method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3237178B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6324505B1 (en) * | 1999-07-19 | 2001-11-27 | Qualcomm Incorporated | Amplitude quantization scheme for low-bit-rate speech coders |
JP4121808B2 (en) * | 2002-08-29 | 2008-07-23 | 三菱電機株式会社 | Dictionary compression device |
EP1742202B1 (en) | 2004-05-19 | 2008-05-07 | Matsushita Electric Industrial Co., Ltd. | Encoding device, decoding device, and method thereof |
WO2007037613A1 (en) * | 2005-09-27 | 2007-04-05 | Lg Electronics Inc. | Method and apparatus for encoding/decoding multi-channel audio signal |
KR100857111B1 (en) * | 2005-10-05 | 2008-09-08 | 엘지전자 주식회사 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
ES2478004T3 (en) * | 2005-10-05 | 2014-07-18 | Lg Electronics Inc. | Method and apparatus for decoding an audio signal |
WO2007114290A1 (en) * | 2006-03-31 | 2007-10-11 | Matsushita Electric Industrial Co., Ltd. | Vector quantizing device, vector dequantizing device, vector quantizing method, and vector dequantizing method |
EP2176861B1 (en) * | 2007-07-06 | 2013-03-27 | France Telecom | Hierarchical coding of digital audio signals |
-
1992
- 1992-03-18 JP JP09142292A patent/JP3237178B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH05265487A (en) | 1993-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3343965B2 (en) | Voice encoding method and decoding method | |
JP3707116B2 (en) | Speech decoding method and apparatus | |
JP3475446B2 (en) | Encoding method | |
US5749065A (en) | Speech encoding method, speech decoding method and speech encoding/decoding method | |
US6678655B2 (en) | Method and system for low bit rate speech coding with speech recognition features and pitch providing reconstruction of the spectral envelope | |
US20060277040A1 (en) | Apparatus and method for coding and decoding residual signal | |
WO2001022403A1 (en) | Lpc-harmonic vocoder with superframe structure | |
WO2003091989A1 (en) | Coding device, decoding device, coding method, and decoding method | |
JPH08179796A (en) | Voice coding method | |
JP3344962B2 (en) | Audio signal encoding device and audio signal decoding device | |
JPH0990968A (en) | Voice synthesis method | |
JPH11510274A (en) | Method and apparatus for generating and encoding line spectral square root | |
JP3237178B2 (en) | Encoding method and decoding method | |
JP3297749B2 (en) | Encoding method | |
JP3297751B2 (en) | Data number conversion method, encoding device and decoding device | |
JP3218679B2 (en) | High efficiency coding method | |
JP2000132194A (en) | Signal encoding device and method therefor, and signal decoding device and method therefor | |
JP2000132193A (en) | Signal encoding device and method therefor, and signal decoding device and method therefor | |
JP3362471B2 (en) | Audio signal encoding method and decoding method | |
JP3731575B2 (en) | Encoding device and decoding device | |
JP3916934B2 (en) | Acoustic parameter encoding, decoding method, apparatus and program, acoustic signal encoding, decoding method, apparatus and program, acoustic signal transmitting apparatus, acoustic signal receiving apparatus | |
JPH0651800A (en) | Data quantity converting method | |
KR0155798B1 (en) | Vocoder and the method thereof | |
JP3297750B2 (en) | Encoding method | |
JP4618823B2 (en) | Signal encoding apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20010904 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091005 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091005 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101005 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111005 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121005 Year of fee payment: 11 |
|
EXPY | Cancellation because of completion of term | ||
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121005 Year of fee payment: 11 |