JP3297749B2 - Encoding method - Google Patents

Encoding method

Info

Publication number
JP3297749B2
JP3297749B2 JP09225892A JP9225892A JP3297749B2 JP 3297749 B2 JP3297749 B2 JP 3297749B2 JP 09225892 A JP09225892 A JP 09225892A JP 9225892 A JP9225892 A JP 9225892A JP 3297749 B2 JP3297749 B2 JP 3297749B2
Authority
JP
Japan
Prior art keywords
data
vector
signal
pitch
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP09225892A
Other languages
Japanese (ja)
Other versions
JPH05265499A (en
Inventor
正之 西口
淳 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP09225892A priority Critical patent/JP3297749B2/en
Publication of JPH05265499A publication Critical patent/JPH05265499A/en
Application granted granted Critical
Publication of JP3297749B2 publication Critical patent/JP3297749B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To enable encoding of high quality by finding on-frequency-axis data in block units of an audio signal, and switching and quantizing plural code books corresponding to parameters showing features of the respective blocks. CONSTITUTION:A frequency axis conversion processing part 12 provided with a block division part 12a which divides the input speech signal, etc., on the time base into blocks of a specific number of samples, an orthogonal conversion part 12b, a data processing part 12c for finding amplitude information representing the features of a spectrum envelope, etc., converts the speech signal, etc., into the spectrum amplitude data on the frequency axis. A vector quantization part 15 puts a specific number of input data into M-dimensional vectors and thus performs vector quantization. This vector quantization part 15 is equipped with plural kind of code books and switches the code books according to the parameters showing the features of the blocks of the input signal to quantize the signal. Consequently, the vector quantization is performed efficiently corresponding to the characteristics, etc., of the input data.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、入力された音声信号や
音響信号等のオーディオ信号をフレーム単位で区分して
周波数軸上のデータに変換して符号化を施すような符号
化方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an encoding method for dividing an input audio signal such as a voice signal and an audio signal into frames, converting the signal into data on a frequency axis, and performing encoding.

【0002】[0002]

【従来の技術】オーディオ信号(音声信号や音響信号を
含む)の時間領域や周波数領域における統計的性質と人
間の聴感上の特性を利用して信号圧縮を行うような符号
化方法が種々知られている。この符号化方法としては、
大別して時間領域での符号化、周波数領域での符号化、
分析合成符号化等が挙げられる。
2. Description of the Related Art There are known various encoding methods for compressing an audio signal (including a voice signal and an acoustic signal) by utilizing a statistical property in a time domain and a frequency domain and a characteristic of human perception. ing. As this encoding method,
Coding in the time domain, coding in the frequency domain,
Analysis synthesis coding.

【0003】音声信号等の高能率符号化の例として、M
BE(Multiband Excitation: マルチバンド励起)符号
化、SBE(Singleband Excitation:シングルバンド励
起)符号化、ハーモニック(Harmonic)符号化、SBC
(Sub-band Coding:帯域分割符号化)、LPC(Linear
Predictive Coding: 線形予測符号化)、あるいはDC
T(離散コサイン変換)、MDCT(モデファイドDC
T)、FFT(高速フーリエ変換)等において、スペク
トル振幅やそのパラメータ(LSPパラメータ、αパラ
メータ、kパラメータ等)のような各種情報データを量
子化する場合に、従来においてはスカラ量子化を行うこ
とが多い。
[0003] As an example of high-efficiency encoding of a speech signal or the like, M
BE (Multiband Excitation) coding, SBE (Singleband Excitation) coding, Harmonic coding, SBC
(Sub-band Coding: band division coding), LPC (Linear
Predictive Coding: Linear predictive coding) or DC
T (Discrete Cosine Transform), MDCT (Modified DC
Conventionally, when quantizing various information data such as spectrum amplitude and its parameters (LSP parameter, α parameter, k parameter, etc.) in T), FFT (Fast Fourier Transform), scalar quantization is conventionally performed. There are many.

【0004】[0004]

【発明が解決しようとする課題】ところで、ビットレー
トを例えば3〜4kbps 程度にまで低減し、量子化効率
を更に向上させようとすると、スカラ量子化では量子化
雑音(歪み)が大きくなってしまい、実用化が困難であ
った。そこで、これらの符号化の際に得られる時間軸デ
ータや周波数軸データやフィルタ係数データ等を個々に
量子化せず、複数個のデータを組(ベクトル)にまとめ
て一つの符号で表現して量子化するベクトル量子化が注
目されている。
By the way, if the bit rate is reduced to, for example, about 3 to 4 kbps and the quantization efficiency is further improved, the quantization noise (distortion) increases in the scalar quantization. It was difficult to put it to practical use. Therefore, the time axis data, the frequency axis data, the filter coefficient data, and the like obtained at the time of encoding are not individually quantized, but a plurality of data are grouped into a set (vector) and expressed by one code. Vector quantization for quantization is attracting attention.

【0005】ここで、上記MBE、SBE、LPC等の
スペクトルエンベロープ、あるいはそのパラメータ(L
SPパラメータ、αパラメータ、kパラメータ等)のベ
クトル量子化の際には、固定のコードブックを使用して
いる。しかしながら、使用可能なビット数が減少(低ビ
ットレート化)してくると、固定コードブックでは充分
な性能が得られなくなる。このため、ベクトル量子化す
る入力データのベクトル空間上での存在領域が狭くなる
ようにクラスタリング(分類分け)したものをベクトル
量子化することが好ましい。
[0005] Here, the spectral envelope of the above MBE, SBE, LPC, etc., or its parameters (L
At the time of vector quantization of the SP parameter, α parameter, k parameter, and the like, a fixed codebook is used. However, if the number of usable bits decreases (lower bit rate), sufficient performance cannot be obtained with a fixed codebook. For this reason, it is preferable to perform vector quantization on clustering (classification) of input data to be vector-quantized so that the existing area in the vector space is reduced.

【0006】また、伝送ビットレートに余裕があるとき
も、コードブックサイズ、サーチのための演算量を低減
するため、構造化されたコードブックを使用することも
考えられているが、このとき、出力インデックス長がn
+1ビットの1個のコードブックを使用する代わりに、
例えば2個のnビットのコードブックに分割する方が好
ましい。
[0006] Further, even when the transmission bit rate has a margin, it is considered to use a structured codebook in order to reduce the codebook size and the amount of calculation for search. Output index length is n
Instead of using one codebook of +1 bits,
For example, it is preferable to divide the codebook into two n-bit codebooks.

【0007】本発明は、このような実情に鑑みてなされ
たものであり、ベクトル量子化を入力データの性質等に
応じて効率良く行え、ベクトル量子化器のコードブック
のサイズやサーチ時の演算量を低減でき、品質の高い符
号化が行えるような符号化方法の提供を目的とする。
The present invention has been made in view of such circumstances, and it is possible to efficiently perform vector quantization in accordance with the characteristics of input data and the like, and to calculate the size of the codebook of the vector quantizer and the calculation at the time of search. An object of the present invention is to provide an encoding method that can reduce the amount and perform high-quality encoding.

【0008】[0008]

【課題を解決するための手段】本発明に係る高能率符号
化方法は、入力されたオーディオ信号(音声信号や音響
信号等)をブロック単位で区分して周波数軸に変換して
得られるデータに基づいてM次元ベクトルとしての周波
数軸上データを求める工程と、このM次元ベクトルの周
波数軸上データに対してベクトル量子化を施すためにオ
ーディオ信号の状態に応じた複数のコードブックを有す
るベクトル量子化器を用い、上記オーディオ入力信号の
ブロック毎の特徴を表すパラメータに応じて上記複数の
コードブックを切り換えて量子化を施す工程とを有する
ことにより、上述の課題を解決するものである。
According to the high efficiency coding method of the present invention, an input audio signal (speech signal, audio signal, etc.) is divided into blocks and converted into data obtained by converting the data into a frequency axis. A step of obtaining data on the frequency axis as an M-dimensional vector based on the plurality of codebooks corresponding to the state of the audio signal in order to perform vector quantization on the data on the frequency axis of the M-dimensional vector And a step of performing quantization by switching the plurality of codebooks according to a parameter representing a feature of each block of the audio input signal using a quantizer.

【0009】他の発明に係る高能率符号化方法として
は、入力されたオーディオ信号をブロック単位で区分し
て周波数軸に変換して得られるデータに基づいてM次元
ベクトルとしての周波数軸上データを求める工程と、こ
のM次元ベクトルの周波数軸上データを複数グループに
分割して各グループ毎に代表値を求めることにより次元
をS次元(S<M)に低下させる工程と、このS次元ベ
クトルのデータに対して第1のベクトル量子化を施す工
程と、この第1のベクトル量子化出力データを逆量子化
して対応するS次元のコードベクトルを求める工程と、
このS次元のコードベクトルを元のM次元のベクトルに
拡張する工程と、この拡張されたM次元のベクトルと元
の上記M次元ベクトルの周波数軸上データとの関係を表
すデータに対して第2のベクトル量子化を施すためにオ
ーディオ信号の状態に応じた複数のコードブックを有す
る第2のベクトル量子化器を用い、上記オーディオ入力
信号のブロック毎の特徴を表すパラメータに応じて上記
複数のコードブックを切り換えて量子化を施す工程とを
有することにより、上述の課題を解決する。
According to another aspect of the present invention, there is provided a high-efficiency encoding method which divides an input audio signal into blocks and converts the data into a frequency axis. Obtaining the M-dimensional vector, dividing the data on the frequency axis of the M-dimensional vector into a plurality of groups, and obtaining a representative value for each group to reduce the dimension to S-dimensional (S <M); Performing a first vector quantization on the data; dequantizing the first vector quantization output data to obtain a corresponding S-dimensional code vector;
Extending the S-dimensional code vector to the original M-dimensional vector; and performing second processing on the data representing the relationship between the expanded M-dimensional vector and the original data on the frequency axis of the M-dimensional vector. Using a second vector quantizer having a plurality of codebooks according to the state of the audio signal to perform the vector quantization of the plurality of codes in accordance with a parameter representing a feature of each block of the audio input signal. The above-mentioned problem is solved by having a step of performing quantization by switching a book.

【0010】これらの発明において、上記オーディオ信
号として音声信号を用いる場合に、上記コードブックと
して音声信号が有声音か無声音かに応じた複数のコード
ブックを用い、上記特徴パラメータとして上記ブロック
毎の入力音声信号が有声音か無声音かを表すパラメータ
を用いることができる。また、特徴パラメータとして、
ピッチの値、ピッチの成分の強弱、有声音/無声音の含
有比率、信号スペクトルの傾き及びそのレベル等が使用
でき、基本的には有声音か無声音かに応じてコードブッ
クを切り換えることが好ましい。このような特徴パラメ
ータは、別途伝送してもよいが、符号化方式により予め
規定されているような元々伝送されるパラメータを代用
させるようにしてもよい。また、上記M次元ベクトルの
周波数軸上データとして、上記ブロック単位で周波数軸
に変換したデータを非線形圧縮したものを用いることが
できる。さらに、上記ベクトル量子化の前に、ベクトル
量子化しようとするデータのブロック間の差分をとり、
このブロック間差分データに対してベクトル量子化を施
すようにしてもよい。
In these inventions, when an audio signal is used as the audio signal, a plurality of codebooks according to whether the audio signal is voiced or unvoiced are used as the codebook, and the input for each block is used as the characteristic parameter. A parameter indicating whether the audio signal is voiced or unvoiced can be used. Also, as feature parameters,
The pitch value, the strength of the pitch component, the voiced / unvoiced sound content ratio, the slope of the signal spectrum and its level, etc. can be used, and it is basically preferable to switch the codebook according to the voiced or unvoiced sound. Such a characteristic parameter may be transmitted separately, or may be replaced with an originally transmitted parameter defined in advance by an encoding method. Further, as the data on the frequency axis of the M-dimensional vector, data obtained by nonlinearly compressing the data converted to the frequency axis in the block unit can be used. Further, before the vector quantization, a difference between blocks of data to be vector-quantized is calculated,
Vector quantization may be performed on the inter-block difference data.

【0011】[0011]

【作用】入力されたオーディオ信号のブロック毎の特徴
を表すパラメータに応じて上記複数のコードブックを切
り換えてベクトル量子化を施すことにより、量子化が効
率良く行え、ベクトル量子化器のコードブックのサイズ
やサーチ時の演算量を低減でき、品質の高い符号化が行
える。
By performing vector quantization by switching the plurality of codebooks according to parameters representing characteristics of each block of the input audio signal, quantization can be performed efficiently, and the codebook of the vector quantizer can be used. The size and the amount of calculation at the time of search can be reduced, and high-quality encoding can be performed.

【0012】以下、本発明に係る符号化方法の実施例に
ついて、図面を参照しながら説明する。図1は本発明に
係る符号化方法の一実施例となる高能率符号化方法を説
明するための符号化装置(エンコーダ)の概略構成を示
している。
An embodiment of the encoding method according to the present invention will be described below with reference to the drawings. FIG. 1 shows a schematic configuration of an encoding device (encoder) for explaining a high-efficiency encoding method which is an embodiment of the encoding method according to the present invention.

【0013】図1において、入力端子11には、音声信
号あるいは音響信号が供給され、この入力信号は、周波
数軸変換処理部12にて周波数軸上のスペクトル振幅デ
ータに変換される。この周波数軸変換処理部12の内部
には、例えば入力された時間軸上の信号の所定数のサン
プル(Nサンプル)毎にブロック化するブロック化部1
2a、FFT(高速フーリエ変換)等の直交変換部12
b、スペクトルエンベロープの特徴を表す振幅情報を求
めるためのデータ処理部12c等が設けられている。周
波数軸変換処理部12からの出力は、必要に応じて例え
ばdB領域に変換する非線形圧縮部13を介し、必要に
応じてブロック間の差分をとる処理部14を介してベク
トル量子化部15に送られる。このベクトル量子化部1
5では、入力データの所定数(Mサンプル)がまとめら
れてM次元とベクトルとされ、ベクトル量子化処理が施
される。このようなM次元ベクトル量子化処理は、一般
的には、入力されたM次元ベクトルに対してM次元空間
上で最も距離が近いコードベクトルがコードブックから
検索(サーチ)されて、該検索されたコードベクトルの
インデックスを出力端子16から取り出すような処理で
あるが、この図1に示す実施例のベクトル量子化部15
は、複数種類のコードブックを有し、これらのコードブ
ックが、周波数軸変換処理部12からの上記入力信号の
特徴を表すパラメータに応じて切り換えられるようにな
っている。
In FIG. 1, a voice signal or an acoustic signal is supplied to an input terminal 11, and this input signal is converted into spectrum amplitude data on a frequency axis by a frequency axis conversion processing unit 12. Inside the frequency axis conversion processing unit 12, for example, a blocking unit 1 for blocking every predetermined number of samples (N samples) of the input signal on the time axis
2a, orthogonal transform unit 12 such as FFT (fast Fourier transform)
b, a data processing unit 12c for obtaining amplitude information representing characteristics of the spectrum envelope is provided. An output from the frequency axis conversion processing unit 12 is sent to a vector quantization unit 15 via a non-linear compression unit 13 which converts the data into, for example, a dB region as needed, and a processing unit 14 which takes a difference between blocks as needed. Sent. This vector quantization unit 1
In step 5, a predetermined number (M samples) of input data is combined into M dimensions and vectors, and vector quantization processing is performed. In such an M-dimensional vector quantization process, generally, a code vector having the closest distance in an M-dimensional space to an input M-dimensional vector is searched from a codebook, and the search is performed. This is a process of extracting the index of the code vector obtained from the output terminal 16, but the vector quantization unit 15 of the embodiment shown in FIG.
Has a plurality of types of codebooks, and these codebooks can be switched in accordance with parameters representing characteristics of the input signal from the frequency axis conversion processing unit 12.

【0014】図1の例では、入力信号として音声信号を
想定し、V(有声音)用コードブック15V と、UV
(無声音)用コードブック15U とが切換スイッチ15
W により切り換えられてベクトル量子化器15Q に送ら
れるようになっており、切換スイッチ15は、周波数軸
変換処理部12からのV/UV(有声音/無声音)判別
信号に応じて切換制御される。このV/UV判別信号
(フラグ等)は、後述するようなMBE(Multiband Ex
citation: マルチバンド励起)ボコーダ(音声分析合成
装置)等の場合には、分析系(エンコーダ)側から合成
系(デコーダ)側へ伝送されるパラメータであり、別途
に伝送する必要がない。
In the example of FIG. 1, an audio signal is assumed as an input signal, and a codebook 15 V for V (voiced sound) and UV
(Unvoiced) codebook 15 U and changeover switch 15
The signal is switched by W and sent to the vector quantizer 15 Q. The changeover switch 15 is switched and controlled in accordance with a V / UV (voiced sound / unvoiced sound) discrimination signal from the frequency axis conversion processing unit 12. You. This V / UV discrimination signal (flag or the like) is transmitted to an MBE (Multiband Ex
In the case of a citation (multi-band excitation) vocoder (speech analysis / synthesis device) or the like, the parameter is transmitted from the analysis system (encoder) to the synthesis system (decoder), and does not need to be separately transmitted.

【0015】ここで上記MBEの場合を例にとって説明
すると、上記コードブック15V 、15U の切換のため
のパラメータは、伝送される情報の一つであるV/UV
判別フラグを利用するようにすればよい。すなわち、上
記周波数軸変換処理部12において、ピッチに応じたバ
ンド分割を行い、分割された各バンド毎にV(有声音)
かUV(無声音)かの判別が行われる。ここで、Vバン
ドの個数をNV 、UVバンドの個数をNUVとし、所定の
閾値Vthに対して、
Here, the case of the MBE will be described as an example. The parameter for switching between the codebooks 15 V and 15 U is V / UV which is one of the information to be transmitted.
What is necessary is just to use a discrimination flag. That is, the frequency axis conversion processing unit 12 performs band division according to the pitch, and performs V (voiced sound) for each of the divided bands.
Or UV (unvoiced sound) is determined. Here, the number of V bands is N V , the number of UV bands is N UV, and for a predetermined threshold V th ,

【0016】[0016]

【数1】 のときは、V(有声音)用のコードブック15V を切換
選択するようにし、それ以外のときはUV(無声音)用
コードブック15U を切換選択するようにする。上記閾
値Vthは、例えば1程度に設定すればよい。
(Equation 1) In this case, the codebook 15 V for V (voiced sound) is switched and selected. Otherwise, the codebook 15 U for UV (unvoiced sound) is switched and selected. The threshold value V th may be set to, for example, about 1.

【0017】デコーダ(合成系)側でも同様に、V(有
声音)用及びUV(無声音)用の2種類のコードブック
の切換選択を行う。上記V/UV判別フラグはMBEボ
コーダでは必ず伝送するサイドインフォメーション(補
助情報)であるので、この具体例においては別個にコー
ドブック切換のための特徴パラメータを伝送する必要が
なく、伝送ビットレートの増加がない。
Similarly, the decoder (synthesis system) side selects and switches between two types of codebooks for V (voiced sound) and UV (unvoiced sound). Since the V / UV discrimination flag is side information (auxiliary information) that is always transmitted in the MBE vocoder, it is not necessary to separately transmit a characteristic parameter for codebook switching in this specific example, and the transmission bit rate is increased. There is no.

【0018】V(有声音)用コードブック15V 、UV
(無声音)用コードブック15U の生成(トレーニン
グ)は、単に同じ基準でトレーニングデータを分けるこ
とによって可能となる。すなわち、V(有声音)と判別
された振幅データの集まりから生成されたコードブック
をV用コードブック15V とし、UV(無声音)と判別
された振幅データの集まりから生成されたコードブック
をUV用コードブック15U とする。
Codebook for V (voiced sound) 15 V , UV
Generating codebook 15 U (unvoiced sound) (training) is simply made possible by dividing the training data on the same basis. That is, a codebook generated from a set of amplitude data determined as V (voiced sound) is referred to as a V codebook 15 V, and a codebook generated from a set of amplitude data determined as UV (unvoiced sound) is referred to as UV. Code book 15 U.

【0019】この具体例においては、V/UV情報をコ
ードブックの切換に用いていることから、上記V/UV
判別フラグをより確実に(信頼性を高く)しておく必要
がある。例えば、明らかに子音や背景雑音であるとみな
せる部分では、全バンドUVにすべきである。その判断
の一例としては、高域にパワーの多い微小入力をUV化
することが挙げられる。
In this specific example, since the V / UV information is used for switching the codebook, the V / UV information is used.
It is necessary to make the determination flag more reliable (higher reliability). For example, in a part that can be clearly regarded as a consonant or background noise, the whole band UV should be used. As an example of the determination, it is possible to convert a small input having a large power in a high frequency range to UV.

【0020】入力信号のN点(256サンプル)に対し
てFFT(高速フーリエ変換)を行い、有効な0〜π
(0〜N/2)の中で、0〜N/4とN/4〜N/2と
のそれぞれの区間でパワー計算を行う。
FFT (Fast Fourier Transform) is performed on N points (256 samples) of the input signal, and valid 0 to π
In (0 to N / 2), power calculation is performed in each section of 0 to N / 4 and N / 4 to N / 2.

【0021】[0021]

【数2】 この(2)式のPL 、PH を用いて、(Equation 2) Using P L and P H of the equation (2),

【0022】[0022]

【数3】 として、Rd<Rth、かつ L<Lth のときは、無条
件に全バンドUV(無声音)と判別する。
(Equation 3) When Rd <R th and L <L th , it is unconditionally determined to be all band UV (unvoiced sound).

【0023】これを行うと、間違ったピッチを微小入力
で検出したときに、それを使用しない効果がある。この
ようにして、より確かなV/UVフラグを作っておく
と、ベクトル量子化の際のコードブックの切換に好都合
である。
By doing so, when an incorrect pitch is detected by a minute input, there is an effect that it is not used. Producing a more reliable V / UV flag in this way is convenient for switching codebooks during vector quantization.

【0024】次に、上記V(有声音)用及びUV(無声
音)用の各コードブックを作成する際のトレーニングに
ついて、図2を参照しながら説明する。図2において、
トレーニング用の数分程度の音声信号から成るトレーニ
ングセット31からの信号は、周波数軸変換処理部32
に送られて、ピッチ抽出部32aによりピッチ抽出が、
スペクトル振幅算出部32bによりスペクトル振幅の算
出が、またバンド毎のV/UV判断部32cにより各バ
ンド毎のV/UV判断がそれぞれ行われる。この周波数
軸変換処理部32からの出力データは、トレーニング前
処理部34に送られる。
Next, training for creating the codebooks for V (voiced sound) and UV (unvoiced sound) will be described with reference to FIG. In FIG.
A signal from a training set 31 composed of a voice signal for about several minutes for training is applied to a frequency axis conversion processing unit 32.
The pitch extraction is performed by the pitch extraction unit 32a.
The spectrum amplitude is calculated by the spectrum amplitude calculation unit 32b, and the V / UV determination for each band is performed by the V / UV determination unit 32c for each band. The output data from the frequency axis conversion processing unit 32 is sent to the training pre-processing unit 34.

【0025】トレーニング前処理部34では、V/UV
含有率のチェック部34aにより上記(1)式や(4)
式の条件等をチェックし、得られたV/UV情報に応じ
て、トレーニングデータの振り分け部34bにより上記
スペクトル振幅データを振り分けており、V(有声音)
のときにはV(有声音)用トレーニングデータ出力部3
6aへ、UV(無声音)のときにはUV(有声音)用ト
レーニングデータ出力部37aへ、それぞれ振幅データ
を送っている。
In the training pre-processing unit 34, V / UV
The content check unit 34a calculates the above equation (1) or (4)
The condition of the formula is checked, and the above-mentioned spectrum amplitude data is distributed by the training data distribution unit 34b according to the obtained V / UV information.
In the case of, the training data output unit 3 for V (voiced sound)
6a, and in the case of UV (unvoiced sound), the amplitude data is sent to the training data output unit 37a for UV (voiced sound).

【0026】V用トレーニングデータ出力部36aから
出力されたV(有声音)のスペクトル振幅データは、ト
レーニング処理部36bに送られて、例えばいわゆるL
BG法によりトレーニング処理が行われ、V(有声音)
用コードブック36cが作成される。ここで、上記LB
G法とは、Linde, Y., Buzo, A. and Gray, R. M.,"An
Algolithm for Vector Quantizer Design", IEEE Tran
s. Comm., COM-28,pp.84-95, Jan. 1980 において提案
されたベクトル量子化器を設計するアルゴリズムにおけ
るコードブックのトレーニング法であり、確率密度関数
が知られていない情報源に対していわゆるトレーニング
系列を用いて略最適なベクトル量子化器を設計するもの
である。同様に、UV用トレーニングデータ出力部37
aから出力されたUV(無声音)のスペクトル振幅デー
タは、トレーニング処理部37bに送られて例えばLB
G法によりトレーニング処理が行われ、UV(無声音)
用コードブック37cが作成される。
The spectrum amplitude data of V (voiced sound) output from the V training data output unit 36a is sent to a training processing unit 36b, for example, so-called L
Training processing is performed by the BG method, and V (voiced sound)
The codebook 36c is created. Here, the above LB
What is the G method? Linde, Y., Buzo, A. and Gray, RM, "An
Algolithm for Vector Quantizer Design ", IEEE Tran
s. Comm., COM-28, pp.84-95, Jan. 1980, is a codebook training method for an algorithm for designing a vector quantizer. On the other hand, a substantially optimal vector quantizer is designed using a training sequence. Similarly, the UV training data output unit 37
The UV (unvoiced sound) spectral amplitude data output from a is sent to the training processing unit 37b, for example, LB
Training process is performed by G method, UV (unvoiced sound)
The codebook 37c is created.

【0027】ここで、後述するように、ベクトル量子化
部に階層構造を持たせ、上位層にはV/UV共用部分の
コードブックを用い、下位層のコードブックのみをV/
UVに応じて切り換えるようにする場合には、V/UV
共用部分のコードブックも作成する必要がある。この場
合、上記周波数軸変換処理部32からの出力データをV
/UV共用部分のコードブック用トレーニングデータ出
力部35aに送ることが必要とされる。
Here, as will be described later, the vector quantization unit has a hierarchical structure, the upper layer uses a V / UV shared codebook, and only the lower layer codebook is V / UV.
When switching according to UV, V / UV
You also need to create a codebook for the common part. In this case, the output data from the frequency axis conversion
It is necessary to send the / UV shared part to the codebook training data output unit 35a.

【0028】V/UV共用部分のコードブック用トレー
ニングデータ出力部35aから出力されたスペクトル振
幅データは、トレーニング処理部35bに送られて、例
えばいわゆるLBG法によりトレーニング処理が実行さ
れ、V/UV共用部分のコードブック35cが作成され
る。この作成されたV/UV共用コードブック35cか
らのコードベクトルを、上記V用、UV用の各トレーニ
ングデータ出力部36a、37aに送り、V/UV共用
コードブックを用いて、V用及びUV用のトレーニング
データに対し上位層のベクトル量子化を実行し、下位層
のためのV用及びUV用のトレーニングデータを生成す
る必要がある。
The spectrum amplitude data output from the codebook training data output unit 35a for the V / UV common part is sent to the training processing unit 35b, where the training processing is performed by, for example, the so-called LBG method, and the V / UV common use is performed. A partial codebook 35c is created. The generated code vector from the V / UV shared code book 35c is sent to the V and UV training data output units 36a and 37a.
Training for V and UV using codebook
Performs upper layer vector quantization on the data,
Generate V and UV training data for
Need to be

【0029】以下、階層構造化されたベクトル量子化部
の具体的構成及び作用について、図3〜図9を参照しな
がら説明する。すなわち、この図3に示すベクトル量子
化部15は、例えば上下の2つの層に階層構造化されて
おり、入力ベクトルに対して2段階のベクトル量子化が
施されるようになっている。
Hereinafter, the specific structure and operation of the hierarchically structured vector quantization unit will be described with reference to FIGS. In other words, the vector quantization unit 15 shown in FIG. 3 has, for example, a hierarchical structure in two layers above and below, and performs two-stage vector quantization on an input vector.

【0030】図3に示すベクトル量子化器15の入力端
子17には、上記図1の周波数軸変換処理部12からの
周波数軸上の振幅データが(必要に応じて非線形圧縮部
13及びブロック間差分処理部14を介し)、ベクトル
量子化の単位となる上記M次元ベクトルとして供給され
ている。このM次元ベクトルは、次元低減部21に送ら
れることにより複数グループに分割され、各グループ毎
に代表値を求めることにより次元がS次元(S<M)に
低下させられる。ここで図4は、ベクトル量子化器15
に入力されるM次元ベクトルXの各要素、すなわち周
波数軸上のM個の振幅データx(n) の一具体例を示して
おり、1≦n≦Mである。これらのM個の振幅データx
(n) は、例えば4サンプル毎にまとめられてそれぞれの
代表値、例えば平均値yi が求められ、図5に示すよう
に、平均値データy1 〜yS のS個(この場合はS=M
/4)から成るS次元ベクトルYが得られる。
An input terminal 17 of the vector quantizer 15 shown in FIG. 3 receives the amplitude data on the frequency axis from the frequency axis conversion processing unit 12 shown in FIG. Via the difference processing unit 14), and supplied as the above-described M-dimensional vector as a unit of vector quantization. The M-dimensional vector is divided into a plurality of groups by being sent to the dimension reduction unit 21, and the dimension is reduced to S-dimension (S <M) by obtaining a representative value for each group. Here, FIG.
Shows a specific example of each element of the M-dimensional vector X input to the frequency domain, that is, M pieces of amplitude data x (n) on the frequency axis, where 1 ≦ n ≦ M. These M pieces of amplitude data x
(n) is collected, for example, every four samples to obtain a representative value, for example, an average value y i , and as shown in FIG. 5, S data of average value data y 1 to y S (in this case, S = M
/ 4) is obtained.

【0031】次に、このS次元ベクトルのデータに対し
てS次元ベクトル量子化器22Q によりベクトル量子化
が施される。すなわち、S次元ベクトル量子化器22Q
のコードブック22C 中のS次元コードベクトルの内、
入力されたS次元ベクトルにS次元空間上で最も距離が
近いコードベクトルがサーチされ、このサーチされたコ
ードベクトルのインデックスデータは出力端子26より
取り出され、サーチされたコードベクトル(出力インデ
ックスを逆ベクトル量子化して得られるコードベクト
ル)は次元拡張部23に送られる。コードブック22C
には、上記図2において説明したV/UV共用部分のコ
ードブック35cが用いられる。図6は、上記図5に示
すS個の平均値データy1 〜yS から成るS次元ベクト
ルYをベクトル量子化した後、逆量子化して(あるい
はベクトル量子化器22のコードブックで上記量子化の
際にサーチされたコードベクトルを取り出して)得られ
たローカルデコーダ出力としてのS次元ベクトルYVQ
の各要素yVQ1 〜yVQS を示している。
Next, vector quantization is performed on the data of the S-dimensional vector by the S-dimensional vector quantizer 22 Q. That is, the S-dimensional vector quantizer 22 Q
Of S dimension code vectors of the codebook 22 in C,
A code vector that is closest to the input S-dimensional vector in the S-dimensional space is searched. Index data of the searched code vector is extracted from the output terminal 26, and the searched code vector (the output index is set to the inverse vector). The code vector obtained by quantization is sent to the dimension extension unit 23. Codebook 22 C
The code book 35c of the V / UV shared part described with reference to FIG. 6, after the vector quantization of the S-dimensional vector Y consisting of S avg value data y 1 ~y S shown in FIG. 5, the quantum by inversely quantizing (or codebook of the vector quantizer 22 Vector code Y VQ as a local decoder output obtained by extracting the code vector searched at the time of conversion
Shows each element y VQ1 ~y VQS of.

【0032】次に次元拡張部23では、上記S次元のコ
ードベクトルを元のM次元のベクトルに拡張する。この
拡張されたM次元ベクトルの各要素の例を図7に示す。
この図7から明らかなように、上記逆ベクトル量子化さ
れたS次元ベクトルYVQの各要素yVQ1 〜yVQS をそ
れぞれ元の4サンプルずつに増加させることにより、4
S=M個の要素から成るM次元ベクトルを得るわけであ
る。この拡張されたM次元のベクトルと元の上記M次元
ベクトルの周波数軸上データとの関係を表すデータに対
して第2のベクトル量子化を施す。
Next, the dimension extension unit 23 extends the S-dimensional code vector to the original M-dimensional vector. FIG. 7 shows an example of each element of the extended M-dimensional vector.
As apparent from FIG. 7, by increasing each element y VQ1 ~y VQS of the inverse vector quantized S-dimensional vector Y VQ in each respective original 4 samples, 4
An M-dimensional vector consisting of S = M elements is obtained. The second vector quantization is performed on the data representing the relationship between the expanded M-dimensional vector and the original data on the frequency axis of the M-dimensional vector.

【0033】図3の具体例では、次元拡張部23からの
拡張されたM次元ベクトルデータを減算器24に送り、
元の上記M次元ベクトルの周波数軸上データから減算す
ることにより、上記S次元を拡張したM次元ベクトルと
元のM次元ベクトルとの関係を表すS個のベクトルデー
タを得ている。図8は、上記図4に示すM次元ベクトル
Xの各要素である周波数軸上のM個の振幅データx
(n) から、図7に示す拡張M次元ベクトルの各要素を減
算して得られたM個のデータr1 〜rM を示しており、
これらのM個のデータr1 〜rM の4サンプルずつを組
(ベクトル)としてS個の4次元ベクトルR1 〜R
S が得られる。
In the specific example of FIG. 3, the extended M-dimensional vector data from the dimension extension unit 23 is sent to the subtractor 24,
By subtracting the original M-dimensional vector from the data on the frequency axis, S vector data representing the relationship between the S-dimensionally expanded M-dimensional vector and the original M-dimensional vector is obtained. FIG. 8 shows M amplitude data x on the frequency axis which are each element of the M-dimensional vector X shown in FIG.
from (n), shows the M data r 1 ~r M obtained by subtracting each element of the extended M-dimensional vector shown in FIG. 7,
The four samples of the M data r 1 to r M are set as a set (vector) and S four-dimensional vectors R 1 to R M are set.
S is obtained.

【0034】このようにして減算器24から得られたS
個のベクトルのそれぞれに対して、ベクトル量子化器群
25のS個の各ベクトル量子化器251Q〜25SQにより
それぞれベクトル量子化を施す。各ベクトル量子化器2
1Q〜25SQから出力されるインデックスは、それぞれ
出力端子271Q〜27SQから取り出される。図9は、ベ
クトル量子化器251Q〜25SQとしてそれぞれ4次元ベ
クトル量子化器を用い、上記図8に示す各4次元ベクト
ルR1 〜RS をそれぞれベクトル量子化した後の各
4次元ベクトルRVQ1 〜RVQS の各要素rVQ1 〜r
VQ4 、rVQ5 〜rVQ8 、…〜rVQM を示している。
The S obtained from the subtractor 24 in this manner
Each of the vectors is subjected to vector quantization by each of the S vector quantizers 25 1Q to 25 SQ of the vector quantizer group 25. Each vector quantizer 2
5 index output from 1Q to 25 SQ are respectively taken from the output terminal 27 1Q ~ 27 SQ. FIG. 9 shows a four-dimensional vector after quantizing each of the four-dimensional vectors R 1 to R S shown in FIG. 8 using four-dimensional vector quantizers as the vector quantizers 25 1Q to 25 SQ . R VQ1 ~R each element of the VQS r VQ1 ~r
VQ4, r VQ5 ~r VQ8, shows the ... ~r VQM.

【0035】これらの各ベクトル量子化器251Q〜25
SQには、それぞれV(有声音)用のコードブック251V
〜25SVとUV(無声音)用のコードブック251U〜2
SUとが用いられ、これらのV用コードブック251V
25SVとUV用コードブック251U〜25SUとは、入力
端子18からのV/UV情報に応じて切換制御される切
換スイッチ251W〜25SWにより切換選択されるように
なっている。これらの切換スイッチ251W〜25SWの切
換制御は、全バンドに対して同時に(連動させて)行っ
てもよいが、各ベクトル量子化器251Q〜25SQが受け
持つ周波数帯域が異なることを考慮して、バンド毎のV
/UV判別フラグに応じて切換制御するようにしてもよ
い。V用コードブック251V〜25SVが図2のV(有声
音)用コードブック36cに対応し、UV用コードブッ
ク251U〜25SUが図2のV(有声音)用コードブック
37cに対応することは勿論である。
Each of these vector quantizers 25 1Q to 25 Q
Each SQ has a codebook for V (voiced sound) 25 1V
~ 25 Codebook for SV and UV (unvoiced sound) 25 1U ~ 2
5 SU, and these V codebooks 25 1V-
The 25 SV and the UV codebooks 25 1U to 25 SU are switched and selected by the changeover switches 25 1W to 25 SW which are switched and controlled according to the V / UV information from the input terminal 18. Switching control of these changeover switches 25 1W to 25 SW may be performed simultaneously (in conjunction) with respect to all the bands, but considering that the frequency bands responsible each vector quantizer 25 1Q to 25 SQ is different And V for each band
Switching control may be performed according to the / UV determination flag. The V codebooks 25 1V to 25 SV correspond to the V (voiced sound) codebook 36c in FIG. 2, and the UV codebooks 25 1U to 25 SU correspond to the V (voiced sound) codebook 37c in FIG. Of course you do.

【0036】このような階層構造化された2段階のベク
トル量子化を施すことにより、コードブックサーチのた
めの演算量を低減でき、コードブックのためのメモリ量
(例えばROM容量)を低減でき、また上記出力端子2
6から得られる上位層のより重要なインデックスに対し
て誤り訂正符号化を施して重点的に保護するようにする
こと等により、誤り訂正符号の効果的な適用が可能とな
る。なお、ベクトル量子化部15の階層構造は、2段階
に限定されず、3段階以上の多層の階層構造を持たせる
ようにしてもよい。
By performing such hierarchically structured two-stage vector quantization, the amount of calculation for a codebook search can be reduced, and the amount of memory (eg, ROM capacity) for a codebook can be reduced. The output terminal 2
For example, by applying error correction coding to the more important index of the upper layer obtained from No. 6 to protect the index more importantly, it is possible to effectively apply the error correction code. Note that the hierarchical structure of the vector quantization unit 15 is not limited to two levels, and may have a multilayer structure of three or more levels.

【0037】なお、図1〜図3の各部は、全てをハード
ウェアにて構成する必要はなく、例えばいわゆるDSP
(ディジタル信号プロセッサ)等を用いてソフトウェア
的に実現するようにしてもよい。
It is not necessary that all of the units shown in FIGS. 1 to 3 be constituted by hardware.
(Digital signal processor) or the like may be used as software.

【0038】以上説明したように、例えば音声合成分析
符号化の場合に、音声の有声無声の度合い、ピッチ等が
既に特徴量として抽出されていることを考慮して、それ
らの特徴量、特に有声/無声の判断結果によってベクト
ル量子化のコードブックを切り換えることにより、良好
なベクトル量子化が実現できる。すなわち、有声音時と
無声音時とでは、各々存在するスペクトルの形状が大き
く異なり、各状態に対応して各々別々にトレーニングさ
れたコードブックを持つことは、特性改善上、大変好ま
しいことである。また、階層構造化ベクトル量子化の場
合、上位層のベクトル量子化は固定のコードブックと
し、下位層のベクトル量子化のコードブックのみ、有声
用/無声用の2種を切り換えるようにしてもよい。ま
た、周波数軸上のビットアロケーションも、例えば有声
音のときは低音重視、無声音のときは高音重視に切り換
えるようにしてもよい。切換制御には、ピッチの有無、
有声音/無声音の比率、スペクトルのレベルや傾き、等
を利用することができる。さらに、3種類以上のコード
ブックを切り換えるようにしてもよく、例えば、無声音
用のコードブックを子音、背景雑音等で2種類以上用い
るようにしてもよい。
As described above, in the case of speech synthesis analysis coding, for example, the degree of voiced / unvoiced speech, the pitch, and the like are already taken out as feature amounts, and these feature amounts, particularly voiced, are considered. By switching the codebook of vector quantization according to the / unvoiced determination result, good vector quantization can be realized. In other words, the shapes of existing spectra are significantly different between voiced sound and unvoiced sound, and it is very preferable to have codebooks that are individually trained corresponding to each state in terms of improving characteristics. In the case of hierarchical structured vector quantization, the upper layer vector quantization may be a fixed codebook, and only the lower layer vector quantization codebook may be switched between voiced and unvoiced. . In addition, the bit allocation on the frequency axis may be switched to, for example, emphasizing low sounds for voiced sounds and emphasizing high sounds for unvoiced sounds. Switching control includes the presence or absence of pitch,
The ratio of voiced / unvoiced sound, spectrum level and inclination, etc. can be used. Further, three or more codebooks may be switched. For example, two or more codebooks for unvoiced sounds may be used for consonants and background noise.

【0039】次に、上述したような高能率符号化方法が
適用可能な、音声信号の合成分析符号化装置(いわゆる
ボコーダ)の一種のMBE(Multiband Excitation: マ
ルチバンド励起)ボコーダの具体例について、図面を参
照しながら説明する。以下に説明するMBEボコーダ
は、D.W. Griffin and J.S. Lim, "MultibandExcitatio
n Vocoder," IEEE Trans.Acoustics,Speech,and Signal
Processing,vol.36, No.8, pp.1223-1235, Aug. 1988
に開示されているものであり、従来のPARCOR(PA
Rtial auto-CORrelation: 偏自己相関)ボコーダ等で
は、音声のモデル化の際に有声音区間と無声音区間とを
ブロックあるいはフレーム毎に切り換えていたのに対
し、MBEボコーダでは、同時刻(同じブロックあるい
はフレーム内)の周波数軸領域に有声音(Voiced)区間
と無声音(Unvoiced)区間とが存在するという仮定でモ
デル化している。
Next, a specific example of a kind of MBE (Multiband Excitation) vocoder which is a kind of speech signal synthesis / analysis coding apparatus (so-called vocoder) to which the above-described high efficiency coding method can be applied will be described. This will be described with reference to the drawings. The MBE vocoder described below is compatible with DW Griffin and JS Lim, "MultibandExcitatio
n Vocoder, "IEEE Trans.Acoustics, Speech, and Signal
Processing, vol. 36, No. 8, pp. 1223-1235, Aug. 1988
And the conventional PARCOR (PA
Rtial auto-CORrelation: In vocoders and the like, voiced sections and unvoiced sections are switched for each block or frame when modeling speech, whereas MBE vocoders use the same time (the same block or the same block). The modeling is performed on the assumption that a voiced section (Voiced) section and an unvoiced section (Unvoiced) section exist in the frequency axis region (in a frame).

【0040】図10は、上記MBEボコーダに本発明を
適用した実施例の全体の概略構成を示すブロック図であ
る。この図10において、入力端子101には音声信号
が供給されるようになっており、この入力音声信号は、
HPF(ハイパスフィルタ)等のフィルタ102に送ら
れて、いわゆるDC(直流)オフセット分の除去や帯域
制限(例えば200〜3400Hzに制限)のための少な
くとも低域成分(200Hz以下)の除去が行われる。こ
のフィルタ102を介して得られた信号は、ピッチ抽出
部103及び窓かけ処理部104にそれぞれ送られる。
ピッチ抽出部103では、入力音声信号データが所定サ
ンプル数N(例えばN=256)単位でブロック分割さ
れ(あるいは方形窓による切り出しが行われ)、このブ
ロック内の音声信号についてのピッチ抽出が行われる。
このような切り出しブロック(256サンプル)を、例
えば図11のAに示すようにLサンプル(例えばL=1
60)のフレーム間隔で時間軸方向に移動させており、
各ブロック間のオーバラップはN−Lサンプル(例えば
96サンプル)となっている。また、窓かけ処理部10
4では、1ブロックNサンプルに対して所定の窓関数、
例えばハミング窓をかけ、この窓かけブロックを1フレ
ームLサンプルの間隔で時間軸方向に順次移動させてい
る。
FIG. 10 is a block diagram showing an overall schematic configuration of an embodiment in which the present invention is applied to the MBE vocoder. In FIG. 10, an audio signal is supplied to an input terminal 101, and this input audio signal is
The signal is sent to a filter 102 such as an HPF (high-pass filter) to remove a so-called DC (direct current) offset and to remove at least a low-frequency component (200 Hz or less) for band limitation (for example, limited to 200 to 3400 Hz). . The signal obtained through the filter 102 is sent to the pitch extraction unit 103 and the windowing processing unit 104, respectively.
In the pitch extracting section 103, the input audio signal data is divided into blocks (or cut out by a rectangular window) in units of a predetermined number N (for example, N = 256), and the pitch of the audio signal in this block is extracted. .
For example, as shown in FIG. 11A, an L sample (for example, L = 1)
60) is moved in the time axis direction at the frame interval,
The overlap between the blocks is NL samples (for example, 96 samples). In addition, the windowing processing unit 10
4, a predetermined window function for one block N samples,
For example, a hamming window is applied, and the windowed block is sequentially moved in the time axis direction at intervals of L samples of one frame.

【0041】このような窓かけ処理を数式で表すと、 xw (k,q) =x(q) w(kL-q) ・・・(4) となる。この(4)式において、kはブロック番号を、
qはデータの時間インデックス(サンプル番号)を表
し、処理前の入力信号のq番目のデータx(q) に対して
第kブロックの窓(ウィンドウ)関数w(kL-q)により窓
かけ処理されることによりデータxw (k,q) が得られる
ことを示している。ピッチ抽出部103内での図11の
Aに示すような方形窓の場合の窓関数wr (r) は、 wr (r) =1 0≦r<N ・・・(5) =0 r<0,N≦r また、窓かけ処理部104での図11のBに示すような
ハミング窓の場合の窓関数wh (r) は、 wh (r) = 0.54 − 0.46 cos(2πr/(N-1)) 0≦r<N ・・・(6) =0 r<0,N≦r である。このような窓関数wr (r) あるいはwh (r) を
用いるときの上記(4)式の窓関数w(r) (=w(kL-
q))の否零区間は、 0≦kL−q<N これを変形して、 kL−N<q≦kL 従って例えば上記方形窓の場合に窓関数wr (kL-q)=1
となるのは、図12に示すように、kL−N<q≦kL
のときとなる。また、上記(4)〜(6)式は、長さN
(=256)サンプルの窓が、L(=160)サンプル
ずつ前進してゆくことを示している。以下、上記(5)
式、(6)式の各窓関数で切り出された各N点(0≦r
<N)の否零サンプル列を、それぞれxwr(k,r) 、xwh
(k,r) と表すことにする。
When such a windowing process is represented by a mathematical formula, xw (k, q) = x (q) w (kL-q) (4) In the equation (4), k is a block number,
q represents a time index (sample number) of the data. The q-th data x (q) of the input signal before processing is windowed by a window function w (kL-q) of the k-th block. This shows that data x w (k, q) can be obtained. The window function w r (r) in the case of a rectangular window as shown in FIG. 11A in the pitch extraction unit 103 is expressed as: w r (r) = 1 0 ≦ r <N (5) = 0 r <0, N ≦ r Further, the window function w h (r) in the case of the Hamming window as shown in FIG. 11B in the windowing processing unit 104 is represented by w h (r) = 0.54−0.46 cos (2πr / (N-1)) 0 ≦ r <N (6) = 0 r <0, N ≦ r. When such a window function w r (r) or w h (r) is used, the window function w (r) (= w (kL−
zero data interval q)) is deformed this 0 ≦ kL-q <N, kL-N < window function in the case of q ≦ kL Thus for example the rectangular window w r (kL-q) = 1
As shown in FIG. 12, kL−N <q ≦ kL
It is time of. Further, the above equations (4) to (6) indicate that the length N
(= 256) indicates that the sample window advances by L (= 160) samples. Hereinafter, the above (5)
Each N point (0 ≦ r) extracted by each window function of the equation (6)
<N) are represented by x wr (k, r) and x wh , respectively.
(k, r).

【0042】窓かけ処理部104では、図13に示すよ
うに、上記(6)式のハミング窓がかけられた1ブロッ
ク256サンプルのサンプル列xwh(k,r) に対して17
92サンプル分の0データが付加されて(いわゆる0詰
めされて)2048サンプルとされ、この2048サン
プルの時間軸データ列に対して、直交変換部105によ
り例えばFFT(高速フーリエ変換)等の直交変換処理
が施される。
As shown in FIG. 13, the windowing processing unit 104 obtains 17 samples from the sample sequence x wh (k, r) of 256 samples per block to which the Hamming window of the above equation (6) has been applied.
Zero data for 92 samples is added (so-called zero padding) to make 2048 samples, and the orthogonal transform unit 105 performs orthogonal transform such as FFT (fast Fourier transform) on the time axis data sequence of 2048 samples. Processing is performed.

【0043】ピッチ抽出部103では、上記xwr(k,r)
のサンプル列(1ブロックNサンプル)に基づいてピッ
チ抽出が行われる。このピッチ抽出法には、時間波形の
周期性や、スペクトルの周期的周波数構造や、自己相関
関数を用いるもの等が知られているが、本実施例では、
センタクリップ波形の自己相関法を採用している。この
ときのブロック内でのセンタクリップレベルについて
は、1ブロックにつき1つのクリップレベルを設定して
もよいが、ブロックを細分割した各部(各サブブロッ
ク)の信号のピークレベル等を検出し、これらの各サブ
ブロックのピークレベル等の差が大きいときに、ブロッ
ク内でクリップレベルを段階的にあるいは連続的に変化
させるようにしている。このセンタクリップ波形の自己
相関データのピーク位置に基づいてピッチ周期を決めて
いる。このとき、現在フレームに属する自己相関データ
(自己相関は1ブロックNサンプルのデータを対象とし
て求められる)から複数のピークを求めておき、これら
の複数のピークの内の最大ピークが所定の閾値以上のと
きには該最大ピーク位置をピッチ周期とし、それ以外の
ときには、現在フレーム以外のフレーム、例えば前後の
フレームで求められたピッチに対して所定の関係を満た
すピッチ範囲内、例えば前フレームのピッチを中心とし
て±20%の範囲内にあるピークを求め、このピーク位
置に基づいて現在フレームのピッチを決定するようにし
ている。このピッチ抽出部103ではオープンループに
よる比較的ラフなピッチのサーチが行われ、抽出された
ピッチデータは高精度(ファイン)ピッチサーチ部10
6に送られて、クローズドループによる高精度のピッチ
サーチ(ピッチのファインサーチ)が行われる。
In the pitch extracting section 103, the above x wr (k, r)
Is extracted based on the sample sequence (1 block N samples). As the pitch extraction method, a method using a periodicity of a time waveform, a periodic frequency structure of a spectrum, an autocorrelation function, and the like are known.
The autocorrelation method of the center clip waveform is adopted. As for the center clip level in the block at this time, one clip level may be set for each block, but the peak level of the signal of each part (each sub-block) obtained by subdividing the block is detected, and these are detected. When the difference between the peak levels of each sub-block is large, the clip level in the block is changed stepwise or continuously. The pitch period is determined based on the peak position of the autocorrelation data of the center clip waveform. At this time, a plurality of peaks are obtained from the autocorrelation data belonging to the current frame (the autocorrelation is obtained from data of one block N samples), and the maximum peak among the plurality of peaks is equal to or larger than a predetermined threshold. In this case, the maximum peak position is used as the pitch cycle, and in other cases, a pitch within a pitch range that satisfies a predetermined relationship with a pitch obtained in a frame other than the current frame, for example, the previous and next frames, for example, the center of the pitch of the previous frame. As a result, a peak within a range of ± 20% is obtained, and the pitch of the current frame is determined based on the peak position. In the pitch extracting section 103, a relatively rough pitch search is performed by an open loop, and the extracted pitch data is stored in a high-precision (fine) pitch searching section 10
6 to perform a high-precision pitch search (fine search of pitch) by a closed loop.

【0044】高精度(ファイン)ピッチサーチ部106
には、ピッチ抽出部103で抽出された整数(インテジ
ャー)値の粗(ラフ)ピッチデータと、直交変換部10
5により例えばFFTされた周波数軸上のデータとが供
給されている。この高精度ピッチサーチ部106では、
上記粗ピッチデータ値を中心に、0.2〜0.5きざみで±
数サンプルずつ振って、最適な小数点付き(フローティ
ング)のファインピッチデータの値へ追い込む。このと
きのファインサーチの手法として、いわゆる合成による
分析 (Analysis by Synthesis)法を用い、合成されたパ
ワースペクトルが原音のパワースペクトルに最も近くな
るようにピッチを選んでいる。
High-precision (fine) pitch search section 106
Contains the coarse (rough) pitch data of the integer value extracted by the pitch extracting unit 103 and the orthogonal transform unit 10.
5, for example, the data on the frequency axis that has been subjected to the FFT. In the high precision pitch search unit 106,
With the coarse pitch data value as the center, ± 0.2 steps
Shake several samples at a time to drive to the optimal fine pitch data with a decimal point (floating). At this time, as a method of fine search, a so-called analysis by synthesis method is used, and the pitch is selected so that the synthesized power spectrum is closest to the power spectrum of the original sound.

【0045】このピッチのファインサーチについて説明
する。先ず、上記MBEボコーダにおいては、上記FF
T等により直交変換された周波数軸上のスペクトルデー
タとしてのS(j) を S(j) =H(j) |E(j) | 0<j<J ・・・(7) と表現するようなモデルを想定している。ここで、Jは
ω s /4π=fs /2に対応し、サンプリング周波数f
s ω s /2πが例えば8kHzのときには4kHzに対応
する。上記(7)式中において、周波数軸上のスペクト
ルデータS(j) が図14のAに示すような波形のとき、
H(j) は、図14のBに示すような元のスペクトルデー
タS(j) のスペクトル包絡線(エンベロープ)を示し、
E(j) は、図14のCに示すような等レベルで周期的な
励起信号(エキサイテイション)のスペクトルを示して
いる。すなわち、FFTスペクトルS(j) は、スペクト
ルエンベロープH(j) と励起信号のパワースペクトル|
E(j) |との積としてモデル化される。
The fine search of the pitch will be described. First, in the MBE vocoder, the FF
S (j) as spectrum data on the frequency axis orthogonally transformed by T or the like is expressed as S (j) = H (j) | E (j) | 0 <j <J (7) Model is assumed. Where J is
ω s / 4π = f s / 2 in response, the sampling frequency f
s = when ω s / is, for example, 8kHz corresponding to 4kHz. In the above equation (7), when the spectrum data S (j) on the frequency axis has a waveform as shown in FIG.
H (j) indicates the spectral envelope of the original spectral data S (j) as shown in FIG.
E (j) indicates the spectrum of the excitation signal (excitation) at the same level and periodic as shown in FIG. 14C. That is, the FFT spectrum S (j) is represented by the spectrum envelope H (j) and the power spectrum of the excitation signal |
E (j) |

【0046】上記励起信号のパワースペクトル|E(j)
|は、上記ピッチに応じて決定される周波数軸上の波形
の周期性(ピッチ構造)を考慮して、1つの帯域(バン
ド)の波形に相当するスペクトル波形を周波数軸上の各
バンド毎に繰り返すように配列することにより形成され
る。この1バンド分の波形は、例えば上記図13に示す
ような256サンプルのハミング窓関数に1792サン
プル分の0データを付加(0詰め)した波形を時間軸信
号と見なしてFFTし、得られた周波数軸上のある帯域
幅を持つインパルス波形を上記ピッチに応じて切り出す
ことにより形成することができる。
Power spectrum | E (j) of the above excitation signal
| Takes into account the periodicity (pitch structure) of the waveform on the frequency axis determined according to the pitch, and converts the spectrum waveform corresponding to the waveform of one band (band) for each band on the frequency axis. It is formed by arranging it repeatedly. The waveform for one band is obtained by performing a FFT by regarding a waveform obtained by adding 0 data of 1792 samples (0 padding) to a Hamming window function of 256 samples as shown in FIG. It can be formed by cutting out an impulse waveform having a certain bandwidth on the frequency axis according to the pitch.

【0047】次に、上記ピッチに応じて分割された各バ
ンド毎に、上記H(j) を代表させるような(各バンド毎
のエラーを最小化するような)値(一種の振幅)|Am
|を求める。ここで、例えば第mバンド(第m高調波の
帯域)の下限、上限の点をそれぞれam 、bm とすると
き、この第mバンドのエラーεm は、
Next, for each band divided according to the pitch, a value (a kind of amplitude) | A representative of the above H (j) (to minimize the error for each band) | A m
| Here, for example, when the lower and upper points of the m-th band (band of the m-th harmonic) are a m and b m , respectively, the error ε m of the m-th band is

【0048】[0048]

【数4】 (Equation 4)

【0049】で表せる。このエラーεm を最小化するよ
うな|Am |は、
Can be expressed by | A m | that minimizes this error ε m is

【0050】[0050]

【数5】 (Equation 5)

【0051】となり、この(6)式の|Am |のとき、
エラーεm を最小化する。このような振幅|Am |を各
バンド毎に求め、得られた各振幅|Am |を用いて上記
(8)式で定義された各バンド毎のエラーεm を求め
る。次に、このような各バンド毎のエラーεm の全バン
ドの総和値Σεm を求める。さらに、このような全バン
ドのエラー総和値Σεm を、いくつかの微小に異なるピ
ッチについて求め、エラー総和値Σεm が最小となるよ
うなピッチを求める。
When | A m | in equation (6),
Minimize the error ε m . Such an amplitude | A m | is obtained for each band, and an error ε m for each band defined by the above equation (8) is obtained using the obtained amplitudes | A m |. Next, a total value Σε m of all the bands of the error ε m for each band is obtained. Further, the error sum Shigumaipushiron m of all such bands, calculated for different pitches to some small, obtaining the pitch as an error sum Shigumaipushiron m is minimized.

【0052】すなわち、上記ピッチ抽出部103で求め
られたラフピッチを中心として、例えば 0.25 きざみで
上下に数種類ずつ用意する。これらの複数種類の微小に
異なるピッチの各ピッチに対してそれぞれ上記エラー総
和値Σεm を求める。この場合、ピッチが定まるとバン
ド幅が決まり、上記(9)式より、周波数軸上データの
パワースペクトル|S(j) |と励起信号スペクトル|E
(j) |とを用いて上記(8)式のエラーεm を求め、そ
の全バンドの総和値Σεm を求めることができる。この
エラー総和値Σεm を各ピッチ毎に求め、最小となるエ
ラー総和値に対応するピッチを最適のピッチとして決定
するわけである。以上のようにして高精度ピッチサーチ
部106で最適のファイン(例えば 0.25 きざみ)ピッ
チが求められ、この最適ピッチに対応する振幅|Am
が決定される。
That is, several types are prepared vertically, for example, in increments of 0.25 with the rough pitch obtained by the pitch extraction unit 103 as the center. Each respective pitches of different pitches to these plurality of types of fine finding the error sum Σε m. In this case, when the pitch is determined, the bandwidth is determined. From the above equation (9), the power spectrum | S (j) | of the data on the frequency axis and the excitation signal spectrum | E
(j) | seek error epsilon m of equation (8) using a, can be obtained sum Shigumaipushiron m of all the bands. Obtains the error sum Shigumaipushiron m for each pitch, is not to determine the pitch corresponding to error sum total value which is the smallest as the optimal pitch. As described above, the optimum fine (for example, in increments of 0.25) pitch is obtained by the high-precision pitch search unit 106, and the amplitude | A m |
Is determined.

【0053】以上ピッチのファインサーチの説明におい
ては、説明を簡略化するために、全バンドが有声音(Vo
iced)の場合を想定しているが、上述したようにMBE
ボコーダにおいては、同時刻の周波数軸上に無声音(Un
voiced)領域が存在するというモデルを採用しているこ
とから、上記各バンド毎に有声音/無声音の判別を行う
ことが必要とされる。
In the above description of the fine search of the pitch, in order to simplify the description, all the bands are voiced (Vo).
iced), but the MBE
In a vocoder, an unvoiced sound (Un
Since the model in which a voiced) region exists is used, it is necessary to discriminate voiced / unvoiced sounds for each band.

【0054】上記高精度ピッチサーチ部106からの最
適ピッチ及び振幅|Am |のデータは、有声音/無声音
判別部107に送られ、上記各バンド毎に有声音/無声
音の判別が行われる。この判別のために、NSR(ノイ
ズtoシグナル比)を利用する。すなわち、第mバンド
のNSRは、
The data of the optimum pitch and amplitude | A m | from the high-precision pitch search unit 106 is sent to the voiced / unvoiced sound discriminating unit 107, and the voiced / unvoiced sound is discriminated for each band. For this determination, NSR (noise-to-signal ratio) is used. That is, the NSR of the m-th band is

【0055】[0055]

【数6】 (Equation 6)

【0056】と表せ、このNSR値が所定の閾値(例え
ば0.3)より大のとき(エラーが大きい)ときには、そ
のバンドでの|Am ||E(j) |による|S(j) |の近
似が良くない(上記励起信号|E(j) |が基底として不
適当である)と判断でき、当該バンドをUV(Unvoice
d、無声音)と判別する。これ以外のときは、近似があ
る程度良好に行われていると判断でき、そのバンドをV
(Voiced、有声音)と判別する。
When the NSR value is larger than a predetermined threshold value (for example, 0.3) (error is large), | S (j) by | A m || E (j) | | Is not good (the excitation signal | E (j) | is inappropriate as a basis), and the band is identified by UV (Unvoice
d, unvoiced sound). In other cases, it can be determined that the approximation has been performed to some extent, and the band is
(Voiced, voiced sound).

【0057】次に、振幅再評価部108には、直交変換
部105からの周波数軸上データ、高精度ピッチサーチ
部106からのファインピッチと評価された振幅|Am
|との各データ、及び上記有声音/無声音判別部107
からのV/UV(有声音/無声音)判別データが供給さ
れている。この振幅再評価部108では、有声音/無声
音判別部107において無声音(UV)と判別されたバ
ンドに関して、再度振幅を求めている。このUVのバン
ドについての振幅|Am UVは、
Next, the amplitude re-evaluation unit 108 receives the on-frequency data from the orthogonal transformation unit 105 and the amplitude | A m evaluated as a fine pitch from the high-precision pitch search unit 106.
| And the voiced / unvoiced sound discriminating unit 107
V / UV (voiced sound / unvoiced sound) discrimination data is supplied. The amplitude reevaluating unit 108 calculates the amplitude again for the band determined to be unvoiced (UV) by the voiced / unvoiced sound determining unit 107. The amplitude | A m | UV for this UV band is

【0058】[0058]

【数7】 (Equation 7)

【0059】にて求められる。Is obtained by

【0060】この振幅再評価部108からのデータは、
データ数変換(一種のサンプリングレート変換)部10
9に送られる。このデータ数変換部109は、上記ピッ
チに応じて周波数軸上での分割帯域数が異なり、データ
数(特に振幅データの数)が異なることを考慮して、一
定の個数にするためのものである。すなわち、例えば有
効帯域を3400kHzまでとすると、この有効帯域が上
記ピッチに応じて、8バンド〜63バンドに分割される
ことになり、これらの各バンド毎に得られる上記振幅|
m |(UVバンドの振幅|Am UVも含む)データの
個数mMX+1も8〜63と変化することになる。このた
めデータ数変換部109では、この可変個数mMX+1の
振幅データを一定個数NC (例えば44個)のデータに
変換している。
The data from the amplitude reevaluating unit 108 is
Data number conversion (a kind of sampling rate conversion) unit 10
9 The data number conversion unit 109 is provided to make the number constant in consideration of the fact that the number of division bands on the frequency axis differs according to the pitch and the number of data (particularly the number of amplitude data) differs. is there. That is, for example, when the effective band is up to 3400 kHz, this effective band is divided into 8 to 63 bands according to the pitch, and the amplitude | obtained for each of these bands is obtained.
A m | will change (UV including UV band amplitude | | A m) the number of data m MX +1 also 8-63. Therefore, the data number conversion unit 109 converts the variable number m MX +1 of amplitude data into a fixed number N C (for example, 44) data.

【0061】ここで本実施例においては、周波数軸上の
有効帯域1ブロック分の振幅データに対して、ブロック
内の最後のデータからブロック内の最初のデータまでの
値を補間するようなダミーデータを付加してデータ個数
をNF 個に拡大した後、帯域制限型のKOS倍(例えば8
倍)のオーバーサンプリングを施すことによりKOS倍の
個数の振幅データを求め、このKOS倍の個数((mMX
1)×KOS個)の振幅データを直線補間してさらに多く
のNM 個(例えば2048個)に拡張し、このNM 個の
データを間引いて上記一定個数NC (例えば44個)の
データに変換する。
In this embodiment, dummy data is used to interpolate values from the last data in the block to the first data in the block with respect to the amplitude data of one effective band on the frequency axis. Is added to expand the number of data to N F , and then the band-limited K OS times (for example, 8
Obtain an amplitude data of K OS times the number by performing oversampling multiplied), the K OS times the number ((m MX +
1) × K OS amplitude data is linearly interpolated and expanded to more N M (for example, 2048), and this N M data is decimated to obtain the constant number N C (for example, 44). Convert to data.

【0062】このデータ数変換部109からのデータ
(上記一定個数NC の振幅データ)がベクトル量子化部
110に送られて、所定個数のデータ毎にまとめられて
ベクトルとされ、ベクトル量子化が施される。このベク
トル量子化部110として、上述した図1あるいは図3
に示すような、V(有声音)用コードブックとUV(無
声音)用コードブックとを切換選択するようなベクトル
量子化部15を用いている。これらのV用、UV用コー
ドブックは、上記有声音/無声音(V/UV)判別部1
07からのV/UV判別データに応じて切換制御すれば
よい。このようなベクトル量子化部110からの量子化
出力データは、出力端子111を介して取り出される。
The data (the fixed number N C of amplitude data) from the data number conversion unit 109 is sent to the vector quantization unit 110 and is grouped into a predetermined number of data to form a vector. Will be applied. As the vector quantization unit 110, FIG.
, A vector quantization unit 15 for switching and selecting between a codebook for V (voiced sound) and a codebook for UV (unvoiced sound) is used. These V and UV codebooks are stored in the voiced / unvoiced (V / UV) discriminating unit 1.
Switching control may be performed according to the V / UV discrimination data from 07. Quantized output data from such a vector quantization unit 110 is extracted via an output terminal 111.

【0063】また、上記高精度のピッチサーチ部106
からの高精度(ファイン)ピッチデータは、ピッチ符号
化部115で符号化され、出力端子112を介して取り
出される。さらに、上記有声音/無声音判別部107か
らの有声音/無声音(V/UV)判別データは、出力端
子113を介して取り出される。これらの各出力端子1
11〜113からのデータは、所定の伝送フォーマット
の信号とされて伝送される。
The high-precision pitch search unit 106
, High-precision (fine) pitch data is encoded by the pitch encoding unit 115 and extracted via the output terminal 112. Further, the voiced / unvoiced sound (V / UV) discrimination data from the voiced / unvoiced sound discriminating unit 107 is extracted via an output terminal 113. Each of these output terminals 1
The data from 11 to 113 is transmitted as a signal of a predetermined transmission format.

【0064】なお、これらの各データは、上記Nサンプ
ル(例えば256サンプル)のブロック内のデータに対
して処理を施すことにより得られるものであるが、ブロ
ックは時間軸上を上記Lサンプルのフレームを単位とし
て前進することから、伝送するデータは上記フレーム単
位で得られる。すなわち、上記フレーム周期でピッチデ
ータ、V/UV判別データ、振幅データが更新されるこ
とになる。
Each of these data is obtained by processing the data in the block of N samples (for example, 256 samples), and the block is represented on the time axis by the frame of L samples. , The data to be transmitted is obtained in the frame unit. That is, the pitch data, V / UV discrimination data, and amplitude data are updated in the frame cycle.

【0065】次に、伝送されて得られた上記各データに
基づき音声信号を合成するための合成側(デコード側)
の概略構成について、図15を参照しながら説明する。
この図15において、入力端子121には上記ベクトル
量子化された振幅データが、入力端子122には上記符
号化されたピッチデータが、また入力端子123には上
記V/UV判別データがそれぞれ供給される。入力端子
121からの量子化振幅データは、逆ベクトル量子化部
124に送られて逆量子化される。この逆ベクトル量子
化部124も、V(有声音)用コードブックとUV(無
声音)用コードブックとを入力端子123から得られる
V/UV判別データに応じて切換選択するような構造を
有している。逆ベクトル量子化部124からの出力デー
タは、データ数逆変換部125に送られて逆変換され、
得られた振幅データが有声音合成部126及び無声音合
成部127に送られる。入力端子122からの符号化ピ
ッチデータは、ピッチ復号化部128で復号化され、デ
ータ数逆変換部125、有声音合成部126及び無声音
合成部127に送られる。また入力端子123からのV
/UV判別データは有声音合成部126及び無声音合成
部127に送られる。
Next, a synthesizing side (decoding side) for synthesizing an audio signal based on each of the data obtained by transmission.
Will be described with reference to FIG.
15, the input terminal 121 is supplied with the vector-quantized amplitude data, the input terminal 122 is supplied with the encoded pitch data, and the input terminal 123 is supplied with the V / UV discrimination data. You. The quantized amplitude data from the input terminal 121 is sent to the inverse vector quantizer 124 and inversely quantized. The inverse vector quantization unit 124 also has a structure in which the codebook for V (voiced sound) and the codebook for UV (unvoiced sound) are switched and selected according to the V / UV discrimination data obtained from the input terminal 123. ing. Output data from the inverse vector quantization unit 124 is sent to the data number inverse transformation unit 125 and inversely transformed.
The obtained amplitude data is sent to voiced sound synthesis section 126 and unvoiced sound synthesis section 127. The encoded pitch data from the input terminal 122 is decoded by the pitch decoder 128 and sent to the data number inverse converter 125, the voiced sound synthesizer 126, and the unvoiced sound synthesizer 127. V from input terminal 123
The / UV discrimination data is sent to voiced sound synthesis section 126 and unvoiced sound synthesis section 127.

【0066】有声音合成部126では例えば余弦(cosin
e)波合成により時間軸上の有声音波形を合成し、無声音
合成部127では例えばホワイトノイズをバンドパスフ
ィルタでフィルタリングして時間軸上の無声音波形を合
成し、これらの各有声音合成波形と無声音合成波形とを
加算部129で加算合成して、出力端子130より取り
出すようにしている。この場合、上記振幅データ、ピッ
チデータ及びV/UV判別データは、上記分析時の1フ
レーム(Lサンプル、例えば160サンプル)毎に更新
されて与えられるが、フレーム間の連続性を高める(円
滑化する)ために、上記振幅データやピッチデータの各
値を1フレーム中の例えば中心位置における各データ値
とし、次のフレームの中心位置までの間(合成時の1フ
レーム)の各データ値を補間により求める。すなわち、
合成時の1フレーム(例えば上記分析フレームの中心か
ら次の分析フレームの中心まで)において、先端サンプ
ル点での各データ値と終端(次の合成フレームの先端)
サンプル点での各データ値とが与えられ、これらのサン
プル点間の各データ値を補間により求めるようにしてい
る。
In the voiced sound synthesis unit 126, for example, a cosine (cosin
e) A voiced sound waveform on the time axis is synthesized by wave synthesis, and the unvoiced sound synthesis unit 127 synthesizes an unvoiced sound waveform on the time axis by filtering, for example, white noise with a band-pass filter. The unvoiced sound synthesized waveform is added and synthesized by the adder 129 and extracted from the output terminal 130. In this case, the amplitude data, the pitch data, and the V / UV discrimination data are updated and provided every frame (L samples, for example, 160 samples) at the time of the analysis, but the continuity between the frames is improved (smoothness). For example, each value of the amplitude data and the pitch data is set as a data value at, for example, a center position in one frame, and each data value up to the center position of the next frame (one frame at the time of synthesis) is interpolated. Ask by That is,
In one frame at the time of synthesis (for example, from the center of the analysis frame to the center of the next analysis frame), each data value at the leading sample point and the end point (the leading edge of the next combined frame)
Each data value at a sample point is given, and each data value between these sample points is obtained by interpolation.

【0067】以下、有声音合成部126における合成処
理を詳細に説明する。上記V(有声音)と判別された第
mバンド(第m高調波の帯域)における時間軸上の上記
1合成フレーム(Lサンプル、例えば160サンプル)
分の有声音をVm (n) とするとき、この合成フレーム内
の時間インデックス(サンプル番号)nを用いて、 Vm (n) =Am (n) cos(θm (n)) 0≦n<L ・・・(12) と表すことができる。全バンドの内のV(有声音)と判
別された全てのバンドの有声音を加算(ΣVm (n) )し
て最終的な有声音V(n) を合成する。
Hereinafter, the synthesizing process in the voiced sound synthesizing section 126 will be described in detail. The one synthesized frame (L samples, for example, 160 samples) on the time axis in the m-th band (m-th harmonic band) determined as V (voiced sound)
Assuming that the voiced sound of the minute is V m (n), V m (n) = A m (n) cos (θ m (n)) 0 using the time index (sample number) n in this synthesized frame. ≦ n <L (12) The final voiced sound V (n) is synthesized by adding (ΣV m (n)) the voiced sounds of all the bands determined as V (voiced sound) in all the bands.

【0068】この(12)式中のAm (n) は、上記合成フ
レームの先端から終端までの間で補間された第m高調波
の振幅である。最も簡単には、フレーム単位で更新され
る振幅データの第m高調波の値を直線補間すればよい。
すなわち、上記合成フレームの先端(n=0)での第m
高調波の振幅値をA0m、該合成フレームの終端(n=
L:次の合成フレームの先端)での第m高調波の振幅値
をALmとするとき、 Am (n) = (L-n)A0m/L+nALm/L ・・・(13) の式によりAm (n) を計算すればよい。
A m (n) in the equation (12) is the amplitude of the m-th harmonic interpolated from the top to the end of the synthesized frame. In the simplest case, the value of the m-th harmonic of the amplitude data updated for each frame may be linearly interpolated.
That is, the m-th position at the end (n = 0) of the composite frame
The amplitude value of the harmonic is A 0m , and the end of the synthesized frame (n =
L: the amplitude value of the m-th harmonic at the end of the next synthesized frame is A Lm , where A m (n) = (Ln) A 0 m / L + nA Lm / L (13) A m (n) may be calculated.

【0069】次に、上記(12)式中の位相θm (n) は、 θ m (n) =mωO1n+n2 m(ωL1−ω01)/2L+φ0m+Δωn ・・・(14) により求めることができる。この(14)式中で、φ0m
上記合成フレームの先端(n=0)での第m高調波の位
相(フレーム初期位相)を示し、ω01は合成フレーム先
端(n=0)での基本角周波数、ωL1は該合成フレーム
の終端(n=L:次の合成フレーム先端)での基本角周
波数をそれぞれ示している。上記(11)式中のΔωは、
n=Lにおける位相φLmがθm (L) に等しくなるような
最小のΔωを設定する。
Next, the (12) the phase theta m (n) in the expression by θ m (n) = mω O1 n + n 2 m (ω L1 -ω 01) / 2L + φ 0m + Δωn ··· (14) You can ask. In this equation (14), φ 0m indicates the phase of the m-th harmonic (frame initial phase) at the front end (n = 0) of the composite frame, and ω 01 indicates the phase at the front end (n = 0) of the composite frame. The fundamental angular frequency ω L1 indicates the fundamental angular frequency at the end of the combined frame (n = L: the leading end of the next combined frame). Δω in the above equation (11) is
The minimum Δω is set so that the phase φ Lm at n = L becomes equal to θ m (L).

【0070】以下、任意の第mバンドにおいて、それぞ
れn=0、n=LのときのV/UV判別結果に応じた上
記振幅Am (n) 、位相θm (n) の求め方を説明する。第
mバンドが、n=0、n=LのいずれもV(有声音)と
される場合に、振幅Am (n) は、上述した(13)式によ
り、伝送された振幅値A0m、ALmを直線補間して振幅A
m (n) を算出すればよい。位相θm (n) は、n=0でθ
m (0) =φ0mからn=Lでθm (L) がφLmとなるように
Δωを設定する。
The method of obtaining the amplitude A m (n) and the phase θ m (n) according to the V / UV discrimination result when n = 0 and n = L in an arbitrary m-th band will be described below. I do. When the m-th band is V (voiced sound) for both n = 0 and n = L, the amplitude A m (n) is calculated according to the above-described equation (13), and the transmitted amplitude value A 0m , A Amplitude A by linear interpolation of A Lm
m (n) may be calculated. The phase θ m (n) is n = 0 and θ
Δω is set so that θ m (L) becomes φ Lm when m (0) = φ 0m and n = L.

【0071】次に、n=0のときV(有声音)で、n=
LのときUV(無声音)とされる場合に、振幅Am (n)
は、Am (0) の伝送振幅値A0mからAm (L) で0となる
ように直線補間する。n=Lでの伝送振幅値ALmは無声
音の振幅値であり、後述する無声音合成の際に用いられ
る。位相θm (n) は、θm (0) =φ0mとし、かつΔω=
0とする。
Next, when n = 0, V (voiced sound) and n =
If L (unvoiced sound) at L, the amplitude A m (n)
Is linearly interpolated so that 0 A m (L) from the transmission amplitude value A 0 m of A m (0). The transmission amplitude value A Lm at n = L is the amplitude value of the unvoiced sound, and is used in unvoiced sound synthesis described later. Phase θ m (n) is set to θ m (0) = φ 0m , and [Delta] [omega =
Set to 0.

【0072】さらに、n=0のときUV(無声音)で、
n=LのときV(有声音)とされる場合には、振幅Am
(n) は、n=0での振幅Am (0) を0とし、n=Lで伝
送された振幅値ALmとなるように直線補間する。位相θ
m (n) については、n=0での位相θm (0) として、フ
レーム終端での位相値φLmを用いて、 θm (0) =φLm−m(ωO1+ωL1)L/2 ・・・(15) とし、かつΔω=0とする。
Further, when n = 0, UV (unvoiced sound)
If V = voiced sound when n = L, the amplitude Am
(n) sets the amplitude A m (0) at n = 0 to 0 and performs linear interpolation so that the transmitted amplitude value A Lm at n = L. Phase θ
The m (n), the phase theta m as (0) at n = 0, by using the phase value phi Lm at the frame end, θ m (0) = φ Lm -m (ω O1 + ω L1) L / 2 (15) and Δω = 0.

【0073】上記n=0、n=LのいずれもV(有声
音)とされる場合に、θm (L) がφLmとなるようにΔω
を設定する手法について説明する。上記(14)式で、n
=Lと置くことにより、 θm (L) =mωO1L+L2 m(ωL1−ω01)/2L+φ0m+ΔωL =m(ωO1+ωL1)L/2+φ0m+ΔωL =φLm となり、これを整理すると、Δωは、 Δω=(mod2π((φLm−φ0m) − mL(ωO1+ωL1)/2)/L ・・・(16) となる。この(16)式でmod2π(x) とは、xの主値を−
π〜+πの間の値で返す関数である。例えば、x=1.3
πのときmod2π(x) =−0.7π、x=2.3πのときmod2
π(x) =0.3π、x=−1.3πのときmod2π(x) =0.7
π、等である。
When both n = 0 and n = L are V (voiced sound), Δω is set so that θ m (L) becomes φ Lm.
The method for setting is described. In the above equation (14), n
= By placing the L, θ m (L) = mω O1 L + L 2 m (ω L1 -ω 01) / 2L + φ 0m + ΔωL = m (ω O1 + ω L1) L / 2 + φ 0m + ΔωL = φ Lm becomes, organize this Then, [Delta] [omega is, Δω = (mod2π ((φ Lm -φ 0m) - and mL becomes (ω O1 + ω L1) / 2) / L ··· (16) this equation (16) in mod2π (x). Is the main value of x
This function returns a value between π and + π. For example, x = 1.3
mod2π (x) = -0.7π when π, mod2 when x = 2.3π
When π (x) = 0.3π, x = -1.3π, mod2π (x) = 0.7
π, and so on.

【0074】ここで、図16のAは、音声信号のスペク
トルの一例を示しており、バンド番号(ハーモニクスナ
ンバ)mが8、9、10の各バンドがUV(無声音)と
され、他のバンドはV(有声音)とされている。このV
(有声音)のバンドの時間軸信号が上記有声音合成部1
26により合成され、UV(無声音)のバンドの時間軸
信号が無声音合成部127で合成されるわけである。
FIG. 16A shows an example of the spectrum of an audio signal. Bands (harmonics numbers) m of 8, 9, and 10 are set to UV (unvoiced sound), and other bands are set to UV (unvoiced sound). Is V (voiced sound). This V
The time axis signal of the (voiced sound) band is the voiced sound synthesis unit 1
26, and the time axis signal of the UV (unvoiced sound) band is synthesized by the unvoiced sound synthesis unit 127.

【0075】以下、無声音合成部127における無声音
合成処理を説明する。ホワイトノイズ発生部131から
の時間軸上のホワイトノイズ信号波形を、所定の長さ
(例えば256サンプル)で適当な窓関数(例えばハミ
ング窓)により窓かけをし、STFT処理部132によ
りSTFT(ショートタームフーリエ変換)処理を施す
ことにより、図16のBに示すようなホワイトノイズの
周波数軸上のパワースペクトルを得る。このSTFT処
理部132からのパワースペクトルをバンド振幅処理部
133に送り、図16のCに示すように、上記UV(無
声音)とされたバンド(例えばm=8、9、10)につ
いて上記振幅|Am UVを乗算し、他のV(有声音)と
されたバンドの振幅を0にする。このバンド振幅処理部
133には上記振幅データ、ピッチデータ、V/UV判
別データが供給されている。バンド振幅処理部133か
らの出力は、ISTFT処理部134に送られ、位相は
元のホワイトノイズの位相を用いて逆STFT処理を施
すことにより時間軸上の信号に変換する。ISTFT処
理部134からの出力は、オーバーラップ加算部135
に送られ、時間軸上で適当な(元の連続的なノイズ波形
を復元できるように)重み付けをしながらオーバーラッ
プ及び加算を繰り返し、連続的な時間軸波形を合成す
る。オーバーラップ加算部135からの出力信号が上記
加算部129に送られる。
Hereinafter, the unvoiced sound synthesizing process in the unvoiced sound synthesizing section 127 will be described. The white noise signal waveform on the time axis from the white noise generating unit 131 is windowed with an appropriate window function (for example, a hamming window) with a predetermined length (for example, 256 samples), and the STFT (short circuit) is performed by the STFT processing unit 132. By performing a term Fourier transform) process, a power spectrum on the frequency axis of white noise as shown in FIG. 16B is obtained. The power spectrum from the STFT processing unit 132 is sent to the band amplitude processing unit 133, and as shown in FIG. 16C, the amplitude | for the UV (unvoiced) band (for example, m = 8, 9, 10) Am | UV is multiplied, and the amplitude of the other V (voiced sound) bands is set to zero. The band amplitude processing unit 133 is supplied with the amplitude data, the pitch data, and the V / UV discrimination data. The output from the band amplitude processing unit 133 is sent to the ISTFT processing unit 134, and the phase is converted to a signal on the time axis by performing inverse STFT processing using the phase of the original white noise. The output from the ISTFT processing unit 134 is output to an overlap adding unit 135.
And repeats overlap and addition while weighting appropriately (to restore the original continuous noise waveform) on the time axis to synthesize a continuous time axis waveform. The output signal from the overlap adding unit 135 is sent to the adding unit 129.

【0076】このように、各合成部126、127にお
いて合成されて時間軸上に戻された有声音部及び無声音
部の各信号は、加算部129により適当な固定の混合比
で加算して、出力端子130より再生された音声信号を
取り出す。
As described above, the respective signals of the voiced sound portion and the unvoiced sound portion that have been synthesized in the synthesis units 126 and 127 and returned on the time axis are added by the addition unit 129 at an appropriate fixed mixing ratio. The reproduced audio signal is extracted from the output terminal 130.

【0077】なお、上記図10の音声分析側(エンコー
ド側)の構成や図15の音声合成側(デコード側)の構
成については、各部をハードウェア的に記載している
が、いわゆるDSP(ディジタル信号プロセッサ)等を
用いてソフトウェアプログラムにより実現することも可
能である。
As for the configuration on the voice analysis side (encoding side) in FIG. 10 and the configuration on the voice synthesis side (decoding side) in FIG. 15, each part is described in terms of hardware. It can also be realized by a software program using a signal processor) or the like.

【0078】なお、本発明は上記実施例のみに限定され
るものではなく、例えば、音声信号のみならず、音響信
号を入力信号として用いることもできる。また、入力オ
ーディオ信号(音声信号や音響信号)の特徴を表すパラ
メータとしては、上記V(有声音)/UV(無声音)の
判別情報に限定されず、ピッチの値、ピッチ成分の強
弱、信号スペクトルの傾きやレベル等を使用することが
できる。さらに、このような特徴パラメータは、符号化
方式に応じて本来伝送するパラメータ情報の一部を代用
しても、別途に伝送してもよく、他の伝送パラメータで
代用させる場合には適応的コードブックと見なせ、別途
伝送する場合には構造化コードブックと見なせる。
The present invention is not limited to the above embodiment. For example, not only audio signals but also audio signals can be used as input signals. The parameters representing the characteristics of the input audio signal (voice signal or acoustic signal) are not limited to the above-mentioned V (voiced sound) / UV (unvoiced sound) discrimination information, but include the pitch value, the strength of the pitch component, and the signal spectrum. Slope, level, etc. can be used. Further, such a characteristic parameter may be replaced by a part of the parameter information originally transmitted according to the encoding scheme, or may be transmitted separately. It can be regarded as a structured codebook if it is transmitted separately.

【0079】[0079]

【発明の効果】以上の説明から明らかなように、本発明
に係る符号化方法によれば、入力されたオーディオ信号
をブロック単位で区分して周波数軸に変換して得られる
データに基づいてM次元ベクトルとしての周波数軸上デ
ータを求め、このM次元ベクトルの周波数軸上データを
複数グループに分割して各グループ毎に代表値を求める
ことにより次元をS次元(S<M)に低下させ、このS
次元ベクトルのデータに対して第1のベクトル量子化を
施し、この第1のベクトル量子化出力データを逆量子化
して対応するS次元のコードベクトルを求め、このS次
元のコードベクトルを元のM次元のベクトルに拡張し、
この拡張されたM次元のベクトルと元の上記M次元ベク
トルの周波数軸上データとの関係を表すデータに対して
第2のベクトル量子化を施すためにオーディオ信号の状
態に応じた複数のコードブックを有する第2のベクトル
量子化器を用い、上記オーディオ入力信号のブロック毎
の特徴を表すパラメータに応じて上記複数のコードブッ
クを切り換えて量子化を施しているため、音質の向上を
図りながら、区分位置情報を少ないビット数で伝送する
ことができる。
As is apparent from the above description, according to the encoding method of the present invention, an input audio signal is divided into blocks and converted to a frequency axis. The data on the frequency axis as a dimensional vector is obtained, the data on the frequency axis of the M-dimensional vector is divided into a plurality of groups, and a representative value is obtained for each group, thereby reducing the dimension to the S dimension (S <M). This S
The first vector quantization is performed on the data of the dimensional vector, and the first vector quantized output data is inversely quantized to obtain a corresponding S-dimensional code vector. Extend to a vector of dimensions,
A plurality of codebooks corresponding to audio signal states for performing second vector quantization on data representing the relationship between the expanded M-dimensional vector and the original data on the frequency axis of the M-dimensional vector. Since the quantization is performed by switching the plurality of codebooks in accordance with a parameter representing a feature of each block of the audio input signal using the second vector quantizer having the above, while improving sound quality, The partition position information can be transmitted with a small number of bits.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る符号化方法が適用される符号化装
置(エンコーダ)側の概略構成を示すブロック図であ
る。
FIG. 1 is a block diagram illustrating a schematic configuration of an encoding device (encoder) to which an encoding method according to the present invention is applied.

【図2】コードブックの形成(トレーニング)方法を説
明するための図である。
FIG. 2 is a diagram for explaining a codebook formation (training) method.

【図3】本発明の他の実施例の方法を説明するための符
号化装置(エンコーダ)の要部の概略構成を示すブロッ
ク図である。
FIG. 3 is a block diagram illustrating a schematic configuration of a main part of an encoding device (encoder) for describing a method according to another embodiment of the present invention.

【図4】階層構造を有するベクトル量子化の動作を説明
するための図である。
FIG. 4 is a diagram for explaining an operation of vector quantization having a hierarchical structure.

【図5】階層構造を有するベクトル量子化の動作を説明
するための図である。
FIG. 5 is a diagram for explaining an operation of vector quantization having a hierarchical structure.

【図6】階層構造を有するベクトル量子化の動作を説明
するための図である。
FIG. 6 is a diagram for explaining an operation of vector quantization having a hierarchical structure.

【図7】階層構造を有するベクトル量子化の動作を説明
するための図である。
FIG. 7 is a diagram for explaining an operation of vector quantization having a hierarchical structure.

【図8】階層構造を有するベクトル量子化の動作を説明
するための図である。
FIG. 8 is a diagram for explaining an operation of vector quantization having a hierarchical structure.

【図9】階層構造を有するベクトル量子化の動作を説明
するための図である。
FIG. 9 is a diagram for explaining an operation of vector quantization having a hierarchical structure.

【図10】本発明に係る符号化方法が適用される装置の
具体例としての音声信号の合成分析符号化装置の分析側
(エンコード側)の概略構成を示す機能ブロック図であ
る。
FIG. 10 is a functional block diagram showing a schematic configuration of an analysis side (encoding side) of a speech signal synthesis analysis encoding apparatus as a specific example of an apparatus to which the encoding method according to the present invention is applied.

【図11】窓かけ処理を説明するための図である。FIG. 11 is a diagram for explaining windowing processing.

【図12】窓かけ処理と窓関数との関係を説明するため
の図である。
FIG. 12 is a diagram for explaining a relationship between a windowing process and a window function.

【図13】直交変換(FFT)処理対象としての時間軸
データを示す図である。
FIG. 13 is a diagram showing time axis data as an object of orthogonal transform (FFT) processing.

【図14】周波数軸上のスペクトルデータ、スペクトル
包絡線(エンベロープ)及び励起信号のパワースペクト
ルを示す図である。
FIG. 14 is a diagram showing spectrum data on a frequency axis, a spectrum envelope (envelope), and a power spectrum of an excitation signal.

【図15】本発明に係る符号化方法が適用される装置の
具体例としての音声信号の合成分析符号化装置の合成側
(デコード側)の概略構成を示す機能ブロック図であ
る。
FIG. 15 is a functional block diagram showing a schematic configuration of a synthesis side (decode side) of a speech signal synthesis analysis and encoding apparatus as a specific example of an apparatus to which the encoding method according to the present invention is applied.

【図16】音声信号を合成する際の無声音合成を説明す
るための図である。
FIG. 16 is a diagram for explaining unvoiced sound synthesis when synthesizing an audio signal.

【符号の説明】[Explanation of symbols]

12 周波数軸変換処理部、 13 非線形圧縮部、
14 ブロック間(フレーム間)差分処理部、 15
ベクトル量子化部、 15 ,251Q〜25SQ
ベクトル量子化器、 15 ,251V〜25SV
V(有声音)用コードブック、 15 ,251U
25SU UV(無声音)用コードブック 15 ,251W〜25SW 切換スイッチ、 21
次元低減部 22 S次元ベクトル量子化器、 22 S次
元コードブック、 23 次元拡張部、 103 ピッ
チ抽出部、 104 窓かけ処理部、 105直交変換
(FFT)部、 106 高精度(ファイン)ピッチサ
ーチ部、 107 有声音/無声音(V/UV)判別
部、 108 振幅再評価部、 109データ数変換
(データレートコンバート)部、 110 ベクトル量
子化部、126 有声音合成部、 127 無声音合成
12 frequency axis conversion processing unit, 13 nonlinear compression unit,
14 inter-block (inter-frame) difference processing unit, 15
Vector quantizer, 15 Q , 25 1Q to 25 SQ
Vector quantizer, 15 V, 25 1V ~25 SV
V (voiced sound) for the code book, 15 U, 25 1U ~
Codebook for 25 SU UV (unvoiced sound) 15 W , 25 1W to 25 SW selector switch, 21
Dimension reduction unit 22 Q S-dimensional vector quantizer, 22 C S-dimensional codebook, 23-dimensional expansion unit, 103 pitch extraction unit, 104 window processing unit, 105 orthogonal transform (FFT) unit, 106 high-precision (fine) pitch Search section 107 voiced / unvoiced (V / UV) discriminating section 108 amplitude re-evaluation section 109 data number conversion (data rate conversion) section 110 vector quantization section 126 voiced sound synthesis section 127 unvoiced sound synthesis section

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平2−146100(JP,A) 特開 平2−287500(JP,A) 特開 昭59−12499(JP,A) 特開 平4−75100(JP,A) 特開 平5−265487(JP,A) (58)調査した分野(Int.Cl.7,DB名) G10L 19/00 - 19/14 H03M 7/30 H04B 14/04 ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-2-146100 (JP, A) JP-A-2-287500 (JP, A) JP-A-59-12499 (JP, A) JP-A-4- 75100 (JP, A) JP-A-5-265487 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G10L 19/00-19/14 H03M 7/30 H04B 14/04

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 入力されたオーディオ信号をブロック単
位で区分して周波数軸に変換して得られるデータに基づ
いてM次元ベクトルとしての周波数軸上データを求める
工程と、 このM次元ベクトルの周波数軸上データを複数グループ
に分割して各グループ毎に代表値を求めることにより次
元をS次元(S<M)に低下させる工程と、 このS次元ベクトルのデータに対して第1のベクトル量
子化を施す工程と、 この第1のベクトル量子化出力データを逆量子化して対
応するS次元のコードベクトルを求める工程と、 このS次元のコードベクトルを元のM次元のベクトルに
拡張する工程と、 この拡張されたM次元のベクトルと元の上記M次元ベク
トルの周波数軸上データとの関係を表すデータに対して
第2のベクトル量子化を施すためにオーディオ信号の状
態に応じた複数のコードブックを有する第2のベクトル
量子化器を用い、上記オーディオ入力信号のブロック毎
の特徴を表すパラメータに応じて上記複数のコードブッ
クを切り換えて量子化を施す工程とを有することを特徴
とする符号化方法。
A step of obtaining data on a frequency axis as an M-dimensional vector based on data obtained by dividing an input audio signal into blocks and converting the data into a frequency axis; Dividing the upper data into a plurality of groups and obtaining a representative value for each group to reduce the dimension to S dimension (S <M); and performing first vector quantization on the data of the S dimension vector. Applying, dequantizing the first vector quantized output data to obtain a corresponding S-dimensional code vector, extending the S-dimensional code vector to an original M-dimensional vector, An audio for performing the second vector quantization on the data representing the relationship between the expanded M-dimensional vector and the original data on the frequency axis of the M-dimensional vector (E) using a second vector quantizer having a plurality of codebooks corresponding to the state of the signal, performing quantization by switching the plurality of codebooks in accordance with parameters representing characteristics of each block of the audio input signal; And a coding method.
JP09225892A 1992-03-18 1992-03-18 Encoding method Expired - Lifetime JP3297749B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP09225892A JP3297749B2 (en) 1992-03-18 1992-03-18 Encoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP09225892A JP3297749B2 (en) 1992-03-18 1992-03-18 Encoding method

Publications (2)

Publication Number Publication Date
JPH05265499A JPH05265499A (en) 1993-10-15
JP3297749B2 true JP3297749B2 (en) 2002-07-02

Family

ID=14049391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP09225892A Expired - Lifetime JP3297749B2 (en) 1992-03-18 1992-03-18 Encoding method

Country Status (1)

Country Link
JP (1) JP3297749B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4005154B2 (en) * 1995-10-26 2007-11-07 ソニー株式会社 Speech decoding method and apparatus
US5809459A (en) * 1996-05-21 1998-09-15 Motorola, Inc. Method and apparatus for speech excitation waveform coding using multiple error waveforms
EP2154679B1 (en) 1997-12-24 2016-09-14 BlackBerry Limited Method and apparatus for speech coding
US6377916B1 (en) * 1999-11-29 2002-04-23 Digital Voice Systems, Inc. Multiband harmonic transform coder
US6605768B2 (en) 2000-12-06 2003-08-12 Matsushita Electric Industrial Co., Ltd. Music-signal compressing/decompressing apparatus
DE07003891T1 (en) 2001-08-31 2007-11-08 Kabushiki Kaisha Kenwood, Hachiouji Apparatus and method for generating pitch wave signals and apparatus, and methods for compressing, expanding and synthesizing speech signals using said pitch wave signals
EP1952113A4 (en) * 2005-10-05 2009-05-27 Lg Electronics Inc Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
KR100857112B1 (en) * 2005-10-05 2008-09-05 엘지전자 주식회사 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
WO2008072733A1 (en) * 2006-12-15 2008-06-19 Panasonic Corporation Encoding device and encoding method

Also Published As

Publication number Publication date
JPH05265499A (en) 1993-10-15

Similar Documents

Publication Publication Date Title
EP1065655B1 (en) High efficiency encoding method
US5749065A (en) Speech encoding method, speech decoding method and speech encoding/decoding method
JP2009524100A (en) Encoding / decoding apparatus and method
EP1222659A1 (en) Lpc-harmonic vocoder with superframe structure
JPH0744193A (en) High-efficiency encoding method
JPH08179796A (en) Voice coding method
JP3344962B2 (en) Audio signal encoding device and audio signal decoding device
JPH0990968A (en) Voice synthesis method
JP3297749B2 (en) Encoding method
JP3237178B2 (en) Encoding method and decoding method
JP3297751B2 (en) Data number conversion method, encoding device and decoding device
JP3218679B2 (en) High efficiency coding method
JPH09127987A (en) Signal coding method and device therefor
JP3362471B2 (en) Audio signal encoding method and decoding method
JP3731575B2 (en) Encoding device and decoding device
JP3297750B2 (en) Encoding method
JP4327420B2 (en) Audio signal encoding method and audio signal decoding method
JP3218680B2 (en) Voiced sound synthesis method
JP3218681B2 (en) Background noise detection method and high efficiency coding method
JP2000132195A (en) Signal encoding device and method therefor
JP3221050B2 (en) Voiced sound discrimination method
JPH09127986A (en) Multiplexing method for coded signal and signal encoder
JPH0744194A (en) High-frequency encoding method

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020305

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080419

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090419

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090419

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100419

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100419

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110419

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110419

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120419

Year of fee payment: 10

EXPY Cancellation because of completion of term