JPH05297898A - Data quantity converting method - Google Patents

Data quantity converting method

Info

Publication number
JPH05297898A
JPH05297898A JP4092263A JP9226392A JPH05297898A JP H05297898 A JPH05297898 A JP H05297898A JP 4092263 A JP4092263 A JP 4092263A JP 9226392 A JP9226392 A JP 9226392A JP H05297898 A JPH05297898 A JP H05297898A
Authority
JP
Japan
Prior art keywords
data
pitch
block
amplitude
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4092263A
Other languages
Japanese (ja)
Other versions
JP3297751B2 (en
Inventor
Masayuki Nishiguchi
正之 西口
Atsushi Matsumoto
淳 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP09226392A priority Critical patent/JP3297751B2/en
Publication of JPH05297898A publication Critical patent/JPH05297898A/en
Application granted granted Critical
Publication of JP3297751B2 publication Critical patent/JP3297751B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To convert a variable number of input data into a fixed number of data without generating any ringing at a block end point in a nonlinear area. CONSTITUTION:A nonlinear compression part 12 performs the nonlinear compression of a variable number of data by inputted blocks and a dummy data addition part 14 adds dummy data for interpolation from the final data value in the block to the starting data value to increase the number of data; and the band limiting type oversampling part 15 consisting of an FFT(fast Fourier transformation) processing part 16, an intermediate 0-filling process part 17, and an IFFT(inverse FFT) process part 18 performs oversampling, a linear interpolation part 19 performs linear interpolation, and a thinning-out process part 20 thins out the data to convert the data into a fixed number of sample data.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、データ数変換方法に関
し、特に、音声合成分析装置(ボコーダ)等において算
出されたスペクトルの振幅データのような可変個数のデ
ータを一定個数のデータに変換するようなデータ数変換
方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a data number conversion method, and more particularly to converting a variable number of data such as spectrum amplitude data calculated in a voice synthesis analyzer (vocoder) or the like into a fixed number of data. The present invention relates to such a data number conversion method.

【0002】[0002]

【従来の技術】オーディオ信号(音声信号や音響信号を
含む)の時間領域や周波数領域における統計的性質と人
間の聴感上の特性を利用して信号圧縮を行うような符号
化方法が種々知られている。この符号化方法としては、
大別して時間領域での符号化、周波数領域での符号化、
分析合成符号化等が挙げられる。
2. Description of the Related Art Various coding methods are known in which signal compression is performed by utilizing statistical characteristics of audio signals (including voice signals and acoustic signals) in the time domain and frequency domain and human auditory characteristics. ing. As this encoding method,
Broadly speaking, time domain coding, frequency domain coding,
Examples include analysis and synthesis coding.

【0003】音声信号等の高能率符号化の例として、M
BE(Multiband Excitation: マルチバンド励起)符号
化、SBE(Singleband Excitation:シングルバンド励
起)符号化、ハーモニック(Harmonic)符号化、SBC
(Sub-band Coding:帯域分割符号化)、LPC(Linear
Predictive Coding: 線形予測符号化)、あるいはDC
T(離散コサイン変換)、MDCT(モデファイドDC
T)、FFT(高速フーリエ変換)等において、スペク
トル振幅やそのパラメータ(LSPパラメータ、αパラ
メータ、kパラメータ等)のような各種情報データを量
子化する場合に、従来においてはスカラ量子化を行うこ
とが多い。
As an example of high-efficiency coding of a voice signal or the like, M
BE (Multiband Excitation) coding, SBE (Singleband Excitation) coding, Harmonic coding, SBC
(Sub-band Coding), LPC (Linear
Predictive Coding: Linear predictive coding) or DC
T (Discrete Cosine Transform), MDCT (Modified DC)
T), FFT (Fast Fourier Transform), etc., conventionally, when quantizing various information data such as spectrum amplitude and its parameters (LSP parameter, α parameter, k parameter, etc.), scalar quantization is conventionally performed. There are many.

【0004】[0004]

【発明が解決しようとする課題】ところで、ビットレー
トを例えば3〜4kbps 程度にまで低減し、量子化効率
を更に向上させようとすると、スカラ量子化では量子化
雑音(歪み)が大きくなってしまい、実用化が困難であ
った。そこで、これらの符号化の際に得られる時間軸デ
ータや周波数軸データやフィルタ係数データ等を個々に
量子化せず、複数個のデータを組(ベクトル)にまとめ
て一つの符号で表現して量子化するベクトル量子化が注
目されている。
By the way, if the bit rate is reduced to, for example, about 3 to 4 kbps to further improve the quantization efficiency, the quantization noise (distortion) becomes large in the scalar quantization. , Was difficult to put into practical use. Therefore, time axis data, frequency axis data, filter coefficient data, etc. obtained at the time of these encodings are not individually quantized, but a plurality of data are combined into a set (vector) and expressed by one code. Attention has been paid to vector quantization for quantization.

【0005】しかしながら、上記MBE、SBE、LP
C等のスペクトル振幅データ等は、ピッチに依存して個
数が変化するため、そのままベクトル量子化しようとす
ると可変次元のベクトル量子化が必要となり、構成が複
雑化するのみならず、良好な特性を得ることが困難であ
る。
However, the above MBE, SBE, LP
Since the number of spectral amplitude data such as C changes depending on the pitch, if vector quantization is to be performed as it is, variable-dimensional vector quantization is required, which not only complicates the configuration but also provides good characteristics. Hard to get.

【0006】また、量子化の前にデータのブロック(フ
レーム)間差分をとるような場合にも、前後のブロック
(フレーム)内のデータの個数が一致していないと、差
分をとることができない。このように、可変個数のデー
タを一定個数に変換することがデータ処理の過程で必要
とされることがあるが、特性の良好なデータ数変換が望
まれる。
Further, even when a difference between blocks (frames) of data is obtained before quantization, the difference cannot be obtained unless the numbers of data in preceding and following blocks (frames) match. .. As described above, it may be necessary to convert a variable number of data into a fixed number in the process of data processing, but it is desired to convert the number of data with good characteristics.

【0007】本発明は、このような実情に鑑みてなされ
たものであり、可変個数のデータを一定個数に変換する
ことができ、端点でリンギング等の発生しない特性の良
好なデータ数変換が行えるようなデータ数変換方法の提
供を目的とする。
The present invention has been made in view of the above circumstances, and can convert a variable number of data into a fixed number of data, and can perform data number conversion with good characteristics in which ringing or the like does not occur at an end point. The purpose is to provide such a data number conversion method.

【0008】[0008]

【課題を解決するための手段】本発明に係るデータ数変
換方法は、ブロック内の波形データ又は波形を表すパラ
メータデータの個数が可変とされたデータを非線形圧縮
する工程と、このブロック毎に可変の個数の非線形圧縮
データをブロック毎に一定の個数の基準データと非線形
領域で比較するために上記可変個数の非線形圧縮データ
を上記一定個数に変換するデータ数変換器を用いる工程
とを有することにより、上述の課題を解決する。
A data number conversion method according to the present invention comprises a step of nonlinearly compressing data in which the number of waveform data in a block or parameter data representing the waveform is variable, and variable for each block. By using a data number converter for converting the variable number of non-linear compressed data into the constant number in order to compare the number of non-linear compressed data for each block with a fixed number of reference data in a non-linear region. , To solve the above problems.

【0009】ここで、上記ブロック毎に可変の個数の非
線形圧縮データに、ブロック内の最後のデータからブロ
ック内の最初のデータまでの値を補間するようなダミー
データを付加してデータ個数を拡大した後、帯域制限型
のオーバーサンプリングを施すようにするのが好まし
い。このブロック内最後のデータからブロック内最初の
データまでの値を補間するようなダミーデータとは、ブ
ロックの端点に急激な値の変化をもたらさないような、
あるいは値が跳んだり不連続となったりしないようなデ
ータのことであり、ブロック内最後のデータ値を一定区
間保持した後にブロック内最初のデータ値に変化させ、
このブロック内最初のデータ値を一定区間保持するよう
な値の変化の形態が挙げられる。上記帯域制限型のオー
バーサンプリングは、FFT(高速フーリエ変換)等の
直交変換をし、オーバーサンプリングの倍数に応じた区
間だけ0を詰め(あるいはローパスフィルタ処理を施
し)た後、IFFT(逆FFT)等の逆直交変換をすれ
ばよい。
Here, the number of data is expanded by adding dummy data for interpolating values from the last data in the block to the first data in the block to the variable number of non-linear compressed data for each block. After that, it is preferable to perform band-limited oversampling. Dummy data that interpolates the value from the last data in the block to the first data in the block is such that it does not cause a sudden change in the value at the end point of the block.
Or it is data that does not jump or discontinuity in the value, change the first data value in the block after holding the last data value in the block for a certain period,
An example of such a form of value change is such that the first data value in this block is held for a certain period. In the band-limited oversampling, orthogonal transformation such as FFT (Fast Fourier Transform) is performed, and 0s are packed (or low-pass filtered) only in a section according to a multiple of oversampling, and then IFFT (inverse FFT). Inverse orthogonal transformation such as

【0010】上記非線形圧縮されるデータとしては、音
声信号や音響信号等のオーディオ信号を、周波数軸上デ
ータに変換したものを用いることができ、具体的には、
例えば、MBE(Multiband Excitation: マルチバンド
励起)符号化の場合のスペクトル包絡振幅データや、S
BE(Singleband Excitation:シングルバンド励起)符
号化、ハーモニック(Harmonic)符号化、SBC(Sub-
band Coding:帯域分割符号化)、LPC(Linear Predi
ctive Coding: 線形予測符号化)、あるいはDCT(離
散コサイン変換)、MDCT(モデファイドDCT)、
FFT(高速フーリエ変換)等におけるスペクトル振幅
データやそのパラメータ(LSPパラメータ、αパラメ
ータ、kパラメータ等)データ等を用いることができ
る。また、一定個数に変換されたデータを、ベクトル量
子化することが考えられ、このベクトル量子化の前に、
ブロック毎に一定個数のデータのブロック間の差分をと
り、このブロック間差分データに対してベクトル量子化
を施すようにしてもよい。
As the non-linearly compressed data, audio signals such as voice signals and acoustic signals converted into data on the frequency axis can be used. Specifically,
For example, spectral envelope amplitude data in the case of MBE (Multiband Excitation) encoding, S
BE (Singleband Excitation) coding, Harmonic coding, SBC (Sub-
band Coding: Band division coding, LPC (Linear Predi
ctive Coding: Linear predictive coding), DCT (discrete cosine transform), MDCT (modified DCT),
Spectral amplitude data in FFT (Fast Fourier Transform) or the like and its parameter (LSP parameter, α parameter, k parameter, etc.) data and the like can be used. In addition, it is possible to vector quantize the data converted into a fixed number, and before this vector quantization,
It is also possible to obtain a difference between blocks of a fixed number of data for each block and perform vector quantization on the difference data between blocks.

【0011】[0011]

【作用】一定個数の非線形圧縮データに変換されて基準
データと非線形領域で比較することができ、ブロック間
差分をとってベクトル量子化することが可能となる。ま
た、データ数変換前のブロック内のデータ値の連続性を
高め、ブロック端点でリンギング等の生じない品質の高
いデータ数変換が行える。
It is possible to convert into a fixed number of non-linear compressed data and compare it with the reference data in the non-linear region, and it is possible to perform vector quantization by taking the difference between blocks. In addition, the continuity of the data values in the block before the data number conversion is enhanced, and the high-quality data number conversion that does not cause ringing at the block end point can be performed.

【0012】[0012]

【実施例】以下、本発明に係るデータ数変換方法の実施
例について、図面を参照しながら説明する。図1は本発
明の一実施例となるデータ数変換方法の概略構成を示し
ている。
Embodiments of the data number conversion method according to the present invention will be described below with reference to the drawings. FIG. 1 shows a schematic configuration of a data number conversion method according to an embodiment of the present invention.

【0013】図1において、入力端子11には、後述す
るMBEボコーダにより算出されたスペクトルエンベロ
ープの振幅データ等が供給されている。この振幅データ
は、例えば図2のAに示すようなスペクトルを有する音
声信号を分析して、ピッチ周波数(角周波数)ωを求
め、このピッチ周波数ωに応じたスペクトルの周期性を
考慮して、各高調波(ハーモニックス)位置での振幅を
求め、図2のBに示すようなスペクトル包絡(エンベロ
ープ)を表す振幅データを求める場合に、一定の有効帯
域(例えば200〜3400Hz)内でのこの振幅データ
の個数は、上記ピッチ周波数ωに依存して変化する。そ
こで、一定の固定周波数(角周波数)ωcを想定し、こ
の一定周波数ωc の各高調波位置での上記スペクトル包
絡の振幅データを求めることで、データ個数を一定とす
るものである。
In FIG. 1, an input terminal 11 is supplied with amplitude data of a spectral envelope calculated by an MBE vocoder which will be described later. For this amplitude data, for example, a voice signal having a spectrum as shown in A of FIG. 2 is analyzed to obtain a pitch frequency (angular frequency) ω, and the periodicity of the spectrum corresponding to the pitch frequency ω is taken into consideration. When the amplitude at each harmonic (harmonic) position is obtained and the amplitude data representing the spectrum envelope (envelope) as shown in B of FIG. 2 is obtained, the amplitude within a certain effective band (for example, 200 to 3400 Hz) is obtained. The number of amplitude data changes depending on the pitch frequency ω. Therefore, a fixed frequency (angular frequency) ω c is assumed, and the amplitude data of the spectrum envelope at each harmonic position of this constant frequency ω c is obtained, thereby making the number of data constant.

【0014】図1の例では、入力端子11からの可変個
数(mMX+1個)の入力データを、非線形圧縮部12に
て例えばdB領域に圧縮(対数圧縮)した後、データ個
数変換本体部13にて一定個数(M個)のデータに変換
している。データ個数変換本体部13は、ダミーデータ
付加部14と帯域制限型オーバーサンプリング部15と
を有し、帯域制限型オーバーサンプリング部15は直交
変換、例えばFFT(高速フーリエ変換)処理部16、
中間0詰め処理部17、及び逆直交変換、例えばIFF
T(逆FFT)処理部18から成っている。帯域制限型
オーバーサンプリングが施されたデータは、直線補間部
19で直線補間され、間引き処理部20で間引かれて、
一定個数のデータとなり、出力端子21から取り出され
る。
In the example of FIG. 1, a variable number (m MX +1) of input data from the input terminal 11 is compressed (logarithmically compressed) in the non-linear compression unit 12 into, for example, the dB area, and then the data number conversion main body unit. At 13, the data is converted into a fixed number (M) of data. The data number conversion main body unit 13 has a dummy data addition unit 14 and a band-limited oversampling unit 15, and the band-limited oversampling unit 15 performs orthogonal transformation, for example, FFT (Fast Fourier Transform) processing unit 16,
Intermediate zero padding processing unit 17 and inverse orthogonal transform, for example, IFF
It is composed of a T (inverse FFT) processing unit 18. The data subjected to the band-limited oversampling is linearly interpolated by the linear interpolation unit 19, thinned by the thinning processing unit 20, and
It becomes a fixed number of data and is taken out from the output terminal 21.

【0015】ここで、後述するMBEボコーダにおいて
算出されるmMX+1個の振幅データ列をa(m) とする。
mは上記高調波(ハーモニックス)の次数あるいはバン
ド番号であり、mMXが最大値であるが、m=0のバンド
の振幅データも含めて、全バンドの振幅データの個数は
MX+1個となる。この振幅データa(m) を、非線形圧
縮部14にて例えばdB領域に変換する。すなわち得ら
れたデータをadB(m)とするとき、 adB(m) =20 log10a(m) ・・・(1) である。この対数変換された振幅データadB(m) の個数
MX+1は、上述したようにピッチに依存して変化する
ため、一定個数(M個)の振幅データbdB(m) に変換す
る。これは一種のサンプリングレート(サンプルレー
ト)変換である。なお、非線形圧縮部12での圧縮処理
は、dB領域への対数圧縮の他に、例えばいわゆるμ-l
awやα-lawのような疑似対数圧縮処理を施してもよい。
このように、振幅を圧縮することにより、能率的な符号
化が実現される。
Here, the amplitude data string of m MX +1 pieces calculated in the MBE vocoder described later is a (m).
m is the order of the above harmonics (harmonics) or the band number, and m MX is the maximum value, but the number of amplitude data in all bands is m MX +1 including the amplitude data in the band of m = 0. Becomes This amplitude data a (m) is converted into, for example, a dB region by the non-linear compression unit 14. That is, assuming that the obtained data is a dB (m), a dB (m) = 20 log 10 a (m) (1). Since the number m MX +1 of the logarithmically converted amplitude data a dB (m) changes depending on the pitch as described above, it is converted into a fixed number (M) of amplitude data b dB (m). This is a kind of sampling rate (sample rate) conversion. The compression processing in the non-linear compression unit 12 includes, for example, so-called μ-l in addition to logarithmic compression in the dB area.
Pseudo-logarithmic compression processing such as aw and α-law may be performed.
Thus, by compressing the amplitude, efficient coding is realized.

【0016】MBEボコーダに入力される時間軸上の音
声信号に対するサンプリング周波数fs は、通常8kHz
で、全帯域幅は3.4kHz(ただし有効帯域は200〜
3400Hz)であり、女声の高い方から男声の低い方ま
でのピッチラグ(ピッチ周期に相当するサンプル数)
は、20〜147程度である。従って、ピッチ(角)周
波数ωは、8000/147≒54(Hz)から 8000/20=400
(Hz)程度までの間で変動することになる。従って、周
波数軸上で上記3.4kHzまでの間に約8〜63本のピ
ッチパルス(ハーモニックス)が立つことになる。すな
わち、周波数軸上のdB領域の波形として、8サンプル
乃至63サンプルから成るデータを、一定のサンプル
数、例えば44サンプルに、サンプル数変換を行うわけ
である。これが、図2のCに示すように、一定のピッチ
周波数(角周波数)ωC 毎のハーモニックスの位置のサ
ンプルを求めることに相当する。
The sampling frequency fs for a voice signal on the time axis input to the MBE vocoder is usually 8 kHz.
The total bandwidth is 3.4 kHz (the effective bandwidth is 200-
3400Hz), the pitch lag from the higher female voice to the lower male voice (the number of samples corresponding to the pitch period)
Is about 20 to 147. Therefore, the pitch (angle) frequency ω is 8000/147 ≒ 54 (Hz) to 8000/20 = 400
It will fluctuate up to about (Hz). Therefore, about 8 to 63 pitch pulses (harmonics) stand up to the above 3.4 kHz on the frequency axis. That is, as the waveform of the dB region on the frequency axis, the data of 8 to 63 samples is converted into a fixed number of samples, for example, 44 samples, by the number of samples conversion. This corresponds to obtaining a sample of the position of the harmonics for each constant pitch frequency (angular frequency) ω C , as shown in C of FIG.

【0017】次にダミーデータ付加部14において、上
記mMX+1個の圧縮データadB(m)をFFTし易い数
(2のべき乗等)NF (例えばNF =256)に延長す
る。すなわち、mMX+1からNF までの区間のダミーデ
ータa'dB(m) として、例えば mMX+1≦m<NF /2:a'dB(m) =adB(mMX) NF /2≦m<3NF /4: a'dB(m) =adB(mMX) ×k1 +adB(0) ×k2 ただし、k1 =(3NF /4−n)/(NF /4) k2 =(n−NF /2)/(NF /4) 3NF /4≦m<NF :a'dB(m) =adB(0) ・・・(2) を用いて延長する。これは、図3に示すように、0〜m
MXの区間に元の振幅データadB(m) を配置し、mMX+1
≦m<NF /2の区間ではブロック内の最後のデータで
あるadB(mMX) を保持し、NF /2≦m<3NF /4の
区間は直線的に補間し、3NF /4≦m<NF の区間で
はブロック内の最初のデータadB(0) を保持するような
折線となる。
Next, in the dummy data adding section 14, the m MX +1 compressed data a dB (m) is extended to a number (eg, a power of 2) N F (for example, N F = 256) that facilitates FFT. That is, as dummy data a ′ dB (m) in the section from m MX +1 to N F , for example, m MX + 1 ≦ m <N F / 2: a ′ dB (m) = a dB (m MX ) N F / 2 ≦ m <3N F / 4: a ′ dB (m) = a dB (m MX ) × k 1 + a dB (0) × k 2 where k 1 = (3N F / 4−n) / (N F / 4) k 2 = (n−N F / 2) / (N F / 4) 3N F / 4 ≦ m <N F : a ′ dB (m) = a dB (0) (2) Use to extend. This is 0 to m as shown in FIG.
The original amplitude data a dB (m) is placed in the MX section and m MX +1
In the section of ≤m <N F / 2, the last data in the block, a dB (m MX ), is held, and in the section of N F / 2 ≤m <3N F / 4, linear interpolation is performed to obtain 3N F. In the section of / 4 ≦ m <N F, the line becomes a broken line that holds the first data a dB (0) in the block.

【0018】すなわち、図3に示すレート変換する原波
形の左端と右端が徐々につながるようにデータを作り込
んで詰めてゆくのである。FFTでは、変換前の波形を
図3の破線に示すように繰り返し波形とみなしているの
で、m=NF の点は、m=0に接続されることになる。
That is, data is created and packed so that the left end and the right end of the original waveform for rate conversion shown in FIG. 3 are gradually connected. In the FFT, since the waveform before conversion is regarded as a repetitive waveform as shown by the broken line in FIG. 3, the point of m = N F is connected to m = 0.

【0019】これは、FFT後に周波数軸上で乗算を行
うようなフィルタリングを行うと、元の図3に示す軸上
でたたみ込みが行われることになる。このため、図4に
示すように原波形以外の部分(mMX<m<NF の区間)
に単純に0詰めを行うと、不連続点にて図4の破線Rに
示すようなリンギングが発生し、良好なレート変換が行
われなくなる。このような不具合を防止するために、上
記図3に示すように、ブロック端点に急激な値の変化を
もたらさないようにダミーデータを詰めてゆくわけであ
る。なお、上記ダミーデータの具体例の他に、図3の破
線Iに示すようにブロックの最後のデータからブロック
の最初のデータまでの全体を直線的に補間するようにし
たり、曲線的に補間するようにしてもよい。
This means that if filtering is performed such that multiplication is performed on the frequency axis after the FFT, convolution is performed on the original axis shown in FIG. Therefore, as shown in FIG. 4, the part other than the original waveform (section where m MX <m <N F )
If 0 is simply padded, ringing as shown by the broken line R in FIG. 4 occurs at the discontinuity point, and good rate conversion cannot be performed. In order to prevent such a problem, as shown in FIG. 3, dummy data is packed so as not to cause a sudden change in the value at the block end point. In addition to the specific example of the dummy data, the entire data from the last data of the block to the first data of the block may be linearly interpolated as shown by a broken line I in FIG. You may do it.

【0020】次に、上記NF 点(NF サンプル)に拡張
された数列(データ列)に対して、帯域制限型オーバー
サンプリング部15のFFT(高速フーリエ変換)処理
部16により、NF 点FFTを施し、図5のAに示すよ
うな0〜NF の数列(スペクトル)を得る。この数列の
0〜πに相当する部分と、π〜2πに相当する部分との
間に、中間0詰め処理部17により、(OS −1)NF
個の0を詰める。このときのOS が、オーバーサンプリ
ングの比率(レシオ)になる。例えばOS =8の場合に
は、図5のBに示すように上記数列の0〜π相当部分と
π〜2π相当部分との間に7NF 個の0を詰め、8NF
点(例えばNF =256のとき2048点)の数列とす
る。
Next, the FFT (Fast Fourier Transform) processing unit 16 of the band-limited oversampling unit 15 applies the N F points to the number sequence (data sequence) expanded to the N F points (N F samples). FFT is performed to obtain a sequence (spectrum) of 0 to N F as shown in A of FIG. A portion corresponding to 0~π of this sequence, between a portion corresponding to Pai~2pai, the intermediate zero-filled section 17, (O S -1) N F
Pack 0s. O S at this time, the ratio of the oversampling (ratio). For example, in the case of O S = 8 is stuffed 7N F-number of 0 between the 0~π corresponding parts and π~2π substantial portion of the sequence as shown in B of FIG. 5, 8N F
A series of points (for example, 2048 points when N F = 256) is used.

【0021】ここで、上記0詰め操作は、LPF処理と
みることもできる。すなわち、サンプリングレートとし
てOS F の数列に対し、OS F で動作しているディ
ジタルフィルタが、図6のAの太線で示すようなπ/8
のカットオフでローパス処理して、図6のBに示すよう
なサンプル列を得ることになる。このフィルタ操作にお
いて、上記図4の破線Rで示したようなリンギングが発
生する虞れがある。本実施例では、そのリンギングの発
生を防ぐために、原波形の左端と右端とをなだらかに
(微分係数の急激な変化がないように)つなぐようにし
ている。
Here, the zero padding operation can be regarded as an LPF process. That is, the digital filter operating at O S N F with respect to the number sequence of O S N F as the sampling rate is π / 8 as shown by the thick line in A of FIG.
The low-pass processing is performed with the cut-off to obtain a sample string as shown in B of FIG. In this filter operation, there is a possibility that ringing as shown by the broken line R in FIG. 4 may occur. In this embodiment, in order to prevent the ringing from occurring, the left end and the right end of the original waveform are smoothly connected (so that there is no abrupt change in the differential coefficient).

【0022】次に、IFFT(逆FFT)処理部18に
より、OS F 点(例えば2048点)の逆FFTを行
うと、OS 倍にオーバーサンプルされた図7に示すよう
な振幅データ(ダミーデータも含む)が得られる。この
データ列の有効な部分、すなわち0〜OS ×(mMX
1)を取り出すと、原波形(元の振幅データadB(m) )
がOS 倍の密度となってオーバーサンプルされたものが
得られる。これはまだピッチに応じて可変の個数mMX
1に依存するデータ列である。
Next, the IFFT (Inverse FFT) unit 18, O S N F point The reverse FFT (e.g. 2048 points), O S times the oversampled amplitude data as shown in FIG. 7 was ( (Including dummy data) is obtained. Valid part of the data sequence, i.e. 0~O S × (m MX +
1) is extracted, the original waveform (original amplitude data a dB (m))
Becomes a density of O S times and an oversampled product is obtained. This is still a variable number according to the pitch m MX +
It is a data string that depends on 1.

【0023】次に、これを固定のデータ数に変換するた
めに、直線補間を行う。例えば、図8のAは、上記mMX
=19(変換前の全バンド数、振幅データの個数が2
0)の場合を示しており、これを、OS =8として8倍
オーバーサンプリングすることにより、図8のBに示す
ように、0〜πの間にOS ×(mMX+1)=160個の
サンプルデータが存在するわけであるが、これを直線補
間部19で一定個数NM、例えばNM =2048に直線
補間する。
Next, linear interpolation is performed in order to convert this into a fixed number of data. For example, FIG. 8A shows the above-mentioned m MX.
= 19 (the total number of bands before conversion, the number of amplitude data is 2
Shows the case of 0), this by 8 times oversampling as O S = 8, as shown in B of FIG. 8, O S × (m MX +1 during 0~π) = 160 Although there are a number of sample data, the linear interpolation unit 19 linearly interpolates the sample data to a fixed number N M , for example N M = 2048.

【0024】図9のAは、直線補間部19により直線補
間されて得られたた一定個数NM (例えばNM =204
8)のデータを示しており、この2048サンプルのデ
ータを所定のサンプル数M(例えばM=44)に変換す
るために、間引き処理部20により2048点のデータ
を間引いて44点のデータを得ている。ここで、第0〜
第2047番目のサンプルデータの内、DC値(直流デ
ータ値、第0番目のデータ値)は伝送する必要がないの
で、nint(2048/44)・i)の値を間引き値
として採用し、44個のデータを得るようにすればよ
い。ただし、1≦i≦44であり、nintは、neares
t integer 、すなわち最も近い整数値を示す関数であ
る。
FIG. 9A shows a fixed number N M (for example, N M = 204) obtained by linearly interpolating by the linear interpolating unit 19.
8) data is shown, and in order to convert this 2048-sample data into a predetermined sample number M (for example, M = 44), the thinning-out processing unit 20 thins out 2048-point data to obtain 44-point data. ing. Where 0th
Since it is not necessary to transmit the DC value (DC data value, 0th data value) of the 2047th sample data, the value of nint (2048/44) · i) is adopted as the thinning value, It suffices to obtain individual data. However, 1 ≦ i ≦ 44, and nint is neares
t integer, that is, a function indicating the nearest integer value.

【0025】このようにして、一定サンプル数M個のデ
ータに変換した数列bdB(n) 、ただし1≦n≦M、を得
る。この固定データ数の数列を、必要に応じてブロック
間、あるいはフレーム間で差分をとり、ベクトル量子化
を施して、そのインデックスを伝送するようにすればよ
い。
In this way, a sequence b dB (n) converted into data of a fixed number M of samples, where 1 ≦ n ≦ M, is obtained. The sequence of the fixed number of data may be subjected to vector quantization, if necessary, between blocks or frames, vector quantization may be performed, and the index may be transmitted.

【0026】受信側(合成側あるいはデコーダ側)で
は、そのインデックスより、ベクトル量子化及び逆量子
化された数列bVQdB(n) なるM点の波形データを得る。
そのデータ列を、同様の方法で、すなわち帯域制限オー
バーサンプリング、直線補間、間引きのそれぞれ逆の操
作を施すことにより、必要なポイント数の上記mMX+1
点の数列に変換する。なお、mMX(あるいはmMX+1)
は、別途伝送するピッチ情報により求めることができ
る。例えばサンプリング周期に対して規格化されたピッ
チ周期をpとするとき、ピッチ周波数(角周波数)ω
は、2π/pで求められ、π/ω=p/2より、mMX
1=inint(p/2)として算出できる。このmMX
+1点の振幅情報をもとにしてデコード処理を行う。
On the receiving side (combining side or decoder side), vector-quantized and dequantized sequence b VQdB (n) of M points of waveform data is obtained from the index.
The data string is processed in the same manner, that is, by performing reverse operations of band-limited oversampling, linear interpolation, and decimation, respectively, so that m MX +1 of the required number of points is obtained.
Convert to a sequence of points. Note that m MX (or m MX +1)
Can be obtained from the separately transmitted pitch information. For example, when the pitch period normalized to the sampling period is p, the pitch frequency (angular frequency) ω
Is calculated by 2π / p, and from π / ω = p / 2, m MX +
It can be calculated as 1 = inint (p / 2). This m MX
Decoding processing is performed based on the amplitude information of +1 point.

【0027】次に、上述したようなデータ数変換方法が
適用可能な、音声信号の合成分析符号化装置(いわゆる
ボコーダ)の一種のMBE(Multiband Excitation: マ
ルチバンド励起)ボコーダの具体例について、図面を参
照しながら説明する。以下に説明するMBEボコーダ
は、D.W. Griffin and J.S. Lim, "MultibandExcitatio
n Vocoder," IEEE Trans.Acoustics,Speech,and Signal
Processing,vol.36, No.8, pp.1223-1235, Aug. 1988
に開示されているものであり、従来のPARCOR(PA
Rtial auto-CORrelation: 偏自己相関)ボコーダ等で
は、音声のモデル化の際に有声音区間と無声音区間とを
ブロックあるいはフレーム毎に切り換えていたのに対
し、MBEボコーダでは、同時刻(同じブロックあるい
はフレーム内)の周波数軸領域に有声音(Voiced)区間
と無声音(Unvoiced)区間とが存在するという仮定でモ
デル化している。
Next, a specific example of a kind of MBE (Multiband Excitation) vocoder of a voice signal synthesis analysis coding apparatus (so-called vocoder) to which the above-described data number conversion method can be applied is shown in the drawings. Will be described with reference to. The MBE vocoder described below is based on DW Griffin and JS Lim, "Multiband Excitatio
n Vocoder, "IEEE Trans.Acoustics, Speech, and Signal
Processing, vol.36, No.8, pp.1223-1235, Aug. 1988
The conventional PARCOR (PA
In the Rtial auto-CORrelation vocoder and the like, the voiced section and the unvoiced section were switched for each block or frame when modeling the voice, whereas in the MBE vocoder, the same time (the same block or It is modeled on the assumption that there are voiced sections and unvoiced sections in the frequency axis region of (in the frame).

【0028】図10は、上記MBEボコーダに本発明を
適用した実施例の全体の概略構成を示すブロック図であ
る。この図10において、入力端子101には音声信号
が供給されるようになっており、この入力音声信号は、
HPF(ハイパスフィルタ)等のフィルタ102に送ら
れて、いわゆるDC(直流)オフセット分の除去や帯域
制限(例えば200〜3400Hzに制限)のための少な
くとも低域成分(200Hz以下)の除去が行われる。こ
のフィルタ102を介して得られた信号は、ピッチ抽出
部103及び窓かけ処理部104にそれぞれ送られる。
ピッチ抽出部103では、入力音声信号データが所定サ
ンプル数N(例えばN=256)単位でブロック分割さ
れ(あるいは方形窓による切り出しが行われ)、このブ
ロック内の音声信号についてのピッチ抽出が行われる。
このような切り出しブロック(256サンプル)を、例
えば図11のAに示すようにLサンプル(例えばL=1
60)のフレーム間隔で時間軸方向に移動させており、
各ブロック間のオーバラップはN−Lサンプル(例えば
96サンプル)となっている。また、窓かけ処理部10
4では、1ブロックNサンプルに対して所定の窓関数、
例えばハミング窓をかけ、この窓かけブロックを1フレ
ームLサンプルの間隔で時間軸方向に順次移動させてい
る。
FIG. 10 is a block diagram showing the overall schematic construction of an embodiment in which the present invention is applied to the MBE vocoder. In FIG. 10, an audio signal is supplied to the input terminal 101, and the input audio signal is
It is sent to a filter 102 such as an HPF (high-pass filter) to remove a so-called DC (direct current) offset component and at least a low frequency component (200 Hz or less) for band limitation (for example, 200 to 3400 Hz). .. The signal obtained through the filter 102 is sent to the pitch extraction unit 103 and the windowing processing unit 104, respectively.
The pitch extraction unit 103 divides the input voice signal data into blocks in units of a predetermined number N (for example, N = 256) (or cuts out with a rectangular window), and pitches the voice signals in this block. ..
Such a cut block (256 samples) is used for L samples (for example, L = 1 as shown in FIG. 11A).
It is moved in the time axis direction at the frame interval of 60),
The overlap between blocks is NL samples (96 samples, for example). Also, the windowing processing unit 10
4, the predetermined window function for 1 block N samples,
For example, a Hamming window is provided, and this windowing block is sequentially moved in the time axis direction at intervals of 1 frame L samples.

【0029】このような窓かけ処理を数式で表すと、 xw (k,q) =x(q) w(kL-q) ・・・(3) となる。この(1)式において、kはブロック番号を、
qはデータの時間インデックス(サンプル番号)を表
し、処理前の入力信号のq番目のデータx(q) に対して
第kブロックの窓(ウィンドウ)関数w(kL-q)により窓
かけ処理されることによりデータxw (k,q) が得られる
ことを示している。ピッチ抽出部103内での図11の
Aに示すような方形窓の場合の窓関数wr (r) は、 wr (r) =1 0≦r<N ・・・(4) =0 r<0,N≦r また、窓かけ処理部104での図11のBに示すような
ハミング窓の場合の窓関数wh (r) は、 wh (r) = 0.54 − 0.46 cos(2πr/(N-1)) 0≦r<N ・・・(5) =0 r<0,N≦r である。このような窓関数wr (r) あるいはwh (r) を
用いるときの上記(3)式の窓関数w(r) (=w(kL-
q))の否零区間は、 0≦kL−q<N これを変形して、 kL−N<q≦kL 従って例えば上記方形窓の場合に窓関数wr (kL-q)=1
となるのは、図12に示すように、kL−N<q≦kL
のときとなる。また、上記(3)〜(5)式は、長さN
(=256)サンプルの窓が、L(=160)サンプル
ずつ前進してゆくことを示している。以下、上記(4)
式、(5)式の各窓関数で切り出された各N点(0≦r
<N)の否零サンプル列を、それぞれxwr(k,r) 、xwh
(k,r) と表すことにする。
When this windowing process is expressed by a mathematical expression, xw (k, q) = x (q) w (kL-q) (3) In this equation (1), k is a block number,
q represents the time index (sample number) of the data, and the q-th data x (q) of the unprocessed input signal is windowed by the window function (w (kL-q)) of the kth block. It is shown that the data x w (k, q) can be obtained by doing so. The window function w r (r) in the case of a rectangular window as shown in FIG. 11A in the pitch extraction unit 103 is w r (r) = 1 0 ≦ r <N (4) = 0 r <0, N ≦ r Further, the window function in the case of Hamming window as shown in B of FIG. 11 in the windowing processing unit 104 w h (r) is, w h (r) = 0.54 - 0.46 cos (2πr / (N-1)) 0 ≦ r <N (5) = 0 r <0, N ≦ r. Such a window function w r (r) or (3) when using the w h (r) formula of the window function w (r) (= w (KL-
q)), the zero-zero interval is 0 ≦ kL−q <N, and is modified as follows: kL−N <q ≦ kL Therefore, for example, in the case of the above rectangular window, the window function w r (kL−q) = 1
As shown in FIG. 12, kL−N <q ≦ kL
It will be when. In addition, the above equations (3) to (5) have a length N
The window of (= 256) samples is shown to advance by L (= 160) samples. Below, above (4)
Each N point (0 ≦ r cut out by each window function of equations (5))
The non-zero sample sequence of <N) is represented by x wr (k, r) and x wh
Let us denote it as (k, r).

【0030】窓かけ処理部104では、図13に示すよ
うに、上記(5)式のハミング窓がかけられた1ブロッ
ク256サンプルのサンプル列xwh(k,r) に対して17
92サンプル分の0データが付加されて(いわゆる0詰
めされて)2048サンプルとされ、この2048サン
プルの時間軸データ列に対して、直交変換部105によ
り例えばFFT(高速フーリエ変換)等の直交変換処理
が施される。
In the windowing processing unit 104, as shown in FIG. 13, the sample sequence x wh (k, r) of 256 samples in one block subjected to the Hamming window of the equation (5) is 17
The 0 data for 92 samples are added (so-called zero padding) to form 2048 samples, and the orthogonal transform unit 105 performs orthogonal transform such as FFT (Fast Fourier Transform) on the time-axis data sequence of 2048 samples. Processing is performed.

【0031】ピッチ抽出部103では、上記xwr(k,r)
のサンプル列(1ブロックNサンプル)に基づいてピッ
チ抽出が行われる。このピッチ抽出法には、時間波形の
周期性や、スペクトルの周期的周波数構造や、自己相関
関数を用いるもの等が知られているが、本実施例では、
センタクリップ波形の自己相関法を採用している。この
ときのブロック内でのセンタクリップレベルについて
は、1ブロックにつき1つのクリップレベルを設定して
もよいが、ブロックを細分割した各部(各サブブロッ
ク)の信号のピークレベル等を検出し、これらの各サブ
ブロックのピークレベル等の差が大きいときに、ブロッ
ク内でクリップレベルを段階的にあるいは連続的に変化
させるようにしている。このセンタクリップ波形の自己
相関データのピーク位置に基づいてピーク周期を決めて
いる。このとき、現在フレームに属する自己相関データ
(自己相関は1ブロックNサンプルのデータを対象とし
て求められる)から複数のピークを求めておき、これら
の複数のピークの内の最大ピークが所定の閾値以上のと
きには該最大ピーク位置をピッチ周期とし、それ以外の
ときには、現在フレーム以外のフレーム、例えば前後の
フレームで求められたピッチに対して所定の関係を満た
すピッチ範囲内、例えば前フレームのピッチを中心とし
て±20%の範囲内にあるピークを求め、このピーク位
置に基づいて現在フレームのピッチを決定するようにし
ている。このピッチ抽出部103ではオープンループに
よる比較的ラフなピッチのサーチが行われ、抽出された
ピッチデータは高精度(ファイン)ピッチサーチ部10
6に送られて、クローズドループによる高精度のピッチ
サーチ(ピッチのファインサーチ)が行われる。
In the pitch extraction unit 103, the above x wr (k, r)
Pitch extraction is performed based on the sample sequence (1 block N samples). The pitch extraction method is known to include periodicity of time waveform, periodic frequency structure of spectrum, and autocorrelation function.
The center correlation waveform autocorrelation method is used. Regarding the center clip level in the block at this time, one clip level may be set for one block, but the peak level of the signal of each part (each sub-block) obtained by subdividing the block is detected and When there is a large difference in the peak level of each sub-block, the clip level is changed stepwise or continuously within the block. The peak period is determined based on the peak position of the autocorrelation data of the center clip waveform. At this time, a plurality of peaks are obtained from the autocorrelation data belonging to the current frame (the autocorrelation is obtained for the data of N samples of one block), and the maximum peak among the plurality of peaks is equal to or larger than a predetermined threshold. In the case of, the maximum peak position is set as the pitch period, and in other cases, the pitch is within a pitch range that satisfies a predetermined relationship with the pitch other than the current frame, for example, the pitch of the previous frame and the pitch of the previous frame. As a result, a peak in the range of ± 20% is obtained, and the pitch of the current frame is determined based on this peak position. In this pitch extraction unit 103, a relatively rough pitch search is performed by an open loop, and the extracted pitch data has a high precision (fine) pitch search unit 10.
Then, the high precision pitch search (pitch fine search) is performed by the closed loop.

【0032】高精度(ファイン)ピッチサーチ部106
には、ピッチ抽出部103で抽出された整数(インテジ
ャー)値の粗(ラフ)ピッチデータと、直交変換部10
5により例えばFFTされた周波数軸上のデータとが供
給されている。この高精度ピッチサーチ部106では、
上記粗ピッチデータ値を中心に、0.2〜0.5きざみで±
数サンプルずつ振って、最適な小数点付き(フローティ
ング)のファインピッチデータの値へ追い込む。このと
きのファインサーチの手法として、いわゆる合成による
分析 (Analysis by Synthesis)法を用い、合成されたパ
ワースペクトルが原音のパワースペクトルに最も近くな
るようにピッチを選んでいる。
High precision (fine) pitch search section 106
Includes rough pitch data of integer (integer) values extracted by the pitch extraction unit 103 and the orthogonal transformation unit 10.
5, the data on the frequency axis subjected to FFT, for example, is supplied. In this high precision pitch search unit 106,
Centering on the above coarse pitch data value, it is ± 0.2 in increments of ±
Shake several samples at a time to drive to the optimum fine pitch data value with a decimal point (floating). As a fine search method at this time, a so-called analysis by synthesis method is used, and the pitch is selected so that the synthesized power spectrum is closest to the power spectrum of the original sound.

【0033】このピッチのファインサーチについて説明
する。先ず、上記MBEボコーダにおいては、上記FF
T等により直交変換された周波数軸上のスペクトルデー
タとしてのS(j) を S(j) =H(j) |E(j) | 0<j<J ・・・(6) と表現するようなモデルを想定している。ここで、Jは
πωs =fs /2に対応し、サンプリング周波数fs
2πωs が例えば8kHzのときには4kHzに対応する。
上記(6)式中において、周波数軸上のスペクトルデー
タS(j) が図14のAに示すような波形のとき、H(j)
は、図14のBに示すような元のスペクトルデータS
(j) のスペクトル包絡線(エンベロープ)を示し、E
(j) は、図14のCに示すような等レベルで周期的な励
起信号(エキサイテイション)のスペクトルを示してい
る。すなわち、FFTスペクトルS(j) は、スペクトル
エンベロープH(j) と励起信号のパワースペクトル|E
(j) |との積としてモデル化される。
The fine search of the pitch will be described. First, in the MBE vocoder, the FF
S (j) as spectrum data on the frequency axis orthogonally transformed by T etc. is expressed as S (j) = H (j) | E (j) | 0 <j <J (6) It is assumed that the model. Here, J corresponds to πω s = f s / 2, and the sampling frequency f s =
When 2πω s is, for example, 8 kHz, it corresponds to 4 kHz.
In the above equation (6), when the spectrum data S (j) on the frequency axis has a waveform as shown in A of FIG. 14, H (j)
Is the original spectrum data S as shown in B of FIG.
The spectral envelope of (j) is shown as E
(j) shows the spectrum of the excitation signal (excitation) which is periodic at the same level as shown in C of FIG. That is, the FFT spectrum S (j) is the spectrum envelope H (j) and the power spectrum | E of the excitation signal.
(j) | is modeled as the product.

【0034】上記励起信号のパワースペクトル|E(j)
|は、上記ピッチに応じて決定される周波数軸上の波形
の周期性(ピッチ構造)を考慮して、1つの帯域(バン
ド)の波形に相当するスペクトル波形を周波数軸上の各
バンド毎に繰り返すように配列することにより形成され
る。この1バンド分の波形は、例えば上記図13に示す
ような256サンプルのハミング窓関数に1792サン
プル分の0データを付加(0詰め)した波形を時間軸信
号と見なしてFFTし、得られた周波数軸上のある帯域
幅を持つインパルス波形を上記ピッチに応じて切り出す
ことにより形成することができる。
Power spectrum of the excitation signal | E (j)
Is a spectral waveform corresponding to the waveform of one band (band) for each band on the frequency axis in consideration of the periodicity (pitch structure) of the waveform on the frequency axis determined according to the pitch. It is formed by arranging it repeatedly. The waveform for this one band is obtained by FFT by regarding the waveform obtained by adding 0-data for 1792 samples to the Hamming window function of 256 samples as shown in FIG. It can be formed by cutting out an impulse waveform having a certain bandwidth on the frequency axis according to the pitch.

【0035】次に、上記ピッチに応じて分割された各バ
ンド毎に、上記H(j) を代表させるような(各バンド毎
のエラーを最小化するような)値(一種の振幅)|Am
|を求める。ここで、例えば第mバンド(第m高調波の
帯域)の下限、上限の点をそれぞれam 、bm とすると
き、この第mバンドのエラーεm は、
Next, for each band divided according to the above pitch, a value (a kind of amplitude) | A that represents the above H (j) (minimizes the error for each band) | A m
Ask for |. Here, for example, when the lower and upper points of the m-th band (band of the m-th harmonic) are a m and b m , respectively, the error ε m of the m-th band is

【0036】[0036]

【数1】 で表せる。このエラーεm を最小化するような|Am
は、
[Equation 1] Can be expressed as | A m | that minimizes this error ε m
Is

【0037】[0037]

【数2】 となり、この(8)式の|Am |のとき、エラーεm
最小化する。このような振幅|Am |を各バンド毎に求
め、得られた各振幅|Am |を用いて上記(7)式で定
義された各バンド毎のエラーεm を求める。次に、この
ような各バンド毎のエラーεm の全バンドの総和値Σε
m を求める。さらに、このような全バンドのエラー総和
値Σεm を、いくつかの微小に異なるピッチについて求
め、エラー総和値Σεm が最小となるようなピッチを求
める。
[Equation 2] Therefore, when | A m | in the equation (8), the error ε m is minimized. Such an amplitude | A m | is obtained for each band, and the obtained amplitude | A m | is used to obtain the error ε m for each band defined by the above equation (7). Next, the sum Σε of all the bands of such error ε m for each band
Find m . Further, such an error sum value Σε m of all bands is obtained for some slightly different pitches, and a pitch that minimizes the error sum value Σε m is obtained.

【0038】すなわち、上記ピッチ抽出部103で求め
られたラフピッチを中心として、例えば 0.25 きざみで
上下に数種類ずつ用意する。これらの複数種類の微小に
異なるピッチの各ピッチに対してそれぞれ上記エラー総
和値Σεm を求める。この場合、ピッチが定まるとバン
ド幅が決まり、上記(8)式より、周波数軸上データの
パワースペクトル|S(j) |と励起信号スペクトル|E
(j) |とを用いて上記(7)式のエラーεm を求め、そ
の全バンドの総和値Σεm を求めることができる。この
エラー総和値Σεm を各ピッチ毎に求め、最小となるエ
ラー総和値に対応するピッチを最適のピッチとして決定
するわけである。以上のようにして高精度ピッチサーチ
部106で最適のファイン(例えば 0.25 きざみ)ピッ
チが求められ、この最適ピッチに対応する振幅|Am
が決定される。
That is, several kinds of vertical pitches are prepared with the rough pitch determined by the pitch extraction unit 103 as the center, for example, in 0.25 steps. The error sum value Σε m is obtained for each of these plural kinds of slightly different pitches. In this case, when the pitch is determined, the bandwidth is determined, and from the above formula (8), the power spectrum | S (j) |
(j) | can be used to find the error ε m in the above equation (7), and the total sum Σε m of all bands can be found. This error sum value Σε m is obtained for each pitch, and the pitch corresponding to the minimum error sum value is determined as the optimum pitch. As described above, the high-precision pitch search unit 106 obtains the optimum fine (eg, 0.25 step) pitch, and the amplitude | A m | corresponding to this optimum pitch.
Is determined.

【0039】以上ピッチのファインサーチの説明におい
ては、説明を簡略化するために、全バンドが有声音(Vo
iced)の場合を想定しているが、上述したようにMBE
ボコーダにおいては、同時刻の周波数軸上に無声音(Un
voiced)領域が存在するというモデルを採用しているこ
とから、上記各バンド毎に有声音/無声音の判別を行う
ことが必要とされる。
In the above description of the pitch fine search, in order to simplify the explanation, all bands are voiced (Vo
Assuming the case of iced), as described above, MBE
In the vocoder, unvoiced sound (Un
Since a model in which a voiced) area exists is used, it is necessary to distinguish voiced sound / unvoiced sound for each band.

【0040】上記高精度ピッチサーチ部106からの最
適ピッチ及び振幅|Am |のデータは、有声音/無声音
判別部107に送られ、上記各バンド毎に有声音/無声
音の判別が行われる。この判別のために、NSR(ノイ
ズtoシグナル比)を利用する。すなわち、第mバンド
のNSRは、
The optimum pitch and amplitude | A m | data from the high precision pitch search unit 106 is sent to the voiced sound / unvoiced sound discrimination unit 107, and the voiced sound / unvoiced sound is discriminated for each band. NSR (noise to signal ratio) is used for this determination. That is, the NSR of the m-th band is

【0041】[0041]

【数3】 と表せ、このNSR値が所定の閾値(例えば0.3)より
大のとき(エラーが大きい)ときには、そのバンドでの
|Am ||E(j) |による|S(j) |の近似が良くない
(上記励起信号|E(j) |が基底として不適当である)
と判断でき、当該バンドをUV(Unvoiced、無声音)と
判別する。これ以外のときは、近似がある程度良好に行
われていると判断でき、そのバンドをV(Voiced、有声
音)と判別する。
[Equation 3] When this NSR value is larger than a predetermined threshold value (for example, 0.3) (error is large), | S (j) | is approximated by | A m || E (j) | in that band. Is not good (the above excitation signal | E (j) | is unsuitable as a basis)
Therefore, the band is determined to be UV (Unvoiced, unvoiced sound). In other cases, it can be determined that the approximation is performed to some extent, and the band is determined to be V (Voiced, voiced sound).

【0042】次に、振幅再評価部108には、直交変換
部105からの周波数軸上データ、高精度ピッチサーチ
部106からのファインピッチと評価された振幅|Am
|との各データ、及び上記有声音/無声音判別部107
からのV/UV(有声音/無声音)判別データが供給さ
れている。この振幅再評価部108では、有声音/無声
音判別部107において無声音(UV)と判別されたバ
ンドに関して、再度振幅を求めている。このUVのバン
ドについての振幅|Am UVは、
Next, the amplitude re-evaluation unit 108 has the amplitude on the frequency axis data from the orthogonal transformation unit 105 and the amplitude | A m evaluated as the fine pitch from the high precision pitch search unit 106.
| And each voiced sound / unvoiced sound discrimination unit 107
V / UV (voiced sound / unvoiced sound) discrimination data from The amplitude re-evaluation unit 108 re-calculates the amplitude of the band determined to be unvoiced sound (UV) by the voiced sound / unvoiced sound determination unit 107. The amplitude | A m | UV for this UV band is

【0043】[0043]

【数4】 にて求められる。[Equation 4] Required at.

【0044】この振幅再評価部108からのデータは、
データ数変換(一種のサンプリングレート変換)部10
9に送られる。このデータ数変換部109は、上記ピッ
チに応じて周波数軸上での分割帯域数が異なり、データ
数(特に振幅データの数)が異なることを考慮して、一
定の個数にするためのものである。すなわち、例えば有
効帯域を3400kHzまでとすると、この有効帯域が上
記ピッチに応じて、8バンド〜63バンドに分割される
ことになり、これらの各バンド毎に得られる上記振幅|
m |(UVバンドの振幅|Am UVも含む)データの
個数mMX+1も8〜63と変化することになる。このた
めデータ数変換部109では、この可変個数mMX+1の
振幅データを一定個数M(例えば44個)のデータに変
換している。
The data from the amplitude re-evaluation unit 108 is
Data number conversion (a kind of sampling rate conversion) unit 10
Sent to 9. This data number conversion unit 109 is for making the number constant, considering that the number of divided bands on the frequency axis differs according to the pitch and the number of data (especially the number of amplitude data) differs. is there. That is, for example, if the effective band is up to 3400 kHz, this effective band is divided into 8 bands to 63 bands according to the pitch, and the amplitude | obtained for each of these bands |
A m | will change (UV including UV band amplitude | | A m) the number of data m MX +1 also 8-63. Therefore, the data number conversion unit 109 converts the variable number m MX +1 of amplitude data into a fixed number M (for example, 44) of data.

【0045】ここで本実施例においては、上記図1〜図
9と共に説明したように、周波数軸上の有効帯域1ブロ
ック分の振幅データに対して、ブロック内の最後のデー
タからブロック内の最初のデータまでの値を補間するよ
うなダミーデータを付加してデータ個数をNF 個に拡大
した後、帯域制限型のOS 倍(例えば8倍)のオーバー
サンプリングを施すことによりOS 倍の個数の振幅デー
タを求め、このOS 倍の個数((mMX+1)×OS 個)
の振幅データを直線補間してさらに多くのNM個(例え
ば2048個)に拡張し、このNM 個のデータを間引い
て上記一定個数M(例えば44個)のデータに変換して
いる。
In this embodiment, as described above with reference to FIGS. 1 to 9, the amplitude data of one block of the effective band on the frequency axis is processed from the last data in the block to the first data in the block. Data is expanded to N F by adding dummy data for interpolating the values up to the data, and then band-limited O S times (for example, 8 times) oversampling is applied to increase the O S times. The amplitude data of the number is obtained, and this number is multiplied by O S ((m MX +1) × O S )
Of the amplitude data is linearly interpolated and expanded to a larger number of N M pieces (for example, 2048 pieces), and the N M pieces of data are thinned out to be converted into the fixed number of M pieces (for example, 44 pieces) of data.

【0046】このデータ数変換部109からのデータ
(上記一定個数M個の振幅データ)がベクトル量子化部
110に送られて、所定個数のデータ毎にまとめられて
ベクトルとされ、ベクトル量子化が施される。ベクトル
量子化部110からの量子化出力データは、出力端子1
11を介して取り出される。また、上記高精度のピッチ
サーチ部106からの高精度(ファイン)ピッチデータ
は、ピッチ符号化部115で符号化され、出力端子11
2を介して取り出される。さらに、上記有声音/無声音
判別部107からの有声音/無声音(V/UV)判別デ
ータは、出力端子113を介して取り出される。これら
の各出力端子111〜113からのデータは、所定の伝
送フォーマットの信号とされて伝送される。
The data from the data number converting unit 109 (the above-mentioned fixed number M of amplitude data) is sent to the vector quantizing unit 110, and a predetermined number of data is collected into a vector, and vector quantization is performed. Is given. The quantized output data from the vector quantizer 110 is output to the output terminal 1
It is taken out via 11. The high-precision (fine) pitch data from the high-precision pitch search unit 106 is coded by the pitch coding unit 115, and the output terminal 11
It is taken out via 2. Further, the voiced sound / unvoiced sound (V / UV) discrimination data from the voiced sound / unvoiced sound discrimination unit 107 is taken out through the output terminal 113. The data from these output terminals 111 to 113 are transmitted as signals in a predetermined transmission format.

【0047】なお、これらの各データは、上記Nサンプ
ル(例えば256サンプル)のブロック内のデータに対
して処理を施すことにより得られるものであるが、ブロ
ックは時間軸上を上記Lサンプルのフレームを単位とし
て前進することから、伝送するデータは上記フレーム単
位で得られる。すなわち、上記フレーム周期でピッチデ
ータ、V/UV判別データ、振幅データが更新されるこ
とになる。
Each of these data is obtained by processing the data in the block of N samples (for example, 256 samples), but the block is a frame of L samples on the time axis. , The data to be transmitted is obtained in the frame unit. That is, the pitch data, the V / UV discrimination data, and the amplitude data are updated at the above frame cycle.

【0048】次に、伝送されて得られた上記各データに
基づき音声信号を合成するための合成側(デコード側)
の概略構成について、図15を参照しながら説明する。
この図15において、入力端子121には上記ベクトル
量子化された振幅データが、入力端子122には上記符
号化されたピッチデータが、また入力端子123には上
記V/UV判別データがそれぞれ供給される。入力端子
121からの量子化振幅データは、逆ベクトル量子化部
124に送られて逆量子化され、データ数逆変換部12
5に送られて逆変換される。このデータ数逆変換部12
5では、上述した図1〜図9の説明と対照的な逆変換が
行われ、得られた振幅データが有声音合成部126及び
無声音合成部127に送られる。入力端子122からの
符号化ピッチデータは、ピッチ復号化部128で復号化
され、データ数逆変換部125、有声音合成部126及
び無声音合成部127に送られる。また入力端子123
からのV/UV判別データは有声音合成部126及び無
声音合成部127に送られる。
Next, a synthesizing side (decoding side) for synthesizing an audio signal based on the above-mentioned respective data obtained by transmission.
The general configuration of will be described with reference to FIG.
In FIG. 15, the input terminal 121 is supplied with the vector-quantized amplitude data, the input terminal 122 is supplied with the encoded pitch data, and the input terminal 123 is supplied with the V / UV discrimination data. It The quantized amplitude data from the input terminal 121 is sent to the inverse vector quantization unit 124 and inversely quantized, and the data number inverse conversion unit 12
It is sent to 5 for inverse conversion. This data number inverse conversion unit 12
In 5, the inverse transformation, which is in contrast to the above description of FIGS. 1 to 9, is performed, and the obtained amplitude data is sent to the voiced sound synthesis unit 126 and the unvoiced sound synthesis unit 127. The encoded pitch data from the input terminal 122 is decoded by the pitch decoding unit 128 and sent to the data number inverse conversion unit 125, the voiced sound synthesis unit 126, and the unvoiced sound synthesis unit 127. The input terminal 123
The V / UV discrimination data from is sent to the voiced sound synthesis unit 126 and the unvoiced sound synthesis unit 127.

【0049】有声音合成部126では例えば余弦(cosin
e)波合成により時間軸上の有声音波形を合成し、無声音
合成部127では例えばホワイトノイズをバンドパスフ
ィルタでフィルタリングして時間軸上の無声音波形を合
成し、これらの各有声音合成波形と無声音合成波形とを
加算部129で加算合成して、出力端子130より取り
出すようにしている。この場合、上記振幅データ、ピッ
チデータ及びV/UV判別データは、上記分析時の1フ
レーム(Lサンプル、例えば160サンプル)毎に更新
されて与えられるが、フレーム間の連続性を高める(円
滑化する)ために、上記振幅データやピッチデータの各
値を1フレーム中の例えば中心位置における各データ値
とし、次のフレームの中心位置までの間(合成時の1フ
レーム)の各データ値を補間により求める。すなわち、
合成時の1フレーム(例えば上記分析フレームの中心か
ら次の分析フレームの中心まで)において、先端サンプ
ル点での各データ値と終端(次の合成フレームの先端)
サンプル点での各データ値とが与えられ、これらのサン
プル点間の各データ値を補間により求めるようにしてい
る。
In the voiced sound synthesis unit 126, for example, cosine (cosin)
e) A voiced sound waveform on the time axis is synthesized by wave synthesis, and in the unvoiced sound synthesis unit 127, for example, white noise is filtered by a bandpass filter to synthesize the unvoiced sound waveform on the time axis, and these voiced sound synthesized waveforms are combined. The unvoiced sound synthesized waveform is added and synthesized by the addition unit 129 and is taken out from the output terminal 130. In this case, the amplitude data, the pitch data, and the V / UV discrimination data are updated and given for each frame (L sample, for example, 160 samples) at the time of the analysis, but the continuity between the frames is improved (smoothed). Therefore, each value of the amplitude data and the pitch data is set as each data value at, for example, the center position in one frame, and each data value up to the center position of the next frame (one frame at the time of composition) is interpolated. Ask by. That is,
In one frame (for example, from the center of the above analysis frame to the center of the next analysis frame) at the time of synthesis, each data value at the tip sample point and the end (the tip of the next synthesis frame)
Each data value at the sample point is given, and each data value between these sample points is obtained by interpolation.

【0050】以下、有声音合成部126における合成処
理を詳細に説明する。上記V(有声音)と判別された第
mバンド(第m高調波の帯域)における時間軸上の上記
1合成フレーム(Lサンプル、例えば160サンプル)
分の有声音をVm (n) とするとき、この合成フレーム内
の時間インデックス(サンプル番号)nを用いて、 Vm (n) =Am (n) cos(θm (n)) 0≦n<L ・・・(11) と表すことができる。全バンドの内のV(有声音)と判
別された全てのバンドの有声音を加算(ΣVm (n) )し
て最終的な有声音V(n) を合成する。
The synthesis processing in the voiced sound synthesis unit 126 will be described in detail below. The one combined frame (L sample, for example, 160 samples) on the time axis in the m-th band (band of the m-th harmonic) determined to be V (voiced sound)
When the voiced sound for a minute is V m (n), V m (n) = A m (n) cos (θ m (n)) 0 using the time index (sample number) n in this composite frame. ≦ n <L can be expressed as (11). The final voiced sound V (n) is synthesized by adding (ΣV m (n)) the voiced sounds of all the bands which are determined to be V (voiced sound) of all the bands.

【0051】この(11)式中のAm (n) は、上記合成フ
レームの先端から終端までの間で補間された第m高調波
の振幅である。最も簡単には、フレーム単位で更新され
る振幅データの第m高調波の値を直線補間すればよい。
すなわち、上記合成フレームの先端(n=0)での第m
高調波の振幅値をA0m、該合成フレームの終端(n=
L:次の合成フレームの先端)での第m高調波の振幅値
をALmとするとき、 Am (n) = (L-n)A0m/L+nALm/L ・・・(12) の式によりAm (n) を計算すればよい。
A m (n) in the equation (11) is the amplitude of the m-th harmonic wave which is interpolated from the beginning to the end of the composite frame. The simplest way is to linearly interpolate the value of the m-th harmonic of the amplitude data updated in frame units.
That is, the m-th frame at the tip (n = 0) of the composite frame
The amplitude value of the harmonic is A 0m , the end of the composite frame (n =
L: the amplitude value of the m-th harmonic at the end of the next composite frame) is A Lm , A m (n) = (Ln) A 0 m / L + nA Lm / L ... (12) It is sufficient to calculate A m (n).

【0052】次に、上記(11)式中の位相θm (n) は、 θm (0) =mωO1n+n2 m(ωL1−ω01)/2L+φ0m+Δωn ・・・(13) により求めることができる。この(13)式中で、φ0m
上記合成フレームの先端(n=0)での第m高調波の位
相(フレーム初期位相)を示し、ω01は合成フレーム先
端(n=0)での基本角周波数、ωL1は該合成フレーム
の終端(n=L:次の合成フレーム先端)での基本角周
波数をそれぞれ示している。上記(13)式中のΔωは、
n=Lにおける位相φLmがθm (L) に等しくなるような
最小のΔωを設定する。
Next, the phase θ m (n) in the above equation (11) is calculated by θ m (0) = mω O1 n + n 2 m (ω L1 −ω 01 ) / 2L + φ 0 m + Δω n (13) You can ask. In this equation (13), φ 0m represents the phase (frame initial phase) of the m-th harmonic at the tip (n = 0) of the composite frame, and ω 01 is the tip of the composite frame (n = 0). The fundamental angular frequency, ω L1, represents the fundamental angular frequency at the end of the combined frame (n = L: the leading end of the next combined frame). Δω in the equation (13) is
Set a minimum Δω such that the phase φ Lm at n = L is equal to θ m (L).

【0053】以下、任意の第mバンドにおいて、それぞ
れn=0、n=LのときのV/UV判別結果に応じた上
記振幅Am (n) 、位相θm (n) の求め方を説明する。第
mバンドが、n=0、n=LのいずれもV(有声音)と
される場合に、振幅Am (n) は、上述した(12)式によ
り、伝送された振幅値A0m、ALmを直線補間して振幅A
m (n) を算出すればよい。位相θm (n) は、n=0でθ
m (0) =φ0mからn=Lでθm (L) がφLmとなるように
Δωを設定する。
Hereinafter, how to obtain the amplitude A m (n) and the phase θ m (n) according to the V / UV discrimination result when n = 0 and n = L in an arbitrary m-th band will be described. To do. When the m-th band is V (voiced sound) for both n = 0 and n = L, the amplitude A m (n) is the amplitude value A 0m transmitted by the above-mentioned equation (12), A Lm is linearly interpolated and the amplitude is A
It suffices to calculate m (n). The phase θ m (n) is θ when n = 0
Δω is set so that θ m (L) becomes φ Lm when m (0) = φ 0 m and n = L.

【0054】次に、n=0のときV(有声音)で、n=
LのときUV(無声音)とされる場合に、振幅Am (n)
は、Am (0) の伝送振幅値A0mからAm (L) で0となる
ように直線補間する。n=Lでの伝送振幅値ALmは無声
音の振幅値であり、後述する無声音合成の際に用いられ
る。位相θm (n) は、θm (0) =φ0mとし、かつΔω=
0とする。
Next, when n = 0, V (voiced sound) and n =
Amplitude A m (n) when UV (unvoiced sound) when L
Is linearly interpolated so that 0 A m (L) from the transmission amplitude value A 0 m of A m (0). The transmission amplitude value A Lm when n = L is the amplitude value of unvoiced sound and is used in unvoiced sound synthesis described later. The phase θ m (n) is θ m (0) = φ 0 m , and Δω =
Set to 0.

【0055】さらに、n=0のときUV(無声音)で、
n=LのときV(有声音)とされる場合には、振幅Am
(n) は、n=0での振幅Am (0) を0とし、n=Lで伝
送された振幅値ALmとなるように直線補間する。位相θ
m (n) については、n=0での位相θm (0) として、フ
レーム終端での位相値φLmを用いて、 θm (0) =φLm−m(ωO1+ωL1)L/2 ・・・(14) とし、かつΔω=0とする。
Further, when n = 0, UV (unvoiced sound)
When V = voiced sound when n = L, amplitude A m
(n) is linearly interpolated so that the amplitude A m (0) at n = 0 is 0 and the transmitted amplitude value A Lm is n = L. Phase θ
For m (n), using the phase value φ Lm at the end of the frame as the phase θ m (0) at n = 0, θ m (0) = φ Lm −m (ω O1 + ω L1 ) L / 2 ... (14), and Δω = 0.

【0056】上記n=0、n=LのいずれもV(有声
音)とされる場合に、θm (L) がφLmとなるようにΔω
を設定する手法について説明する。上記(13)式で、n
=Lと置くことにより、 θm (L) =mωO1L+L2 m(ωL1−ω01)/2L+φ0m+ΔωL =m(ωO1+ωL1)L/2+φ0m+ΔωL =φLm となり、これを整理すると、Δωは、 Δω=(mod2π((φLm−φ0m) − mL(ωO1+ωL1)/2)/L ・・・(15) となる。この(15)式でmod2π(x) とは、xの主値を−
π〜+πの間の値で返す関数である。例えば、x=1.3
πのときmod2π(x) =−0.7π、x=2.3πのときmod2
π(x) =0.3π、x=−1.3πのときmod2π(x) =0.7
π、等である。
When both n = 0 and n = L are V (voiced sound), Δω is set so that θ m (L) becomes φ Lm.
A method of setting will be described. In the above equation (13), n
= L, then θ m (L) = mω O1 L + L 2 m (ω L1 − ω 01 ) / 2L + φ 0m + ΔωL = m (ω O1 + ω L1 ) L / 2 + φ 0m + ΔωL = φ Lm . Then, Δω becomes Δω = (mod2π ((φ Lm −φ 0m ) −mL (ω O1 + ω L1 ) / 2) / L (15). In this equation (15), mod 2π (x) Is the principal value of x
It is a function that returns a value between π and + π. For example, x = 1.3
mod2 π (x) = -0.7π when π, mod2 when x = 2.3π
When π (x) = 0.3π and x = -1.3π, mod2π (x) = 0.7
π, and so on.

【0057】ここで、図16のAは、音声信号のスペク
トルの一例を示しており、バンド番号(ハーモニクスナ
ンバ)mが8、9、10の各バンドがUV(無声音)と
され、他のバンドはV(有声音)とされている。このV
(有声音)のバンドの時間軸信号が上記有声音合成部1
26により合成され、UV(無声音)のバンドの時間軸
信号が無声音合成部127で合成されるわけである。
Here, A of FIG. 16 shows an example of the spectrum of the voice signal, and the bands with band numbers (harmonics number) m of 8, 9, and 10 are UV (unvoiced sound), and other bands. Is V (voiced sound). This V
The time axis signal of the (voiced sound) band is the voiced sound synthesis unit 1 described above.
26, and the time axis signal of the UV (unvoiced sound) band is synthesized by the unvoiced sound synthesis unit 127.

【0058】以下、無声音合成部127における無声音
合成処理を説明する。ホワイトノイズ発生部131から
の時間軸上のホワイトノイズ信号波形を、所定の長さ
(例えば256サンプル)で適当な窓関数(例えばハミ
ング窓)により窓かけをし、STFT処理部132によ
りSTFT(ショートタームフーリエ変換)処理を施す
ことにより、図16のBに示すようなホワイトノイズの
周波数軸上のパワースペクトルを得る。このSTFT処
理部132からのパワースペクトルをバンド振幅処理部
133に送り、図16のCに示すように、上記UV(無
声音)とされたバンド(例えばm=8、9、10)につ
いて上記振幅|Am UVを乗算し、他のV(有声音)と
されたバンドの振幅を0にする。このバンド振幅処理部
133には上記振幅データ、ピッチデータ、V/UV判
別データが供給されている。バンド振幅処理部133か
らの出力は、ISTFT処理部134に送られ、位相は
元のホワイトノイズの位相を用いて逆STFT処理を施
すことにより時間軸上の信号に変換する。ISTFT処
理部134からの出力は、オーバーラップ加算部135
に送られ、時間軸上で適当な(元の連続的なノイズ波形
を復元できるように)重み付けをしながらオーバーラッ
プ及び加算を繰り返し、連続的な時間軸波形を合成す
る。オーバーラップ加算部135からの出力信号が上記
加算部129に送られる。
The unvoiced sound synthesizing process in the unvoiced sound synthesizing section 127 will be described below. The white noise signal waveform on the time axis from the white noise generation unit 131 is windowed with an appropriate window function (for example, Hamming window) with a predetermined length (for example, 256 samples), and the STFT processing unit 132 performs STFT (short circuit). By performing the (Term Fourier Transform) process, a power spectrum of white noise on the frequency axis as shown in B of FIG. 16 is obtained. The power spectrum from the STFT processing unit 132 is sent to the band amplitude processing unit 133, and as shown in C of FIG. 16, the above amplitude | for the band (for example, m = 8, 9, 10) set as the UV (unvoiced sound). A m | UV is multiplied to set the amplitude of other V (voiced sound) bands to 0. The band amplitude processing unit 133 is supplied with the above amplitude data, pitch data, and V / UV discrimination data. The output from the band amplitude processing unit 133 is sent to the ISTFT processing unit 134, and the phase is converted into a signal on the time axis by performing inverse STFT processing using the phase of the original white noise. The output from the ISTFT processing unit 134 is the overlap addition unit 135.
Then, overlapping and addition are repeated with appropriate weighting (so that the original continuous noise waveform can be restored) on the time axis to synthesize a continuous time axis waveform. The output signal from the overlap adder 135 is sent to the adder 129.

【0059】このように、各合成部126、127にお
いて合成されて時間軸上に戻された有声音部及び無声音
部の各信号は、加算部129により適当な固定の混合比
で加算して、出力端子130より再生された音声信号を
取り出す。
As described above, the signals of the voiced sound portion and the unvoiced sound portion which are synthesized in the respective synthesis units 126 and 127 and are returned to the time axis are added by the addition unit 129 at an appropriate fixed mixing ratio, The reproduced audio signal is taken out from the output terminal 130.

【0060】なお、上記図10の音声分析側(エンコー
ド側)の構成や図15の音声合成側(デコード側)の構
成については、各部をハードウェア的に記載している
が、いわゆるDSP(ディジタル信号プロセッサ)等を
用いてソフトウェアプログラムにより実現することも可
能である。
Regarding the configuration on the speech analysis side (encoding side) in FIG. 10 and the configuration on the speech synthesis side (decoding side) in FIG. 15, each unit is described as hardware, but a so-called DSP (digital) is used. It is also possible to realize it by a software program using a signal processor or the like.

【0061】なお、本発明は上記実施例のみに限定され
るものではなく、例えば、音声信号のみならず、音響信
号を入力信号として用いることもできる。
The present invention is not limited to the above embodiment, and for example, not only a voice signal but also a sound signal can be used as an input signal.

【0062】[0062]

【発明の効果】以上の説明から明らかなように、本発明
に係るデータ数変換方法によれば、ブロック内で可変個
数のデータを非線形圧縮し、一定個数に変換しているた
め、ブロック間(フレーム間)の差分をとることやベク
トル量子化等が可能となり、符号化効率を高める上で有
効である。また、データ数変換(サンプル数変換)のた
めの帯域制限型オーバーサンプリング処理を施す際に、
処理前のブロック内データの最後のデータ値と最初のデ
ータ値との間を補間するようなダミーデータを付加して
データ個数を拡大しているため、後のフィルタ処理等に
より端点にリンギングが発生するような不具合を回避で
き、良好な符号化、特に効率の高いベクトル量子化が実
現できる。
As is apparent from the above description, according to the data number conversion method of the present invention, a variable number of data are non-linearly compressed within a block and converted into a constant number of data. It is possible to take the difference between frames), vector quantization, etc., which is effective in improving the coding efficiency. Also, when performing band-limited oversampling processing for data number conversion (sample number conversion),
Since the number of data is expanded by adding dummy data that interpolates between the last data value and the first data value of the data in the block before processing, ringing occurs at the end points due to subsequent filter processing etc. Such a problem can be avoided, and good coding, particularly highly efficient vector quantization can be realized.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係るデータ数変換方法を説明するため
の概略構成を示すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration for explaining a data number conversion method according to the present invention.

【図2】データ数変化の一例を説明するための波形図で
ある。
FIG. 2 is a waveform diagram for explaining an example of a change in the number of data.

【図3】FFT前のデータ数拡大した波形の一例を示す
図である。
FIG. 3 is a diagram showing an example of a waveform in which the number of data before FFT is enlarged.

【図4】FFT前のデータ数拡大した波形の比較例を示
す図である。
FIG. 4 is a diagram showing a comparative example of waveforms in which the number of data before FFT is enlarged.

【図5】FFT後の波形とオーバーサンプリング操作を
説明するための図である。
FIG. 5 is a diagram for explaining a waveform after FFT and an oversampling operation.

【図6】FFT後の波形に対するフィルタリング操作を
説明するための図である。
FIG. 6 is a diagram for explaining a filtering operation on a waveform after FFT.

【図7】IFFT後の波形を示す図である。FIG. 7 is a diagram showing a waveform after IFFT.

【図8】オーバーサンプリングによるサンプル数変換の
一例を示す図である。
FIG. 8 is a diagram showing an example of sample number conversion by oversampling.

【図9】直線補間及び間引き処理を説明するための図で
ある。
FIG. 9 is a diagram for explaining linear interpolation and thinning processing.

【図10】本発明に係るデータ数変換方法が適用される
装置の具体例としての音声信号の合成分析符号化装置の
分析側(エンコード側)の概略構成を示す機能ブロック
図である。
FIG. 10 is a functional block diagram showing a schematic configuration of an analysis side (encoding side) of a speech signal synthesis analysis coding apparatus as a specific example of an apparatus to which the data number conversion method according to the present invention is applied.

【図11】窓かけ処理を説明するための図である。FIG. 11 is a diagram for explaining a windowing process.

【図12】窓かけ処理と窓関数との関係を説明するため
の図である。
FIG. 12 is a diagram for explaining the relationship between windowing processing and a window function.

【図13】直交変換(FFT)処理対象としての時間軸
データを示す図である。
FIG. 13 is a diagram showing time axis data as an orthogonal transform (FFT) processing target.

【図14】周波数軸上のスペクトルデータ、スペクトル
包絡線(エンベロープ)及び励起信号のパワースペクト
ルを示す図である。
FIG. 14 is a diagram showing spectrum data on a frequency axis, a spectrum envelope (envelope), and a power spectrum of an excitation signal.

【図15】本発明に係るデータ数変換方法が適用される
装置の具体例としての音声信号の合成分析符号化装置の
合成側(デコード側)の概略構成を示す機能ブロック図
である。
FIG. 15 is a functional block diagram showing a schematic configuration on the synthesis side (decoding side) of a speech signal synthesis analysis coding apparatus as a specific example of an apparatus to which the data number conversion method according to the present invention is applied.

【図16】音声信号を合成する際の無声音合成を説明す
るための図である。
FIG. 16 is a diagram for explaining unvoiced sound synthesis when synthesizing voice signals.

【符号の説明】[Explanation of symbols]

12・・・・・非線形圧縮部 13・・・・・データ個数変換本体部 14・・・・・ダミーデータ付加部 15・・・・・帯域制限型オーバーサンプリング部 16・・・・・FFT(高速フーリエ変換)処理部 17・・・・・中間0詰め処理部 18・・・・・IFFT(逆FFT)処理部 19・・・・・直線補間部 20・・・・・間引き処理部 103・・・・・ピッチ抽出部 104・・・・・窓かけ処理部 105・・・・・直交変換(FFT)部 106・・・・・高精度(ファイン)ピッチサーチ部 107・・・・・有声音/無声音(V/UV)判別部 108・・・・・振幅再評価部 109・・・・・データ数変換(データレートコンバー
ト)部 110・・・・・ベクトル量子化部 126・・・・・有声音合成部 127・・・・・無声音合成部
12: Non-linear compression section 13: Data number conversion main body section 14: Dummy data addition section 15: Band-limited oversampling section 16: FFT ( Fast Fourier transform) processing unit 17 ... intermediate zero padding processing unit 18 ... IFFT (inverse FFT) processing unit 19 ... linear interpolation unit 20 ... thinning processing unit 103. --- Pitch extraction unit 104 --- Windowing processing unit 105 --- Orthogonal transform (FFT) unit 106 --- High precision (fine) pitch search unit 107 --- Existence Voice / unvoiced (V / UV) discrimination unit 108 ... Amplitude re-evaluation unit 109 ... Data number conversion (data rate conversion) unit 110 ... Vector quantization unit 126 ...・ Voice sound synthesis section 127 ・ ・ ・ None Sound synthesis unit

【手続補正書】[Procedure amendment]

【提出日】平成5年6月8日[Submission date] June 8, 1993

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0026[Correction target item name] 0026

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0026】受信側(合成側あるいはデコーダ側)で
は、そのインデックスより、ベクトル量子化及び逆量子
化された数列bVQdB(n)なるM点の波形データを
得る。そのデータ列を、同様の方法で、すなわち帯域制
限オーバーサンプリング、直線補間、間引きの操作を施
すことにより、必要なポイント数の上記mMX+1点の
数列に変換する。なお、mMX(あるいはmMX+1)
は、別途伝送するピッチ情報により求めることができ
る。例えばサンプリング周期に対して規格化されたピッ
チ周期をpとするとき、ピッチ周波数(角周波数)ω
は、2π/pで求められ、π/ω=p/2より、mMX
+1=inint(p/2)として算出できる。このm
MX+1点の振幅情報をもとにしてデコード処理を行
う。
On the receiving side (composite side or decoder side), the vector-quantized and dequantized sequence b VQdB (n) of M-point waveform data is obtained from the index. The data string is processed in the same way, i.e., band-limited oversampling, linear interpolation, and decimation.
By doing so, the necessary number of points is converted into a series of m MX +1 points. Note that m MX (or m MX +1)
Can be obtained from the separately transmitted pitch information. For example, when the pitch period normalized to the sampling period is p, the pitch frequency (angular frequency) ω
Is calculated by 2π / p, and from π / ω = p / 2, m MX
It can be calculated as + 1 = inint (p / 2). This m
Decoding processing is performed based on the amplitude information of MX + 1 points.

【手続補正2】[Procedure Amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0031[Correction target item name] 0031

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0031】ピッチ抽出部103では、上記X
wr(k,r)のサンプル列(1ブロックNサンプル)
に基づいてピッチ抽出が行われる。このピッチ抽出法に
は、時間波形の周期性や、スペクトルの周期的周波数構
造や、自己相関関数を用いるもの等が知られているが、
本実施例では、センタクリップ波形の自己相関法を採用
している。このときのブロック内でのセンタクリップレ
ベルについては、1ブロックにつき1つのクリップレベ
ルを設定してもよいが、ブロックを細分割した各部(各
サブブロック)の信号のピークレベル等を検出し、これ
らの各サブブロックのピークレベル等の差が大きいとき
に、ブロック内でクリップレベルを段階的にあるいは連
続的に変化させるようにしている。このセンタクリップ
波形の自己相関データのピーク位置に基づいてピッチ周
を決めている。このとき、現在フレームに属する自己
相関データ(自己相関は1ブロックNサンプルのデータ
を対象として求められる)から複数のピークを求めてお
き、これらの複数のピークの内の最大ピークが所定の閾
値以上のときには該最大ピーク位置をピッチ周期とし、
それ以外のときには、現在フレーム以外のフレーム、例
えば前後のフレームで求められたピッチに対して所定の
関係を満たすピッチ範囲内、例えば前フレームのピッチ
を中心として±20%の範囲内にあるピークを求め、こ
のピーク位置に基づいて現在フレームのピッチを決定す
るようにしている。このピッチ抽出部103ではオープ
ンループによる比較的ラフなピッチのサーチが行われ、
抽出されたピッチデータは高精度(ファイン)ピッチサ
ーチ部106に送られて、クローズドループによる高精
度のピッチサーチ(ピッチのファインサーチ)が行われ
る。
In the pitch extraction unit 103, the above X
Sample sequence of wr (k, r) (1 block N samples)
Pitch extraction is performed based on This pitch extraction method is known to include periodicity of time waveform, periodic frequency structure of spectrum, and one using autocorrelation function,
In this embodiment, the center correlation waveform autocorrelation method is adopted. Regarding the center clip level in the block at this time, one clip level may be set for one block, but the peak level of the signal of each part (each sub-block) obtained by subdividing the block is detected and When there is a large difference in the peak level of each sub-block, the clip level is changed stepwise or continuously within the block. Based on the peak position of the autocorrelation data of this center clip waveform, the pitch
The period is fixed. At this time, a plurality of peaks are obtained from the autocorrelation data belonging to the current frame (the autocorrelation is obtained for the data of N samples of one block), and the maximum peak of the plurality of peaks is equal to or larger than a predetermined threshold value. When, the maximum peak position is the pitch period,
In other cases, peaks within a pitch range satisfying a predetermined relationship with the pitches obtained in frames other than the current frame, for example, the frames before and after, for example, within a range of ± 20% around the pitch of the previous frame are set. The pitch of the current frame is determined based on the obtained peak position. In this pitch extraction unit 103, a relatively rough pitch search is performed by an open loop,
The extracted pitch data is sent to the high precision (fine) pitch search unit 106, and a high precision pitch search (pitch fine search) is performed by the closed loop.

【手続補正3】[Procedure 3]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0033[Correction target item name] 0033

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0033】このピッチのファインサーチについて説明
する。先ず、上記MBEボコーダにおいては、上記FF
T等により直交変換された周波数軸上のスペクトルデー
タとしてのS(j)を S(j)=H(j)|E(j)| 0<j<J ・・・(6) と表現するようなモデルを想定している。ここで、Jは
ω/4π=f./2に対応し、サンプリング周波数
ω/2πが例えば8kHzのときには4kHz
に対応する。上記(6)式中において、周波数軸上のス
ペクトルデータS(j)が図14のAに示すような波形
のとき、H(j)は、図14のBに示すような元のスペ
クトルデータS(j)のスペクトル包絡線(エンベロー
プ)を示し、E(j)は、図14のCに示すような等レ
ベルで周期的な励起信号(エキサイテイション)のスペ
クトルを示している。すなわち、FFTスペクトルS
(j)は、スペクトルエンベロープH(j)と励起信号
のパワースペクトル|E(j)|との積としてモデル化
される。
The fine search of the pitch will be described. First, in the MBE vocoder, the FF
S (j) as spectrum data on the frequency axis orthogonally transformed by T etc. is expressed as S (j) = H (j) | E (j) | 0 <j <J (6) It is assumed that the model. Where J is
ω S / 4π = f S. 4 kHz when the sampling frequency f S = ω S / 2π is 8 kHz, for example.
Corresponding to. In the above equation (6), when the spectrum data S (j) on the frequency axis has a waveform as shown in A of FIG. 14, H (j) is the original spectrum data S as shown in B of FIG. The spectrum envelope (envelope) of (j) is shown, and E (j) has shown the spectrum of the excitation signal (excitation) which is cyclic at equal level as shown in C of FIG. That is, the FFT spectrum S
(J) is modeled as the product of the spectral envelope H (j) and the power spectrum | E (j) | of the excitation signal.

【手続補正4】[Procedure amendment 4]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0036[Correction target item name] 0036

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0036】[0036]

【数1】 で表せる。このエラーεを最小化するような|A
は、
[Equation 1] Can be expressed as | A m | that minimizes this error ε m
Is

【手続補正5】[Procedure Amendment 5]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0037[Name of item to be corrected] 0037

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0037】[0037]

【数2】 となり、この(8)式の|A|のとき、エラーε
最小化する。このような振幅|A|を各バンド毎に求
め、得られた各振幅|A|を用いて上記(7)式で定
義された各バンド毎のエラーεを求める。次に、この
ような各バンド毎のエラーωの全バンドの総和値Σω
を求める。さらに、このような全バンドのエラー総和
値Σεを、いくつかの微小に異なるピッチについて求
め、エラー総和値Σεが最小となるようなピッチを求
める。
[Equation 2] Therefore, when | A m | in this equation (8), the error ε m is minimized. Such an amplitude | A m | is obtained for each band, and the obtained amplitude | A m | is used to obtain an error ε m for each band defined by the above equation (7). Next, the sum Σω of all the bands of the error ω m for each band
Find m . Further, such an error sum value Σε m of all bands is obtained for some slightly different pitches, and a pitch that minimizes the error sum value Σε m is obtained.

【手続補正6】[Procedure Amendment 6]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0048[Correction target item name] 0048

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0048】次に、伝送されて得られた上記各データに
基づき音声信号を合成するための合成側(デコード側)
の概略構成について、図15を参照しながら説明する。
この図15において、入力端子121には上記ベクトル
量子化された振幅データが、入力端子122には上記符
号化されたピッチデータが、また入力端子123には上
記V/UV判別データがそれぞれ供給される。入力端子
121からの量子化振幅データは、逆ベクトル量子化部
124に送られて逆量子化され、データ数逆変換部12
5に送られて逆変換される。このデータ数逆変換部12
5では、上述した図1〜図9の説明と同様な変換が行わ
れ、得られた振幅データが有声音合成部126及び無声
音合成部127に送られる。入力端子122からの符号
化ピッチデータは、ピッチ復号化部128で復号化さ
れ、データ数逆変換部125、有声音合成部126及び
無声音合成部127に送られる。また入力端子123か
らのV/UV判別データは有声音合成部126及び無声
音合成部127に送られる。
Next, a synthesizing side (decoding side) for synthesizing an audio signal based on the above-mentioned respective data obtained by transmission.
The general configuration of will be described with reference to FIG.
In FIG. 15, the input terminal 121 is supplied with the vector-quantized amplitude data, the input terminal 122 is supplied with the encoded pitch data, and the input terminal 123 is supplied with the V / UV discrimination data. It The quantized amplitude data from the input terminal 121 is sent to the inverse vector quantization unit 124 and inversely quantized, and the data number inverse conversion unit 12
It is sent to 5 for inverse conversion. This data number inverse conversion unit 12
5, the same conversion as that described with reference to FIGS. 1 to 9 is performed, and the obtained amplitude data is sent to the voiced sound synthesis unit 126 and the unvoiced sound synthesis unit 127. The encoded pitch data from the input terminal 122 is decoded by the pitch decoding unit 128 and sent to the data number inverse conversion unit 125, the voiced sound synthesis unit 126, and the unvoiced sound synthesis unit 127. The V / UV discrimination data from the input terminal 123 is sent to the voiced sound synthesis unit 126 and the unvoiced sound synthesis unit 127.

【手続補正7】[Procedure Amendment 7]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0052[Correction target item name] 0052

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0052】次に、上記(11)式中の位相θ(n)
は、 θ(n)=mω01n+nm(ωL1−ω01)/2L+φ0m+Δωn ・・・(13) により求めることができる。この(13)式中で、φ
0mは上記合成フレームの先端(n=0)での第m高調
波の位相(フレーム初期位相)を示し、ω01は合成フ
レーム先端(n=0)での基本角周波数、ωL1は該合
成フレームの終端(n=L:次の合成フレーム先端)で
の基本角周波数をそれぞれ示している。上記(13)式
中のΔωは、n=Lにおける位相φLmがθ(L)に
等しくなるような最小のΔωを設定する。
Next, the phase θ m (n) in the above equation (11)
Can be calculated by θ m (n) = mω 01 n + n 2 m (ω L1 −ω 01 ) / 2L + φ 0m + Δωn (13). In this equation (13), φ
0 m represents the phase of the m-th harmonic (frame initial phase) at the tip (n = 0) of the composite frame, ω 01 is the fundamental angular frequency at the composite frame tip (n = 0), and ω L1 is the composite. The basic angular frequencies at the end of the frame (n = L: leading end of the next composite frame) are shown. Δω in the equation (13) is set to a minimum Δω such that the phase φ Lm at n = L becomes equal to θ m (L).

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 ブロック内の波形データ又は波形を表す
パラメータデータの個数が可変とされたデータを非線形
圧縮する工程と、 このブロック毎に可変の個数の非線形圧縮データをブロ
ック毎に一定の個数の基準データとを比較するために上
記可変個数の非線形圧縮データを上記一定個数に変換す
る工程とを有することを特徴とするデータ数変換方法。
1. A step of nonlinearly compressing data in which the number of waveform data in a block or parameter data representing a waveform is variable, and a variable number of nonlinear compressed data in each block is stored in a fixed number in each block. A step of converting the variable number of non-linear compressed data into the constant number for comparison with reference data.
【請求項2】 上記ブロック毎に可変の個数の非線形圧
縮データに、ブロック内の最後のデータからブロック内
の最初のデータまでの値を補間するようなダミーデータ
を付加してデータ個数を拡大した後、帯域制限型のオー
バーサンプリングを施すことを特徴とする請求項1記載
の高能率符号化方法。
2. The number of data is expanded by adding dummy data for interpolating values from the last data in the block to the first data in the block to the variable number of non-linear compressed data for each block. The high-efficiency coding method according to claim 1, wherein band-limited oversampling is performed after that.
JP09226392A 1992-03-18 1992-03-18 Data number conversion method, encoding device and decoding device Expired - Lifetime JP3297751B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP09226392A JP3297751B2 (en) 1992-03-18 1992-03-18 Data number conversion method, encoding device and decoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP09226392A JP3297751B2 (en) 1992-03-18 1992-03-18 Data number conversion method, encoding device and decoding device

Publications (2)

Publication Number Publication Date
JPH05297898A true JPH05297898A (en) 1993-11-12
JP3297751B2 JP3297751B2 (en) 2002-07-02

Family

ID=14049523

Family Applications (1)

Application Number Title Priority Date Filing Date
JP09226392A Expired - Lifetime JP3297751B2 (en) 1992-03-18 1992-03-18 Data number conversion method, encoding device and decoding device

Country Status (1)

Country Link
JP (1) JP3297751B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002009091A1 (en) * 2000-07-21 2002-01-31 Kabushiki Kaisha Kenwood Frequency thinning device and method for compressing information by thinning out frequency components of signal
WO2002013182A1 (en) * 2000-08-02 2002-02-14 Sony Corporation Digital signal processing method, learning method, apparatuses for them, and program storage medium
WO2002013181A1 (en) * 2000-08-02 2002-02-14 Sony Corporation Digital signal processing method, learning method, apparatuses for them, and program storage medium
WO2002013180A1 (en) * 2000-08-02 2002-02-14 Sony Corporation Digital signal processing method, learning method, apparatuses for them, and program storage medium
WO2002017300A1 (en) * 2000-08-25 2002-02-28 Kabushiki Kaisha Kenwood Frequency thinning apparatus for thinning out frequency components of signal and frequency thinning apparatus
JP2010133778A (en) * 2008-12-03 2010-06-17 Toshiba Corp Radar signal processor and radar system
EP2270981A2 (en) 2009-06-19 2011-01-05 Fujitsu Limited Digital signal processing apparatus and digital signal processing method
US8649689B2 (en) 2009-06-24 2014-02-11 Fujitsu Limited Digital coherent receiving apparatus

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002009091A1 (en) * 2000-07-21 2002-01-31 Kabushiki Kaisha Kenwood Frequency thinning device and method for compressing information by thinning out frequency components of signal
US7184961B2 (en) 2000-07-21 2007-02-27 Kabushiki Kaisha Kenwood Frequency thinning device and method for compressing information by thinning out frequency components of signal
US6990475B2 (en) 2000-08-02 2006-01-24 Sony Corporation Digital signal processing method, learning method, apparatus thereof and program storage medium
WO2002013180A1 (en) * 2000-08-02 2002-02-14 Sony Corporation Digital signal processing method, learning method, apparatuses for them, and program storage medium
US6907413B2 (en) 2000-08-02 2005-06-14 Sony Corporation Digital signal processing method, learning method, apparatuses for them, and program storage medium
WO2002013181A1 (en) * 2000-08-02 2002-02-14 Sony Corporation Digital signal processing method, learning method, apparatuses for them, and program storage medium
WO2002013182A1 (en) * 2000-08-02 2002-02-14 Sony Corporation Digital signal processing method, learning method, apparatuses for them, and program storage medium
US7412384B2 (en) 2000-08-02 2008-08-12 Sony Corporation Digital signal processing method, learning method, apparatuses for them, and program storage medium
US7584008B2 (en) 2000-08-02 2009-09-01 Sony Corporation Digital signal processing method, learning method, apparatuses for them, and program storage medium
WO2002017300A1 (en) * 2000-08-25 2002-02-28 Kabushiki Kaisha Kenwood Frequency thinning apparatus for thinning out frequency components of signal and frequency thinning apparatus
US7257161B2 (en) 2000-08-25 2007-08-14 Kabushiki Kaisha Kenwood Frequency thinning apparatus for thinning out frequency components of signal and frequency thinning apparatus
JP2010133778A (en) * 2008-12-03 2010-06-17 Toshiba Corp Radar signal processor and radar system
EP2270981A2 (en) 2009-06-19 2011-01-05 Fujitsu Limited Digital signal processing apparatus and digital signal processing method
US8649689B2 (en) 2009-06-24 2014-02-11 Fujitsu Limited Digital coherent receiving apparatus
US9444554B2 (en) 2009-06-24 2016-09-13 Fujitsu Limited Digital coherent receiving apparatus

Also Published As

Publication number Publication date
JP3297751B2 (en) 2002-07-02

Similar Documents

Publication Publication Date Title
KR100427753B1 (en) Method and apparatus for reproducing voice signal, method and apparatus for voice decoding, method and apparatus for voice synthesis and portable wireless terminal apparatus
JP3475446B2 (en) Encoding method
JP3528258B2 (en) Method and apparatus for decoding encoded audio signal
US8612216B2 (en) Method and arrangements for audio signal encoding
JPH0990968A (en) Voice synthesis method
JPH11510274A (en) Method and apparatus for generating and encoding line spectral square root
JP3297751B2 (en) Data number conversion method, encoding device and decoding device
JP3237178B2 (en) Encoding method and decoding method
JP3297749B2 (en) Encoding method
JP3362471B2 (en) Audio signal encoding method and decoding method
JP3218679B2 (en) High efficiency coding method
JP2000132193A (en) Signal encoding device and method therefor, and signal decoding device and method therefor
US5799271A (en) Method for reducing pitch search time for vocoder
JPH0651800A (en) Data quantity converting method
JP3731575B2 (en) Encoding device and decoding device
JP4274614B2 (en) Audio signal decoding method
JP3297750B2 (en) Encoding method
JP3218681B2 (en) Background noise detection method and high efficiency coding method
JP3321933B2 (en) Pitch detection method
JPH05281995A (en) Speech encoding method
JP3218680B2 (en) Voiced sound synthesis method
JP3223564B2 (en) Pitch extraction method
JPH06202695A (en) Speech signal processor
JP3440500B2 (en) decoder
JP3266920B2 (en) Audio encoding device, audio decoding device, and audio encoding / decoding device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020305

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080419

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090419

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090419

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100419

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100419

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110419

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110419

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120419

Year of fee payment: 10

EXPY Cancellation because of completion of term