JPH01314300A - Voice coding and decoding system and device thereof - Google Patents

Voice coding and decoding system and device thereof

Info

Publication number
JPH01314300A
JPH01314300A JP63147253A JP14725388A JPH01314300A JP H01314300 A JPH01314300 A JP H01314300A JP 63147253 A JP63147253 A JP 63147253A JP 14725388 A JP14725388 A JP 14725388A JP H01314300 A JPH01314300 A JP H01314300A
Authority
JP
Japan
Prior art keywords
pitch
parameter
pulse
signal
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63147253A
Other languages
Japanese (ja)
Other versions
JP2615862B2 (en
Inventor
Kazunori Ozawa
一範 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP63147253A priority Critical patent/JP2615862B2/en
Publication of JPH01314300A publication Critical patent/JPH01314300A/en
Application granted granted Critical
Publication of JP2615862B2 publication Critical patent/JP2615862B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To improve sound quality and to drastically decrease the quantity of computation by obtaining multipulses without using pitch prediction for the pulses which are not strongly correlated with each of pitches. CONSTITUTION:The sound source signal of the voice signal of a frame section is indicated by using the 1st multipulses obtd. by pitch prediction and the 2nd multipulses obtd. by without pitch prediction. Further, the frame is previously divided to the sub-frames corresponding to the pitch periods and the multipulses are obtd. by the pitch prediction only with the one section of the sub-frames in order to utilize the quasiperiodicity of every pitch of the multipulse sound source and to decrease the computation quantity. The signal is reproduced by the multipulses to remove the influence thereof; thereafter, the multipulses are obtd. without the p[itch prediction in said frame. Namely, a 1st pulse decoder 720 decodes the amplitude and position of the pitch predicted multipulses and a 2nd pulse decoder 725 decodes the amplitude and position of the 2nd multipulses.

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は音声信号を低いビットレートで効率的に符号化
、復号化するための音声符号化復号化方式及びその装置
に関する。
DETAILED DESCRIPTION OF THE INVENTION (Field of Industrial Application) The present invention relates to an audio encoding/decoding method and apparatus for efficiently encoding and decoding audio signals at a low bit rate.

(従来の技術) 音声信号を低いビットレート、例えば16Kb/s程度
以下で伝送する方式としては、マルチパルス符号化法な
どが知られている。これらは音源信号を複数個のパルス
の組合せ(マルチパルス)で表し、声道の特徴をデジタ
ルフィルタで表し、音源パルスの情報とフィルタの係数
を、一定時間区間(フレーム)毎に求めて伝送している
。この方法の詳細については、例えばAraseki、
 Ozawa、 Ono、 0chiai氏による“M
ulti−pulse Excited 5peech
 Coder Ba5ed onMaximum Cr
oss−correlation 5earch Al
gorithm”。
(Prior Art) As a method for transmitting audio signals at a low bit rate, for example, about 16 Kb/s or less, a multipulse encoding method is known. These represent the sound source signal as a combination of multiple pulses (multipulse), represent the characteristics of the vocal tract with a digital filter, and transmit the information on the sound source pulse and the filter coefficients after determining them for each fixed time interval (frame). ing. For details of this method, see for example Araseki,
“M” by Ozawa, Ono, Ochiai
ulti-pulse Excited 5peech
Coder Ba5ed on Maximum Cr
oss-correlation 5earch Al
gorithm”.

(GLOBECOM 83. IEEE Global
 Tele−communication。
(GLOBECOM 83. IEEE Global
Tele-communication.

講演番号23.3.1983X文献1)に記載されてい
る。この方法では、声道情報と音源信号を分離してそれ
ぞれ表現すること、および音源信号を表現する手段とし
て複数のパルス列の組合せ(マルチパルス)を用いるこ
とにより、復号後に良好な音声信号を出力できる。音源
信号を表すパルス列を求める基本的な考え方については
第4図を用いて説明する。図中の入力端子800からは
フレーム毎に分割された音声信号が人力される。合成フ
ィルタ820には現フレームの音声信号から求められた
スペクトルパラメータが入力されている。音源計算回路
810において初期マルチパルスを発生し、これを前記
合成フィルタ820に人力することによって出力として
合成音声波形が得られる。減算器840では前記人力信
号から合成音声波形を減する。この結果を重み付は回路
850へ入力し、現フレームでの重み付は誤差電力を得
る。そしてこの重み付は誤差電力を最小とするように、
音源発生回路810において規定個数のマルチパルスの
振幅と位置を求める。
It is described in lecture number 23.3.1983X document 1). This method can output a good audio signal after decoding by separately expressing the vocal tract information and the sound source signal, and by using a combination of multiple pulse trains (multipulse) as a means of expressing the sound source signal. . The basic concept of finding a pulse train representing a sound source signal will be explained using FIG. 4. An audio signal divided into frames is manually inputted from an input terminal 800 in the figure. Spectral parameters determined from the audio signal of the current frame are input to the synthesis filter 820. An initial multi-pulse is generated in the sound source calculation circuit 810, and by inputting it to the synthesis filter 820, a synthesized speech waveform is obtained as an output. A subtracter 840 subtracts the synthesized speech waveform from the human input signal. This result is input to the weighting circuit 850, and the weighting in the current frame obtains the error power. And this weighting is done so that the error power is minimized.
In the sound source generation circuit 810, the amplitude and position of a specified number of multipulses are determined.

(発明が解決しようとする問題点) しかしながら、この従来法ではビットレートが充分に高
く音源パルスの数が充分なときは音質が良好であったが
、ビットレートを下げて行くと音質が低下するという問
題点があった。
(Problem to be solved by the invention) However, with this conventional method, the sound quality was good when the bit rate was high enough and the number of sound source pulses was sufficient, but as the bit rate was lowered, the sound quality deteriorated. There was a problem.

この問題点を改善するために、マルチパルス音源のピッ
チ毎の準周期性(ピッチ相関)を利用したピッチ予測マ
ルチパルス法が提案されている。この方法の詳細は、例
えば、特願昭58−139022(文献2)に詳しいの
でここでは説明を省略する。しかしながら、マルチパル
ス音源のピッチ毎の準周期性は大振幅のパルスでは大き
いと考えられるが、全てのパルスについてこのような周
期性が存在するわけではなく、振幅の小さなパルスはピ
ッチ毎の周期性は少ないと考えられる。前記文献2のピ
ッチ予測マルチパルス法では、フレーム内で予め定めら
れたすべての個数のパルスについてピッチ毎の周期性を
仮定して全てのパルスをピッチ予測により求めているの
で、特に周期性の少ないパルスではピッチ予測によりか
えって特性が悪化するという問題点があった。特にこの
ことは1、母音同志の遷移区間や過渡部において顕著で
あり、このような部分で音質が劣化するという問題点が
あった。
In order to improve this problem, a pitch prediction multi-pulse method has been proposed that utilizes the pitch-wise quasi-periodicity (pitch correlation) of a multi-pulse sound source. The details of this method are detailed in, for example, Japanese Patent Application No. 58-139022 (Reference 2), so the explanation will be omitted here. However, although the pitch-wise quasi-periodicity of a multipulse sound source is considered to be large for large-amplitude pulses, such periodicity does not exist for all pulses, and small-amplitude pulses have pitch-wise periodicity. is considered to be small. In the pitch prediction multi-pulse method of Document 2, all pulses are determined by pitch prediction assuming periodicity for each pitch for a predetermined number of pulses within a frame, so all pulses are determined by pitch prediction. The problem with pulses is that pitch prediction actually worsens the characteristics. This is particularly noticeable in transition sections and transitional parts between vowels, and there is a problem in that the sound quality deteriorates in such parts.

さらに、前記文献2の方法では、ピッチ情報をインパル
ス応答に含ませているため非常に時間長の長いインパル
ス応答(例えば20−32m5)を必要とし、予め定め
られた個数の全てのパルスをピッチ予測により求めてい
るので、パルスの探索に要する演算量は非常に多く、現
在のデバイス技術をもってしても装置をコンパクトに実
現することはかなり困難であった。
Furthermore, in the method of Document 2, since pitch information is included in the impulse response, an impulse response with a very long time length (for example, 20-32 m5) is required, and all pulses of a predetermined number are used for pitch prediction. Therefore, the amount of calculation required to search for pulses is extremely large, and even with current device technology, it is quite difficult to realize a compact device.

本発明の目的は、ビットレートが高いところでも、下げ
ていっても従来よりも良好な音声を再生することが可能
で、すくない演算量で実現可能な音声符号化復号化方式
とその装置を提供することにある。
The purpose of the present invention is to provide an audio encoding/decoding method and its device that can reproduce better audio than ever before even when the bit rate is high or lower, and that can be realized with a small amount of calculation. It's about doing.

(問題点を解決するための手段) 本発明の音声符号化復号化方式は、送信側では離散的な
音声信号を入力し前記音声信号からフレーム毎にスペク
トル包絡を表すスペクトルパラメータとピッチを表すピ
ッチパラメータとを抽出し、前記フレームの音声信号を
前記ピッチパラメータに応じた小区間に分割し、前記フ
レームの音声信号の音源を前記スペクトルパラメータと
前記ピッチパラメータとを用い前記小区間のうち1つの
区間について求めた第1のマルチパルスと前記マルチパ
ルスによる影響の除去後に前記スペクトルパラメータを
用いて前記フレームにおいて求めた第2のマルチパルス
とで表し、受信側では前記第1のマルチパルスと前記ピ
ッチパラメータ及び前記第2のマルチパルスを用いて音
源信号を復元しさらに前記スペクトルパラメータを用い
て合成音声信号を求めることを特徴とする。
(Means for Solving the Problems) The audio encoding/decoding method of the present invention inputs a discrete audio signal on the transmitting side, and extracts a spectral parameter representing a spectral envelope and a pitch representing a pitch from the audio signal for each frame. the audio signal of the frame is divided into small sections according to the pitch parameter, and the sound source of the audio signal of the frame is divided into one section of the small sections using the spectrum parameter and the pitch parameter. and a second multipulse obtained in the frame using the spectrum parameter after removing the influence of the multipulse, and on the receiving side, the first multipulse and the pitch parameter are expressed as The second multi-pulse is used to restore the sound source signal, and the spectral parameter is used to obtain a synthesized speech signal.

本発明の音声符号化装置は、人力した離散的な音声信号
からフレーム毎にスペクトル包絡を表すスペクトルパラ
メータとピッチパラメータを抽出し符号化するパラメー
タ計算回路と、前記フレームの音声信号を前記ピッチパ
ラメータに応じた小区間に分割する分割回路と、前記ス
ペクトルパラメータと前記ピッチパラメータとを用いて
前記小区間のうちの1つの区間について第1のマルチパ
ルスを求めて符号化し前記符号化した第1のマルチパル
スによる影響を除去した後に前記フレームにおいて前記
スペクトルパラメータを用いて第2のマルチパルスを求
めて符号化する音源計算回路と、前記パラメータ計算回
路の出力符号と前記音源計算回路の出力符号とを組み合
せて出力することを特徴とする。
The audio encoding device of the present invention includes a parameter calculation circuit that extracts and encodes a spectral parameter representing a spectral envelope and a pitch parameter for each frame from a manually generated discrete audio signal, and converts the audio signal of the frame into the pitch parameter. a dividing circuit that divides into corresponding sub-intervals, and a first multi-pulse for one of the sub-intervals using the spectrum parameter and the pitch parameter, and encodes the first multi-pulse. an excitation calculation circuit that calculates and encodes a second multi-pulse using the spectral parameters in the frame after removing the influence of the pulse; and a combination of the output code of the parameter calculation circuit and the output code of the excitation calculation circuit. It is characterized by outputting

本発明の音声復号化装置は、スペクトルパラメータを表
す符号とピッチパラメータを表す符号と第1のマルチパ
ルスを表す符号と第2のマルチパルスを表す符号とを分
離して復号化するデマルチプレクサ回路と、フレーム区
間を前記復号化したピッチパラメータに応じた小区間に
分割し前記小区間の1つについて前記復号化した第1の
マルチパルスを発生し前記ピッチパラメータを用いてピ
ッチを再生し、前記ピッチを再生した信号に前記復号化
した第2のマルチパルスを発生させて加算し音源信号を
復元する音源復元回路と、前記復元した音源信号と前記
復号化したスペクトルパラメータを用いて合成音声信号
を求め出力する合成フィルタ回路とを有することを特徴
とする。
The audio decoding device of the present invention includes a demultiplexer circuit that separates and decodes a code representing a spectral parameter, a code representing a pitch parameter, a code representing a first multipulse, and a code representing a second multipulse. , divides a frame section into subsections according to the decoded pitch parameter, generates the decoded first multi-pulse for one of the subsections, reproduces the pitch using the pitch parameter, and reproduces the pitch using the pitch parameter. a sound source restoration circuit that generates and adds the decoded second multi-pulse to the reproduced signal to restore the sound source signal; and a synthesized sound signal is obtained using the restored sound source signal and the decoded spectral parameter. It is characterized by having a synthesis filter circuit that outputs.

(作用) 本発明による音声符号化復号化方式とその装置は、フレ
ーム区間の音声信号の音源信号を、ピッチ予測して求め
たマルチパルス(第1のマルチパルス)と、ピッチ予測
無しで求めたマルチパルス(第2のマルチパルス)とを
用いて表すことを特徴としている。さらに、前記第1の
マルチパルスの計算には、マルチパルス音源のピッチ毎
の準同期性を非常に効率よく利用すると共に演算量を大
きく低減するために、フレームをあらかじめピッチ周期
に応じた小区間(サブフレーム)に分割し、前記サブフ
レームのうちの1つの区間についてのみピッチ予測によ
りマルチパルスを求める。そして前記マルチパルスによ
り信号を再生してその影響を除去した後に、前記フレー
ムにおいて前記文献1と同様の方法によりピッチ予測無
しでマルチパルスを求めるわけである。
(Operation) The audio encoding/decoding method and its device according to the present invention provide a multi-pulse (first multi-pulse) obtained by pitch prediction and a multi-pulse obtained without pitch prediction for the sound source signal of an audio signal in a frame section. It is characterized by being expressed using a multi-pulse (second multi-pulse). Furthermore, in order to very efficiently utilize the quasi-synchrony of each pitch of the multipulse sound source and to greatly reduce the amount of calculation, in order to calculate the first multipulse, the frame is preliminarily divided into small sections according to the pitch period. (subframes), and obtain multipulses by pitch prediction for only one section of the subframes. After reproducing the signal using the multi-pulse and removing its influence, the multi-pulse is obtained in the frame using the same method as in Document 1 without pitch prediction.

以下で本方式の基本的な考え方を第2図を用いて説明す
る。第2図は、本発明の作用を示すブロック図である。
The basic idea of this method will be explained below using FIG. 2. FIG. 2 is a block diagram showing the operation of the present invention.

入力端子100から音声信号を人力し、前記音声信号を
予め定められた時間長の(例えば20m5)フレームに
分割する。フレームの音声信号からLPG分析部150
はスペクトル包絡を表す予め定められた次数のLPG係
数を衆知のLPC分析によりもとめる。LPG係数とし
ては、線形予測係数の他にLSP、ホルマント、LPC
ケプストラムなど他の良好なパラメータを用いることも
できる。また、LPC以外の分析法、例えばケプストラ
ムやPSE、ARMA法などを用いることもできる。以
下では線形予測係数を用いるものとして説明を行なう。
An audio signal is input manually from the input terminal 100, and the audio signal is divided into frames having a predetermined time length (for example, 20 m5). LPG analysis unit 150 from the frame audio signal
calculates LPG coefficients of a predetermined order representing the spectral envelope by well-known LPC analysis. In addition to linear prediction coefficients, LPG coefficients include LSP, formant, and LPC.
Other good parameters such as cepstrum can also be used. Furthermore, analysis methods other than LPC, such as cepstrum, PSE, and ARMA methods, can also be used. The following explanation assumes that linear prediction coefficients are used.

ピッチ計算回路200は、フレームの音声信号からピッ
チ周期M及びピッチ係数(ゲイン)bを計算する。これ
には衆知の自己相関法を用いることができる。また、ピ
ッチ係数b(ゲイン)の計算には前記自己相関で時間遅
れMにおける自己相関係数の値を用いる方法や、音声信
号をピッチ周期M毎の小区間(サブフレーム)に分割し
、各サブフレームにおける音声信号あるいは予測残差信
号のrms値を1次回帰直線で近似したときの傾きの値
を用いることもできる。
The pitch calculation circuit 200 calculates a pitch period M and a pitch coefficient (gain) b from the audio signal of the frame. The well-known autocorrelation method can be used for this. In addition, the pitch coefficient b (gain) can be calculated by using the value of the autocorrelation coefficient at the time delay M in the autocorrelation described above, or by dividing the audio signal into small sections (subframes) for each pitch period M, and each It is also possible to use the slope value when the rms value of the audio signal or prediction residual signal in a subframe is approximated by a linear regression line.

後者の方法については、Ono氏らによる“2.4Kb
pspitch prediction multi−
pulse 5peech coding”(proc
Regarding the latter method, “2.4Kb
pspitch prediction multi-
pulse 5peech coding” (proc
.

IEEE ICASSP88. S4.9.1988)
と題した論文(文献3)などを参照できる。
IEEE ICASSP88. S4.9.1988)
You can refer to the paper titled (Reference 3).

ピッチ予測マルチパルス計算部250及びマルチパルス
計算部270の動作を第3図を引用して説明する。第3
図(a)はフレームの音声信号を表す。ここでは−例と
してフレーム長を20m5としている。ピッチ予測マル
チパルス計算部250では、まず、(b)のように、フ
レームをピッチ周期Mを用いて小区間(サブフレーム)
に分割する。ここではサブフレーム長はピッチ周期Mと
同一としている。次に、前記文献2と同一の方法により
、ピッチ再生フィルタと聴感重みすけスペクトル包絡合
成フィルタとの縦続接続フィルタのインパルス応答hw
(n)を求める。ここでスペクトル包絡合成フィルタ、
ピッチ再生フィルタの伝達特性は(1)、(2)式でそ
れぞれ表される。
The operations of the pitch prediction multipulse calculation section 250 and the multipulse calculation section 270 will be explained with reference to FIG. Third
Figure (a) represents the audio signal of a frame. Here, as an example, the frame length is 20 m5. The pitch prediction multipulse calculation unit 250 first divides the frame into small sections (subframes) using the pitch period M, as shown in (b).
Divide into. Here, the subframe length is the same as the pitch period M. Next, using the same method as in Document 2, the impulse response hw of the cascade-connected filter consisting of the pitch recovery filter and the perceptually weighted spectrum envelope synthesis filter is
Find (n). Here, the spectral envelope synthesis filter,
The transfer characteristics of the pitch recovery filter are expressed by equations (1) and (2), respectively.

H,(z) = 1/(1−Σa、z−1)     
     (1)Hμ)= 1/(1−bz−M)  
    (2)ここではピッチ再生フィルタの次数は1
としている。
H, (z) = 1/(1-Σa, z-1)
(1) Hμ) = 1/(1-bz-M)
(2) Here, the order of the pitch recovery filter is 1
It is said that

(1)式、(2)式のインパルス応答をり、(n)、h
p(n)とし、聴感重みすけフィルタのインパルス応答
をw(n)とすると、前記インパルス応答hw(n)は
次式で表される。
The impulse response of equations (1) and (2) is, (n), h
When p(n) is the impulse response of the perceptual weighting filter, w(n) is the impulse response hw(n), which is expressed by the following equation.

hw(n)=h、(n)申り、(n)*w(n)   
    (3)また、聴感重みずけを行なったスペクト
ル包絡合成フィルタのインパルス応答hws(n)はh
ws(n) = h、(n) 傘w(n)      
 (4)ここで記号“−′°は、畳み込みを表す。
hw(n)=h, (n) order, (n)*w(n)
(3) Also, the impulse response hws(n) of the spectral envelope synthesis filter subjected to perceptual weighting is h
ws(n) = h, (n) umbrella w(n)
(4) Here, the symbol "-'° represents convolution.

次に、前記文献2と統一の方法により、インパルス応答
hW(n)の自己相関数R,,(m)、聴感重みすけ音
声信号と前記インパルス応答hW(n)との相互相関関
数Φhx(m)を求める。次に、前記サブフレームのう
ちの予め定められた1つの区間(例えば第3図(b)の
区間■)についてのみ、予め定められた個数L(ここで
は4としている)のマルチパルスの振幅gi、位置m1
をピッチ予測により求める。第3図(C)は求めたマル
チパルスを示す。次に、求めたマルチパルスを(2)式
で定義されるピッチ再生フィルタに通して第3図(d)
のように他のサブフレームでのパルスを再生する。次に
、この再生パルスを用いて(1)式で定義されるスペク
トル包絡合成フィルタを駆動して再生信号x’(n)を
得る。
Next, by the same method as in Document 2, we calculate the autocorrelation number R,,(m) of the impulse response hW(n), the cross-correlation function Φhx(m) between the perceptually weighted speech signal and the impulse response hW(n). ). Next, for only one predetermined section of the subframe (for example, section ■ in FIG. 3(b)), the amplitude gi of a predetermined number L (here, 4) of multipulses is , position m1
is determined by pitch prediction. FIG. 3(C) shows the obtained multipulse. Next, the obtained multipulse is passed through a pitch recovery filter defined by equation (2) as shown in Fig. 3(d).
Play the pulse in other subframes like so: Next, a spectral envelope synthesis filter defined by equation (1) is driven using this reproduction pulse to obtain a reproduction signal x'(n).

減算器260は音声信号x(n)からx’(n)を減算
してe(n)を得る。次に、マルチパルス計算部270
は、e(n)にたいして、前記文献1と同一の方法を用
いて、e(n)に聴感重みずけをした信号とスペクトル
包絡合成フィルタの重みすけインパルス応答との相互相
関関数と、前記重みすけインパルス応答の自己相関関数
を用いて、フレーム内で予め定められた個数Qのマルチ
パルスを求める。これを第3図(e)に示す。図ではQ
を7としている。
Subtractor 260 subtracts x'(n) from audio signal x(n) to obtain e(n). Next, the multipulse calculation section 270
is the cross-correlation function between the signal obtained by applying auditory weight to e(n) and the weighted impulse response of the spectral envelope synthesis filter using the same method as in Document 1, and the weighted impulse response of the spectrum envelope synthesis filter. Using the autocorrelation function of the wall impulse response, a predetermined number Q of multipulses within a frame is determined. This is shown in FIG. 3(e). In the diagram, Q
is set as 7.

送信側の伝送情報は、スペクトル包絡を表すスペクトル
パラメータ、ピッチ再生フィルタのピッチ周期M、ゲイ
ンb、 L個のピッチ予測マルチパルスの振幅と位置、
Q個のマルチパルスの振幅と位置である。
The transmission information on the transmitting side includes a spectral parameter representing the spectral envelope, the pitch period M of the pitch recovery filter, the gain b, the amplitude and position of L pitch prediction multipulses,
These are the amplitudes and positions of Q multipulses.

(実施例) 本発明の一実施例を示す第1図において、入力端子50
0から離散的な音声信号x(n)を入力する。スペクト
ル、ピッチパラメータ計算回路520では分割したフレ
ーム区間(例えば20m5)の音声信号のスペクトル包
絡を表すスペクトル包絡合成フィルタのスペクトルパラ
メータaiを、衆知のLPC分析法によって求める。ま
た、ピッチ再生フィルタの係数すとピッチ周期Mを周知
の自己相関法あるいは前述の文献3に示した方法により
求める。
(Embodiment) In FIG. 1 showing an embodiment of the present invention, an input terminal 50
A discrete audio signal x(n) from 0 is input. The spectral and pitch parameter calculation circuit 520 calculates the spectral parameters ai of the spectral envelope synthesis filter representing the spectral envelope of the audio signal in the divided frame sections (for example, 20 m5) using the well-known LPC analysis method. Further, the coefficients of the pitch recovery filter and the pitch period M are determined by the well-known autocorrelation method or the method shown in the above-mentioned document 3.

求められたスペクトルパラメータ及び係数、ピッチ周期
に対しては、量子化器525において量子化を行なう。
A quantizer 525 performs quantization on the obtained spectrum parameters, coefficients, and pitch period.

量子化の方法は、特願昭59−272435号明細書(
文献4)に示さ・れているようなスカラー量子化や、あ
るいはベクトル量子化を行なってもよい。ベクトル量子
化の具体的な方法については、例えば、Makhou1
氏らによる’Vector quantization
in 5peech coding”(Proc、 I
EEE、 pp、1551−1588゜1985X文献
5)などの論文を参照できる。逆量子化器530は、量
子化した結果を用いて逆量子化して出力する。
The quantization method is described in Japanese Patent Application No. 59-272435 (
Scalar quantization or vector quantization as shown in Reference 4) may be performed. For a specific method of vector quantization, see Makhou1, for example.
'Vector quantization by Mr.
in 5peech coding” (Proc, I
You can refer to papers such as EEE, pp. 1551-1588° 1985X Reference 5). The dequantizer 530 dequantizes and outputs the quantized result.

減算器535はフレームの音声信号から影響信号を減算
して出力する。重み付は回路540は、音声信号と逆量
子化されたスペクトルパラメータを用いて前記信号に聴
感重み付けを行なう。重み付けの方法は、前記文献2の
重み付は回路200を参照することができる。
A subtracter 535 subtracts the influence signal from the audio signal of the frame and outputs the result. Weighting circuit 540 perceptually weights the audio signal using the dequantized spectral parameters. Regarding the weighting method, reference can be made to the weighting circuit 200 in Document 2.

インパルス応答計算回路550は、逆量子化されたスペ
クトルパラメータal、を用いて聴感重みずけをしたス
ペクトル包絡合成フィルタのインパルス応答hw、(n
)と、前記(1)、(2)式の縦続接続からなるフィル
タの重みずけインパルス応答hw(n)とをaI、とピ
ッチ周期M′、係数b′を用いて計算する。具体的な方
法は前記文献2のインパルス応答計算回路を参照できる
The impulse response calculation circuit 550 calculates the impulse response hw, (n
) and the weighted impulse response hw(n) of the filter consisting of the cascade connection of equations (1) and (2) above are calculated using aI, pitch period M', and coefficient b'. For a specific method, refer to the impulse response calculation circuit in Document 2.

自己相関関数計算回路560は前記2種類のインパルス
応答に対して2種類の自己相関関数を計算し、それぞれ
音源パルス計算回路580とパルス計算回路586へ出
力する。自己相関関数の計算法は前記文献2や前記文献
4の自己相関関数計算回路180を参照することができ
る。
The autocorrelation function calculation circuit 560 calculates two types of autocorrelation functions for the two types of impulse responses, and outputs them to the sound source pulse calculation circuit 580 and the pulse calculation circuit 586, respectively. For the method of calculating the autocorrelation function, reference can be made to the autocorrelation function calculation circuit 180 in Document 2 and Document 4.

相互相関関数計算回路570は前記聴感重み付けられた
信号と、前記インパルス応答hw(n)との相互相関関
数Φxh(m)を計算する。
A cross-correlation function calculation circuit 570 calculates a cross-correlation function Φxh(m) between the perceptually weighted signal and the impulse response hw(n).

音源パルス計算回路580では、まず゛、フレームを逆
量子化したピッチ周期M′を用いて前記第3図(b)の
ようにサブフレーム区間に分割する。そして予め定めら
れた1つのサブフレーム区間(例えば第3図(b)のサ
ブフレーム■)について、Φ、、(m)とR,h(m)
とを用いて、L個のマルチパルス列の振幅g、と位置m
、を求める。パルス列の計算方法については、前記文献
2の音源パルス計算回路を参照することができる。
The sound source pulse calculation circuit 580 first divides the frame into subframe sections as shown in FIG. 3(b) using the pitch period M' obtained by dequantizing the frame. Then, for one predetermined subframe section (for example, subframe ■ in FIG. 3(b)), Φ, , (m) and R,h(m)
The amplitude g, and the position m of the L multi-pulse trains are calculated using
, find. Regarding the pulse train calculation method, reference can be made to the sound source pulse calculation circuit in Document 2.

量子化器585は、前記マルチパルス列の振幅と位置を
量子化して符号を出力する。具体的な方法は前記文献4
などを参照できる。この出力はさらに逆量子化され、ピ
ンチ再生フィルタ605、スペクトル包絡合成フィルタ
610に通すことによって、前記ピッチ予測マルチパル
スによる合成音声信号x’(n)が求まる。
A quantizer 585 quantizes the amplitude and position of the multi-pulse train and outputs a code. The specific method is described in the above document 4.
etc. can be referred to. This output is further dequantized and passed through a pinch reconstruction filter 605 and a spectral envelope synthesis filter 610 to obtain a synthesized speech signal x'(n) based on the pitch prediction multipulse.

減算器615は、前記音声信号x(n)から合成音声信
号x’(n)を減することによって、残差信号e(n)
を得る。
The subtracter 615 subtracts the synthesized speech signal x'(n) from the speech signal x(n) to obtain a residual signal e(n).
get.

重みずけ回路600は前記残差信号に対して聴感重みず
けを行なう。
A weighting circuit 600 performs perceptual weighting on the residual signal.

相互相関関数計算回路603は重みずけ回路600の出
力と前記インパルス応答hws(n)との相互相関関数
を計算する。
A cross-correlation function calculation circuit 603 calculates a cross-correlation function between the output of the weighting circuit 600 and the impulse response hws(n).

パルス計算回路586では、前記相互相関関数とインパ
ルス応答hw8(n)の自己相関関数を用いて予め定め
られた個数のマルチパルスの振幅と位置を求める。
The pulse calculation circuit 586 uses the cross-correlation function and the autocorrelation function of the impulse response hw8(n) to find the amplitude and position of a predetermined number of multi-pulses.

量子化器620は前記マルチパルスの振幅、位置を量子
化して出力するとともに、これらを逆量子化して合成フ
ィルタ625へ出力する。
The quantizer 620 quantizes and outputs the amplitude and position of the multi-pulse, and also dequantizes and outputs them to the synthesis filter 625.

合成フィルタ625は残差信号を合成して出力する。A synthesis filter 625 synthesizes and outputs the residual signals.

加算器627は合成フィルタ625と合成フィルタ61
0の出力を加算してフレームの再生信号を求めさらに次
フレームに対する影響信号をもとめて出力する。この具
体的な方法は前記文献4を参照できる。
The adder 627 includes the synthesis filter 625 and the synthesis filter 61.
The reproduced signal of the frame is obtained by adding the outputs of 0, and the influence signal for the next frame is also determined and output. For this specific method, reference can be made to the above-mentioned document 4.

マルチプレクサ635は、量子化器585.620の出
力であるマルチパルス列の振幅、位置を表す符号、パラ
メータ量子化器525の出力であるスペクトルパラメー
タ、ピッチ周期、係数を表す符号を組み合せて出力する
The multiplexer 635 combines and outputs the code representing the amplitude and position of the multi-pulse train output from the quantizers 585 and 620, and the code representing the spectrum parameter, pitch period, and coefficient that are the output from the parameter quantizer 525.

一方、受信側では、デマルチプレクサ710は、ピッチ
予測マルチパルス(第1のマルチパルス)の振幅、位置
を表す符号、マルチパルス(第2のマルチバルス)の振
幅、位置を表す符号、スペクトルパラメータ、ピッチ周
期、係数を表す符号を分離して出力する。
On the other hand, on the receiving side, the demultiplexer 710 outputs the amplitude of the pitch prediction multipulse (first multipulse), the code representing the position, the amplitude of the multipulse (second multipulse), the code representing the position, the spectrum parameter, Separate and output codes representing pitch periods and coefficients.

第1のパルス復号器720はピッチ予測マルチパルスの
振幅、位置を復号する。第2のパルス復号器725は第
2のマルチパルスの振幅、位置を復号する。スペクトル
、ピッチパラメータ復号器750は、送信側の逆量子化
器530と同じ動きをして、スペクトルパラメータ、ピ
ッチ周期M′、係数b′を復号して出力する。
The first pulse decoder 720 decodes the amplitude and position of the pitch prediction multi-pulse. A second pulse decoder 725 decodes the amplitude and position of the second multi-pulse. The spectral and pitch parameter decoder 750 operates in the same manner as the inverse quantizer 530 on the transmitting side, and decodes and outputs the spectral parameter, pitch period M', and coefficient b'.

第1のパルス発生器720は、前記第1のマルチパルス
(ピッチ予測マルチパルス)による音源信号をフレーム
長だけ発生させ出力する。第2のパルス発生器725は
前記第2のマルチパルスによる音源信号をフレーム長だ
け発生させる。
The first pulse generator 720 generates and outputs a sound source signal based on the first multi-pulse (pitch prediction multi-pulse) for a frame length. The second pulse generator 725 generates a sound source signal based on the second multi-pulse for a frame length.

ピッチ再生フィルタ735は、送信側のピッチ再生フィ
ルタ605と同一の動作を行ない、パルス発生器730
の出力、復号されたピッチ周期M′及び係数b′を入力
し、フレームでピッチを再生した音源信号を求め加算器
740へ出力する。
The pitch recovery filter 735 performs the same operation as the pitch recovery filter 605 on the transmission side, and the pulse generator 730
, the decoded pitch period M' and the coefficient b' are input, and a sound source signal in which the pitch is reproduced in a frame is obtained and output to an adder 740.

加算器740は前記音源信号と第2のパルス発生器72
7の出力信号を加算してフレームの駆動音源信号を求め
、合成フィルタ回路760を駆動する。
The adder 740 combines the sound source signal and the second pulse generator 72.
7 is added to obtain a frame drive sound source signal, and the synthesis filter circuit 760 is driven.

合成フィルタ回路760は、前記駆動音源信号及び前記
復号されたスペクトルパラメータを用いて、フレーム毎
に合成音声波形を求めて出力する。
The synthesis filter circuit 760 uses the driving sound source signal and the decoded spectral parameters to obtain and output a synthesized speech waveform for each frame.

以上述べた構成は本発明の一実施例に過ぎず、種々の変
形も可能である。
The configuration described above is only one embodiment of the present invention, and various modifications are possible.

マルチパルスの計算方法としては、前記文献1に示した
方法の他に、種々の衆知な方法を用いることができる。
As a method for calculating multi-pulses, in addition to the method shown in Document 1, various well-known methods can be used.

これには、例えば、Ozawa氏らによる“A 5tu
dy on Pu1se 5earch Algori
thms for Multi−pulse 5pee
ch Coder Realization”(IEE
E JSAC,pp。
For example, “A 5tu” by Ozawa et al.
dy on Pulse 5earch Algori
thms for Multi-pulse 5pee
ch Coder Realization” (IEE
E JSAC, pp.

133−141.1986X文献6)を参照することが
できる。
133-141.1986X document 6).

また、ピッチ周期の計算法としては、前述の実施例で示
した方法の他に、例えば、下記(3)式のように、過去
の音源信号v(n)とピッチ再生フィルタ、スペクトル
包絡合成フィルタで再生した信号と、現サブフレームの
入力音声信号x(n)との誤差電力Eを最小化するよう
な位置Mを探索し、そのときの係数すを求めることもで
きる。
Furthermore, as a method for calculating the pitch period, in addition to the method shown in the above-mentioned embodiment, for example, as shown in the following equation (3), the past sound source signal v(n), a pitch reproduction filter, a spectral envelope synthesis filter, etc. It is also possible to search for a position M that minimizes the error power E between the reproduced signal and the input audio signal x(n) of the current subframe, and find the coefficient S at that time.

E=Σ[(x(n)−b−v(n−M)−h、(n))
−w(n、)]2(5)ここで、hs(n)はスペクト
ル合成フィルタのインパルス応答、w(n)は聴感重み
すけ回路のインパルス応答を示す。
E=Σ[(x(n)-b-v(n-M)-h,(n))
−w(n, )]2(5) Here, hs(n) represents the impulse response of the spectrum synthesis filter, and w(n) represents the impulse response of the perceptual weighting circuit.

また、サブフレームのピッチ周期Mに線形のずれIを許
容するようにしてもよい。具体的な方法については、前
記文献3などを参照できる。ただし、このときはピッチ
情報として、周期M以外に前記Iも伝送する必要がある
Furthermore, a linear deviation I may be allowed in the pitch period M of the subframe. For a specific method, reference can be made to the above-mentioned document 3 and the like. However, in this case, in addition to the period M, it is also necessary to transmit the above-mentioned I as pitch information.

また、送信側の合成フィルタ610では重みずけ信号を
再生するようにして、重みずけ回路540からこれを減
算するような構成とすると、重みずけ回路600を省略
することができる。
Further, if the transmitting side synthesis filter 610 is configured to reproduce the weighted signal and subtract it from the weighting circuit 540, the weighting circuit 600 can be omitted.

また、送信側での影響信号の減算を省略することもでき
る。このような構成とすると、合成フィルタ625、加
算器627が不要となる。
Furthermore, it is also possible to omit the subtraction of the influence signal on the transmitting side. With such a configuration, the synthesis filter 625 and the adder 627 become unnecessary.

(発明の効果) 本発明によれば、ピッチ毎の周期性の強いパルスについ
ては、ピッチ予測により1つのサブフレーム区間のパル
スを求めることにより非常に効率的に表し、ピッチ毎の
相関のそれほど強くないパルスについてはピッチ予測を
用いずにマルチパルスをもとめているので、全てのパル
スをピッチ予測を用いて求める従来法と比較して母音遷
移部や過渡部など周期性が弱くなる部分で音質を大きく
改善することができるという効果がある。さらに、一部
のマルチパルスのみピッチ予測により求めているので、
ピッチ予測マルチパルスの探索に必要な演算量を大幅に
低減することが可能で、従来方式と比較して大幅に演算
量を低減できるという大きな効果がある。
(Effects of the Invention) According to the present invention, pulses with strong periodicity for each pitch can be expressed very efficiently by determining pulses in one subframe section by pitch prediction, and pulses with strong periodicity for each pitch can be expressed very efficiently. For pulses that do not exist, multi-pulses are obtained without using pitch prediction, so compared to the conventional method of calculating all pulses using pitch prediction, the sound quality is improved in areas where periodicity is weak, such as vowel transition parts and transient parts. The effect is that it can be greatly improved. Furthermore, since only some multipulses are determined by pitch prediction,
It is possible to significantly reduce the amount of calculation required to search for pitch prediction multi-pulses, and has the great effect of significantly reducing the amount of calculation compared to conventional methods.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明による音声符号化復号化方法とその装置
の一実施例の構成を示すブロック図、第2図は本発明の
作用を示すブロック図である。第3図はパルス列探索の
例を表すブロック図である。第4図は従来の方式の例を
示すブロック図である。 図において150・・・LPG分析部、200・・・ピ
ッチ計算部、250・・・ピッチ予測マルチパルス計算
部、27〇−1・・マルチパルス計算部、520・・・
スペクトル・ピチパラメータ計算回路、525・・・パ
ラメータ量子化器、530・・・逆量子化器、535.
260.615.840・・・減算器、540.600
.850・・・重みずけ回路、550・・・インパルス
応答計算回路、560・・・自己相関関数計算回路、5
70.603・・・相互相関関数計算回路、585.6
20・・・量子化器、627.740・・・加算器、5
86・・・パルス計算回路、605.735・・・ピッ
チ再生フィルタ、610.625.760.820・・
・合成フィルタ、635・・・マルチプレクサ、710
・・・デマルチプレクサ、720・・・第1のパルス復
号器、725・・・第2のパルス復号器、750・・・
スペクトル・ピッチパラメータ復号器、730・・・第
1のパルス発生器、727・・・第2のパルス発生器。
FIG. 1 is a block diagram showing the configuration of an embodiment of a speech encoding/decoding method and apparatus according to the present invention, and FIG. 2 is a block diagram showing the operation of the present invention. FIG. 3 is a block diagram showing an example of pulse train search. FIG. 4 is a block diagram showing an example of a conventional system. In the figure, 150...LPG analysis unit, 200...Pitch calculation unit, 250...Pitch prediction multipulse calculation unit, 270-1...Multipulse calculation unit, 520...
Spectral/Pichi parameter calculation circuit, 525... Parameter quantizer, 530... Inverse quantizer, 535.
260.615.840...Subtractor, 540.600
.. 850... Weighting circuit, 550... Impulse response calculation circuit, 560... Autocorrelation function calculation circuit, 5
70.603... Cross-correlation function calculation circuit, 585.6
20...Quantizer, 627.740...Adder, 5
86...Pulse calculation circuit, 605.735...Pitch reproduction filter, 610.625.760.820...
-Synthesis filter, 635...Multiplexer, 710
... Demultiplexer, 720... First pulse decoder, 725... Second pulse decoder, 750...
Spectral pitch parameter decoder, 730...first pulse generator, 727...second pulse generator.

Claims (3)

【特許請求の範囲】[Claims] (1)送信側では離散的な音声信号を入力し前記音声信
号からフレーム毎にスペクトル包絡を表すスペクトルパ
ラメータとピッチを表すピッチパラメータとを抽出し、
前記フレームの音声信号を前記ピッチパラメータに応じ
た小区間に分割し、前記フレームの音声信号の音源を前
記スペクトルパラメータと前記ピッチパラメータとを用
い前記小区間のうち1つの区間について求めた第1のマ
ルチパルスと前記マルチパルスによる影響の除去後に前
記スペクトルパラメータを用いて前記フレームにおいて
求めた第2のマルチパルスとで表し、受信側では前記第
1のマルチパルスと前記ピッチパラメータ及び前記第2
のマルチパルスを用いて音源信号を復元しさらに前記ス
ペクトルパラメータを用いて合成音声信号を求めること
を特徴とする音声符号化復号化方式。
(1) On the transmitting side, a discrete audio signal is input, and a spectral parameter representing a spectral envelope and a pitch parameter representing a pitch are extracted from the audio signal for each frame,
The audio signal of the frame is divided into small sections according to the pitch parameter, and the sound source of the audio signal of the frame is determined for one of the small sections using the spectrum parameter and the pitch parameter. It is expressed as a multi-pulse and a second multi-pulse obtained in the frame using the spectral parameter after removing the influence of the multi-pulse, and on the receiving side, the first multi-pulse, the pitch parameter and the second multi-pulse are expressed.
A speech encoding/decoding method characterized in that a sound source signal is restored using the multipulses of the above, and a synthesized speech signal is obtained using the spectral parameters.
(2)入力した離散的な音声信号からフレーム毎にスペ
クトル包絡を表すスペクトルパラメータとピッチを表す
ピッチパラメータを抽出し符号化するパラメータ計算回
路と、前記フレームの音声信号を前記ピッチパラメータ
に応じた小区間に分割する分割回路と、前記スペクトル
パラメータと前記ピッチパラメータとを用いて前記小区
間のうちの1つの区間について第1のマルチパルスを求
めて符号化し前記符号化した第1のマルチパルスによる
影響を除去した後に前記フレームにおいて前記スペクト
ルパラメータを用いて第2のマルチパルスを求めて符号
化する音源計算回路と、前記パラメータ計算回路の出力
符号と前記音源計算回路の出力符号とを組み合せて出力
することを特徴とする音声符号化装置。
(2) A parameter calculation circuit that extracts and encodes a spectral parameter representing a spectral envelope and a pitch parameter representing a pitch from an input discrete audio signal for each frame; a dividing circuit that divides into sections, a first multipulse for one section of the small sections using the spectral parameter and the pitch parameter, and an effect due to the encoded first multipulse; an excitation calculation circuit that calculates and encodes a second multipulse using the spectral parameters in the frame after removing the spectral parameters; and outputs a combination of the output code of the parameter calculation circuit and the output code of the excitation calculation circuit. A speech encoding device characterized by:
(3)スペクトルパラメータを表す符号とピッチパラメ
ータを表す符号と第1のマルチパルスを表す符号と第2
のマルチパルスを表す符号とを分離して復号化するデマ
ルチプレクサ回路と、フレーム区間を前記復号化したピ
ッチパラメータに応じた小区間に分割し前記小区間の1
つについて前記復号化した第1のマルチパルスを発生し
前記ピッチパラメータを用いてピッチを再生し、前記ピ
ッチを再生した信号に前記復号化した第2のマルチパル
スを発生させて加算し音源信号を復元する音源復元回路
と、前記復元した音源信号と前記復号化したスペクトル
パラメータを用いて合成音声信号を求め出力する合成フ
ィルタ回路とを有することを特徴とする音声復号化装置
(3) A code representing the spectral parameter, a code representing the pitch parameter, a code representing the first multipulse, and a code representing the second multipulse.
a demultiplexer circuit that separates and decodes the code representing the multi-pulse of
The decoded first multi-pulse is generated for each signal, the pitch is reproduced using the pitch parameter, and the decoded second multi-pulse is generated and added to the pitch-reproduced signal to generate the sound source signal. A speech decoding device comprising: a sound source restoration circuit for restoring; and a synthesis filter circuit for obtaining and outputting a synthetic speech signal using the restored sound source signal and the decoded spectrum parameter.
JP63147253A 1988-06-14 1988-06-14 Voice encoding / decoding method and apparatus Expired - Lifetime JP2615862B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63147253A JP2615862B2 (en) 1988-06-14 1988-06-14 Voice encoding / decoding method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63147253A JP2615862B2 (en) 1988-06-14 1988-06-14 Voice encoding / decoding method and apparatus

Publications (2)

Publication Number Publication Date
JPH01314300A true JPH01314300A (en) 1989-12-19
JP2615862B2 JP2615862B2 (en) 1997-06-04

Family

ID=15426049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63147253A Expired - Lifetime JP2615862B2 (en) 1988-06-14 1988-06-14 Voice encoding / decoding method and apparatus

Country Status (1)

Country Link
JP (1) JP2615862B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112820304A (en) * 2014-05-01 2021-05-18 日本电信电话株式会社 Decoding device, decoding method, decoding program, and recording medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61148500A (en) * 1984-12-21 1986-07-07 日本電気株式会社 Method and apparatus for encoding voice signal
JPS61262800A (en) * 1985-05-17 1986-11-20 富士通株式会社 Voice coding system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61148500A (en) * 1984-12-21 1986-07-07 日本電気株式会社 Method and apparatus for encoding voice signal
JPS61262800A (en) * 1985-05-17 1986-11-20 富士通株式会社 Voice coding system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112820304A (en) * 2014-05-01 2021-05-18 日本电信电话株式会社 Decoding device, decoding method, decoding program, and recording medium

Also Published As

Publication number Publication date
JP2615862B2 (en) 1997-06-04

Similar Documents

Publication Publication Date Title
JP2940005B2 (en) Audio coding device
JP3180762B2 (en) Audio encoding device and audio decoding device
JP2903533B2 (en) Audio coding method
JPH09152896A (en) Sound path prediction coefficient encoding/decoding circuit, sound path prediction coefficient encoding circuit, sound path prediction coefficient decoding circuit, sound encoding device and sound decoding device
JP3266178B2 (en) Audio coding device
JP2002268686A (en) Voice coder and voice decoder
JP3303580B2 (en) Audio coding device
JPH028900A (en) Voice encoding and decoding method, voice encoding device, and voice decoding device
JPS6238500A (en) Highly efficient voice coding system and apparatus
JP2853170B2 (en) Audio encoding / decoding system
JP3481027B2 (en) Audio coding device
JP2615862B2 (en) Voice encoding / decoding method and apparatus
JP2736157B2 (en) Encoding device
JP2900431B2 (en) Audio signal coding device
JP3063087B2 (en) Audio encoding / decoding device, audio encoding device, and audio decoding device
JP3006790B2 (en) Voice encoding / decoding method and apparatus
JP2946528B2 (en) Voice encoding / decoding method and apparatus
JP3166697B2 (en) Audio encoding / decoding device and system
JP3071800B2 (en) Adaptive post filter
JP3035960B2 (en) Voice encoding / decoding method and apparatus
JP3274451B2 (en) Adaptive postfilter and adaptive postfiltering method
JPH0291697A (en) System and device for encoding and decoding sound
JP3144244B2 (en) Audio coding device
JPH0291699A (en) Sound encoding and decoding system
JPH02170199A (en) Speech encoding and decoding system

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080311

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 12

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 12