JP2615862B2 - Voice encoding / decoding method and apparatus - Google Patents
Voice encoding / decoding method and apparatusInfo
- Publication number
- JP2615862B2 JP2615862B2 JP63147253A JP14725388A JP2615862B2 JP 2615862 B2 JP2615862 B2 JP 2615862B2 JP 63147253 A JP63147253 A JP 63147253A JP 14725388 A JP14725388 A JP 14725388A JP 2615862 B2 JP2615862 B2 JP 2615862B2
- Authority
- JP
- Japan
- Prior art keywords
- pitch
- parameter
- pulse
- signal
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Abstract
Description
【発明の詳細な説明】 (産業上の利用分野) 本発明は音声信号を低いビットレートで効率的に符号
化、復号化するための音声符号化復号化方法及び装置に
関する。Description: TECHNICAL FIELD The present invention relates to an audio encoding / decoding method and apparatus for encoding and decoding an audio signal efficiently at a low bit rate.
(従来の技術) 音声信号を低いビットレート、例えば16Kb/s程度以下
で伝送する方式としては、マルチパルス符号化法などが
知られている。これらは音源信号を複数個のパルスの組
合せ(マルチパルス)で表し、声道の特徴をデジタルフ
ィルタで表し、音源パルスの情報とフィルタの係数を、
一定時間区間(フレーム)毎に求めて伝送している。こ
の方法の詳細については、例えばAraseki,Ozawa,Ono,Oc
hiai氏による“Multi−pulse Excited Speech Coder Ba
sed on Maximum Cross−correlation Search Algorith
m",(GLOBECOM83,IEEE Global Tele−communication,講
演番号23.3,1983)(文献1)に記載されている。この
方法では、声道情報と音源信号を分離してそれぞれ表現
すること、および音源信号を表現する手段として複数の
パルス列の組合せ(マルチパルス)を用いることによ
り、復号後に良好な音声信号を出力できる。音源信号を
表すパルス列を求める基本的な考え方については第4図
を用いて説明する。図中の入力端子800からはフレーム
毎に分割された音声信号が入力される。合成フィルタ82
0には現フレームの音声信号から求められたスペクトル
パラメータが入力されている。音源計算回路810におい
て初期マルチパルスを発生し、これを前記合成フィルタ
820に入力することによって出力として合成音声波形が
得られる。減算器840では前記入力信号から合成音声波
形を減ずる。この結果を重み付け回路850へ入力し、現
フレームでの重み付け誤差電力を得る。そしてこの重み
付け誤差電力を最小とするように、音源発生回路810に
おいて規定個数のマルチパルスの振幅と位置を求める。(Prior Art) As a method of transmitting an audio signal at a low bit rate, for example, about 16 Kb / s or less, a multi-pulse encoding method and the like are known. In these, the sound source signal is represented by a combination of a plurality of pulses (multi-pulse), the characteristics of the vocal tract are represented by a digital filter, and the information of the sound source pulse and the coefficient of the filter are represented by:
It is obtained and transmitted for each fixed time section (frame). For details of this method, for example, Araseki, Ozawa, Ono, Oc
Hiai “Multi-pulse Excited Speech Coder Ba
sed on Maximum Cross-correlation Search Algorith
m ", (GLOBECOM83, IEEE Global Tele-communication, Lecture No. 23.3, 1983) (Reference 1). In this method, vocal tract information and a sound source signal are separated and expressed, respectively. By using a combination of a plurality of pulse trains (multi-pulse) as a means for expressing a sound signal, a good speech signal can be output after decoding. The basic concept of obtaining a pulse train representing a sound source signal will be described with reference to FIG. An audio signal divided for each frame is input from an input terminal 800 in the figure.
In 0, a spectrum parameter obtained from the audio signal of the current frame is input. An initial multi-pulse is generated in a sound source calculation circuit 810, and this is
By inputting to 820, a synthesized speech waveform is obtained as an output. The subtractor 840 subtracts the synthesized speech waveform from the input signal. The result is input to the weighting circuit 850 to obtain the weighted error power in the current frame. Then, the amplitude and position of a specified number of multi-pulses are obtained in the sound source generation circuit 810 so as to minimize the weighted error power.
(発明が解決しようとする問題点) しかしながら、この従来法ではビットレートが充分に
高く音源パルスの数が充分なときは音質が良好であった
が、ビットレートを下げて行くと音質が低下するという
問題点があった。(Problems to be Solved by the Invention) However, in this conventional method, the sound quality is good when the bit rate is sufficiently high and the number of sound source pulses is sufficient, but the sound quality deteriorates as the bit rate is reduced. There was a problem.
この問題点を改善するために、マルチパルス音源のピ
ッチ毎の準周期性(ピッチ相関)を利用したピッチ予測
マルチパルス法が提案されている。この方法の詳細は、
例えば、特願昭58−139022(文献2)に詳しいのでここ
では説明を省略する。しかしながら、マルチパルス音源
のピッチ毎の準周期性は大振幅のパルスでは大きいと考
えられるが、全てのパルスについてこのような周期性が
存在するわけではなく、振幅の小さなパルスはピッチ毎
の周期性は少ないと考えられる。前記文献2のピッチ予
測マルチパルス法では、フレーム内で予め定められたす
べての個数のパルスについてピッチ毎の周期性を仮定し
て全てのパルスをピッチ予測により求めているので、特
に周期性の少ないパルスではピッチ予測によりかえって
特性が悪化するという問題点があった。特にこのこと
は、母音同志の遷移区間や過渡部において顕著であり、
このような部分で音質が劣化するという問題点があっ
た。In order to improve this problem, a pitch prediction multipulse method using quasi-periodicity (pitch correlation) for each pitch of a multipulse sound source has been proposed. For more information on this method,
For example, since it is detailed in Japanese Patent Application No. 58-139022 (Reference 2), the description is omitted here. However, the quasi-periodicity of each pitch of a multi-pulse sound source is considered to be large for large-amplitude pulses, but not all pulses have such periodicity. Is considered to be small. In the pitch prediction multi-pulse method described in Reference 2, all pulses are obtained by pitch prediction assuming periodicity for each pitch for all predetermined numbers of pulses in a frame. In the case of the pulse, there is a problem that the characteristics are deteriorated by the pitch prediction. In particular, this is remarkable in the transition section and transition part of vowels,
There is a problem that sound quality is deteriorated in such a portion.
さらに、前記文献2の方法では、ピッチ情報をインパ
ルス応答に含ませているため非常に時間長の長いインパ
ルス応答(例えば20−32ms)を必要とし、予め定められ
た個数の全てのパルスをピッチ予測により求めているの
で、パルスの探索に要する演算量は非常に多く、現在の
デバイス技術をもってしても装置をコンパクトに実現す
ることはかなり困難であった。Further, in the method of Reference 2, since pitch information is included in the impulse response, an extremely long impulse response (for example, 20 to 32 ms) is required, and a predetermined number of all the pulses are subjected to pitch prediction. Therefore, the amount of calculation required for searching for a pulse is very large, and it is quite difficult to realize a compact apparatus using current device technology.
本発明の目的は、ビットレートが高いところでも、下
げていっても従来よりも良好な音声を再生することが可
能で、すくない演算量で実現可能な音声符号化復号化方
法とその装置を提供することにある。SUMMARY OF THE INVENTION An object of the present invention is to provide a speech encoding / decoding method and apparatus capable of reproducing sound better than before even if the bit rate is high or lowering the bit rate and realizing it with a small amount of computation. Is to do.
(問題点を解決するための手段) 本発明の音声符号化復号化方法は、送信側では離散的
な音声信号を入力し前記音声信号からフレーム毎にスペ
クトル包絡を表すスペクトルパラメータとピッチを表す
ピッチパラメータとを押出し、前記フレームの音声信号
を前記ピッチパラメータに応じた小区間に分割し、音源
信号として前記小区間のうちの1つの区間について、前
記スペクトルパラメータと前記ピッチパラメータとを用
いてピッチ予測を行いながら第1のマルチパルスを求
め、前記第1のマルチパルスによる影響を前記音声信号
から除去した後に前記フレームにおいて前記スパクトル
パラメータを用いてピッチ予測なしで第2のマルチパル
スを求め、前記スペクトルパラメータと前記ピッチパラ
メータと前記第1のマルチパルスと前記第2のマルチパ
ルスを伝送し、受信側では前記第1のマルチパルスと前
記ピッチパラメータと前記第2のマルチパルスを用いて
音源信号を復元しさらに前記スペクトルパラメータを用
いて合成音声信号を求めることを特徴とする。(Means for Solving the Problems) According to a speech encoding / decoding method of the present invention, a discrete speech signal is input on the transmission side, and a spectrum parameter representing a spectrum envelope and a pitch representing a pitch are provided for each frame from the speech signal. Parameters, and divides the audio signal of the frame into small sections corresponding to the pitch parameter. For one of the small sections as a sound source signal, predicts the pitch using the spectrum parameter and the pitch parameter. Calculating the first multi-pulse while removing the influence of the first multi-pulse from the audio signal while performing the second multi-pulse without pitch prediction using the spectrum parameter in the frame, The spectral parameter, the pitch parameter, the first multipulse, and the second Transmitting a multi-pulse, reconstructing a sound source signal using the first multi-pulse, the pitch parameter, and the second multi-pulse on the receiving side, and obtaining a synthesized speech signal using the spectrum parameter. And
本発明の音声符号化装置は、入力した離散的な音声信
号からフレーム毎にスペクトル包絡を表すスペクトルパ
ラメータとピッチを表すピッチパラメータとを抽出し符
号化するパラメータ計算回路と、前記フレームの音声信
号を前記ピッチパラメータに応じた小区間に分割する分
割回路と、音源信号として前記小区間のうちの1つの区
間について、前記スペクトルパラメータと前記ピッチパ
ラメータとを用いてピッチ予測を行いながら第1のマル
チパルスを求めて符号化し、前記第1のマルチパルスに
よる影響を前記音声信号から除去した後に前記フレーム
において前記スペクトルパラメータを用いてピッチ予測
なしで第2のマルチパルスを求めて符号化する音源計算
回路と、前記パラメータ計算回路の出力符号と前記音源
計算回路の出力符号を組み合わせて出力することを特徴
とする。A speech encoding apparatus according to the present invention includes a parameter calculation circuit that extracts and encodes a spectrum parameter representing a spectrum envelope and a pitch parameter representing a pitch for each frame from an input discrete speech signal, and a speech signal of the frame. A dividing circuit that divides the signal into small sections corresponding to the pitch parameter; and a first multi-pulse while performing pitch prediction using one of the small sections as a sound source signal using the spectrum parameter and the pitch parameter. A sound source calculation circuit for obtaining and encoding a second multi-pulse without pitch prediction using the spectral parameters in the frame after removing the influence of the first multi-pulse from the audio signal; , The output code of the parameter calculation circuit and the output code of the sound source calculation circuit Characterized by combination output.
本発明の音声復号化装置は、離散的な音声信号を入力
し前記音声信号からフレーム毎にスペクトル包絡を表す
スペクトルパラメータとピッチを表すピッチパラメータ
とを抽出し、前記フレームの音声信号を前記ピッチパラ
メータに応じた小区間に分割し、音源信号として前記小
区間のうちの1つの区間について、前記スペクトルパラ
メータと前記ピッチパラメータとを用いてピッチ予測を
行いながら第1のマルチパルスを求め、前記第1のマル
チパルスによる影響を前記音声信号から除去した後に前
記フレームにおいて前記スペクトルパラメータを用いて
ピッチ予測なしで第2のマルチパルスを求め、前記スペ
クトルパラメータと前記ピッチパラメータと前記第1の
マルチパルスと前記第2のマルチパルスを伝送する送信
側からの信号を復号化する音声復号化装置において、 前記スペクトルパラメータを表す符号と前記ピッチパ
ラメータを表す符号と前記第1のマルチパルスを表す符
号と前記第2のマルチパルスを表す符号とを分離して復
号化するデマルチプレクサ回路と、フレーム区間を前記
復号化したピッチパラメータに応じた小区間に分割し前
記小区間の1つについて前記復号化した第1のマルチパ
ルス発生し前記ピッチパラメータを用いてピッチを再生
し、前記ピッチを再生した信号に前記復号化した第2の
マルチパルスを発生させて加算し音源信号を復元する音
源復元回路と、前記復元した音源信号と前記複合化した
スペクトルパラメータを用いて合成音声信号を求め出力
する合成フィルタ回路とを有することを特徴とする。The speech decoding apparatus according to the present invention inputs a discrete speech signal, extracts a spectrum parameter representing a spectrum envelope and a pitch parameter representing a pitch for each frame from the speech signal, and converts the speech signal of the frame into the pitch parameter. , And a first multi-pulse is obtained for one of the small sections as a sound source signal while performing pitch prediction using the spectrum parameter and the pitch parameter. After removing the influence of the multi-pulse from the audio signal, a second multi-pulse is determined without pitch prediction using the spectrum parameter in the frame in the frame, and the spectrum parameter, the pitch parameter, the first multi-pulse, and the Decoding the signal from the transmitting side transmitting the second multi-pulse A demultiplexer that separates and decodes a code representing the spectrum parameter, a code representing the pitch parameter, a code representing the first multi-pulse, and a code representing the second multi-pulse. A circuit, and divides a frame section into small sections corresponding to the decoded pitch parameter, generates the decoded first multi-pulse for one of the small sections, and reproduces a pitch using the pitch parameter; A sound source restoring circuit for restoring a sound source signal by generating and adding the decoded second multi-pulse to the signal whose pitch has been reproduced, and a synthesized speech signal using the restored sound source signal and the composited spectrum parameter. And a synthesis filter circuit for obtaining and outputting.
(作用) 本発明による音声符号化復号化方法とその装置は、フ
レーム区間の音声信号の音源信号を、ピッチ予測して求
めたマルチパルス(第1のマルチパルス)と、ピッチ予
測無しで求めたマルチパルス(第2のマルチパルス)と
を用いて表すことを特徴としている。さらに、前記第1
のマルチパルスの計算には、マルチパルス音源のピッチ
毎の準周期性を非常に効率よく利用すると共に演算量を
大きく低減するために、フレームをあらかじめピッチ周
期に応じた小区間(サブフレーム)に分割し、前記サブ
フレームのうちの1つの区間についてのみピッチ予測に
よりマルチパルスを求める。そして前記マルチパルスに
より信号を再生してその影響を除去した後に、前記フレ
ームにおいて前記文献1と同様の方法によりピッチ予測
無しでマルチパルスを求めるわけである。(Operation) In the speech encoding / decoding method and apparatus according to the present invention, a multipulse (first multipulse) obtained by pitch prediction of a sound source signal of a speech signal in a frame section and a pitch obtained without pitch prediction are obtained. It is characterized by using multi-pulses (second multi-pulses). Further, the first
In the multipulse calculation, the frame is divided into small sections (subframes) corresponding to the pitch cycle in advance in order to use the quasi-periodicity of each pitch of the multipulse sound source very efficiently and to greatly reduce the amount of calculation. The multi-pulse is divided by pitch prediction for only one section of the subframe. Then, after the signal is reproduced by the multi-pulse and the influence is removed, the multi-pulse is obtained without pitch prediction in the frame by the same method as in the document 1.
以下で本方法の基本的な考え方を第2図を用いて説明
する。第2図は、本発明の作用を示すブロック図であ
る。入力端子100から音声信号を入力し、前記音声信号
を予め定められた時間長の(例えば20ms)フレームに分
割する。フレームの音声信号からLPC分析部150はスペク
トル包絡を表す予め定められた次数のLPC係数を衆知のL
PC分析によりもとめる。LPC係数としては、線形予測係
数の他にLSP、ホルマント、LPCケプストラムなど他の良
好なパラメータを用いることもできる。また、LPC以外
の分析法、例えばケプストラムやPSE、ARMA法などを用
いることもできる。以下では線形予測係数を用いるもの
てして説明を行なう。ピッチ計算回路200は、フレーム
の音声信号からピッチ周期M及びピッチ係数(ゲイン)
bを計算する。これには衆知の自己相関法をを用いるこ
とができる。また、ピッチ係数b(ゲイン)の計算には
前記自己相関で時間遅れMにおける自己相関係数の値を
用いる方法や、音声信号をピッチ周期M毎の小区間(サ
ブフレーム)に分割し、各サブフレームにおける音声信
号あるいは予測残差信号のrms値を1次回帰直線で近似
したときの傾きの値を用いることもできる。後者の方法
については、Ono氏らによる“2.4Kbps pitch predictio
n multi−pulse speech coding"(proc.IEEE ICASSP88,
S4.9,1988)と題した論文(文献3)などを参照でき
る。Hereinafter, the basic concept of the present method will be described with reference to FIG. FIG. 2 is a block diagram showing the operation of the present invention. An audio signal is input from the input terminal 100, and the audio signal is divided into frames of a predetermined time length (for example, 20 ms). From the audio signal of the frame, the LPC analysis unit 150 calculates a LPC coefficient of a predetermined order representing a spectral envelope to a known LPC coefficient.
Determined by PC analysis. As the LPC coefficient, other good parameters such as LSP, formant, and LPC cepstrum can be used in addition to the linear prediction coefficient. In addition, analysis methods other than LPC, for example, cepstrum, PSE, ARMA method and the like can also be used. In the following, description will be made on the assumption that a linear prediction coefficient is used. The pitch calculation circuit 200 calculates a pitch period M and a pitch coefficient (gain) from the audio signal of the frame.
Calculate b. A well-known autocorrelation method can be used for this. For calculating the pitch coefficient b (gain), a method using the value of the autocorrelation coefficient at the time delay M in the autocorrelation, or dividing the audio signal into small sections (subframes) for each pitch period M, A gradient value obtained when the rms value of the audio signal or the prediction residual signal in the subframe is approximated by a linear regression line can also be used. For the latter method, see Ono et al., “2.4Kbps pitch predictio
n multi-pulse speech coding "(proc.IEEE ICASSP88,
S4.9, 1988) can be referred to.
ピッチ予測マルチパルス計算部250及びマルチパルス
計算部270の動作を第3図を引用して説明する。第3図
(a)はフレームの音声信号を表す。ここでは一例とし
てフレーム長を20msとしている。ピッチ予測マルチパル
ス計算部250では、まず、(b)のように、フレームを
ピッチ周期Mを用いて小区間(サブフレーム)に分割す
る。ここではサブフレーム長はピッチ周期Mと同一して
いる。次に、前記文献2と同一の方法により、ピッチ再
生フィルタと聴感重みずけスペクトル包絡合成フィルタ
との縦続接続フィルタのインパルス応答hw(n)を求め
る。ここでスペクトル包絡合成フィルタ、ピッチ再生フ
ィルタの伝達特性は(1)、(2)式でそれぞれ表され
る。The operation of the pitch prediction multi-pulse calculation unit 250 and the multi-pulse calculation unit 270 will be described with reference to FIG. FIG. 3A shows an audio signal of a frame. Here, the frame length is set to 20 ms as an example. First, the pitch prediction multi-pulse calculation unit 250 divides a frame into small sections (subframes) using a pitch period M as shown in (b). Here, the subframe length is the same as the pitch period M. Next, the impulse response h w (n) of the cascade connection filter of the pitch reproduction filter and the perceptually weighted spectrum envelope synthesis filter is obtained by the same method as in the above-mentioned document 2. Here, the transfer characteristics of the spectrum envelope synthesis filter and the pitch reproduction filter are expressed by the equations (1) and (2), respectively.
Hp(z)=1/(1−bz−M) (2) ここではピッチ再生フィルタの次数は1としている。 H p (z) = 1 / (1-bz- M) (2) where the pitch reproduction filter order is set to 1.
(1)式、(2)式のインパルス応答をhs(n)、hp
(n)とし、聴感重みずけフィルタのインパルス応答を
w(n)とすると、前記インパルス応答hw(n)は次式
で表される。The impulse responses of the equations (1) and (2) are represented by h s (n) and h p
Assuming that (n) and the impulse response of the auditory weighting filter is w (n), the impulse response h w (n) is expressed by the following equation.
hw(n)=hs(n)*hp(n)*w(n) (3) また、聴感重みずけを行なったスペクトル包絡合成フ
ィルタのインパルス応答hws(n)は hws(n)=hs(n)*w(n) (4) ここで記号“*”は、畳み込みを表す。 h w (n) = h s (n) * h p (n) * w (n) (3) Further, the impulse response of the spectral envelope synthesis filter was subjected to perceptual weight moisture h ws (n) is h ws ( n) = h s (n) * w (n) (4) Here, the symbol “*” represents convolution.
次に、前記文献2と統一の方法により、インパルス応
答hw(n)の自己相関数Rhh(m)、聴感重みずけ音声
信号と前記インパルス応答hw(n)と相互相関関数Φhx
(m)を求める。次に、前記サブフレームのうちの予め
定められた1つの区間(例えば第3図(b)の区間に
ついてのみ、予め定められた個数L(ここでは4として
いる)のマルチパルスの振幅gi、位置miをピッチ予測に
より求める。第3図(c)は求めたマルチパルスを示
す。次に、求めたマルチパルスを(2)式で定義される
ピッチ再生フィルタに通して第3図(d)のように他の
サブフレームでパルスの再生する。次に、この再生パル
スを用いて(1)式で定義されるスペクトル包絡合成フ
ィルタを駆動して再生信号x′(n)を得る。Next, the autocorrelation number R hh (m) of the impulse response h w (n), the perceptually weighted audio signal, the impulse response h w (n), and the cross-correlation function Φ hx
(M) is obtained. Next, the amplitude g i of the predetermined number L (here, 4) of the multi-pulses is determined for only one predetermined section (for example, the section of FIG. 3B) of the sub-frame. determining a position m i by the pitch prediction. FIG. 3 (c) shows a multi-pulse obtained. Next, through the pitch reproduction filter defined by the multi-pulse (2) obtained FIG. 3 (d Then, a pulse is reproduced in another sub-frame as shown in Fig. 7. Next, a reproduced signal x '(n) is obtained by driving the spectral envelope synthesis filter defined by the equation (1) using the reproduced pulse.
減算器260は音声信号x(n)からx′(n)を減算
してe(n)を得る。次に、マルチパルス計算部270
は、e(n)にたいして、前記文献1と同一の方法を用
いて、e(n)に聴感重みずけをした信号とスペクトル
包絡合成フィルタの重みずけインパルス応答との相互相
関関数と、前記重みずけインパルス応答の自己相関関数
を用いて、フレーム内で予め定められた個数Qのマルチ
パルスを求める。これを第3図(e)に示す。図ではQ
を7としている。The subtractor 260 subtracts x '(n) from the audio signal x (n) to obtain e (n). Next, the multi-pulse calculator 270
Is the cross-correlation function between e (n) and the weighted impulse response of the spectral envelope synthesis filter for e (n), using the same method as in Reference 1, Using the autocorrelation function of the weighted impulse response, a predetermined number Q of multipulses in the frame is obtained. This is shown in FIG. In the figure, Q
Is set to 7.
送信側の伝送情報は、スペクトル包絡を表すスペクト
ルパラメータ、ピッチ再生フィルタのピッチ周期M、ゲ
インb、L個のピッチ予測マルチパルスの振幅と位置、
Q個のマルチパルスの振幅と位置である。Transmission information on the transmission side includes a spectrum parameter representing a spectrum envelope, a pitch period M of a pitch reproduction filter, a gain b, an amplitude and a position of L pitch prediction multi-pulses,
The amplitudes and positions of Q multipulses.
(実施例) 本発明の一実施例を示す第1図において、入力端子50
0から離散的な音声信号x(n)を入力する。スペクト
ル、ピッチパラメータ計算回路520では分割したフレー
ム区間(例えば20ms)の音声信号のスペクトル包絡を表
すスペクトル包絡合成フィルタのスペクトルパラメータ
aiを、衆知のLPC分析法によって求める。また、ピッチ
再生フィルタの係数bとピッチ周期Mを周知の自己相関
法あるいは前述の文献3に示した方法により求める。FIG. 1 shows an embodiment of the present invention.
A discrete audio signal x (n) is input from 0. In the spectrum / pitch parameter calculation circuit 520, the spectrum parameter of the spectrum envelope synthesis filter representing the spectrum envelope of the audio signal in the divided frame section (for example, 20 ms)
a i is determined by a well-known LPC analysis method. Further, the coefficient b and the pitch period M of the pitch reproduction filter are obtained by a well-known autocorrelation method or the method described in the aforementioned reference 3.
求められたスペクトルパラメータ及び係数、ピッチ周
期に対しては、量子化器525において量子化を行なう。
量子化の方法は、特願昭59−272435号明細書(文献4)
に示されているようなスカラー量子化や、あるいはベク
トル量子化を行なってもよい。ベクトル量子化の具体的
な方法については、例えば、Makhoul氏らによる“Vecto
r quantization in speech coding"(Proc.IEEE,pp.155
1−1588,1985)(文献5)などの論文を参照できる。逆
量子化器530は、量子化した結果を用いて逆量子化して
出力する。The quantizer 525 performs quantization on the obtained spectral parameters, coefficients, and pitch period.
The method of quantization is described in Japanese Patent Application No. 59-272435 (Reference 4).
Scalar quantization or vector quantization as shown in FIG. For a specific method of vector quantization, see, for example, “Vecto
r quantization in speech coding "(Proc.IEEE, pp.155
1-1588, 1985) (Reference 5). The inverse quantizer 530 inversely quantizes using the result of the quantization and outputs the result.
減算器535はフレームの音声信号から影響信号を減算
して出力する。重み付け回路540は、音声信号と逆量子
化されたスペクトルパラメータを用いて前記信号に聴感
重み付けを行なう。重み付けの方法は、前記文献2の重
み付け回路200を参照することができる。The subtractor 535 subtracts the influence signal from the audio signal of the frame and outputs the result. The weighting circuit 540 performs perceptual weighting on the signal using the audio signal and the inversely quantized spectral parameter. The weighting method can be referred to the weighting circuit 200 of Reference 2.
インパルス応答計算回路550は、逆量子化されたスペ
クトルパラメータa▲′ i▼を用いて聴感重みずけをし
たスペクトル包絡合成フィルタのインパルス応答h
ws(n)と、前記(1)、(2)式の縦続接続からなる
フィルタの重みずけインパルス応答hw(n)とをa▲′
i▼とピッチ周期M′、係数b′を用いて計算する。具
体的な方法は前記文献2のインパルス応答計算回路を参
照できる。The impulse response calculation circuit 550 calculates the impulse response h of the spectral envelope synthesis filter that has been subjected to the perceptual weighting using the inversely quantized spectral parameter a ′ ′ i ▼.
ws (n), and wherein (1), (2) cascaded consisting weights not a only the impulse response hw filters (n) and the a ▲ '
Calculation is performed using i ▼, pitch period M ′, and coefficient b ′. The specific method can be referred to the impulse response calculation circuit of the above reference 2.
自己相関関数計算回路560は前記2種類のインパルス
応答に対して2種類の自己相関関数を計算し、それぞれ
音源パルス計算回路580とパルス計算回路586へ出力す
る。自己相関関数の計算法は前記文献2や前記文献4の
自己相関関数計算回路180を参照することができる。The autocorrelation function calculation circuit 560 calculates two types of autocorrelation functions for the two types of impulse responses, and outputs them to the sound source pulse calculation circuit 580 and the pulse calculation circuit 586, respectively. The calculation method of the autocorrelation function can be referred to the autocorrelation function calculation circuit 180 of the above-mentioned reference 2 or 4.
相互相関関数計算回路570は前記聴感重み付けられた
信号と、前記インパルス応答hw(n)との相互相関関数
Φxh(m)を計算する。The cross-correlation function calculation circuit 570 calculates a cross-correlation function Φ xh (m) between the perceptually weighted signal and the impulse response h w (n).
音源パルス計算回路580では、まず、フレームを逆量
子化したピッチ周期M′を用いて前記第3図(b)のよ
うにサブフレーム区間に分割する。そして予め定められ
た1つのサブフレーム区間(例えば第3図(b)のサブ
フレーム)について、Φxh(m)とRhh(m)とを用
いて、L個のマルチパルス列の振幅giと位置miを求め
る。パルス列の計算方法については、前記文献2の音源
パルス計算回路を参照することができる。The sound source pulse calculation circuit 580 first divides the frame into subframe sections as shown in FIG. 3B using the pitch period M 'obtained by dequantizing the frame. Then, for one predetermined subframe section (for example, the subframe in FIG. 3B), the amplitude g i of the L multipulse trains is calculated using Φ xh (m) and R hh (m). determine the position m i. For the method of calculating the pulse train, reference can be made to the sound source pulse calculation circuit of Reference 2.
量子化器585は、前記マルチパルス列の振幅と位置を
量子化して符号を出力する。具体的な方法は前記文献4
などを参照できる。この出力はさらに逆量子化され、ピ
ッチ再生フィルタ605、スペクトル包絡合成フィルタ610
に通すことによって、前記ピッチ予測マルチパルスによ
る合成音声信号x′(n)が求まる。The quantizer 585 quantizes the amplitude and position of the multi-pulse train and outputs a code. The specific method is described in the aforementioned reference 4.
And so on. This output is further dequantized, and the pitch reproduction filter 605 and the spectrum envelope synthesis filter 610
To obtain a synthesized speech signal x '(n) by the pitch prediction multi-pulse.
減算器615は、前記音声信号x(n)から合成音声信
号x′(n)を減ずることによって、残差信号e(n)
を得る。The subtracter 615 subtracts the synthesized voice signal x '(n) from the voice signal x (n) to generate a residual signal e (n).
Get.
重みずけ回路600は前記残差信号に対して聴感重みず
けを行なう。The weighting circuit 600 performs perceptual weighting on the residual signal.
相互相関関数計算回路603は重みずけ回路600の出力と
前記インパルス応答hws(n)との相互相関関数を計算
する。The cross-correlation function calculation circuit 603 calculates a cross-correlation function between the output of the weighting circuit 600 and the impulse response h ws (n).
パルス計算回路586では、前記相互相関関数とインパ
ルス応答hws(n)の自己相関関数を用いて予め定めら
れた個数のマルチパルスの振幅と位置を求める。In the pulse calculation circuit 586, the amplitude and the position of a predetermined number of multi-pulses are obtained using the cross-correlation function and the auto-correlation function of the impulse response h ws (n).
電子化器620は前記マルチパルスの振幅、位置を量子
化して出力するとともに、これらを逆量子化して合成フ
ィルタ625へ出力する。The digitizer 620 quantizes and outputs the amplitude and position of the multi-pulse, and inversely quantizes these and outputs the result to the synthesis filter 625.
合成フィルタ625は残差信号を合成して出力する。 The combining filter 625 combines and outputs the residual signal.
加算器627は合成フィルタ625と合成フィルタ610の出
力を加算してフレームの再生信号を求めさらに次フレー
ムに対する影響信号をもとめて出力する。この具体的な
方法は前記文献4を参照できる。An adder 627 adds the outputs of the synthesis filter 625 and the synthesis filter 610 to obtain a frame reproduction signal, and further obtains and outputs an influence signal for the next frame. The specific method can be referred to the above-mentioned reference 4.
マルチプレクサ635は、量子化器585、620の出力であ
るマルチパルス列の振幅、位置を表す符号、パラメータ
量子化器525の出力であるスペクトルパラメータ、ピッ
チ周期、係数を表す符号を組み合せて出力する。The multiplexer 635 combines and outputs a code representing the amplitude and position of the multi-pulse train output from the quantizers 585 and 620, a spectrum parameter outputted from the parameter quantizer 525, a pitch period, and a code representing a coefficient.
一方、受信側では、デマルチプレクサ710は、ピッチ
予測マルチパルス(第1のマルチパルス)の振幅、位置
を表す符号、マルチパルス(第2のマルチパルス)の振
幅、位置を表す符号、スペクトルパラメータ、ピッチ周
期、係数を表す符号を分離して出力する。On the other hand, on the receiving side, the demultiplexer 710 includes a code representing the amplitude and position of the pitch prediction multipulse (first multipulse), a code representing the amplitude and position of the multipulse (second multipulse), a spectrum parameter, The codes representing the pitch period and the coefficient are separated and output.
第1のパルス復号器720はピッチ予測マルチパルスの
振幅、位置を復号する。第2のパルス復号器725は第2
のマルチパルスの振幅、位置を復号する。スペクトル、
ピッチパラメータ復号器750は、送信側の逆量子化器530
と同じ動きをして、スペクトルパラメータ、ピッチ周期
M′、係数b′を復号して出力する。The first pulse decoder 720 decodes the amplitude and position of the pitch prediction multi-pulse. The second pulse decoder 725 is
The multi-pulse amplitude and position are decoded. Spectrum,
The pitch parameter decoder 750 includes an inverse quantizer 530 on the transmission side.
In the same manner as described above, the spectrum parameter, pitch period M 'and coefficient b' are decoded and output.
第1のパルス発生器720は、前記第1のマルチパルス
(ピッチ予測マルチパルス)による音源信号をフレーム
長だけ発生させ出力する。第2のパルス発生器725は前
記第2のマルチパルスによる音源信号をフレーム長だけ
発生させる。The first pulse generator 720 generates and outputs a sound source signal based on the first multi-pulse (pitch prediction multi-pulse) for a frame length. The second pulse generator 725 generates a sound source signal based on the second multi-pulse by a frame length.
ピッチ再生フィルタ735は、送信側のピッチ再生フィ
ルタ605と同一の動作を行ない、パルス発生器730の出
力、復号されたピッチ周期M′及び係数b′を入力し、
フレームでピッチを再生した音源信号を求め加算器740
へ出力する。The pitch reproduction filter 735 performs the same operation as the transmission-side pitch reproduction filter 605, and receives the output of the pulse generator 730, the decoded pitch period M 'and the coefficient b', and
The sound source signal whose pitch is reproduced by the frame is obtained and the adder 740
Output to
加算器740は前記音源信号と第2のパルス発生器727の
出力信号を加算してフレームの駆動音源信号を求め、合
成フィルタ回路760を駆動する。An adder 740 adds the sound source signal and the output signal of the second pulse generator 727 to obtain a frame drive sound source signal, and drives the synthesis filter circuit 760.
合成フィルタ回路760は、前記駆動音源信号及び前記
復号されたスペクトルパラメータを用いて、フレーム毎
に合成音声波形を求めて出力する。The synthesis filter circuit 760 obtains and outputs a synthesized speech waveform for each frame using the driving excitation signal and the decoded spectrum parameter.
以上述べた構成は本発明の一実施例に過ぎず、種々の
変形も可能である。The configuration described above is merely an embodiment of the present invention, and various modifications are possible.
マルチパルスの計算方法としては、前記文献1に示し
た方法の他に、種々の衆知な方法を用いることができ
る。これには、例えば、Ozawa氏らによる“A Study on
Pulse Search Algorithms for Multi−pulse Speech Co
der Realization"(IEEE JSAC,pp.133−141,1986)(文
献6)を参照することができる。As a method of calculating the multi-pulse, various well-known methods can be used in addition to the method shown in the above-mentioned document 1. This includes, for example, “A Study on
Pulse Search Algorithms for Multi-pulse Speech Co
der Realization "(IEEE JSAC, pp. 133-141, 1986) (Reference 6).
また、ピッチ周期の計算法としては、前述の実施例で
示した方法の他に、例えば、下記(3)式のように、過
去の音源信号v(n)とピッチ再生フィルタ、スペクト
ル包絡合成フィルタで再生した信号と、現サブフレーム
の入力音声信号x(n)との誤差電力Eを最小するよう
な位置Mを探索し、そのときの係数bを求めることもで
きる。As a method of calculating the pitch period, in addition to the method shown in the above-described embodiment, for example, as shown in the following equation (3), a past sound source signal v (n), a pitch reproduction filter, and a spectrum envelope synthesis filter are used. A position M that minimizes the error power E between the signal reproduced by the above and the input audio signal x (n) of the current subframe can be searched for, and the coefficient b at that time can be obtained.
ここで、hs(n)はスペクトル合成フィルタのインパ
ルス応答、w(n)は聴感重みずけ回路のインパルス応
答を示す。 Here, h s (n) indicates the impulse response of the spectrum synthesis filter, and w (n) indicates the impulse response of the auditory weighting circuit.
また、サブフレームのピッチ周期Mに線形のずれτを
許容するようにしてもよい。具体的な方法については、
前記文献3などを参照できる。ただし、このときはピッ
チ情報として、周期M以外に前記τも伝送する必要があ
る。Further, a linear shift τ may be allowed in the pitch period M of the subframe. For specific instructions,
Reference 3 can be referred to. However, at this time, it is necessary to transmit τ in addition to the period M as pitch information.
また、送信側の合成フィルタ610では重みずけ信号を
再生するようにして、重みずけ回路540からこれを減算
するような構成とすると、重みずけ回路600を省略する
ことができる。Also, if the transmitting side synthesis filter 610 reproduces the weighted signal and subtracts it from the weighting circuit 540, the weighting circuit 600 can be omitted.
また、送信側での影響信号の減算を省略することもで
きる。このような構成とすると、合成フィルタ625、加
算器627が不要となる。Also, the subtraction of the influence signal on the transmission side can be omitted. With such a configuration, the synthesis filter 625 and the adder 627 become unnecessary.
(発明の効果) 本発明によれば、ピッチ毎の周期性の強いパルスにつ
いては、ピッチ予測により1つのサブフレーム区間のパ
ルスを求めることにより非常に効率的に表し、ピッチ毎
の相関のそれほど強くないパルスについてはピッチ予測
を用いずにマルチパルスをもとめているので、全てのパ
ルスをピッチ予測を用いて求める従来法と比較して母音
遷移部や過渡部など周期性が弱くなる部分で音質を大き
く改善することができるという効果がある。さらに、一
部のマルチパルスのみピッチ予測により求めているの
で、ピッチ予測マルチパルスの探索に必要な演算量を大
幅に低減することが可能で、従来方式と比較して大幅に
演算量を低減できるという大きな効果がある。(Effect of the Invention) According to the present invention, a pulse having a strong periodicity for each pitch is represented very efficiently by obtaining a pulse in one subframe section by pitch prediction, and the correlation for each pitch is so strong. For non-existent pulses, multi-pulses are obtained without using pitch prediction, so that compared to the conventional method of obtaining all pulses using pitch prediction, sound quality is reduced in parts where periodicity is weak, such as vowel transitions and transitions. There is an effect that it can be greatly improved. Furthermore, since only some of the multi-pulses are obtained by pitch prediction, the amount of calculation required for searching for a pitch prediction multi-pulse can be significantly reduced, and the amount of calculation can be significantly reduced as compared with the conventional method. There is a big effect that.
第1図は本発明による音声符号化復号化方法とその装置
の一実施例の構成を示すブロック図、第2図は本発明の
作用を示すブロック図である。第3図はパルス列探索の
例を表すブロック図である。第4図は従来の方式の例を
示すブロック図である。 図において150……LPC分析部、200……ピッチ計算部、2
50……ピッチ予測マルチパルス計算部、270……マルチ
パルス計算部、520……スペクトル・ピチパラメータ計
算回路、525……パラメータ量子化器、530……逆量子化
器、535、260、615、840……減算器、540、600、850…
…重みずけ回路、550……インパルス応答計算回路、560
……自己相関関数計算回路、570、603……相互相関関数
計算回路、585、620……量子化器、627、740……加算
器、586……パルス計算回路、605、735……ピッチ再生
フィルタ、610、625、760、820……合成フィルタ、635
……マルチプレクサ、710……デマルチプレクサ、720…
…第1のパルス復号器、725……第2のパルス復号器、7
50……スペクトル・ピッチパラメータ復号器、730……
第1のパルス発生器、727……第2のパルス発生器。FIG. 1 is a block diagram showing the configuration of an embodiment of a speech encoding / decoding method and apparatus according to the present invention, and FIG. 2 is a block diagram showing the operation of the present invention. FIG. 3 is a block diagram showing an example of a pulse train search. FIG. 4 is a block diagram showing an example of a conventional system. In the figure, 150: LPC analysis unit, 200: Pitch calculation unit, 2
50: Pitch prediction multi-pulse calculator, 270: Multi-pulse calculator, 520: Spectrum / Pitch parameter calculator, 525: Parameter quantizer, 530: Dequantizer, 535, 260, 615, 840 ... Subtractor, 540, 600, 850 ...
… Weighting circuit, 550 …… Impulse response calculation circuit, 560
…… Autocorrelation function calculation circuit, 570, 603… Cross correlation function calculation circuit, 585, 620 …… Quantizer, 627, 740 …… Adder, 586 …… Pulse calculation circuit, 605, 735 …… Pitch reproduction Filter, 610, 625, 760, 820 …… Synthetic filter, 635
…… Multiplexer, 710 …… Demultiplexer, 720…
... first pulse decoder, 725 ... second pulse decoder, 7
50 …… Spectrum / pitch parameter decoder, 730 ……
First pulse generator, 727... Second pulse generator.
Claims (3)
音声信号からフレーム毎にスペクトル包絡を表すスペク
トルパラメータとピッチを表すピッチパラメータとを抽
出し、前記フレームの音声信号をピッチパラメータに応
じた小区間に分割し、音源信号として前記小区間のうち
の1つの区間について、前記スペクトルパラメータと前
記ピッチパラメータとを用いてピッチ予測を行いながら
第1のマルチパルスを求め、前記第1のマルチパルスに
よる影響を前記音声信号から除去した後に前記フレーム
において前記スペクトルパラメータを用いてピッチ予測
なしで第2のマルチパルスを求めた、前記スペクトルパ
ラメータと前記ピッチパラメータと前記第1のマルチパ
ルスと前記第2のマルチパルスを伝送し、受信側では前
記第1のマルチパルスと前記ピッチパラメータと前記第
2のマルチパルスを用いて音源信号を復元しさらに前記
スペクトルパラメータを用いて合成音声信号を求めるこ
とを特徴とする音声符号化復号化方法。1. A transmitting side receives a discrete voice signal, extracts a spectrum parameter representing a spectrum envelope and a pitch parameter representing a pitch for each frame from the voice signal, and converts a voice signal of the frame according to a pitch parameter. The first multi-pulse is obtained while performing pitch prediction using the spectrum parameter and the pitch parameter for one of the sub-sections as a sound source signal, and obtaining the first multi-pulse. After removing the influence of the pulse from the audio signal, a second multi-pulse was obtained without pitch prediction using the spectral parameter in the frame in the frame. The spectral parameter, the pitch parameter, the first multi-pulse, and the 2 multi-pulses are transmitted, and the receiving side receives the first multi-pulse. Scan and said pitch parameters and said second speech coding and decoding method and obtains the synthesized speech signal using the further the spectral parameters to restore the sound source signal using multi-pulse.
にスペクトル包絡を表すスペクトルパラメータとピッチ
を表すピッチパラメータとを抽出し符号化するパラメー
タ計算回路と、前記フレームの音声信号を前記ピッチパ
ラメータに応じた小区間に分割する分割回路と、音源信
号として前記小区間のうちの1つの区間について、前記
スペクトルパラメータと前記ピッチパラメータとを用い
てピッチ予測を行いながら第1のマルチパルスを求めて
符号化し、前記第1のマルチパルスによる影響を前記音
声信号から除去した後に前記フレームにおいて前記スペ
クトルパラメータを用いてピッチ予測なしで第2のマル
チパルスを求めて符号化する音源計算回路と、前記パラ
メータ計算回路の出力符号と前記音源計算回路の出力符
号を組み合わせて出力することを特徴とする音声符号化
装置。2. A parameter calculation circuit for extracting and encoding a spectrum parameter representing a spectrum envelope and a pitch parameter representing a pitch from an input discrete voice signal for each frame, and converting a voice signal of the frame into the pitch parameter. A dividing circuit that divides the signal into small sections corresponding to the first multi-pulse while performing pitch prediction for one of the small sections as a sound source signal using the spectrum parameter and the pitch parameter; A sound source calculation circuit for obtaining and encoding a second multipulse without pitch prediction using the spectral parameter in the frame after removing the influence of the first multipulse from the audio signal; and calculating the parameter. Combining the output code of the circuit and the output code of the sound source calculation circuit Speech coding apparatus characterized by force.
らフレーム毎にスペクトル包絡を表すスペクトルパラメ
ータとピッチを表すピッチパラメータとを抽出し、前記
フレームの音声信号を前記ピッチパラメータに応じた小
区間に分割し、音源信号として前記小区間のうちの1つ
の区間について、前記スペクトルパラメータと前記ピッ
チパラメータとを用いてピッチ予測を行いながら第1の
マルチパルスを求め、前記第1のマルチパルスによる影
響を前記音声信号から除去した後に前記フレームにおい
て前記スペクトルパラメータを用いてピッチ予測なしで
第2のマルチパルスを求め、前記スペクトルパラメータ
と前記ピッチパラメータと前記第1のマルチパルスと前
記第2のマルチパルスを伝送する送信側からの信号を復
号化する音声復号化装置において、 前記スペクトルパラメータを表す符号と前記ピッチパラ
メータを表す符号と前記第1のマルチパルスを表す符号
と前記第2のマルチパルスを表す符号とを分離して復号
化するデマルチプレクサ回路と、フレーム区間を前記復
号化したピッチパラメータに応じた小区間に分割し前記
小区間の1つについて前記復号化した第1のマルチパル
スを発生し前記ピッチパラメータを用いてピッチを再生
し、前記ピッチを再生した信号に前記復号化した第2の
マルチパルスを発生させて加算し音源信号を復元する音
源復元回路と、前記復元した音源信号と前記復号化した
スペクトルパラメータを用いて合成音声信号を求め出力
する合成フィルタ回路とを有することを特徴とする音声
復号化装置。3. A discrete audio signal is input, and a spectrum parameter representing a spectrum envelope and a pitch parameter representing a pitch are extracted from the audio signal for each frame, and a speech signal of the frame is extracted according to the pitch parameter. The first multi-pulse is obtained while performing pitch prediction using the spectrum parameter and the pitch parameter for one of the sub-sections as a sound source signal. After removing the effects from the audio signal, a second multipulse is obtained without pitch prediction using the spectral parameters in the frame, and the spectral parameter, the pitch parameter, the first multipulse, and the second multipulse are determined. Speech decoding to decode the signal from the transmitter transmitting the pulse A demultiplexer circuit for separating and decoding a code representing the spectrum parameter, a code representing the pitch parameter, a code representing the first multipulse, and a code representing the second multipulse, and a frame. Dividing a section into small sections corresponding to the decoded pitch parameter, generating the decoded first multipulse for one of the small sections, reproducing the pitch using the pitch parameter, and reproducing the pitch A sound source restoring circuit for restoring a sound source signal by generating and adding the decoded second multi-pulse to the decoded signal, and obtaining and outputting a synthesized speech signal using the restored sound source signal and the decoded spectrum parameter. A speech decoding device comprising: a synthesis filter circuit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63147253A JP2615862B2 (en) | 1988-06-14 | 1988-06-14 | Voice encoding / decoding method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63147253A JP2615862B2 (en) | 1988-06-14 | 1988-06-14 | Voice encoding / decoding method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH01314300A JPH01314300A (en) | 1989-12-19 |
JP2615862B2 true JP2615862B2 (en) | 1997-06-04 |
Family
ID=15426049
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP63147253A Expired - Lifetime JP2615862B2 (en) | 1988-06-14 | 1988-06-14 | Voice encoding / decoding method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2615862B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
PL3696812T3 (en) * | 2014-05-01 | 2021-09-27 | Nippon Telegraph And Telephone Corporation | Encoder, decoder, coding method, decoding method, coding program, decoding program and recording medium |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2844589B2 (en) * | 1984-12-21 | 1999-01-06 | 日本電気株式会社 | Audio signal encoding method and apparatus |
JPS61262800A (en) * | 1985-05-17 | 1986-11-20 | 富士通株式会社 | Voice coding system |
-
1988
- 1988-06-14 JP JP63147253A patent/JP2615862B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH01314300A (en) | 1989-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2940005B2 (en) | Audio coding device | |
JP2903533B2 (en) | Audio coding method | |
EP0374941B1 (en) | Communication system capable of improving a speech quality by effectively calculating excitation multipulses | |
JPH09152896A (en) | Sound path prediction coefficient encoding/decoding circuit, sound path prediction coefficient encoding circuit, sound path prediction coefficient decoding circuit, sound encoding device and sound decoding device | |
JP3266178B2 (en) | Audio coding device | |
JP3303580B2 (en) | Audio coding device | |
JP2615862B2 (en) | Voice encoding / decoding method and apparatus | |
JPH028900A (en) | Voice encoding and decoding method, voice encoding device, and voice decoding device | |
JPS6238500A (en) | Highly efficient voice coding system and apparatus | |
JP2853170B2 (en) | Audio encoding / decoding system | |
JP2900431B2 (en) | Audio signal coding device | |
JP3063087B2 (en) | Audio encoding / decoding device, audio encoding device, and audio decoding device | |
JP2946528B2 (en) | Voice encoding / decoding method and apparatus | |
JP3006790B2 (en) | Voice encoding / decoding method and apparatus | |
EP1717796B1 (en) | Method for converting code and code conversion apparatus therefor | |
JP3035960B2 (en) | Voice encoding / decoding method and apparatus | |
JPH02170199A (en) | Speech encoding and decoding system | |
JP2844590B2 (en) | Audio coding system and its device | |
JPH05127700A (en) | Method and device for speech encoding and decoding | |
JPH01293400A (en) | Speech encoding and decoding method and speech encoding device and speech decoding device | |
JPH077275B2 (en) | Audio signal coding system and its equipment | |
JPH043878B2 (en) | ||
JPH06102900A (en) | Voice coding system and voice decoding system | |
JPH0291697A (en) | System and device for encoding and decoding sound | |
JPH01263700A (en) | Voice encoding and decoding method, voice encoding device, and voice decoding device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080311 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090311 Year of fee payment: 12 |
|
EXPY | Cancellation because of completion of term | ||
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090311 Year of fee payment: 12 |