JPH0291697A - System and device for encoding and decoding sound - Google Patents
System and device for encoding and decoding soundInfo
- Publication number
- JPH0291697A JPH0291697A JP63245076A JP24507688A JPH0291697A JP H0291697 A JPH0291697 A JP H0291697A JP 63245076 A JP63245076 A JP 63245076A JP 24507688 A JP24507688 A JP 24507688A JP H0291697 A JPH0291697 A JP H0291697A
- Authority
- JP
- Japan
- Prior art keywords
- pitch
- parameter
- signal
- spectral
- pulse
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000005236 sound signal Effects 0.000 claims abstract description 33
- 238000001228 spectrum Methods 0.000 claims abstract description 14
- 238000000034 method Methods 0.000 claims description 43
- 230000003595 spectral effect Effects 0.000 claims description 38
- 238000004364 calculation method Methods 0.000 claims description 37
- 230000015572 biosynthetic process Effects 0.000 claims description 18
- 238000003786 synthesis reaction Methods 0.000 claims description 18
- 230000005284 excitation Effects 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 4
- 230000004044 response Effects 0.000 description 20
- 238000005314 correlation function Methods 0.000 description 7
- 238000005311 autocorrelation function Methods 0.000 description 6
- 238000011084 recovery Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000013139 quantization Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000008929 regeneration Effects 0.000 description 2
- 238000011069 regeneration method Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 235000011511 Diospyros Nutrition 0.000 description 1
- 244000236655 Diospyros kaki Species 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011982 device technology Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000005554 pickling Methods 0.000 description 1
- 239000006187 pill Substances 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Abstract
Description
【発明の詳細な説明】
(産業上の利用分野)
本発明は音声信号を低いビットレートで効率的に符号化
、復号化するための音声符号化復号化方式及びその装置
に関する。DETAILED DESCRIPTION OF THE INVENTION (Field of Industrial Application) The present invention relates to an audio encoding/decoding method and apparatus for efficiently encoding and decoding audio signals at a low bit rate.
(従来の技術)
音声信号を低いビットレート、例えば16Kb/S程度
以下で伝送する方式としては、マルチパルス符号化法な
どが知られている。これらは音源信号を複数個のパルス
の組合せ(マルチパルス)で表し、声道の特徴をデジタ
ルフィルタで表し、音源パルスの情報とフィルタの係数
を、一定時間区間(フレーム)毎に求めて伝送している
。(Prior Art) As a method for transmitting audio signals at a low bit rate, for example, about 16 Kb/S or less, a multipulse encoding method is known. These represent the sound source signal as a combination of multiple pulses (multipulse), represent the characteristics of the vocal tract with a digital filter, and transmit the information on the sound source pulse and the filter coefficients after determining them for each fixed time interval (frame). ing.
この方法の詳細については、例えばアラセキ、オザワ、
オノ、オチアイ氏による”Multi−pulseEx
cited 5peech Coder Ba5ed
on Maximum Cross−correla口
on 5earch Algorithm”、 (GL
OBECOM 83、 IEEE Global Te
le−communlcatlon+講演番号23.3
.1983N文献りに記載されている。この方法では、
声道情報と音源信号を分離してそれぞれ表現すること、
および音源信号を表現する手段として複数のパルス列の
組合せ(マルチパルス)ヲ用いることにより、復号後に
良好な音声信号を出力できる。音源信号を表すパルス列
を求める基本的な考え方については第4図を用いて説明
する。図中の入力端子800からはフレーム毎に分割さ
れた音声信号が入力される。合成フィルタ820には現
フレームの音声信号から求められたスペクトルパラメー
タが入力されている。音源計算回路810において初期
マルチパルスを発生し、これを前記合成フィルタ820
に入力することによって出力として合成音声波形が得ら
れる。減算器840では前記入力信号から合成音声波形
を減する。For details of this method, see e.g. Araseki, Ozawa,
“Multi-pulseEx” by Mr. Ochiai Ono
cited 5peech Coder Ba5ed
on Maximum Cross-correla mouth on 5earch Algorithm”, (GL
OBECOM 83, IEEE Global Te
le-communlcatlon+lecture number 23.3
.. It is described in the 1983N document. in this way,
Separating and expressing vocal tract information and sound source signals, respectively;
By using a combination of a plurality of pulse trains (multipulse) as a means for expressing the sound source signal, a good sound signal can be output after decoding. The basic concept of finding a pulse train representing a sound source signal will be explained using FIG. 4. An audio signal divided into frames is input from an input terminal 800 in the figure. Spectral parameters determined from the audio signal of the current frame are input to the synthesis filter 820. An initial multi-pulse is generated in the sound source calculation circuit 810 and is passed through the synthesis filter 820.
A synthesized speech waveform can be obtained as an output by inputting the input into the . A subtracter 840 subtracts the synthesized speech waveform from the input signal.
この結果を重み付は回路850へ入力し、現フレームで
の重み付は誤差電力を得る。そしてこの重み付は誤差電
力を最小とするように、音源発生回路810において規
定個数のマルチパルスの振幅と位置を求める。This result is input to the weighting circuit 850, and the weighting in the current frame obtains the error power. Then, in the sound source generation circuit 810, the amplitudes and positions of a specified number of multipulses are determined so that this weighting minimizes the error power.
(発明が解決しようとする問題)
しかしながら、この従来法ではピッレートが充分に高く
音源パルスの数が充分なときは音質が良好であったが、
ビットレートを下げて行くと音質が低下するという問題
があった。(Problem to be Solved by the Invention) However, with this conventional method, the sound quality was good when the pill rate was sufficiently high and the number of sound source pulses was sufficient;
There was a problem that the sound quality deteriorated as the bit rate was lowered.
この問題点を改善するために、マルチパルス音源のピッ
チ毎の準周期性(ピッチ相関)を利用したピンチ予測マ
ルチパルス法が提案されている。In order to improve this problem, a pinch prediction multi-pulse method has been proposed that utilizes the pitch-wise quasi-periodicity (pitch correlation) of a multi-pulse sound source.
この方法の詳細は、例えば、特願昭58−139022
号明細書(文献2)に詳しいのでここでは説明を省略す
る。しかしながら、マルチパルス音源のピッチ毎の準周
期性は大振幅のパルスでは大きいと考えられるが、全て
のパルスについてこのような周期性が存在するわけでは
なく、振幅の小さなパルスはピッチ毎の周期性は少ない
と考えられる。前記文献2のピッチ予測マルチパルス法
では、フレーム内で予め定められたすべての個数のパル
スについてピッチ毎の周期性を仮定して全てのパルスを
ピッチ予測により求めているので、特に周期性の少ない
パルスではピッチ予測によりかえって特性が悪化すると
いう問題点があった。特にこのことは、母音同志の遷移
区間や過渡部、子音部において顕著であり、このような
部分で音質が劣化するという問題点があった。For details of this method, see Japanese Patent Application No. 58-139022.
The detailed description can be found in the No. 1 specification (Reference 2), so the explanation will be omitted here. However, although the pitch-wise quasi-periodicity of a multipulse sound source is considered to be large for large-amplitude pulses, such periodicity does not exist for all pulses, and small-amplitude pulses have pitch-wise periodicity. is considered to be small. In the pitch prediction multi-pulse method of Document 2, all pulses are determined by pitch prediction assuming periodicity for each pitch for a predetermined number of pulses within a frame, so all pulses are determined by pitch prediction. The problem with pulses is that pitch prediction actually worsens the characteristics. This is particularly noticeable in transition sections between vowels, transitional parts, and consonant parts, and there is a problem in that the sound quality deteriorates in such parts.
さらに、前記文献2の方法では、ピッチ情報をインパル
ス応答に含ませているため非常に時間長の長いインパル
ス応答を必要とし、予め定められた個数の全てのパルス
をピッチ予測により求めているので、パルスの探索に要
する演算量は非常に多く、現在のデバイス技術をもって
しても装置をコンパクトに実現することはかなり困難で
あった。Furthermore, in the method of Document 2, since pitch information is included in the impulse response, an impulse response with a very long time length is required, and all pulses of a predetermined number are determined by pitch prediction. The amount of calculation required to search for pulses is extremely large, and even with current device technology, it has been quite difficult to realize a compact device.
本発明の目的は、ビットレートが高いところあるいは低
いところでも、従来よりも良好な音声を再生することが
可能で、少ない演算量で実現可能な音声符号化復号化方
式とその装置を提供することにある。An object of the present invention is to provide an audio encoding/decoding method and its device that can reproduce better audio than ever before even when the bit rate is high or low, and that can be realized with a small amount of calculation. It is in.
(問題点を解決するための手段)
本発明の音声符号化復号化方式は、送信側では離散的な
音声信号を入力し前記音声信号からフレーム毎にスペク
トル包絡を表すスペクトルパラメータとピッチを表すピ
ッチパラメータとを抽出し、前記フレームの音声信号を
前記ピッチパラメータに応じた小区間に分割し、前記フ
レームの音声信号の音源を前記スペクトルパラメータと
前記ピッチパラメータとを用い前記小区間のうち1つの
区間について求めたマルチパルスと前記マルチパルスに
よる影響の除去後に前記スペクトルパラメータを用いて
前記フレームにおいて求めたフードブックとで表し、受
信側では前記マルチパルスと前記ピッチパラメータ及び
前記コードブックを用いて音源信号を復元しさらに前記
スペクトルパラメータを用いて合成音声信号を求めるこ
とを特徴とする。(Means for Solving the Problems) The audio encoding/decoding method of the present invention inputs a discrete audio signal on the transmitting side, and extracts a spectral parameter representing a spectral envelope and a pitch representing a pitch from the audio signal for each frame. the audio signal of the frame is divided into small sections according to the pitch parameter, and the sound source of the audio signal of the frame is divided into one section of the small sections using the spectrum parameter and the pitch parameter. The sound source signal is expressed as the multi-pulse obtained for the frame and the food book obtained in the frame using the spectral parameter after removing the influence of the multi-pulse. The method is characterized in that a synthesized speech signal is obtained using the spectral parameters.
本発明の音声符号化装置は、入力した離散的な31%信
号からフレーム毎にスペクトル包絡を表すスペクトルパ
ラメータとピッチを表すピッチパラメータを抽出し符号
化するパラメータ計算回路と、前記フレームの音声信号
を前記ピッチパラメータに応じた小区間に分割する分割
回路と、前記スペクトルパラメータと前記ピッチパラメ
ータとを用いて前記小区間のうちの1つの区間について
マルチパルスを求めて符号化し前記符号化したマルチパ
ルスによる影響を除去した後に前記フレームにおいて前
記スペクトルパラメータを用いてコードブックを求めて
符号化する音源計算回路と、前記パラメータ計算回路の
出力符号と前記音源計算回路の出力符号とを組み合わせ
て出力することを特徴とする。The audio encoding device of the present invention includes a parameter calculation circuit that extracts and encodes a spectral parameter representing a spectral envelope and a pitch parameter representing a pitch from an input discrete 31% signal for each frame, and a parameter calculation circuit that extracts and encodes an audio signal of the frame. a dividing circuit that divides into small sections according to the pitch parameter, a multipulse for one section of the small sections using the spectrum parameter and the pitch parameter, and a multipulse that is encoded by the encoded multipulse. an excitation calculation circuit that calculates and encodes a codebook using the spectral parameters in the frame after removing effects, and outputs a combination of the output code of the parameter calculation circuit and the output code of the excitation calculation circuit. Features.
本発明の音声復号化装置は、スペクトルパラメータを表
す符号とピッチパラメータを表す符号とマルチパルスを
表す符号とコードブックを表す符号とを分離して復号化
するデマルチプレクサ回路と、フレーム区間を前記復号
化したピッチパラメータに応じた小区間に分割し前記小
区間の1つについて前記復号化したマルチパルスを発生
し前記ピッチパラメータを用いてピッチを再生し、前記
ピッチを再生した信号に前記復号化したコードブックを
発生させて加算し音源信号を復元する音源復元回路と、
前記復元した音源信号と前記復号化したスペクトルパラ
メータを用いて合成音声信号を求め出力する合成フィル
タ回路とを有することを特徴とする。The audio decoding device of the present invention includes a demultiplexer circuit that separates and decodes a code representing a spectral parameter, a code representing a pitch parameter, a code representing a multipulse, and a code representing a codebook; the decoded multi-pulse is generated for one of the small intervals, the pitch is reproduced using the pitch parameter, and the decoded multi-pulse is generated into a signal in which the pitch is reproduced. a sound source restoration circuit that generates and adds a codebook to restore the sound source signal;
The present invention is characterized by comprising a synthesis filter circuit that obtains and outputs a synthesized speech signal using the restored sound source signal and the decoded spectrum parameter.
(作用)
本発明による音声符号化復号化方式とその装置は、フレ
ーム区間の音声信号の音源信号を、ピッチ予−1して求
めたマルチパルスと、コードブックとを用いて表すこと
を特徴としている。さらに、前記ピッチ予測マルチパル
スの計算には、マルチパルス音源のピッチ毎の準同期性
を非常に効率良く利用すると共に演算量を大きく低減す
るために、フレームをあらかじめピッチ周期に応じた小
区間(サブフレーム)に分割し、前記サブフレームのう
ちの1つの区間についてのみピッチ予測によりマルチパ
ルスを求める。そして前記ピッチ予測マルチパルスによ
り信号を再生して影響を音声信号から除去した後に、除
去後の信号を最も良好に表すコードブックを求めるわけ
である。(Operation) The speech encoding/decoding method and its device according to the present invention are characterized in that the sound source signal of the speech signal in a frame section is represented using a multipulse obtained by pitch pre-1 and a codebook. There is. Furthermore, in order to calculate the pitch-predicted multipulse, the frame is preliminarily divided into small sections ( subframes), and multipulses are determined by pitch prediction for only one section of the subframes. After the signal is reproduced using the pitch prediction multi-pulse and the influence is removed from the audio signal, a codebook that best represents the removed signal is determined.
以下で本方式の基本的な考え方を第2図を用いて説明す
る。第2図は、本発明の作用を示すブロック図である。The basic idea of this method will be explained below using FIG. 2. FIG. 2 is a block diagram showing the operation of the present invention.
入力端子100から音声信号を入力し、前記音声信号を
予め定められた時間長の(例えば20m5ec、)フレ
ームに分割する。フレームの音声信号からLPC分析部
150はスペクトル包絡を表す予め定められた次数のL
PG係数を衆知のLPG分析により求める。LPG係数
としては、線形予測係数の他にLSP、ホルマント、L
PCケプストラムなど他の良好なパラメータを用いるこ
ともできる。また、LPC以外の分析法、例えばケプス
トラムやPSElARMljなどを用いることもできる
。以下では線形予測係数を用いるものとして説明を行う
。ピッチ計算回路200は、フレームの音声信号からピ
ッチ周期M及びピッチ係数(ゲイン)bを計算する。こ
れには衆知の自己相関法を用いることができる。また、
ピッチ係数b(ゲイン)の計算には前記自己相関法で時
間遅れMにおける自己相関係数の値を用いる方法や、音
声信号をピッチ周期M毎の小区間(サブフレーム)に分
割し、各サブフレームにおける音声信号あるいは予測残
差信号のrms値を1次回帰直線で近似したときの傾き
の値を用いることもできる。後者の方法については、オ
ノ氏らによる”2.4kbps pitch pred
iction multipulse 5peech
co旧ng”(proc、 IEEE ICASSP
88゜S4.9.1988)と題した論文(文献3)な
どを参照できる。An audio signal is input from an input terminal 100, and the audio signal is divided into frames of a predetermined time length (for example, 20 m5ec). From the audio signal of the frame, the LPC analyzer 150 calculates LPC of a predetermined order representing the spectral envelope.
The PG coefficient is determined by well-known LPG analysis. In addition to linear prediction coefficients, LPG coefficients include LSP, formant, and LPG coefficients.
Other good parameters such as PC cepstrum can also be used. Furthermore, analysis methods other than LPC, such as cepstrum and PSElARMlj, can also be used. The following explanation assumes that linear prediction coefficients are used. The pitch calculation circuit 200 calculates a pitch period M and a pitch coefficient (gain) b from the audio signal of the frame. The well-known autocorrelation method can be used for this. Also,
The pitch coefficient b (gain) can be calculated by using the above-mentioned autocorrelation method using the value of the autocorrelation coefficient at time delay M, or by dividing the audio signal into small sections (subframes) each pitch period M and calculating each subframe. It is also possible to use the slope value when the rms value of the audio signal or prediction residual signal in the frame is approximated by a linear regression line. Regarding the latter method, "2.4 kbps pitch pred" by Mr. Ono et al.
iction multipulse 5peech
co old ng” (proc, IEEE ICASSP
88°S4.9.1988) (Reference 3).
ピッチ予測マルチパルス計算部250及びコードブック
選択部270の動作を第3図を引用して説明する。第3
図(a)は1フレ一ム区間の音声信号を表す。ここでは
−例としてフレーム長を20m5 e c、とじている
。ピッチ予測マルチパルス計算部250では、まず、(
b)のように、フレームをピッチ周期Mを用いて小区間
(サブフレーム)に分割する。ここではサブフレーム長
はピッチ周期Mと同一としている。次に、前記文献2と
同一の方法により、ピッチ再生フィルタと聴感重み付は
スペクトル包絡合成フィルタとの縦続接続フィルタのイ
ンパルス応答hw(n)を求める。ここでスペクトル包
絡合成フィルタ、ピンチ再生フィルタの伝達特性は(1
) 、(2)式でそれぞれ表される。The operations of the pitch prediction multipulse calculation section 250 and the codebook selection section 270 will be explained with reference to FIG. Third
Figure (a) shows an audio signal for one frame section. Here, as an example, the frame length is set to 20 m5. In the pitch prediction multipulse calculation unit 250, first, (
As shown in b), the frame is divided into small sections (subframes) using the pitch period M. Here, the subframe length is the same as the pitch period M. Next, using the same method as in Document 2, the impulse response hw(n) of the cascade-connected filter of the pitch recovery filter and the perceptually weighted spectral envelope synthesis filter is determined. Here, the transfer characteristics of the spectral envelope synthesis filter and pinch regeneration filter are (1
) and (2), respectively.
Hs (z)” 1/ (1Σa+Z−’)
(1)H,(z)=1/ (i−bZ−M)
(2)ここではピッチ再生フィルタの次数は1とし
ている。Hs (z)" 1/ (1Σa+Z-')
(1) H, (z) = 1/ (i-bZ-M)
(2) Here, the order of the pitch recovery filter is set to 1.
(1)式、(2)式のインパルス応答をhs(n) +
hp (rt)とし、聴感重み付は縦続接続フィル
タのインパルス応答をW (n )とすると、前記イン
パルス応答hw (n)は次式で表される。The impulse responses of equations (1) and (2) are expressed as hs(n) +
hp (rt) and the impulse response of the perceptually weighted cascade filter is W (n), then the impulse response hw (n) is expressed by the following equation.
hw(n):hs(n)束hp(n)草W(n)
(3)また、聴感重み付けを行ったスペクトル包絡
合成フィルタのインパルス応答り、#、(n)ithw
(n)=hs(n)xW(n) (4)ここで記号
“*”は、畳み込みを表す。次に、前記文献2と同一の
方法により、インパルス応答hw (n)の自己相関
関数Rhh (m ) s聴感重み付は音声信号と前記
インパルス応答hw (n)との相互相関関数Φhx
(m)を求める。次に、前記サブフレームのうちの予め
定められた1つの区間(例えば第3図(b)の区間■)
についてのみ、予め定められた個数L(ここでは4とし
ている)のマルチパルスの振幅g5、位置m、をピッチ
予測により求める。第3図(C)は求めたマルチパルス
を示す。次に、求めたマルチパルスを(2)式で定義さ
れるピッチ再生フィルタに通して第3図(d)のように
他のサブフレームでのパルスを再生する。次に、この再
生パルスを用いて(1)式で定義されるスペクトル包絡
合成フィルタを駆動して再生信号X’ (n)を得る
。hw(n): hs(n) bundle hp(n) grass W(n)
(3) Also, the impulse response of the spectral envelope synthesis filter with auditory weighting, #, (n)ithw
(n)=hs(n)xW(n) (4) Here, the symbol “*” represents convolution. Next, using the same method as in Document 2, the autocorrelation function Rhh (m ) s of the impulse response hw (n) is determined by the cross-correlation function Φhx between the audio signal and the impulse response hw (n).
Find (m). Next, one predetermined section of the subframe (for example, section ■ in FIG. 3(b))
Only for this case, the amplitude g5 and position m of a predetermined number L (here, 4) of multi-pulses are determined by pitch prediction. FIG. 3(C) shows the obtained multipulse. Next, the obtained multi-pulse is passed through a pitch regeneration filter defined by equation (2) to regenerate pulses in other subframes as shown in FIG. 3(d). Next, a spectral envelope synthesis filter defined by equation (1) is driven using this reproduction pulse to obtain a reproduction signal X' (n).
減算器260は音声信号X (n)からX’ (n)
を減算してe (n)を得る。フードブック選択部27
0は予め用意された複数種類(例えば256種類)のコ
ード(コードブック)の中からe(n)を最適に表す乱
数コード及びそのゲインを求める。The subtracter 260 converts the audio signal X (n) to X' (n)
subtract to obtain e (n). Food book selection section 27
0 finds a random number code that optimally represents e(n) and its gain from among a plurality of types (for example, 256 types) of codes (codebook) prepared in advance.
このe (n)に対して最適なコードとそのゲインを求
める実際の方法について、以下で式を用いて説明する。An actual method for finding the optimal code and its gain for e (n) will be explained below using equations.
コードブックの選択方法としては次式で定義される誤差
電力Eを最小化するように計算する。The codebook selection method is calculated so as to minimize the error power E defined by the following equation.
E:Σ [(e(n)−g−;i (n) ) *
1f(n)コ2 (5)ここで、e(rl)は第
2図のコードブック選択部270の入力残差信号であり
、gはゲイン、τ(n)は選択された一種類のコードと
合成フィルタによって再生した残差信号である。W(n
)は聴感を考えた重み付はフィルタのインパルス応答を
示す。E:Σ [(e(n)-g-;i(n)) *
1f(n)ko2 (5) Here, e(rl) is the input residual signal of the codebook selection unit 270 in FIG. 2, g is the gain, and τ(n) is the selected type of code. and the residual signal reproduced by the synthesis filter. W(n
) indicates the impulse response of the filter, which is weighted with auditory perception in mind.
(5)式をgについて最小化すると(6)式の形となる
。When formula (5) is minimized with respect to g, it becomes formula (6).
g= (Σew(n)れ(n) ) / (Σれ(n
)れ(n) ) (G)ここで、
ew(n)=e (n)本1f(n) : n(n
)柿(n)寡W(n) (7a)ew(n):e
(n)*W(n)
(7b)記号*は畳み込みを表す。(6)式の分母はτ
W (n)自己相関(厳密には共分散)、分子はew
(n)とew (n)の相互相関である。また(7
a)式のn (n)はコードブック中の、選択された1
種類のコードが表す信号である。また、h (n )は
合成フィルタのインパルス応答を示f。g= (Σew(n)re(n) ) / (Σew(n)
)re(n) ) (G) Here, ew(n)=e (n) Book 1f(n) : n(n
) persimmon (n) small W (n) (7a) ew (n): e
(n)*W(n)
(7b) The symbol * represents convolution. The denominator of equation (6) is τ
W (n) autocorrelation (strictly covariance), numerator is ew
This is the cross-correlation between (n) and ew (n). Also (7
a) n in the equation (n) is the selected 1 in the codebook
This is the signal represented by the type of code. In addition, h (n) represents the impulse response of the synthesis filter f.
このとき誤差電力Eは次式のように書けるので、
E=Σew(n)2−g・ Σe、(n) ;(n)
(8)n n
Eを最小化するコードブックは、(8)式第2項を最大
化即ちIglを最大化するように選択すればよい。At this time, the error power E can be written as the following formula, so E=Σew(n)2−g・Σe,(n);(n)
(8) The codebook that minimizes n n E may be selected so as to maximize the second term of equation (8), that is, to maximize Igl.
コードブックを選択するための計算量をさらに大幅に削
減するための方法としては、次のような構成も考えられ
る。音源信号を表すマルチパルス列は相互相関を用いて
探索する。この求め方は前記文献1.2等に詳しいので
ここでは説明は省略するが、ピッチ予測マルチパルス計
算部250においてピッチ予測マルチパルス列を求めた
後の修正相互相関関数Φxh゛を用いることにより、前
述の方法より大幅に演算量を削減した上で、コードブッ
クを選択することが可能となる。以下に示す方法ではフ
ードブック選択の際に信号ew(n)を再生しなくてよ
いので、特性を前述の方法とほぼ同じに保ちながら演算
量を大幅に低減できる。以rに導出方法を説明する。ま
ず、Φxh’ 、ew(n)は次のように書(ことがで
きる。As a method for further significantly reducing the amount of calculation for selecting a codebook, the following configuration may be considered. A multi-pulse train representing a sound source signal is searched using cross-correlation. The method of obtaining this is detailed in the above-mentioned documents 1 and 2, so the explanation is omitted here, but by using the modified cross-correlation function Φ It is possible to select a codebook with a significant reduction in the amount of calculation compared to the method described above. In the method described below, since it is not necessary to reproduce the signal ew(n) when selecting a food book, the amount of calculation can be significantly reduced while keeping the characteristics almost the same as in the above-mentioned method. The method for deriving r will be explained below. First, Φxh' and ew(n) can be written as follows.
Φxh’ ”Σew(n)hw(n) (9);(
n) : n(n)本す、(n) (10
)(lO)式を(6)式に代入し、(9)式を用いると
、次の様に変形が可能である。Φxh' ”Σew(n)hw(n) (9);(
n): n(n) this, (n) (10
)(lO) into equation (6) and use equation (9), the following transformation is possible.
g=(ΣΦxh’ @ n(n)) / (Rhh(o
)* R,、n(o>) (11)ここでΦXh′はピ
ッチ予測によりマルチパルス列を求めた後の相互相関関
数、Rhh(0)は、スペクトル包絡フィルタと重み付
は回路の従属接続からなるフィルタのインパルス応答の
電力である。g=(ΣΦxh' @ n(n)) / (Rhh(o
) * R,, n(o>) (11) Here, ΦXh′ is the cross-correlation function after obtaining the multipulse train by pitch prediction, and Rhh(0) is the spectral envelope filter and weighting from the dependent connection of the circuit. is the power of the impulse response of the filter.
Rhh(o)はコードブックのうちある1種類のコード
を選択した場合の、前記コードにより表される信号n(
n)の電力である。(ll)式の分子はΦ、と選択され
たコードにより表される信号n(n)との相互相関関数
である。前述の(Ili)式と同じように、コードブッ
クは(11)式のgを最大化するものを選べばよい。Rhh(o) is the signal n(
n) is the electric power. The numerator of equation (ll) is the cross-correlation function between Φ and the signal n(n) represented by the selected code. As with the above-mentioned equation (Ili), the codebook that maximizes g in equation (11) can be selected.
なお、コードブックは、大振幅のピッチ予測マルチパル
ス列を予め定められた個数だけ求めた後の音源の残差信
号を用いて、予めトレーニングすることによって作成し
てもよいし、例えばガウス性の、統計的性質を持つよう
な雑音信号を位相特性を種々に変化させて複数個作成し
コードブックに格納しておいてもよい。前者の方法につ
いてはマクール氏らによる”Vector quant
lzatlon 1n3peech coding”(
Proc、 IEEE、 pp、1551−1588.
1985)(文献5)などの論文を参照できる。後者の
方法についてはエム・アール−シュレーダー ビー・ニ
ス・アタール両氏による論文(以下、「文献6 J )
(M、R,5hroeder and B、S、At
al:”Code−Excited 目near p
rediction (CELP): high−qu
a目ty 5peech at very low b
itrates、”、 Proc。Note that the codebook may be created by training in advance using the residual signal of the sound source after obtaining a predetermined number of large-amplitude pitch prediction multipulse trains, or, for example, by training with a Gaussian, A plurality of noise signals having statistical properties may be created with various phase characteristics and stored in the codebook. The former method is described in “Vector quant” by McCool et al.
lzatlon 1n3peech coding” (
Proc, IEEE, pp, 1551-1588.
1985) (Reference 5). Regarding the latter method, there is a paper by M. R. Schröder and B. Nis. Attar (hereinafter referred to as "Reference 6 J").
(M, R, 5hroeder and B, S, At
al:”Code-Excited near p
reduction (CELP): high-qu
a-eye ty 5peach at very low b
itrates,”, Proc.
1、C,A、、S、S、P、vol、1.paper
No、25.1.1.March。1,C,A,,S,S,P,vol,1. paper
No, 25.1.1. March.
1985)を参照することができる。1985).
送信側の伝送情報は、スペクトル包絡を表すスペクトル
パラメータ、ピッチIIT生フィルタのビ・7チ周期M
1ゲインb、L個のピッチ予測マルチパルスの振幅と位
置、コードブックのインガウス及びゲインgである。The transmission information on the transmitting side is a spectral parameter representing the spectral envelope, a pitch IIT raw filter Bi-7 period M
1 gain b, the amplitude and position of the L pitch prediction multipulses, the in-Gauss of the codebook, and the gain g.
(実施例)
本発明の一実施例を示す第1図において、入力端子50
0からf11故的な音声信号x (n)を入力する。ス
ペクトル、ピッチパラメータ計算回路520では分割し
たフレーム区間(例えば20m5ec、)の音声信号の
スペクトル包絡を表すスペクトル包絡合成フィルタのス
ペクトルパラメータalを、衆知のLPG分析法によっ
て求める。また、ピッチ再生フィルタの係数すとピッチ
周期Mを周知の自己相関法あるいは前述の文献3に示し
た方法により求める。(Embodiment) In FIG. 1 showing an embodiment of the present invention, an input terminal 50
Input the natural audio signal x (n) from 0 to f11. The spectral and pitch parameter calculation circuit 520 calculates the spectral parameter al of the spectral envelope synthesis filter representing the spectral envelope of the audio signal in the divided frame sections (for example, 20 m5ec) using the well-known LPG analysis method. Further, the coefficients of the pitch recovery filter and the pitch period M are determined by the well-known autocorrelation method or the method shown in the above-mentioned document 3.
求められたスペクトルパラメータ及び係数に対しては量
子化器526において、ピッチ周期に対しては、量子化
器525において量子化を行う。The obtained spectrum parameters and coefficients are quantized in a quantizer 526, and the pitch period is quantized in a quantizer 525.
量子化の方法は、特願昭59−272435号明細書(
文献7)に示されているようなスカラー量子化や、ある
いはベクトル量子化を行ってもよい。ベクトル量子化の
具体的な方法については、例えば、前記文献5などの論
文を参照できる。逆量子化器530.532は、それぞ
れ量子化した結果を用いて逆量子化して出力する。The quantization method is described in Japanese Patent Application No. 59-272435 (
Scalar quantization as shown in Reference 7) or vector quantization may be performed. For a specific method of vector quantization, reference can be made to, for example, papers such as the above-mentioned document 5. The inverse quantizers 530 and 532 inversely quantize and output the quantized results.
減算器535はフレームの音声信号から影響信号を減算
して出力する。A subtracter 535 subtracts the influence signal from the audio signal of the frame and outputs the result.
重み付は回路540は、音声信号と逆量子化されたスペ
クトルパラメータを用いて前記信号に聴感重み付けを行
う。重み付けの方法は、前記文献2の重み付は回路20
0を参照することができる。Weighting circuit 540 perceptually weights the audio signal using the dequantized spectral parameters. The weighting method of the above-mentioned document 2 is based on the weighting circuit 20.
0 can be referenced.
インパルス応答計算回路550は、逆量子化されたスペ
クトルパラメータa +1を用いて前記(1)、(2)
式の縦続接続からなるフィルタの重み付はインパルス応
答hw (n)とをa 1.とピッチ周期M”、係数
b′を用いて計算する。具体的な方法は前記文献2のイ
ンパルス応答計算回路を参照できる。The impulse response calculation circuit 550 calculates the above (1) and (2) using the dequantized spectral parameter a+1.
The weighting of the filter consisting of a cascade of the equations divides the impulse response hw (n) and a 1. The calculation is performed using the pitch period M'' and the coefficient b'. For a specific method, refer to the impulse response calculation circuit in Document 2.
自己相関関数計算回路560は前記のインパルス応答に
対して自己相関関数を計算し、音源パルス計算回路58
0へ出力する。自己相関関数の計算法は前記文献2や前
記文献4の自己相関関数計算回路180を参照すること
ができる。The autocorrelation function calculation circuit 560 calculates an autocorrelation function for the impulse response, and the sound source pulse calculation circuit 58
Output to 0. For the method of calculating the autocorrelation function, reference can be made to the autocorrelation function calculation circuit 180 in Document 2 and Document 4.
相互相関関数計算回路570は前記聴感重み付けられた
信号と、前記インパルス応答hw (n)との相互相
関関数Φxh(m)を計算する。A cross-correlation function calculation circuit 570 calculates a cross-correlation function Φxh(m) between the perceptually weighted signal and the impulse response hw (n).
音源パルス計算回路580では、まず、フレームを逆量
子化したピンチ周期M′を用いて前記第3図(b)のよ
うにサブフレーム区間に分割する。そして予め定められ
た1つのサブフレーム区間(例えば第3図(b)のサブ
フレーム■)について、Φxh(m)とRbh(m)と
を用いて、L個のマルチパルス列の振幅g、と位置ml
を求める。パルス列の計算方法については、前記文献2
の音源パルス計算回路を参照することができる。The sound source pulse calculation circuit 580 first divides the frame into subframe sections as shown in FIG. 3(b) using the pinch period M' obtained by dequantizing the frame. Then, for one predetermined subframe section (for example, subframe ■ in FIG. 3(b)), using Φxh (m) and Rbh (m), the amplitude g and the position of the L multi-pulse trains are determined. ml
seek. Regarding the pulse train calculation method, see the above-mentioned document 2.
You can refer to the sound source pulse calculation circuit of .
■子化器585は、前記マルチパルス列の振幅と位置を
量子化して符号を出力する。具体的な方法は前記文献4
などを参照できる。この出力はさらに逆量子化され、ピ
ッチ再生フィルタ605、スペクトル包絡合成フィルタ
610に通すことによって、前記ピッチ予測マルチパル
スによる合成音声信号X” (n )か求まる。(2) The child generator 585 quantizes the amplitude and position of the multi-pulse train and outputs a code. The specific method is described in the above document 4.
etc. can be referred to. This output is further dequantized and passed through a pitch recovery filter 605 and a spectrum envelope synthesis filter 610 to obtain a synthesized speech signal X'' (n) based on the pitch prediction multipulse.
減算器615は、前記音声信号x (n)から合成音声
信号X” (n)を滅することによって、残差信号e
(n)を得る。The subtracter 615 subtracts the synthesized speech signal X'' (n) from the speech signal
(n) is obtained.
乱数フードブック選択部600は前記残差信号に対して
(5)〜(11)式に基づき最適な乱数コードを求め、
そのインデクス及びゲインを出力する。The random number food book selection unit 600 calculates an optimal random number code for the residual signal based on equations (5) to (11),
Output its index and gain.
また、前記最適な乱数コードを合成フィルタに出力して
合成した信号を加算器620へ出力する。Further, the optimal random number code is output to a synthesis filter, and a synthesized signal is output to an adder 620.
マルチプレクサ635は、量子化器585の出力である
マルチパルス列の振幅、位置を表す符号、乱数コードブ
ック選択部600の出力である乱数コードのインデクス
及びゲイン、量子化器525の出力であるスペクトルパ
ラメータ、量子化器527の出力であるピッチ周期、係
数を表す符号を組み合わせて出力する。The multiplexer 635 receives the amplitude of the multi-pulse train output from the quantizer 585, a code representing the position, the index and gain of the random code that is the output of the random codebook selection unit 600, the spectral parameter that is the output of the quantizer 525, The pitch period, which is the output of the quantizer 527, and the code representing the coefficient are combined and output.
一方、受信側では、デマルチプレクサ710は、ピッチ
予測マルチパルスの振幅、位置を表す符号、乱数フード
ブックのインデクス、ゲインを表す符号、スペクトルパ
ラメータ、ピンチ周M、係数を表す符号を分離して出力
する。On the other hand, on the receiving side, the demultiplexer 710 separates and outputs the amplitude of the pitch prediction multipulse, a code representing the position, an index of the random number food book, a code representing the gain, a spectrum parameter, a pinch frequency M, and a code representing the coefficient. do.
パルス復号器720はピッチ予測マルチパルスの振幅、
位置を復号する。乱数コードブック復号器725は乱数
コードブックのインデクス、ゲインを復号する。スペク
トル、ピッチパラメータ復号5750は、送信側の逆量
子化器530と同じ働きをして、スペクトルパラメータ
、ピッチ周期M゛、係数b゛を復号して出力する。パル
ス発生器730は、前記マルチパルス(ピッチ予測マル
チパルス)による音源信号とフレーム長だけ発生させ出
力する。乱数コード発生器727は前記乱数コードのイ
ンデクス及びゲインを用いて音源信号をフレーム長だけ
発生させる。Pulse decoder 720 determines the amplitude of the pitch prediction multipulse;
Decode the location. A random number codebook decoder 725 decodes the index and gain of the random number codebook. The spectral and pitch parameter decoding 5750 functions in the same way as the inverse quantizer 530 on the transmitting side, and decodes and outputs the spectral parameter, pitch period M', and coefficient b'. The pulse generator 730 generates and outputs only the sound source signal and frame length based on the multi-pulse (pitch prediction multi-pulse). The random number code generator 727 generates a sound source signal for the frame length using the index and gain of the random number code.
ピッチ再生フィルタ735は、送信側のピッチ再生フィ
ルタ605と同一の動作を行い、パルス発生器730の
出力、復号されたピッチ周期M゛及び係数b′を入力し
、フレームでピッチを再生したWjlA信号を求め加算
器740へ出力する。The pitch recovery filter 735 performs the same operation as the pitch recovery filter 605 on the transmission side, inputs the output of the pulse generator 730, the decoded pitch period M' and the coefficient b', and generates the WjlA signal whose pitch is recovered in frames. is calculated and output to adder 740.
加算器740は前記音源信号と乱数コード発生器727
の出力信号を加算してフレームの駆動音源信号を求め、
合成フィルタ回路760を駆動する。The adder 740 combines the sound source signal and the random number code generator 727.
Add the output signals of to find the driving sound source signal of the frame,
The synthesis filter circuit 760 is driven.
合成フィルタ回路760は、前記駆動音源信号及び前記
復号されたスペクトルパラメータを用いて、フレーム毎
に合成音声波形を求めて出力する。The synthesis filter circuit 760 uses the driving sound source signal and the decoded spectral parameters to obtain and output a synthesized speech waveform for each frame.
以上述べた構成は本発明の一実施例に過ぎず、種々の変
形も可能である。The configuration described above is only one embodiment of the present invention, and various modifications are possible.
マルチパルスの計算方法としては、前記文献1に示した
方法の他に、種々の衆知な方法を用いることができる。As a method for calculating multi-pulses, in addition to the method shown in Document 1, various well-known methods can be used.
これには、例えば、オザワ氏らによる”A 5tudy
on Pu1se 5earch Algorith
ms forMulti−pulse 5peech
Coder Rea目zatlon”(IEEEJSA
C,pp、133−141.19H) (文献8)を
参照することができる。For example, “A 5tudy” by Ozawa et al.
on Pulse 5earch Algorithm
ms for Multi-pulse 5peech
Coder Rea zatlon” (IEEEJSA
C, pp, 133-141.19H) (Reference 8).
また、ピンチゲインb1周期Tの計算法としては、前述
の実施例で示した方法の他に、例えば、下記(12)式
のように、過去の音源信号v (n)とピッチ再生フィ
ルタ、スペクトル包絡合成フィルタで再生した信号と、
現フレームの入力音声信号x (n)との誤差電力Eを
最小化するような位置Mを探索し、そのときの係数すを
求めることもできる。Furthermore, as a method of calculating the pinch gain b1 period T, in addition to the method shown in the above-mentioned embodiment, for example, as shown in the following equation (12), the past sound source signal v (n), the pitch reproduction filter, the spectrum The signal reproduced by the envelope synthesis filter and
It is also possible to search for a position M that minimizes the error power E with respect to the input audio signal x (n) of the current frame, and to obtain the coefficients at that time.
E=Σ [: (x(n)−b−V(n−T)木hs
(n)) 末w(n)コ 2(+2)ここで、hs(
n)はスペクトル合成フィルタのインパルス応答、w(
n)は聴感重み付は回路のインパルス応答を示す。E=Σ [: (x(n)-b-V(n-T) tree hs
(n)) End w(n) ko 2(+2)Here, hs(
n) is the impulse response of the spectral synthesis filter, w(
n) shows the impulse response of the circuit with auditory weighting.
また、サブフレームのピッチ周期Mに線形のすれτを許
容するようにしてもよい。具体的な方法については、1
1iI記文献3などを参照できる。たたし、このときは
ピッチ情報として、周期M以外にも前記τも伝送する必
要がある。Furthermore, a linear deviation τ may be allowed in the pitch period M of the subframe. For specific methods, see 1.
1iI Document 3, etc. can be referred to. However, in this case, in addition to the period M, it is also necessary to transmit the above-mentioned τ as pitch information.
また、入力音声の有声部分と無声部分を判別してコード
ブックを用いるか否かを決定してもよい。Alternatively, it may be determined whether or not to use the codebook by distinguishing between voiced parts and unvoiced parts of the input speech.
また、コードブックを用いることによる有効性を判断し
て、仔効であると判断された場合にのみフードブックを
用いる構成とすることも可能である。It is also possible to determine the effectiveness of using the code book and use the food book only when it is determined that the food book is effective.
(発明の効果)
本発明によれば、音源信号のうちピッチ毎の周期性の強
い成分については、ピッチ予測により1つのサブフレー
ム区間のパルスを求めることにより非常に効率的に表し
、ピッチ毎の相関の強くない成分については乱数コード
ブックにより効果的に表しているので、全てのパルスを
ピッチ予測を用いて求める従来法と比較して母音同士の
遷移部や過渡部、子音部など周期性が少し弱(なる部分
で音質を太き(改善することができるという効果がある
。さらに、ピンチ区間におけるマルチパルスのみピッチ
予測により求めているので、ピンチ予測マルチパルスの
探索に必要な演算量を大幅に低減することがiiJ能で
、従来方式として比較して大幅に演算量を低減できると
いう大きな効果がある。(Effects of the Invention) According to the present invention, components with strong periodicity for each pitch in the sound source signal can be expressed very efficiently by obtaining pulses in one subframe section by pitch prediction, and Components that are not strongly correlated are effectively represented by a random number codebook, so compared to the conventional method that uses pitch prediction to calculate all pulses, periodicity such as transitions between vowels, transient parts, and consonant parts can be reduced. It has the effect of improving the sound quality in parts where it becomes slightly weak (thick).Furthermore, since only the multipulses in the pinch section are found by pitch prediction, the amount of calculation required to search for the pinch predicted multipulses can be greatly reduced. This has the great effect of significantly reducing the amount of calculation compared to the conventional method.
第1図は本発明による音声符号化復号化方式とその装置
の一実施例の構成を示すブロック図、第2図は本発明の
作用を示すブロック図である。第3図はパルス列探索法
の例を示すブロック図である。第4図は従来方式の例を
示すブロック図である。
図において、150・・・LPC分析部、200・・・
ピッチ計算部、250・・・ピッチ予測マルチパルス計
算部、270・・・マルチパルス計算部、520・・・
スペクトル、ピッチパラメータ計W回に’d、530.
532・・・逆漬子化器、535.260.615.8
40・・・減算器、540.850・・・重み付は回路
、550・・・インパルス応答計算回路、560・・・
自己相関関数計算回路、570・・・相互相関関数計算
回路、525.526.585・・・量子化器、620
.740・・・加算器、600・・・乱数コードブツク
選択部、605.735・・・ピッチ再生フィルタ、6
10.760.820・・・合成フィルタ、635・・
・マルチプレクサ、710・・・デマルチプレクサ、7
20・・・パルス復号器、725・・・インデクス・ゲ
イン復号器、750・・・スペクトル、ピッチパラメー
タ復号器、730・・・パルス発生器、727・・・乱
数コード発生器。FIG. 1 is a block diagram showing the configuration of an embodiment of a speech encoding/decoding system and apparatus according to the present invention, and FIG. 2 is a block diagram showing the operation of the present invention. FIG. 3 is a block diagram showing an example of a pulse train search method. FIG. 4 is a block diagram showing an example of a conventional method. In the figure, 150...LPC analysis section, 200...
Pitch calculation unit, 250...Pitch prediction multi-pulse calculation unit, 270...Multi-pulse calculation unit, 520...
Spectrum, pitch parameter meter W times 'd, 530.
532... Reverse pickling device, 535.260.615.8
40... Subtractor, 540.850... Weighting circuit, 550... Impulse response calculation circuit, 560...
Autocorrelation function calculation circuit, 570...Cross correlation function calculation circuit, 525.526.585...Quantizer, 620
.. 740...Adder, 600...Random number codebook selection section, 605.735...Pitch reproduction filter, 6
10.760.820...Synthesis filter, 635...
・Multiplexer, 710...Demultiplexer, 7
20... Pulse decoder, 725... Index/gain decoder, 750... Spectrum, pitch parameter decoder, 730... Pulse generator, 727... Random number code generator.
Claims (1)
号からフレーム毎にスペクトル包絡を表すスペクトルパ
ラメータとピッチを表すピッチパラメータとを抽出し、
前記フレームの音声信号を前記ピッチパラメータに応じ
た小区間に分割し、前記フレームの音声信号の音源を前
記スペクトルパラメータと前記ピッチパラメータとを用
い前記小区間のうち1つの区間について求めたマルチパ
ルスと前記マルチパルスによる影響の除去後に前記スペ
クトルパラメータを用いて求めたコードブックとで表し
、受信側では前記マルチパルスと前記ピッチパラメータ
及び前記コードブックを用いて音源信号を復元しさらに
前記スペクトルパラメータを用いて合成音声信号を求め
ることを特徴とする音声符号化復号化方式。(2)入力
した離散的な音声信号からフレーム毎にスペクトル包絡
を表すスペクトルパラメータとピッチを表すピッチパラ
メータを抽出し符号化するパラメータ計算回路と、前記
フレームの音声信号を前記ピッチパラメータに応じた小
区間に分割する分割回路と、前記スペクトルパラメータ
と前記ピッチパラメータとを用いて前記小区間のうちの
1つの区間についてマルチパルスを求めて符号化し前記
符号化したマルチパルスにより求めた信号を除去した後
に前記スペクトルパラメータを用いてコードブックを求
めて符号化する音源計算回路と、前記パラメータ計算回
路の出力符号と前記音源計算回路の出力符号とを組み合
わせて出力することを特徴とする音声符号化装置。 (3)スペクトルパラメータを表す符号とピッチパラメ
ータを表す符号とマルチパルスを表す符号とコードブッ
クを表す符号とを分離して復号化するデマルチプレクサ
回路と、フレーム区間を前記復号化したピッチパラメー
タに応じた小区間に分割し前記小区間の1つについて前
記復号化したマルチパルスを発生し前記ピッチパラメー
タを用いてピッチを再生し、前記ピッチを再生した信号
に前記復号化したコードブックを発生させて加算し音源
信号を復元する音源復元回路と、前記復元した音源信号
と前記復号化したスペクトルパラメータを用いて合成音
声信号を求め出力する合成フィルタ回路とを有すること
を特徴とする音声復号化装置。[Claims] (1) On the transmitting side, a discrete audio signal is input, and a spectral parameter representing a spectral envelope and a pitch parameter representing a pitch are extracted from the audio signal for each frame,
The audio signal of the frame is divided into small sections according to the pitch parameter, and the sound source of the audio signal of the frame is a multipulse obtained for one of the small sections using the spectrum parameter and the pitch parameter. A codebook obtained using the spectral parameters after removing the influence of the multi-pulse, and the receiving side restores the sound source signal using the multi-pulse, the pitch parameter, and the codebook, and further uses the spectral parameter. A speech encoding/decoding method characterized in that a synthesized speech signal is obtained by using (2) A parameter calculation circuit that extracts and encodes a spectral parameter representing a spectral envelope and a pitch parameter representing a pitch from an input discrete audio signal for each frame; After determining and encoding a multi-pulse for one section of the small sections using a dividing circuit that divides into sections, the spectral parameter and the pitch parameter, and removing the signal obtained by the encoded multi-pulse. A speech encoding device comprising: an excitation calculation circuit that obtains and encodes a codebook using the spectral parameters; and outputs a combination of an output code of the parameter calculation circuit and an output code of the excitation calculation circuit. (3) A demultiplexer circuit that separates and decodes a code representing a spectral parameter, a code representing a pitch parameter, a code representing a multipulse, and a code representing a codebook; generating the decoded multi-pulse for one of the small intervals, reproducing the pitch using the pitch parameter, and generating the decoded codebook in the signal from which the pitch has been reproduced. A speech decoding device comprising: a sound source restoration circuit that adds and restores a sound source signal; and a synthesis filter circuit that obtains and outputs a synthesized speech signal using the restored sound source signal and the decoded spectral parameter.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63245076A JPH0291697A (en) | 1988-09-28 | 1988-09-28 | System and device for encoding and decoding sound |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63245076A JPH0291697A (en) | 1988-09-28 | 1988-09-28 | System and device for encoding and decoding sound |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0291697A true JPH0291697A (en) | 1990-03-30 |
Family
ID=17128238
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP63245076A Pending JPH0291697A (en) | 1988-09-28 | 1988-09-28 | System and device for encoding and decoding sound |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0291697A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04232999A (en) * | 1990-06-07 | 1992-08-21 | Motorola Inc | Signal coding method used in speech encoder utilizing software interpolating judgment of spectrum parameter |
-
1988
- 1988-09-28 JP JP63245076A patent/JPH0291697A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04232999A (en) * | 1990-06-07 | 1992-08-21 | Motorola Inc | Signal coding method used in speech encoder utilizing software interpolating judgment of spectrum parameter |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4005359B2 (en) | Speech coding and speech decoding apparatus | |
JP3180762B2 (en) | Audio encoding device and audio decoding device | |
JPH0353300A (en) | Sound encoding and decoding system | |
JP3582589B2 (en) | Speech coding apparatus and speech decoding apparatus | |
JPH02249000A (en) | Voice encoding system | |
EP1103953B1 (en) | Method for concealing erased speech frames | |
JP3531780B2 (en) | Voice encoding method and decoding method | |
WO2000000963A1 (en) | Voice coder | |
JP2829978B2 (en) | Audio encoding / decoding method, audio encoding device, and audio decoding device | |
JP3916934B2 (en) | Acoustic parameter encoding, decoding method, apparatus and program, acoustic signal encoding, decoding method, apparatus and program, acoustic signal transmitting apparatus, acoustic signal receiving apparatus | |
JP2001318698A (en) | Voice coder and voice decoder | |
JP2736157B2 (en) | Encoding device | |
JPH0291697A (en) | System and device for encoding and decoding sound | |
JP3319396B2 (en) | Speech encoder and speech encoder / decoder | |
JP2853170B2 (en) | Audio encoding / decoding system | |
JP3063087B2 (en) | Audio encoding / decoding device, audio encoding device, and audio decoding device | |
JPH028900A (en) | Voice encoding and decoding method, voice encoding device, and voice decoding device | |
JP3006790B2 (en) | Voice encoding / decoding method and apparatus | |
JP3296411B2 (en) | Voice encoding method and decoding method | |
JP2001142499A (en) | Speech encoding device and speech decoding device | |
JP3468862B2 (en) | Audio coding device | |
JPH0291699A (en) | Sound encoding and decoding system | |
JP2615862B2 (en) | Voice encoding / decoding method and apparatus | |
JPH06130994A (en) | Voice encoding method | |
JP3071800B2 (en) | Adaptive post filter |