JPH0683393A - Speech encoding device - Google Patents

Speech encoding device

Info

Publication number
JPH0683393A
JPH0683393A JP4233925A JP23392592A JPH0683393A JP H0683393 A JPH0683393 A JP H0683393A JP 4233925 A JP4233925 A JP 4233925A JP 23392592 A JP23392592 A JP 23392592A JP H0683393 A JPH0683393 A JP H0683393A
Authority
JP
Japan
Prior art keywords
speech
codebook
linear prediction
error
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4233925A
Other languages
Japanese (ja)
Inventor
Takashi Yoshihara
隆史 吉原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP4233925A priority Critical patent/JPH0683393A/en
Priority to US08/052,658 priority patent/US5432883A/en
Publication of JPH0683393A publication Critical patent/JPH0683393A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To obtain the speech encoding device which can make a linear prediction error smaller. CONSTITUTION:This device is equipped with a linear predictive analytic part 2 which has a synthesized speech code book consisting of synthesized speech resynthesized on the basis of past input speech compares an input speech with respective elements in the synthesized speech code book, and finds a linear prediction coefficient for a difference speech obtained by subtracting the element having the highest correlation from the input speech and an AbS(Analysis by Synthesis) processing part 10 which minimizes the linear prediction error based upon the difference speech by using a code book for excitation consisting of exciting vectors.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、人間の発する音声を効
率的に符号化する音声符号化方法のなかでも、分析合成
符号化方法を用いた音声符号化装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech coding apparatus using an analysis-synthesis coding method, among speech coding methods for efficiently coding human speech.

【0002】[0002]

【従来の技術】分析合成符号化方法の代表例として、線
形予測分析と励起用コードブックを用いたCELP(Cod
e-Excited Linear Prediction : 残差駆動型線形予測)
符号化がある。この符号化方法を用いた音声符号化装置
の構成図を図6に示す。図中において音声入力部1に入
力された入力音声は線形予測分析部2に供給され、線形
予測係数αが求められる。そして、線形予測係数量子化
部3にてスカラー量子化されたαは線形予測器4に供給
される。線形予測器4には、同時に励起用コードブック
5からの励起ベクトルのインデックスie が入力され、
これより、線形予測器4からは線形予測音声xv が出力
される。差分器8において、入力音声xとその線形予測
音声xv との差分がとられ、予測誤差eが求まる。その
予測誤差eは聴覚的雑音感を低減させるために、聴覚重
み付けフィルタ6を通じて、誤差最小化部7に供給され
る。誤差最小化部7では予測誤差eの平均自乗誤差を求
め、最小の平均自乗誤差と、その時の励起ベクトルのイ
ンデックスie を保持する。そして、励起用コードブッ
ク5の全ての励起ベクトルについて、上記処理を行った
のち、音声復号化装置30へ量子化された線形予測係数
αと励起ベクトルのインデックスie が送出されること
になる。
2. Description of the Related Art As a typical example of an analysis-synthesis coding method, CELP (Cod (Cod) using linear prediction analysis and a codebook for excitation is used.
e-Excited Linear Prediction: Residual-driven linear prediction)
There is encoding. FIG. 6 shows a block diagram of a speech coding apparatus using this coding method. In the figure, the input voice input to the voice input unit 1 is supplied to the linear prediction analysis unit 2 and the linear prediction coefficient α is obtained. Then, the scalar-quantized α in the linear prediction coefficient quantization unit 3 is supplied to the linear predictor 4. The index i e of the excitation vector from the excitation codebook 5 is simultaneously input to the linear predictor 4,
As a result, the linear predictor 4 outputs the linear predictive speech x v . In the differentiator 8, the difference between the input speech x and its linear prediction speech x v is calculated, and the prediction error e is obtained. The prediction error e is supplied to the error minimization unit 7 through the auditory weighting filter 6 in order to reduce the perceptual noise. The error minimization unit 7 obtains the mean square error of the prediction error e, and holds the minimum mean square error and the index i e of the excitation vector at that time. Then, after performing the above processing for all the excitation vectors in the excitation codebook 5, the quantized linear prediction coefficient α and the excitation vector index i e are transmitted to the speech decoding apparatus 30.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記し
た従来の音声符号化装置では、線形予測残差の隣接間フ
レームの相関性を用いる適応コードブックを使用しても
線形予測誤差を十分に小さくできなかった。
However, in the conventional speech coding apparatus described above, the linear prediction error can be sufficiently reduced even if the adaptive codebook using the correlation between adjacent frames of the linear prediction residual is used. There wasn't.

【0004】本発明の音声符号化装置はこのような課題
に着目してなされたものであり、その目的とするところ
は、再合成された合成音声そのもの及びその線形予測係
数の隣接間フレーム相関を利用することによって、線形
予測誤差をより小さくすることが可能でかつ、符号量の
低ビットレート化が可能な音声符号化装置を提供するこ
とにある。
The speech coding apparatus of the present invention has been made in view of the above problems, and its purpose is to determine the re-synthesized synthesized speech itself and the inter-adjacent frame correlation of its linear prediction coefficient. It is an object of the present invention to provide a speech coding apparatus that can reduce the linear prediction error and can reduce the bit rate of the code amount by utilizing the above.

【0005】[0005]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明の音声符号化装置は、過去の入力音声をも
とに再合成した合成音声からなる合成音声コードブック
をもち、この合成音声コードブックの各要素と入力音声
を比較し、最も相関の高い要素を入力音声から差し引い
た差分音声に対して線形予測係数を求める線形予測分析
部と、励起ベクトルから構成される励起用コードブック
を用いて、差分音声との線形予測誤差を最小化するAb
S処理部とを具備する。
In order to achieve the above object, the speech coding apparatus of the present invention has a synthesized speech codebook composed of synthesized speech resynthesized based on past input speech. Excitation code consisting of excitation vector, which compares each element of the synthetic speech codebook with the input speech and finds the linear prediction coefficient for the difference speech obtained by subtracting the element with the highest correlation from the input speech Ab for minimizing linear prediction error with differential speech using a book
And an S processing unit.

【0006】[0006]

【作用】すなわち、本発明においては、過去の入力音声
をもとに再合成した合成音声と入力音声とを比較して、
最も相関の高い要素を入力音声から差し引いた差分音声
に対して線形予測係数を求め、差分音声との線形予測誤
差を最小化する。
In other words, in the present invention, the synthesized voice re-synthesized based on the past input voice and the input voice are compared,
A linear prediction coefficient is obtained for the differential speech by subtracting the element with the highest correlation from the input speech, and the linear prediction error with the differential speech is minimized.

【0007】[0007]

【実施例】本発明の実施例の概念図を図1に示す。本実
施例においても、従来の音声符号化装置と同様に、線形
予測分析部2と励起用コードブック5及びAbS(Anal
ysis By Synthesis : 合成による分析) 処理部10を有
するが、本実施例はさらに過去の合成音声を基に作成さ
れた合成音声コードブック9をもつ。
FIG. 1 shows a conceptual diagram of an embodiment of the present invention. Also in this embodiment, similar to the conventional speech coding apparatus, the linear prediction analysis unit 2, the excitation codebook 5, and the AbS (Anal) are used.
ysis By Synthesis: Analysis by synthesis) Although the processing unit 10 is included, the present embodiment further includes the synthetic voice codebook 9 created based on the past synthetic voice.

【0008】音声入力部1に供給された入力音声は合成
音声コードブック9の各要素と比較され、差分器8にお
いて最も相関の高い要素との差分がとられる。得られた
差分音声は線形予測分析部2で分析され、線形予測係数
αが求められる。
The input voice supplied to the voice input unit 1 is compared with each element of the synthetic voice codebook 9 and the difference with the element having the highest correlation is obtained in the difference calculator 8. The obtained differential speech is analyzed by the linear prediction analysis unit 2 to obtain the linear prediction coefficient α.

【0009】AbS処理部10は図6における線形予測
器4と差分器8、聴覚重み付けフィルタ6、誤差最小化
部7よりなる処理部で、線形予測分析部2からの線形予
測係数αと励起用コードブック5からの励起ベクトルを
用いて、最適な励起ベクトルを探索する。この最適な励
起ベクトルにより合成された合成音声と、前記算出済み
の入力音声と最も相関の高い合成音声コードブック9の
要素とを加算した合成音声を合成音声コードブック9の
新たな要素として追加し、最も時間的に古い要素を削除
する。この符号化装置から音声復号化装置30へは、従
来の線形予測係数αと励起用コードブックのインデック
スie 以外に、合成音声コードブックのインデックスi
x'を送信する必要がある。上記処理を、入力音声を一定
間隔で分割した各音声区間毎に実施する。
The AbS processing unit 10 is a processing unit including a linear predictor 4, a difference unit 8, an auditory weighting filter 6, and an error minimizing unit 7 in FIG. The excitation vector from Codebook 5 is used to search for the optimal excitation vector. A synthesized speech obtained by adding the synthesized speech synthesized by the optimum excitation vector and the element of the synthesized speech codebook 9 having the highest correlation with the calculated input speech is added as a new element of the synthesized speech codebook 9. , Remove the oldest element in time. From the encoding device to the speech decoding device 30, in addition to the conventional linear prediction coefficient α and the index i e of the excitation codebook, the index i of the synthetic speech codebook is used.
You need to send x ' . The above process is performed for each voice section obtained by dividing the input voice at regular intervals.

【0010】図2に本発明の第1実施例の構成を示す。
図2の1〜9及び30は、図1及び図6の同番号に対応
し、11は入力音声と合成音声コードブック9の要素と
の誤差を受けとり、その誤差を最小とする合成音声コー
ドブック9のインデックスをサーチするように制御する
機能をもつ誤差最小化部Aであり、12は差分音声x″
と線形予測器4からの出力であるx″の予測音声xv
との誤差を受けとり、その誤差を最小とする励起用コー
ドブック5のインデックスをサーチするように制御する
機能をもつ誤差最小化部Bであり、13は音声信号同士
を加算する加算器である。上記構成からなる音声符号化
装置(図3では20で示される)の動作を具体的に説明
する。
FIG. 2 shows the configuration of the first embodiment of the present invention.
1 to 9 and 30 in FIG. 2 correspond to the same numbers in FIGS. 1 and 6, and 11 is a synthetic speech codebook that receives an error between an input speech and an element of the synthetic speech codebook 9 and minimizes the error. An error minimization unit A having a function of controlling so as to search for an index of 9, and 12 is a difference voice x ″.
And the prediction speech x v ″ of x ″ which is the output from the linear predictor 4.
Is an error minimization unit B having a function of receiving an error between the two signals and controlling to search an index of the excitation codebook 5 that minimizes the error, and 13 is an adder for adding voice signals to each other. The operation of the speech encoding apparatus (shown by 20 in FIG. 3) having the above configuration will be specifically described.

【0011】まず、一定の時間間隔で標本化され音声入
力部1に供給された入力音声は、差分器8において過去
の合成音声からなる合成音声コードブック9の1つの要
素と比較減算され、その結果が誤差として誤差最小化部
A11に送られる。誤差最小化部A11は合成音声コー
ドブック9のインデックスを操作しながら、誤差最小の
差分音声x″とそのときの合成音声コードブック9のイ
ンデックスix'を求める。求められた差分音声x″は線
形予測分析部2に供給され、公知の技術である共分散法
あるいは自己相関法を用いて線形予測係数αが分析次数
分(通常、分析次数は10程度である)計算される。線
形予測器4では、線形予測係数αと励起用コードブック
5の要素である励起ベクトルを用いて、予測音声xv
を計算し、出力する。
First, the input voice sampled at a constant time interval and supplied to the voice input unit 1 is compared and subtracted with one element of a synthesized voice codebook 9 consisting of past synthesized voices by a differentiator 8, and its The result is sent as an error to the error minimizing unit A11. The error minimization unit A11 operates the index of the synthetic speech codebook 9 to find the difference speech x ″ having the smallest error and the index ix of the synthetic speech codebook 9 at that time. The obtained difference speech x ″ is It is supplied to the linear prediction analysis unit 2 and the linear prediction coefficient α is calculated for the analysis order (usually, the analysis order is about 10) using the well-known technique such as the covariance method or the autocorrelation method. The linear predictor 4 uses the linear prediction coefficient α and the excitation vector which is an element of the excitation codebook 5 to predict the predicted speech x v ″.
Is calculated and output.

【0012】次に誤差最小化部B12では、差分器21
において求められた差分音声x″とその予測音声である
v ″との誤差を受けとり、励起用コードブック5のイ
ンデックスを操作しながら、誤差最小の予測音声xv
とそのときの励起用コードブック5のインデックスie
を求める。そして、音声復号化装置30へは、線形予測
係数αと励起用コードブック5のインデックスie と合
成音声コードブック5のインデックスix'が送出され
る。また、誤差最小の予測音声xv ″は加算器13にお
いて、誤差最小化部A11で求めた合成音声コードブッ
ク9のインデックスix'の示す要素と加算され、その結
果である合成音声x″は合成音声コードブック9のいく
つかの要素として登録される。
Next, in the error minimization section B12, the difference calculator 21
The error between the differential speech x ″ obtained in step S1 and the predicted speech x v ″ is received, and the predicted speech x v ″ with the smallest error is manipulated while operating the index of the excitation codebook 5.
And index i e of the excitation codebook 5 at that time
Ask for. Then, the linear prediction coefficient α, the index i e of the excitation codebook 5 and the index i x ′ of the synthetic speech codebook 5 are sent to the speech decoding device 30. Further, the predicted speech x v ″ with the smallest error is added in the adder 13 to the element indicated by the index i x ′ of the synthesized speech codebook 9 obtained by the error minimization unit A 11, and the resultant synthesized speech x ″ is Registered as some elements of the synthetic voice codebook 9.

【0013】図3は、第1実施例の復号化装置の構成で
ある。音声符号化装置20からは線形予測係数αと励起
用コードブック5のインデックスie と合成音声コード
ブック9のインデックスix'が送られてくる。まず、イ
ンデックスie の示す位置の励起用コードブック5の要
素が線形予測器4に供給され、線形予測係数αとによ
り、線形予測器4において差分音声x″に対する予測音
声xv ″が合成される。そしてインデックスix'の示す
位置の合成音声コードブック9の要素x′が取り出さ
れ、加算器13にて、このx′とxv ″の和がとられ、
合成音声xv として出力される。この合成音声xv は音
声符号化装置と同様に合成音声コードブック9のいくつ
かの要素として登録される。
FIG. 3 shows the configuration of the decoding apparatus according to the first embodiment. From the speech coding apparatus 20, the linear prediction coefficient α, the index i e of the excitation codebook 5 and the index i x ′ of the synthetic speech codebook 9 are sent. First, the element of the excitation codebook 5 at the position indicated by the index i e is supplied to the linear predictor 4, and the linear predictor 4 synthesizes the predicted speech x v ″ with the differential speech x ″ by the linear predictor 4. It The index i x 'element x of synthesized speech codebook 9 position indicated by' is taken out at the adder 13, the sum of the x 'and x v "taken,
It is output as a synthesized voice x v . This synthesized speech x v is registered as some elements of the synthesized speech codebook 9 similarly to the speech coder.

【0014】次に、第2実施例の符号化装置の例を図4
に示す。この例は、第1実施例が合成音声xv を直接使
用していたのと異なり、合成音声xv を再度、線形予測
分析し、線形予測係数αを求め、これをコードブックと
して使用する。図4において、15がそのコードブック
で、過去の入力音声の合成音声xv の線形予測係数(LP
C 係数)を格納した合成音声LPCコードブックであ
る。これも、順をおって具体的動作を説明していく。
Next, FIG. 4 shows an example of the encoding apparatus of the second embodiment.
Shown in. This example is different as the first embodiment was using synthesized speech x v directly synthesized speech x v again, and linear prediction analysis, obtains a linear predictive coefficient alpha, use this as the code book. In FIG. 4, reference numeral 15 denotes the codebook, which is a linear prediction coefficient (LP for the synthesized speech x v of the past input speech).
It is a synthetic speech LPC codebook that stores C coefficients). Again, the specific operation will be explained step by step.

【0015】まず、一定の時間間隔で標本化され、音声
入力部1に供給された入力音声は線形予測分析部2に入
力され、線形予測係数αが求められる。この線形予測係
数αは合成音声LPCコードブック15の1つの要素と
比較され、その結果が誤差として誤差最小化部A11に
送られる。誤差最小化部A11は合成音声LPCコード
ブック15のインデックスを操作しながら、誤差最小の
合成音声LPCコードブック15のインデックス iα′
を求める。線形予測器4では、インデックス iα´の示
す要素(線形予測係数α′)と励起用コードブック5の
要素である励起ベクトルを用いて、予測音声xv を計算
し出力する。
First, the input speech sampled at a constant time interval and supplied to the speech input section 1 is input to the linear prediction analysis section 2 and the linear prediction coefficient α is obtained. This linear prediction coefficient α is compared with one element of the synthetic speech LPC codebook 15, and the result is sent to the error minimization unit A11 as an error. The error minimization unit A11 operates the index of the synthetic speech LPC codebook 15 while operating the index iα ′ of the synthetic speech LPC codebook 15 having the minimum error.
Ask for. The linear predictor 4 calculates and outputs the predicted speech x v using the element indicated by the index iα ′ (linear prediction coefficient α ′) and the excitation vector which is the element of the excitation codebook 5.

【0016】次に誤差最小化部B12は差分器21にお
いて求められた入力音声xとその予測音声xv との誤差
を受けとり、励起用コードブック5のインデックスを操
作しながら、誤差最小の予測音声xv とそのときの励起
用コードブック5のインデックスie を求める。そし
て、音声復号化装置30へは、合成音声LPCコードブ
ック15のインデックスi α′と励起用コードブック5
のインデックスie が送出される。また、誤差最小の予
測音声xv は、誤差最小化部B12から線形予測分析部
2に送られ、再度線形予測係数α″に変換され、合成音
声LPCコードブック15の要素として新たに登録され
る。
Next, the error minimization unit B12 receives the error between the input speech x obtained by the differencer 21 and the predicted speech x v , operates the index of the excitation codebook 5 and predicts the speech with the minimum error. x v and the index i e of the excitation codebook 5 at that time are obtained. Then, to the speech decoding device 30, the index i α ′ of the synthetic speech LPC codebook 15 and the excitation codebook 5 are transmitted.
The index i e of is sent. Also, the predicted speech x v with the smallest error is sent from the error minimization unit B12 to the linear prediction analysis unit 2, converted into the linear prediction coefficient α ″ again, and newly registered as an element of the synthetic speech LPC codebook 15. .

【0017】図5は第2実施例の復号化装置の例であ
る。音声符号化装置20からは、合成音声LPCコード
ブック15のインデックス iα′と励起用コードブック
5のインデックスie が送られてくる。まず、インデッ
クス iα′の示す合成音声LPCコードブック15の要
素α´とインデックスie の示す励起用コードブック5
の要素(励起ベクトル)が線形予測器4に供給され、合
成音声xv が計算され、出力される。また、この合成音
声xv は線形予測分析部2で再度、線形予測係数α″が
求められ、音声符号化装置側と同様に、合成音声LPC
コードブック15の要素として登録される。本実施例は
線形予測係数の適応的ベクトル量子化に相当するため、
従来のスカラー量子化に比較して量子化効率が高く、装
置内部にのみ線形予測係数をもつ(すなわち、線形予測
係数そのものを送信しない)ため、分析次数や量子化精
度を十分な大きさでもつことが可能となっている。
FIG. 5 shows an example of the decoding device of the second embodiment. From the speech coding apparatus 20, the index iα 'of the synthetic speech LPC codebook 15 and the index i e of the excitation codebook 5 are sent. First, the element α ′ of the synthetic speech LPC codebook 15 indicated by the index iα ′ and the excitation codebook 5 indicated by the index i e.
Is supplied to the linear predictor 4, and the synthesized speech x v is calculated and output. Further, the linear prediction analysis unit 2 obtains the linear prediction coefficient α ″ again for the synthesized speech x v , and the synthesized speech LPC is obtained in the same manner as the speech coder.
It is registered as an element of the codebook 15. Since this embodiment corresponds to adaptive vector quantization of linear prediction coefficients,
Quantization efficiency is higher than that of conventional scalar quantization, and the linear prediction coefficient is only inside the device (that is, the linear prediction coefficient itself is not transmitted), so it has sufficient analysis order and quantization accuracy. It is possible.

【0018】[0018]

【発明の効果】以上説明したように、本発明の音声符号
化装置においては、従来使用されていなかった過去の合
成音声との相関(類似)性を利用して、高音質化及び低
ビットレート化が可能となる。
As described above, the speech coding apparatus of the present invention utilizes the correlation (similarity) with the past synthesized speech, which has not been used conventionally, to improve the sound quality and reduce the bit rate. Can be realized.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る音声符号化装置の実施例の概念図
である。
FIG. 1 is a conceptual diagram of an embodiment of a speech encoding apparatus according to the present invention.

【図2】本発明の第1実施例の音声符号化装置の構成を
示す図である。
FIG. 2 is a diagram showing the configuration of a speech encoding apparatus according to the first embodiment of the present invention.

【図3】第1実施例の復号化装置の構成を示す図であ
る。
FIG. 3 is a diagram showing a configuration of a decoding device according to a first embodiment.

【図4】第2実施例の音声符号化装置の構成を示す図で
ある。
FIG. 4 is a diagram showing a configuration of a speech encoding apparatus according to a second embodiment.

【図5】第2実施例の復号化装置の構成を示す図であ
る。
FIG. 5 is a diagram showing a configuration of a decoding device according to a second embodiment.

【図6】従来の音声符号化装置の構成を示す図である。FIG. 6 is a diagram showing a configuration of a conventional speech encoding device.

【符号の説明】[Explanation of symbols]

1…音声入力部、2…線形予測分析部、5…励起用コー
ドブック、9…合成音声コードブック、10…AbS処
理部、30…音声復号化装置。
DESCRIPTION OF SYMBOLS 1 ... Speech input part, 2 ... Linear prediction analysis part, 5 ... Excitation codebook, 9 ... Synthetic speech codebook, 10 ... AbS processing part, 30 ... Speech decoding device.

─────────────────────────────────────────────────────
─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成5年4月2日[Submission date] April 2, 1993

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0012[Correction target item name] 0012

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0012】次に誤差最小化部B12では、差分器21
において求められた差分音声x″とその予測音声である
v ″との誤差を受けとり、励起用コードブック5のイ
ンデックスを操作しながら、誤差最小の予測音声xv
とそのときの励起用コードブック5のインデックスie
を求める。そして、音声復号化装置30へは、線形予測
係数αと励起用コードブック5のインデックスie と合
成音声コードブック5のインデックスix'が送出され
る。また、誤差最小の予測音声xv ″は加算器13にお
いて、誤差最小化部A11で求めた合成音声コードブッ
ク9のインデックスix'の示す要素と加算され、その結
果である合成音声x v は合成音声コードブック9のいく
つかの要素として登録される。
Next, in the error minimization section B12, the difference calculator 21
The error between the difference speech x ″ obtained in step S1 and the predicted speech x v ″ is received, and the predicted speech x v ″ with the smallest error is manipulated while operating the index of the excitation codebook 5.
And index i e of the excitation codebook 5 at that time
Ask for. Then, the linear prediction coefficient α, the index i e of the excitation codebook 5 and the index i x ′ of the synthetic speech codebook 5 are sent to the speech decoding device 30. Further, the predicted speech x v ″ with the smallest error is added in the adder 13 to the element indicated by the index i x ′ of the synthesized speech codebook 9 obtained by the error minimization unit A 11, and the resultant synthesized speech x v is Registered as some elements of the synthetic voice codebook 9.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 過去の入力音声をもとに再合成した合成
音声からなる合成音声コードブックをもち、この合成音
声コードブックの各要素と入力音声を比較し、最も相関
の高い要素を入力音声から差し引いた差分音声に対して
線形予測係数を求める線形予測分析部と、 励起ベクトルから構成される励起用コードブックを用い
て、差分音声との線形予測誤差を最小化するAbS処理
部とを具備することを特徴とする音声符号化装置。
1. A synthetic speech codebook composed of synthetic speech resynthesized based on past input speech, each element of this synthetic speech codebook is compared with the input speech, and the element having the highest correlation is input speech. A linear prediction analysis unit that obtains a linear prediction coefficient for the differential speech subtracted from, and an AbS processing unit that minimizes a linear prediction error with the differential speech by using an excitation codebook composed of excitation vectors. A speech coding apparatus characterized by:
JP4233925A 1992-04-24 1992-09-01 Speech encoding device Pending JPH0683393A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP4233925A JPH0683393A (en) 1992-09-01 1992-09-01 Speech encoding device
US08/052,658 US5432883A (en) 1992-04-24 1993-04-26 Voice coding apparatus with synthesized speech LPC code book

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4233925A JPH0683393A (en) 1992-09-01 1992-09-01 Speech encoding device

Publications (1)

Publication Number Publication Date
JPH0683393A true JPH0683393A (en) 1994-03-25

Family

ID=16962756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4233925A Pending JPH0683393A (en) 1992-04-24 1992-09-01 Speech encoding device

Country Status (1)

Country Link
JP (1) JPH0683393A (en)

Similar Documents

Publication Publication Date Title
Gerson et al. Vector sum excited linear prediction (VSELP)
US5208862A (en) Speech coder
US8463604B2 (en) Speech encoding utilizing independent manipulation of signal and noise spectrum
KR100304682B1 (en) Fast Excitation Coding for Speech Coders
JPH04270400A (en) Voice encoding system
KR20010102004A (en) Celp transcoding
EP0501421B1 (en) Speech coding system
JPH10187196A (en) Low bit rate pitch delay coder
KR100421648B1 (en) An adaptive criterion for speech coding
JPH0341500A (en) Low-delay low bit-rate voice coder
JP3087591B2 (en) Audio coding device
JPH10240299A (en) Voice encoding and decoding device
EP1187337B1 (en) Speech coding processor and speech coding method
EP0745972B1 (en) Method of and apparatus for coding speech signal
Gerson et al. A 5600 bps VSELP speech coder candidate for half-rate GSM
JPH0683393A (en) Speech encoding device
EP0484339A1 (en) Digital speech coder with vector excitation source having improved speech quality
JP3010654B2 (en) Compression encoding apparatus and method
JPH0830299A (en) Voice coder
JPH07168596A (en) Voice recognizing device
Tseng An analysis-by-synthesis linear predictive model for narrowband speech coding
JP3192051B2 (en) Audio coding device
JP3102017B2 (en) Audio coding method
CA2118986C (en) Speech coding system
JPH06130994A (en) Voice encoding method

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20020122