JP2003140699A - Voice decoding device - Google Patents

Voice decoding device

Info

Publication number
JP2003140699A
JP2003140699A JP2001342244A JP2001342244A JP2003140699A JP 2003140699 A JP2003140699 A JP 2003140699A JP 2001342244 A JP2001342244 A JP 2001342244A JP 2001342244 A JP2001342244 A JP 2001342244A JP 2003140699 A JP2003140699 A JP 2003140699A
Authority
JP
Japan
Prior art keywords
information
frame
error
frame error
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001342244A
Other languages
Japanese (ja)
Inventor
Kaori Endou
香緒里 遠藤
Takashi Ota
恭士 大田
Shinji Nakama
真司 中間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2001342244A priority Critical patent/JP2003140699A/en
Publication of JP2003140699A publication Critical patent/JP2003140699A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a voice decoding device which can reduce the influence of a decoding error on a decoding process after recovery from a frame error if a frame error occurs during transmission as for a voice decoding device which receives encoded information generated by linear prediction analysis and outputs a synthesized voice. SOLUTION: The voice decoding device receives encoded information generated by linear prediction analysis and outputs the synthesized voice by using the encoded information and information held in an internal memory wherein voice information generated in the past is fed back and held, and is equipped with an error recovering means which updates the contents held in the internal memory by using the information held in the internal memory at least right after a frame error as to a frame recovered to a state wherein the encoded information can be received normally from the state of the frame error wherein the encoded information can not be received normally.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、線形予測分析で生
成された符号化情報を受信し、該符号化情報と、過去に
生成した音声情報をフィードバックして保持する内部メ
モリの保持内容とから合成音声を出力する音声復号化装
置に係り、特に、伝送中に符号誤りや符号化情報の消失
(以降、「符号誤り」と「符号化情報の消失」とを1つ
のテクニカル・タームに統一して「フレーム誤り」と記
載する。)があった場合に、フレーム誤りから復帰後の
復号処理における復号誤差の波及を縮減することができ
る音声復号化装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention receives coded information generated by linear prediction analysis, and uses the coded information and the contents stored in an internal memory for feeding back and storing voice information generated in the past. The present invention relates to a speech decoding apparatus that outputs synthetic speech, and particularly, a code error and loss of coding information during transmission (hereinafter, “code error” and “loss of coding information” are unified into one technical term. The present invention relates to a speech decoding apparatus capable of reducing the spread of decoding error in decoding processing after recovery from a frame error.

【0002】線形予測符号化方式を適用する音声符号化
装置及び音声復号化装置は、携帯電話システムやインタ
ーネット上で電話音声の通信を行なうVoIP(ボイス
・オーバーIP:Voice over Internet Protocol) シス
テムなどに適用されており、適用システムの帯域を縮減
することによりシステム・コストの低減化を実現し、上
記適用システムの普及を促進している。
A speech coding apparatus and a speech decoding apparatus to which a linear predictive coding method is applied are used in a mobile telephone system and a VoIP (Voice over Internet Protocol) system which performs telephone voice communication on the Internet. The system cost is reduced by reducing the bandwidth of the applicable system, and the spread of the applicable system is promoted.

【0003】しかし、携帯電話システムでは携帯電話機
と基地局などの間が無線通信区間であるために、空間に
存在する種々の雑音によって符号化情報に符号誤りが混
入する恐れが多分にある。又、VoIPシステムでは種
々の要因によって伝送情報が消失することがある。この
ような符号誤りや伝送情報の消失などのフレーム誤りが
一旦生ずると、線形予測を行なう音声復号化装置では現
在の符号化情報と共に過去の符号化情報や音声情報を使
用して音声情報を再生するので、フレーム誤りから復帰
した後も暫く復号結果に誤差が残って、音声通信品質の
低下の原因になる。
However, in the mobile phone system, since the wireless communication section is between the mobile phone and the base station, there is a possibility that a code error is mixed in the coded information due to various noises existing in space. Further, in the VoIP system, transmission information may be lost due to various factors. Once a frame error such as a code error or loss of transmission information occurs, a speech decoding apparatus that performs linear prediction reproduces speech information by using past coding information and speech information together with current coding information. Therefore, an error remains in the decoding result for a while even after recovering from the frame error, which causes deterioration of voice communication quality.

【0004】従って、フレーム誤りから復帰した後の復
号結果の誤差を縮減することが可能な音声復号化装置の
実現が強く望まれている。
Therefore, it is strongly desired to realize a speech decoding apparatus capable of reducing an error in a decoding result after recovering from a frame error.

【0005】[0005]

【従来の技術】図18は、従来の音声復号化装置の構成
(その1)で、フレーム誤りがない正常な状態で符号化
情報を受信して、合成音声を出力する場合の構成を示し
ている。尚、実際の音声復号化系においては図18の構
成の後段にも適応ポスト・フィルタ等が配置されるが、
本明細書ではそれらの図示を省略する。
2. Description of the Related Art FIG. 18 shows a configuration of a conventional speech decoding apparatus (No. 1) in the case of receiving encoded information in a normal state without frame error and outputting synthesized speech. There is. In the actual speech decoding system, the adaptive post filter and the like are arranged in the latter stage of the configuration of FIG.
In the present specification, their illustration is omitted.

【0006】図18において、1は音声の相関を除いた
後の周期性を有する音源情報を格納する適応符号帳、2
は音声の相関を除いた後の雑音成分の音源情報を格納す
る固定符号帳、3は適応符号帳1から読み出した音源情
報に適応符号帳利得を掛ける適応符号帳利得乗算器、4
は固定符号帳から読み出した音源情報に固定符号帳利得
を掛ける固定符号帳利得乗算器、5は適応符号帳利得乗
算器3及び固定符号帳利得乗算器4の出力を合算して音
源情報を生成する加算器、6は加算器5が出力する音源
情報と受信した線形予測係数(図では「LPC係数」と
略記している。これは、Linear Prediction Coefficien
t の頭文字による略語で、特に「係数」を付加する必要
はないが、習慣上LPC係数と読んでいる。)とを受け
て合成音声を出力する線形予測合成フィルタ(図では、
「LPC合成フィルタ」と略記している。以降も、図で
は同様に記載する。)、7は線形予測合成フィルタ6が
合成音声を生成する際に使用する過去の合成音声情報を
格納する線形予測合成用メモリ(図では、「LPC合成
用メモリ」と略記している。以降も、図では同様に記載
する。)である。
In FIG. 18, 1 is an adaptive codebook for storing excitation information having periodicity after removing speech correlation, and 2
Is a fixed codebook for storing the excitation information of the noise component after removing the speech correlation, 3 is an adaptive codebook gain multiplier for multiplying the excitation information read from the adaptive codebook 1 by the adaptive codebook gain, 4
Is a fixed codebook gain multiplier for multiplying the excitation information read from the fixed codebook by a fixed codebook gain, and 5 is the sum of the outputs of the adaptive codebook gain multiplier 3 and the fixed codebook gain multiplier 4 to generate excitation information. The linear predictive coefficien 6 and the linear predictive coefficient 6 are abbreviated as “LPC coefficient” in the figure.
It is an abbreviation for the initial letter t, and it is not necessary to add a "coefficient", but it is customarily read as an LPC coefficient. ) And a linear prediction synthesis filter that outputs synthesized speech (in the figure,
It is abbreviated as "LPC synthesis filter". The subsequent description will be similarly described in the drawings. ), 7 is a memory for linear prediction synthesis that stores past synthetic speech information used when the linear prediction synthesis filter 6 generates synthetic speech (abbreviated as "LPC synthesis memory" in the figure. , Is also described in the figure).

【0007】フレーム誤りがない正常な状態で符号化情
報を受信して、合成音声を出力する場合の動作の概要は
下記の通りである。即ち、音声符号化装置からは符号化
情報である、線形予測係数、適応符号帳1からの音源情
報の読み出し開始位置を示す適応符号帳インデックス、
固定符号帳2からの音源情報を読み出す位置を示す固定
符号帳インデックス、適応符号帳1から読み出した音源
情報に掛ける適応符号帳利得、固定符号帳2から読み出
した音源情報に掛ける固定符号帳インデックスが送信さ
れてくる。
The outline of the operation in the case of receiving the encoded information and outputting the synthesized voice in the normal state without the frame error is as follows. That is, a linear prediction coefficient, which is coding information, from the speech coding apparatus, an adaptive codebook index indicating a reading start position of excitation information from the adaptive codebook 1,
The fixed codebook index indicating the position at which the excitation information from the fixed codebook 2 is read, the adaptive codebook gain by which the excitation information read from the adaptive codebook 1 is multiplied, and the fixed codebook index by which the excitation information read from the fixed codebook 2 is multiplied are It will be sent.

【0008】図18の構成の音声復号化装置は、適応符
号帳インデックスを参照して適応符号帳1から音源情報
を読み出して、適応符号帳利得乗算器3において適応符
号帳利得を乗算する。一方、固定符号帳インデックスを
参照して固定符号帳2から音源情報を読み出して、固定
符号帳利得乗算器4において固定符号帳利得を乗算す
る。
The speech decoding apparatus configured as shown in FIG. 18 reads the excitation information from the adaptive codebook 1 with reference to the adaptive codebook index, and multiplies the adaptive codebook gain by the adaptive codebook gain multiplier 3. On the other hand, the excitation information is read from the fixed codebook 2 with reference to the fixed codebook index, and the fixed codebook gain multiplier 4 multiplies the fixed codebook gain.

【0009】次いで、適応符号帳利得乗算器3及び固定
符号帳利得乗算器4の出力を加算器5で合算して音源情
報を生成する。そして、次のフレームでの復号処理に備
えて生成した音源情報によって適応符号帳の格納内容を
更新する。更に、線形予測合成フィルタ6において、受
信した線形予測係数と、加算器5が出力する音源情報
と、線形予測合成用メモリ7から読み出した過去の合成
音声情報を参照して現時点の合成音声を生成して出力す
る。そして、現時点の合成音声情報によって線形予測合
成用メモリ7の格納内容を更新して、次のフレームにお
ける復号処理に備える。
Next, the outputs of the adaptive codebook gain multiplier 3 and the fixed codebook gain multiplier 4 are added up by an adder 5 to generate excitation information. Then, the stored content of the adaptive codebook is updated with the excitation information generated in preparation for the decoding process in the next frame. Further, in the linear prediction synthesis filter 6, the received linear prediction coefficient, the sound source information output from the adder 5, and the past synthetic speech information read from the linear prediction synthesis memory 7 are referred to generate the present synthetic speech. And output. Then, the contents stored in the memory 7 for linear prediction synthesis are updated with the synthesized speech information at the present time to prepare for the decoding process in the next frame.

【0010】図19は、従来の音声復号化装置の構成
(その2)で、フレーム誤りが生じたために符号化情報
を得られない場合の構成を示している。構成要素は図1
8の構成とく同じであるので、構成要素自体の説明は省
略するが、この場合には加算器は使用されず、適応符号
帳利得乗算器3の出力又は固定符号帳利得乗算器4の出
力のいずれかが音源情報として使用される点が図18の
構成と異なっている。
FIG. 19 shows a configuration of a conventional speech decoding apparatus (part 2) in the case where encoded information cannot be obtained due to a frame error. The components are shown in Figure 1.
Since it is the same as the configuration of FIG. 8, the description of the components themselves is omitted, but in this case, the adder is not used and the output of the adaptive codebook gain multiplier 3 or the output of the fixed codebook gain multiplier 4 is not used. The difference from the configuration of FIG. 18 is that one of them is used as sound source information.

【0011】フレーム誤りが生じたために符号化情報を
得られない場合の合成音声を出力する動作の概要は下記
の通りである。即ち、フレーム誤りのために符号化情報
を得ることができないので、適応符号帳インデックスと
しては直前の適応符号帳インデックスを使用し、固定符
号帳インデックスはランダムに発生させて使用し、適応
符号帳利得と固定符号帳利得は直前の適応符号帳利得と
固定符号帳利得に一定の係数を書けて減衰させて使用す
る。ここで、適応符号帳利得と固定符号帳利得は直前の
適応符号帳利得と固定符号帳利得に一定の係数を書けて
減衰させて使用するのは、復号処理の誤差を含む合成音
声を大きく出力するより、復号処理の誤差を含む合成音
声を小さく出力する方が耳で聴いた時の復号処理の誤差
の影響を軽減するためである。又、線形予測係数として
は直前の線形予測係数を使用する。
The outline of the operation for outputting the synthesized speech when the coded information cannot be obtained due to the occurrence of the frame error is as follows. That is, since the coding information cannot be obtained due to a frame error, the previous adaptive codebook index is used as the adaptive codebook index, and the fixed codebook index is randomly generated and used. The fixed codebook gain and the fixed codebook gain are used by attenuating a fixed coefficient by writing to the immediately preceding adaptive codebook gain and fixed codebook gain. Here, for the adaptive codebook gain and the fixed codebook gain, a fixed coefficient can be written to the immediately preceding adaptive codebook gain and the fixed codebook gain to be attenuated to use a large output of synthetic speech including an error in the decoding process. Rather, it is to reduce the influence of the error in the decoding process when the synthesized speech including the error in the decoding process is output in a smaller size when the sound is heard. Also, the previous linear prediction coefficient is used as the linear prediction coefficient.

【0012】この場合には、直前の音源情報の周期性の
強弱によって、適応符号帳利得乗算器3の出力又は固定
符号帳利得乗算器4の出力のいずれかを音源情報とし、
適応符号帳利得乗算器3の出力又は固定符号帳利得乗算
器4の出力のいずれかによって適応符号帳の音源情報を
更新する。そして、上記の如くして得た音源情報を線形
予測合成フィルタ6に供給し、フレーム誤りが発生する
直前の線形予測係数と線形予測合成用メモリ7に格納さ
れている過去の合成音声情報を参照して合成音声を生成
して出力し、出力した合成音声に対応する合成音声情報
で線形予測合成用メモリ7の格納内容を更新する。
In this case, either the output of the adaptive codebook gain multiplier 3 or the output of the fixed codebook gain multiplier 4 is set as the excitation information, depending on the strength of the periodicity of the immediately preceding excitation information.
The excitation information of the adaptive codebook is updated by either the output of the adaptive codebook gain multiplier 3 or the output of the fixed codebook gain multiplier 4. Then, the sound source information obtained as described above is supplied to the linear prediction synthesis filter 6, and the linear prediction coefficient immediately before the frame error occurs and the past synthetic speech information stored in the linear prediction synthesis memory 7 are referred to. Then, the synthesized speech is generated and output, and the stored content of the linear predictive synthesis memory 7 is updated with the synthesized speech information corresponding to the outputted synthesized speech.

【0013】上記の如く復号処理を行なうので、フレー
ム誤りが生じて符号化情報を受信できない場合にも復号
処理を継続することができ、フレーム誤りから復帰した
時には受信した符号化情報を使用し、適応符号帳1及び
線形予測合成用メモリ7を更新しながら復号処理を行な
う。
Since the decoding process is performed as described above, the decoding process can be continued even when the coding information cannot be received due to a frame error. When the coding error is recovered, the received coding information is used. Decoding processing is performed while updating the adaptive codebook 1 and the linear prediction synthesis memory 7.

【0014】[0014]

【発明が解決しようとする課題】しかし、フレーム誤り
が生じた場合、フレーム誤りが継続している間は図19
の構成によって上記の如き復号処理を行なうので、適応
符号帳1が格納する音源情報や線形予測合成用メモリ7
が格納する合成音声情報には誤差が累積してゆく恐れが
ある。
However, in the case where a frame error occurs, while the frame error continues, as shown in FIG.
Since the decoding process as described above is performed by the above configuration, the excitation information stored in the adaptive codebook 1 and the linear prediction synthesis memory 7 are stored.
There is a risk that errors will accumulate in the synthesized voice information stored by.

【0015】この状態で、フレーム誤りから復帰して正
しい符号化情報を受信できるようになっても、フレーム
誤りから復帰した直後の適応符号帳1や線形予測合成用
メモリ7の格納情報は誤差を含んでいるために、生成さ
れた音源情報や合成音声情報はフレーム誤り中に累積し
た誤差に影響されて、直ちに誤差がゼロに復帰すること
はない。
In this state, even if the correct coded information can be received after recovering from the frame error, the information stored in the adaptive codebook 1 and the linear prediction synthesizing memory 7 immediately after recovering from the frame error has an error. Because of the inclusion, the generated sound source information and the synthesized speech information are affected by the error accumulated during the frame error, and the error does not immediately return to zero.

【0016】従って、適応符号帳1や線形予測合成用メ
モリ7の格納情報の誤差を直ちにゼロに復帰できず、こ
れが、生成された音源情報や合成音声情報の誤差となっ
て残る。このため、音声復号化装置が出力する合成音声
の品質が低下して、直ぐには合成音声の品質が元に戻り
得ないという問題が生ずる。本発明は、かかる問題点に
鑑み、線形予測分析で生成された符号化情報を受信し、
該符号化情報と、過去に生成した音声情報をフィードバ
ックして保持する内部メモリの保持内容とから合成音声
を出力する音声復号化装置に関し、伝送中にフレーム誤
りがあった場合に、フレーム誤りから復帰後の復号処理
における復号誤差の波及を縮減することができる音声復
号化装置を提供することを目的とする。
Therefore, the error in the information stored in the adaptive codebook 1 or the memory 7 for linear prediction synthesis cannot be immediately returned to zero, and this remains as an error in the generated sound source information or synthesized speech information. For this reason, the quality of the synthesized speech output from the speech decoding device is deteriorated, and the quality of the synthesized speech cannot be restored immediately. In view of such a problem, the present invention receives the coding information generated by the linear prediction analysis,
A speech decoding apparatus for outputting a synthesized speech from the encoded information and the contents held in an internal memory that feeds back and stores speech information generated in the past, and when a frame error occurs during transmission, An object of the present invention is to provide a speech decoding apparatus capable of reducing the spread of decoding error in the decoding processing after restoration.

【0017】[0017]

【課題を解決するための手段】第一の発明は、線形予測
分析で生成された符号化情報を受信し、該符号化情報
と、過去に生成した音声情報をフィードバックして保持
する内部メモリの保持情報とから合成音声を出力する音
声復号化装置において、正常な符号化情報を受信できな
いフレーム誤りの状態から正常に符号化情報を受信でき
る状態に復帰したフレームにおいて、少なくともフレー
ム誤りの直前の該内部メモリの保持情報を用いて、該内
部メモリの保持内容を更新する誤り修復手段を備えるこ
とを特徴とする音声復号化装置である。
A first invention is an internal memory for receiving coded information generated by linear prediction analysis, feeding back the coded information and voice information generated in the past, and holding the information. In a voice decoding device that outputs a synthesized voice from holding information, in a frame that has returned to a state in which normal coding information can be received from a state in which a normal coding information cannot be received, at least immediately before the frame error. The speech decoding apparatus is characterized by comprising an error correction means for updating the contents held in the internal memory using the information held in the internal memory.

【0018】第一の発明によれば、該誤り修復手段が、
正常な符号化情報を受信できないフレーム誤りの状態か
ら正常に符号化情報を受信できる状態に復帰したフレー
ムにおいて、少なくともフレーム誤りの直前の該内部メ
モリの保持情報を用いて、該内部メモリの保持内容を更
新するので、該内部メモリの保持情報がフレーム誤りか
ら復帰したフレームにおける正しい保持情報を近似する
ことができ、以降の復号処理における復号誤差の波及を
縮減することができる。
According to the first invention, the error correction means is
In the frame returned from the state of frame error where normal coding information cannot be received to the state where normal coding information can be received, at least the holding information of the internal memory immediately before the frame error is used to hold the contents of the internal memory. Since the stored information in the internal memory can be approximated to the correct stored information in the frame recovered from the frame error, the spread of the decoding error in the subsequent decoding processing can be reduced.

【0019】第二の発明は、第一の発明の音声復号化装
置であって、上記誤り修復手段は、音声復号化装置を構
成する適応符号帳に格納されている、フレーム誤りの直
前の情報を保持する音源情報保持手段と、少なくとも該
音源情報保持手段に保持されている適応符号帳の情報を
用いて音源情報を求め、フレーム誤りから復帰したフレ
ームにおいて該適応符号帳を更新する音源情報算出手段
とを備えることを特徴とする音声復号化装置である。
A second invention is the speech decoding apparatus of the first invention, wherein the error correction means stores information immediately before a frame error, which is stored in an adaptive codebook constituting the speech decoding apparatus. Source information holding means for holding the source code information and at least the adaptive codebook information held in the source code information holding means to obtain the source code information, and the source code calculation for updating the adaptive codebook in the frame recovered from the frame error. And a means for decoding the speech.

【0020】第二の発明によれば、上記誤り修復手段
が、音声復号化装置を構成する適応符号帳に格納されて
いる、フレーム誤りの直前の情報を保持する音源情報保
持手段と、該音源情報保持手段に保持されている適応符
号帳の情報を用いて音源を算出し、フレーム誤りから復
帰したフレームにおいて該適応符号帳を更新する音源情
報算出手段とを備えるので、該適応符号帳の格納情報が
フレーム誤りから復帰したフレームにおける正しい適応
符号帳情報を近似することができ、以降の復号処理にお
ける復号誤差の波及を縮減することができる。
According to the second aspect of the invention, the error recovery means stores the excitation information storage means for storing the information immediately before the frame error stored in the adaptive codebook constituting the speech decoding device, and the excitation source. Storing the adaptive codebook, since it includes excitation information calculation means for calculating the excitation using the information of the adaptive codebook held in the information holding means and updating the adaptive codebook in the frame recovered from the frame error. It is possible to approximate the correct adaptive codebook information in the frame in which the information is recovered from the frame error, and reduce the spread of decoding error in the subsequent decoding processing.

【0021】第三の発明は、第一の発明の音声復号化装
置であって、上記誤り修復手段は、音声復号化装置を構
成する予測合成フィルタが合成した合成音声情報を格納
する、予測合成用メモリがフレーム誤り直前に格納して
いる合成音声情報を保持する予測合成用メモリ保持手段
を備え、フレーム誤りから復帰したフレームにおいて、
該予測合成用メモリ保持手段が保持する格納情報を該予
測合成フィルタに与えて合成音声情報を生成し、生成し
た合成音声情報によって該予測合成用メモリを更新する
ことを特徴とする音声復号化装置である。
A third invention is the speech decoding apparatus according to the first invention, wherein the error correction means stores the synthesized speech information synthesized by the prediction synthesis filter constituting the speech decoding apparatus. The prediction memory is provided with a memory unit for predictive synthesis that holds the synthesized speech information stored immediately before the frame error, and in the frame recovered from the frame error,
A speech decoding apparatus characterized in that the storage information held by the prediction synthesis memory holding means is given to the prediction synthesis filter to generate synthetic speech information, and the prediction synthesis memory is updated by the generated synthetic speech information. Is.

【0022】第三の発明によれば、上記誤り修復手段
は、音声復号化装置を構成する予測合成フィルタが合成
した合成音声情報を格納する、予測合成用メモリがフレ
ーム誤り直前に格納している合成音声情報を保持する予
測合成用メモリ保持手段を備え、フレーム誤りから復帰
したフレームにおいて、該予測合成用メモリ保持手段が
保持する格納情報を該予測合成フィルタに与えて合成音
声情報を生成し、生成した合成音声情報によって該予測
合成用メモリを更新するので、該予測合成用メモリの格
納情報がフレーム誤りから復帰したフレームにおける正
しい格納情報を近似することができ、以降の復号処理に
おける復号誤差の波及を縮減することができる。
According to the third aspect of the present invention, the error recovery means stores the synthesized speech information synthesized by the predictive synthesis filter constituting the speech decoding device, and stores it in the predictive synthesis memory immediately before the frame error. A prediction synthesizing memory holding unit for holding synthetic speech information is provided, and in a frame recovered from a frame error, storage information held by the prediction synthesizing memory holding unit is given to the prediction synthesizing filter to generate synthetic speech information, Since the prediction synthesis memory is updated with the generated synthesized speech information, the storage information of the prediction synthesis memory can be approximated to the correct storage information in the frame recovered from the frame error. Ripple can be reduced.

【0023】第四の発明は、第一の発明の音声復号化装
置であって、上記誤り修復手段は、フレーム誤り直前の
合成音声情報を保持する音源情報保持手段と、フレーム
誤りから復帰したフレームにおいて、該音源情報保持手
段が保持する合成音声情報と、フレーム誤りから復帰し
たフレームの線形予測係数とから適応符号帳情報を生成
して、適応符号帳を更新する音源情報算出手段とを備え
ることを特徴とする音声復号化装置である。
A fourth aspect of the invention is the speech decoding apparatus of the first aspect of the invention, in which the error repairing means stores sound source information holding means for holding synthesized speech information immediately before a frame error and a frame recovered from the frame error. In the above, the method further comprises excitation information calculation means for generating adaptive codebook information from the synthesized speech information held by the excitation information holding means and the linear prediction coefficient of the frame recovered from the frame error, and updating the adaptive codebook. Is a speech decoding device characterized by.

【0024】第四の発明によれば、上記誤り修復手段
が、フレーム誤り直前の合成音声情報を保持する音源情
報保持手段と、フレーム誤りから復帰したフレームにお
いて、該音源情報保持手段が保持する合成音声情報と、
フレーム誤りから復帰したフレームの線形予測係数とか
ら適応符号帳情報を生成して、適応符号帳を更新する音
源情報算出手段とを備えるので、該適応符号帳の格納情
報がフレーム誤りから復帰したフレームにおける正しい
格納情報を近似することができ、以降の復号処理におけ
る復号誤差の波及を縮減することができる。
According to the fourth aspect of the invention, the error repairing means holds the sound source information holding means for holding the synthesized speech information immediately before the frame error and the synthesis held by the sound source information holding means for the frame recovered from the frame error. Voice information,
Since the adaptive codebook information is generated from the linear prediction coefficient of the frame recovered from the frame error and the excitation code information is updated, a frame in which the stored information of the adaptive codebook is recovered from the frame error The correct stored information can be approximated, and the spread of decoding error in the subsequent decoding processing can be reduced.

【0025】第五の発明は、第一の発明の音声復号化装
置であって、上記誤り修復手段は、合成音声情報からフ
レーム電力を算出して、フレーム誤り直前のフレーム電
力E 1 を保持するフレーム電力算出手段と、フレーム誤
りから復帰したフレームにおいて、該フレーム電力算出
手段からフレーム誤り直前のフレーム電力E1 を受信
し、フレーム誤りから復帰したフレームにおける合成音
声情報を生成してフレーム誤りから復帰したフレームに
おけるフレーム電力E2 を算出して、適応符号帳が格納
している情報をE1 /E2 倍に更新する音源情報算出手
段とを備えることを特徴とする音声復号化装置である。
A fifth invention is a speech decoding device of the first invention.
And the error correction means detects the synthesized speech information from the synthesized speech information.
Calculate the frame power and calculate the frame power immediately before the frame error.
Power E 1Frame power calculation means that holds the
Frame power calculation for the frame returned from
From the means, the frame power E immediately before the frame error1Receive
However, the synthesized sound in the frame recovered from the frame error
Generates voice information and recovers from the frame error
Frame power E in2And the adaptive codebook is stored
E information1/ E2Sound source information calculator that doubles
A speech decoding apparatus comprising: a stage.

【0026】第五の発明によれば、上記誤り修復手段
は、合成音声情報からフレーム電力を算出して、フレー
ム誤り直前のフレーム電力E1 を保持するフレーム電力
算出手段と、フレーム誤りから復帰したフレームにおい
て、該フレーム電力算出手段からフレーム誤り直前のフ
レーム電力E1 を受信し、フレーム誤りから復帰したフ
レームにおける合成音声情報を生成してフレーム誤りか
ら復帰したフレームにおけるフレーム電力E2 を算出し
て、適応符号帳が格納している情報をE1 /E2倍に更
新する音源情報算出手段とを備えるので、該適応符号帳
の格納情報がフレーム誤りから復帰したフレームにおけ
る正しい格納情報を近似することができ、以降の復号処
理における復号誤差の波及を縮減することができる。
According to the fifth aspect of the invention, the error recovery means calculates the frame power from the synthesized voice information and holds the frame power E 1 immediately before the frame error, and the error recovery means recovers from the frame error. In the frame, the frame power E 1 immediately before the frame error is received from the frame power calculating means, synthetic speech information in the frame recovered from the frame error is generated, and the frame power E 2 in the frame recovered from the frame error is calculated. , And the excitation information calculation means for updating the information stored in the adaptive codebook by E 1 / E 2 times, so that the stored information in the adaptive codebook approximates the correct stored information in the frame recovered from the frame error. Therefore, it is possible to reduce the spread of decoding error in the subsequent decoding processing.

【0027】[0027]

【発明の実施の形態】以降、図面も用いて本発明の技術
を詳細に説明する。図1は、本発明の第一の実施の形態
で、フレーム誤りが継続している間の情報のやりとりを
実線で示し、フレーム誤りから復帰した後の情報のやり
とりを破線で示している。
DETAILED DESCRIPTION OF THE INVENTION The technique of the present invention will be described in detail below with reference to the drawings. In the first embodiment of the present invention, FIG. 1 shows a solid line for exchanging information while a frame error continues, and a broken line for exchanging information after recovering from a frame error.

【0028】図1において、1は音声の相関を除いた後
の周期性を有する音源情報を格納する適応符号帳、2は
音声の相関を除いた後の雑音成分の音源情報を格納する
固定符号帳、3は適応符号帳1から読み出した音源情報
に適応符号帳利得を掛ける適応符号帳利得乗算器、4は
固定符号帳から読み出した音源情報に固定符号帳利得を
掛ける固定符号帳利得乗算器、5は適応符号帳利得乗算
器3及び固定符号帳利得乗算器4の出力を合算して音源
情報を生成する加算器、6は加算器5が出力する音源情
報と受信した線形予測係数とを受けて合成音声を出力す
る線形予測合成フィルタ、7は線形予測合成フィルタ6
が合成音声を生成する際に使用する過去の合成音声情報
を格納する線形予測合成用メモリで、以上の構成要素は
従来の音声復号化装置の構成要素である。
In FIG. 1, reference numeral 1 is an adaptive codebook for storing excitation information having periodicity after speech correlation is removed, and 2 is a fixed code for storing excitation information of noise component after speech correlation is removed. Book 3, 3 is an adaptive codebook gain multiplier that multiplies the excitation information read from adaptive codebook 1 by the adaptive codebook gain, and 4 is a fixed codebook gain multiplier that multiplies the excitation information read from the fixed codebook by the fixed codebook gain Reference numeral 5 denotes an adder that adds the outputs of the adaptive codebook gain multiplier 3 and the fixed codebook gain multiplier 4 to generate excitation information, and 6 denotes the excitation information output by the adder 5 and the received linear prediction coefficient. A linear prediction synthesis filter for receiving and outputting synthetic speech, 7 is a linear prediction synthesis filter 6
Is a memory for linear predictive synthesis that stores past synthetic speech information used when generating synthetic speech. The above constituent elements are constituent elements of a conventional speech decoding apparatus.

【0029】8は適応符号帳1に格納されている、フレ
ーム誤りの直前の音源情報を保持する音源情報保持手段
(図では情報を省略している)、9は音源情報保持手段
8に保持されている情報と固定符号帳2の格納情報とを
用いて音源情報を算出し、フレーム誤りから復帰したフ
レームにおいて適応符号帳1の格納情報を更新する音源
情報算出手段で(図では情報を省略している)、音源情
報保持手段8及び音源情報保持手段9によって誤り修復
手段を構成する。そして、音源情報保持手段8と音源情
報算出手段9にはフレーム誤りであるか否かのエラー情
報が与えられており、音源情報保持手段8と音源情報算
出手段9の動作はフレーム誤り状態か否かによって異な
る。
Reference numeral 8 is an excitation information holding means (information is omitted in the figure) for holding the excitation information immediately before the frame error stored in the adaptive codebook 1, and 9 is held in the excitation information holding means 8. Information is stored in the fixed codebook 2 and the stored information in the fixed codebook 2 is used to calculate the excitation information, and the stored information in the adaptive codebook 1 is updated in the frame recovered from the frame error (information is omitted in the figure. The sound source information holding means 8 and the sound source information holding means 9 constitute error correction means. Then, error information indicating whether or not there is a frame error is given to the sound source information holding unit 8 and the sound source information calculating unit 9, and the operations of the sound source information holding unit 8 and the sound source information calculating unit 9 are in the frame error state. It depends on

【0030】尚、フレーム誤りが継続中は、音声復号化
装置は図19の構成に従って復号処理を行なっている。
従って、図1の構成の特徴は、音源情報保持手段8に適
応符号帳1にフレーム誤りの直前に保持されていた情報
を保持しておき、音源情報保持手段8が保持している情
報と固定符号帳2の格納情報とを用いて音源情報算出手
段9が音源情報を算出し、フレーム誤りから復帰したフ
レームにおいて適応符号帳1の格納情報を更新する点に
ある。
While the frame error continues, the speech decoding apparatus carries out the decoding process according to the configuration of FIG.
Therefore, the feature of the configuration of FIG. 1 is that the excitation information holding means 8 holds the information held in the adaptive codebook 1 immediately before the frame error, and the information held by the excitation information holding means 8 is fixed. The point is that the excitation information calculation means 9 calculates the excitation information using the storage information of the codebook 2 and updates the storage information of the adaptive codebook 1 in the frame recovered from the frame error.

【0031】図2は、図1の構成の誤り修復動作を示す
フローチャートで、図1の音声情報保持手段8と音源情
報算出手段9の動作フローチャートである。以降、図2
の符号に沿って図1の構成の誤り修復動作を説明する。
先ず、音源情報保持手段の動作は下記の通りである。 S1.フレーム誤り(図では、単に「エラー」と略記し
ている。以降も、図では同様に記載する。)があったか
否か監視している。
FIG. 2 is a flowchart showing the error correction operation of the configuration of FIG. 1, which is an operation flowchart of the voice information holding means 8 and the sound source information calculating means 9 of FIG. After that, FIG.
The error correction operation of the configuration of FIG.
First, the operation of the sound source information holding means is as follows. S1. It is monitored whether or not there is a frame error (abbreviated as "error" in the figure. The same applies to the figures thereafter).

【0032】S2.ステップS1で、フレーム誤りがな
かった場合(No)には、適応符号帳の保持内容で音源
情報保持手段の保持情報を書き替えて、ステップS1に
ジャンプする。図2では、単に「メモリ」と記載したも
のが音源情報保持手段が保有する、適応符号帳の保持内
容を保持するメモリである。 一方、ステップS1で、フレーム誤りがなかった場合
(Yes)には、一旦処理を終了して待機する。
S2. If there is no frame error in step S1 (No), the held information in the excitation information holding means is rewritten with the held contents in the adaptive codebook, and the process jumps to step S1. In FIG. 2, what is simply described as “memory” is a memory that is held by the excitation information holding means and that holds the contents of the adaptive codebook. On the other hand, if there is no frame error in step S1 (Yes), the process is temporarily terminated and stands by.

【0033】従って、音源情報保持手段が保有するメモ
リには、フレーム誤りが生ずる直前の適応符号帳の格納
情報が保持される。次いで、音源情報算出手段の動作は
下記の通りである。 S11.フレーム誤りから復帰したか否か監視してい
る。 フレーム誤りから復帰していない場合(No)には、一
旦処理を終了して待機する。
Therefore, the memory held by the excitation information holding means holds the information stored in the adaptive codebook immediately before the frame error occurs. Next, the operation of the sound source information calculation means is as follows. S11. It is monitoring whether or not the frame error has recovered. If the frame error has not been recovered (No), the process is once terminated and waits.

【0034】S12.ステップS11で、フレーム誤り
から復帰した場合(Yes)には、音源情報保持手段か
らフレーム誤りが生ずる直前の適応符号帳の格納情報を
取得する。 S13.誤りフレーム数カウンタiに1をセットする。 S14.フレーム誤り前後のピッチを線形補間して、フ
レーム誤り中のピッチPi を算出する。
S12. In step S11, if the frame error is recovered (Yes), the stored information of the adaptive codebook immediately before the frame error occurs is acquired from the excitation information holding unit. S13. The error frame number counter i is set to 1. S14. The pitch before and after the frame error is linearly interpolated to calculate the pitch P i during the frame error.

【0035】これは、下記のように算出すればよい。即
ち、フレーム誤り直前のフレームのピッチをP1 とし、
フレーム誤り直後のフレームのピッチをP2 として、i
を誤りフレーム数カウンタのカウント値、Nを誤りフレ
ーム数とすると、Pi は(1)式で与えられる。 Pi =P1 +(P2 −P1 )・i/N (1) S15.フレーム誤り前後のフレームのピッチ差が所定
の閾値より小さいか否か判定する。
This may be calculated as follows. That is, the pitch of the frame immediately before the frame error is P 1 ,
When the pitch of the frame immediately after the frame error is P 2 , i
Is the count value of the error frame number counter and N is the error frame number, P i is given by the equation (1). P i = P 1 + (P 2 −P 1 ) · i / N (1) S15. It is determined whether the pitch difference between the frames before and after the frame error is smaller than a predetermined threshold value.

【0036】フレーム誤り前後のフレームのピッチ差が
所定の閾値より小さい場合は周期性が強いことを意味
し、フレーム誤り前後のフレームのピッチ差が所定の閾
値より大きい場合は周期性が弱く、雑音であることを意
味する。従って、以降の処理は周期性の強弱によって分
岐される。 S16.ステップS15で、フレーム誤り前後のフレー
ムのピッチ差が所定の閾値より小さい場合(Yes)に
は、音源情報保持手段の保持情報とピッチPiを用いて
音源情報を算出する。尚、図では「適応符号帳を用い
て」と略記しているが、音源情報保持手段が保持してい
るのがフレーム誤り直前の適応符号帳の格納情報である
ために簡略化した表現を用いている。) S17.一方、ステップS15で、フレーム誤り前後の
フレームのピッチ差が所定の閾値より大きい場合(N
o)には、固定符号帳の格納情報を使用して音源情報を
算出する。
If the pitch difference between the frames before and after the frame error is smaller than a predetermined threshold value, it means that the periodicity is strong, and if the pitch difference between the frames before and after the frame error is larger than the predetermined threshold value, the periodicity is weak and the noise is large. Means that. Therefore, the subsequent processing is branched depending on the strength of the periodicity. S16. In step S15, when the pitch difference between the frames before and after the frame error is smaller than the predetermined threshold value (Yes), the sound source information is calculated using the held information of the sound source information holding unit and the pitch P i . It should be noted that although abbreviated as “using adaptive codebook” in the figure, a simplified representation is used because the excitation information holding means holds the information stored in the adaptive codebook immediately before the frame error. ing. ) S17. On the other hand, in step S15, when the pitch difference between the frames before and after the frame error is larger than a predetermined threshold (N
In o), the sound source information is calculated using the stored information in the fixed codebook.

【0037】S18.ステップS15での判定結果に対
応して、ステップS16又はステップS17の一方で算
出した音源情報で適応符号帳を更新する。 S19.誤りフレーム数カウンタiを歩進する。 S20.誤りフレーム数カウンタiのカウント値が誤り
フレーム数Nより大きいか否か判定する。
S18. The adaptive codebook is updated with the excitation information calculated in either step S16 or step S17, corresponding to the determination result in step S15. S19. The error frame number counter i is incremented. S20. It is determined whether or not the count value of the error frame number counter i is larger than the error frame number N.

【0038】誤りフレーム数カウンタiのカウント値が
誤りフレーム数Nより小さい場合(No)には、ステッ
プS15にジャンプして、以降の処理を継続する。一
方、誤りフレーム数カウンタiのカウント値が誤りフレ
ーム数Nより大きい場合(Yes)には、処理を終了す
る。上記の如く、音源情報保持手段がフレーム誤り直前
の適応符号帳の格納情報を保持しており、フレーム誤り
から復帰した時に音源情報算出手段がフレーム誤り直前
の適応符号帳の格納情報とフレーム誤り中のフレームの
ピッチとで音源情報を算出するか、固定符号帳の格納情
報から音源情報を算出するので、フレーム誤り復帰後の
適応符号帳の格納情報はフレーム誤り直前の音源情報を
近似するものとなり、以降の復号処理における復号誤差
を縮減することができ、フレーム誤りから復帰した後の
復号処理における復号誤差の波及を縮減することができ
る。
When the count value of the error frame number counter i is smaller than the error frame number N (No), the process jumps to step S15 and the subsequent processes are continued. On the other hand, when the count value of the error frame number counter i is larger than the error frame number N (Yes), the processing is ended. As described above, the excitation information holding means holds the storage information of the adaptive codebook immediately before the frame error, and when recovering from the frame error, the excitation information calculating means stores the storage information of the adaptive codebook immediately before the frame error and the frame error. Since the excitation information is calculated based on the pitch of the frame, or the excitation information is calculated from the storage information in the fixed codebook, the storage information in the adaptive codebook after recovery from the frame error will approximate the excitation information immediately before the frame error. , The decoding error in the subsequent decoding process can be reduced, and the spread of the decoding error in the decoding process after the recovery from the frame error can be reduced.

【0039】図3は、本発明の第二の実施の形態であ
る。図3において、1は音声の相関を除いた後の周期性
を有する音源情報を格納する適応符号帳、2は音声の相
関を除いた後の雑音成分の音源情報を格納する固定符号
帳、3は適応符号帳1から読み出した音源情報に適応符
号帳利得を掛ける適応符号帳利得乗算器、4は固定符号
帳から読み出した音源情報に固定符号帳利得を掛ける固
定符号帳利得乗算器、5は適応符号帳利得乗算器3及び
固定符号帳利得乗算器4の出力を合算して音源情報を生
成する加算器、6は加算器5が出力する音源情報と受信
した線形予測係数とを受けて合成音声を出力する線形予
測合成フィルタ、7は線形予測合成フィルタ6が合成音
声を生成する際に使用する過去の合成音声情報を格納す
る線形予測合成用メモリで、以上の構成要素は従来の音
声復号化装置の構成要素である。
FIG. 3 shows a second embodiment of the present invention. In FIG. 3, reference numeral 1 is an adaptive codebook that stores excitation information having periodicity after removing speech correlation, and 2 is a fixed codebook that stores excitation information of noise components after removing speech correlation. Is an adaptive codebook gain multiplier that multiplies the excitation information read from the adaptive codebook 1 by the adaptive codebook gain, 4 is a fixed codebook gain multiplier that multiplies the excitation information read from the fixed codebook by the fixed codebook gain, and 5 is An adder that adds the outputs of the adaptive codebook gain multiplier 3 and the fixed codebook gain multiplier 4 to generate excitation information, and 6 receives the excitation information output from the adder 5 and the received linear prediction coefficient to synthesize the excitation information. A linear predictive synthesis filter for outputting speech, 7 is a memory for linear predictive synthesis that stores past synthetic speech information used when the linear predictive synthesis filter 6 generates synthetic speech, and the above components are conventional speech decoding units. Configurator It is.

【0040】8は適応符号帳1に格納されている、フレ
ーム誤りの直前の音源情報を保持する音源情報保持手
段、9aは音源情報保持手段8に保持されている情報を
受けて、適応符号帳1の格納情報を更新する音源情報算
出手段で、音源情報保持手段8及び音源情報算出手段9
aによって誤り修復手段を構成する。そして、音源情報
保持手段8と音源情報算出手段9aにはフレーム誤りで
あるか否かのエラー情報が与えられており、音源情報保
持手段8と音源情報算出手段9aの動作はフレーム誤り
状態か否かによって異なる。
Reference numeral 8 denotes a sound source information holding means for holding the sound source information immediately before the frame error, which is stored in the adaptive code book 1, and 9a receives the information held in the sound source information holding means 8 and receives the adaptive code book. 1 is a sound source information calculating means for updating the stored information, and is a sound source information holding means 8 and a sound source information calculating means 9
The error correction means is constituted by a. Then, error information indicating whether or not there is a frame error is given to the sound source information holding unit 8 and the sound source information calculating unit 9a, and the operations of the sound source information holding unit 8 and the sound source information calculating unit 9a are in the frame error state. It depends on

【0041】尚、フレーム誤りが継続中は、音声復号化
装置は図19の構成に従って復号処理を行なっている。
従って、図3の構成の特徴は、音源情報保持手段8に適
応符号帳1にフレーム誤りの直前に保持されていた情報
を保持しておき、音源情報保持手段8が保持している情
報を音源情報算出手段9aが受けて、フレーム誤りから
復帰したフレームにおいて適応符号帳1の格納情報を更
新する点にある。
While the frame error continues, the speech decoding apparatus carries out the decoding process according to the configuration of FIG.
Therefore, the feature of the configuration of FIG. 3 is that the information held in the adaptive codebook 1 immediately before the frame error is held in the sound source information holding unit 8 and the information held in the sound source information holding unit 8 is set as the sound source. The point is that the information stored in the adaptive codebook 1 is updated in the frame received by the information calculation means 9a and recovered from the frame error.

【0042】図4は、図3の構成の誤り修復動作を示す
フローチャートで、図3の音源情報保持手段8と音源情
報算出手段9aの動作フローチャートである。以降、図
4の符号に沿って図3の構成の誤り修復動作を説明す
る。先ず、音源情報保持手段の動作は下記の通りであ
る。 S1.フレーム誤りがあったか否か監視している。
FIG. 4 is a flowchart showing the error correcting operation of the configuration of FIG. 3, which is an operation flowchart of the sound source information holding means 8 and the sound source information calculating means 9a of FIG. Hereinafter, the error correction operation of the configuration of FIG. 3 will be described with reference to the reference numerals of FIG. First, the operation of the sound source information holding means is as follows. S1. It is monitoring whether there was a frame error.

【0043】S2.ステップS1で、フレーム誤りがな
かった場合(No)には、適応符号帳の保持情報で音源
情報保持手段の保持情報を書き替えて、ステップS1に
ジャンプする。 一方、ステップS1で、フレーム誤りがなかった場合
(Yes)には、一旦処理を終了して待機する。
S2. If there is no frame error in step S1 (No), the holding information of the excitation information holding means is rewritten with the holding information of the adaptive codebook, and the process jumps to step S1. On the other hand, if there is no frame error in step S1 (Yes), the process is temporarily terminated and stands by.

【0044】従って、音源情報保持手段が保有するメモ
リには、フレーム誤りが生ずる直前の適応符号帳の格納
情報が保持される。次いで、音源情報算出手段の動作は
下記の通りである。 S31.フレーム誤りから復帰したか否か監視してい
る。 フレーム誤りから復帰していない場合(No)には、一
旦処理を終了して待機する。
Therefore, the memory held by the excitation information holding means holds the information stored in the adaptive codebook immediately before the frame error occurs. Next, the operation of the sound source information calculation means is as follows. S31. It is monitoring whether or not the frame error has recovered. If the frame error has not been recovered (No), the process is once terminated and waits.

【0045】S32.ステップS31で、フレーム誤り
から復帰した場合(Yes)には、音源情報保持手段か
らフレーム誤りが生ずる直前の適応符号帳の格納情報を
取得する。 S33.音源情報保持手段から取得した、フレーム誤り
直前の適応符号帳の格納情報で適応符号帳を更新して処
理を終了する。
S32. In step S31, when the frame error is recovered (Yes), the adaptive codebook storage information immediately before the frame error occurs is acquired from the excitation information holding unit. S33. The adaptive codebook is updated with the information stored in the adaptive codebook immediately before the frame error acquired from the excitation information holding means, and the process ends.

【0046】上記の如く、図3の構成の場合は、音源情
報保持手段8に適応符号帳1にフレーム誤りの直前に保
持されていた情報を保持しておき、音源情報保持手段8
が保持している情報を音源情報算出手段9aが受けて、
フレーム誤りから復帰したフレームにおいて適応符号帳
1の格納情報を更新するので、フレーム誤り復帰後の適
応符号帳の格納情報はフレーム誤り直前の音源情報とな
り、以降の復号処理における復号誤差を縮減することが
でき、フレーム誤りから復帰した後の復号処理における
復号誤差の波及を縮減することができる。
As described above, in the case of the configuration of FIG. 3, the excitation information holding means 8 holds the information held in the adaptive codebook 1 immediately before the frame error, and the excitation information holding means 8 is held.
The sound source information calculation means 9a receives the information held by
Since the stored information in the adaptive codebook 1 is updated in the frame recovered from the frame error, the stored information in the adaptive codebook after the frame error recovery becomes the excitation information immediately before the frame error, and the decoding error in the subsequent decoding process can be reduced. Therefore, it is possible to reduce the spread of decoding error in the decoding process after recovering from the frame error.

【0047】尚、図1の構成の誤り修復手段が、音源情
報保持手段がフレーム誤り直前の適応符号帳の格納情報
を保持しており、フレーム誤りから復帰した時に音源情
報算出手段がフレーム誤り直前の適応符号帳の格納情報
とフレーム誤り中のフレームのピッチとで音源情報を算
出するか、固定符号帳の格納情報から音源情報を算出し
て適応符号帳を更新するのに対して、図3の構成の誤り
修復手段は、音源情報保持手段8に適応符号帳1にフレ
ーム誤りの直前に保持されていた情報を保持しておき、
音源情報保持手段8が保持している情報を音源情報算出
手段9が受けて、フレーム誤りから復帰したフレームに
おいて適応符号帳1の格納情報を更新するもので、図1
の構成と動作を簡略化したものである。
In the error recovery means of the configuration shown in FIG. 1, the excitation information holding means holds the storage information of the adaptive codebook immediately before the frame error, and when the error recovery means recovers from the frame error, the excitation information calculation means immediately before the frame error. Of the adaptive codebook and the pitch of the frame in the frame error, or the excitation information is calculated from the stored information of the fixed codebook to update the adaptive codebook. The error recovery means having the above-mentioned configuration stores in the excitation information storage means 8 the information stored in the adaptive codebook 1 immediately before the frame error,
The information stored in the excitation information storage unit 8 is received by the excitation information calculation unit 9, and the storage information of the adaptive codebook 1 is updated in the frame recovered from the frame error.
This is a simplified configuration and operation of.

【0048】従って、図1の構成と図3の構成は、音声
復号化装置を構成する適応符号帳に格納されている、フ
レーム誤りの直前の情報を保持する音源情報保持手段
と、少なくとも、該音源情報保持手段に保持されている
適応符号帳の情報を用いて音源情報を求め、フレーム誤
りから復帰したフレームにおいて該適応符号帳を更新す
る音源情報算出手段とで誤り修復手段を構成するものと
いうことができる。
Therefore, the configuration of FIG. 1 and the configuration of FIG. 3 are at least excitation information storage means for storing the information immediately before the frame error, which is stored in the adaptive codebook constituting the speech decoding apparatus, and at least the excitation information storage means. It is said that error correction means is configured with excitation information calculation means for obtaining excitation information using the information of the adaptive codebook held in the excitation information holding means, and updating the adaptive codebook in the frame recovered from the frame error. be able to.

【0049】図5は、本発明の第三の実施の形態であ
る。図5において、1は音声の相関を除いた後の周期性
を有する音源情報を格納する適応符号帳、2は音声の相
関を除いた後の雑音成分の音源情報を格納する固定符号
帳、3は適応符号帳1から読み出した音源情報に適応符
号帳利得を掛ける適応符号帳利得乗算器、4は固定符号
帳から読み出した音源情報に固定符号帳利得を掛ける固
定符号帳利得乗算器、5は適応符号帳利得乗算器3及び
固定符号帳利得乗算器4の出力を合算して音源情報を生
成する加算器、6は加算器5が出力する音源情報と受信
した線形予測係数とを受けて合成音声を出力する線形予
測合成フィルタ、7は線形予測合成フィルタ6が合成音
声を生成する際に使用する過去の合成音声情報を格納す
る線形予測合成用メモリで、以上の構成要素は従来の音
声復号化装置の構成要素である。
FIG. 5 shows a third embodiment of the present invention. In FIG. 5, reference numeral 1 denotes an adaptive codebook that stores excitation information having periodicity after speech correlation is removed, and 2 is a fixed codebook that stores noise component excitation information after speech correlation is removed, 3 Is an adaptive codebook gain multiplier that multiplies the excitation information read from the adaptive codebook 1 by the adaptive codebook gain, 4 is a fixed codebook gain multiplier that multiplies the excitation information read from the fixed codebook by the fixed codebook gain, and 5 is An adder that adds the outputs of the adaptive codebook gain multiplier 3 and the fixed codebook gain multiplier 4 to generate excitation information, and 6 receives the excitation information output from the adder 5 and the received linear prediction coefficient to synthesize the excitation information. A linear predictive synthesis filter for outputting speech, 7 is a memory for linear predictive synthesis that stores past synthetic speech information used when the linear predictive synthesis filter 6 generates synthetic speech, and the above components are conventional speech decoding units. Configurator It is.

【0050】10は線形予測合成用メモリ7のフレーム
誤り直前の格納情報を保持する線形予測合成用メモリ保
持手段(図では、「合成用メモリ保持手段」と略記して
いる。以降も、図では同様に記載する。)で、線形予測
合成用メモリ保持手段10と線形予測合成フィルタ6と
によって誤り修復手段を構成する。そして、線形予測合
成用メモリ保持手段10にはフレーム誤りであるか否か
のエラー情報が与えられており、線形予測合成用メモリ
保持手段10の動作はフレーム誤り状態か否かによって
異なる。
Reference numeral 10 denotes a linear prediction synthesis memory holding means (in the figure, abbreviated as "synthesis memory holding means" for holding the information stored in the linear prediction synthesis memory 7 immediately before the frame error. In the same manner, the error recovery means is constituted by the linear prediction synthesis memory holding means 10 and the linear prediction synthesis filter 6. Then, error information indicating whether or not there is a frame error is given to the linear prediction synthesis memory holding means 10, and the operation of the linear prediction synthesis memory holding means 10 differs depending on whether or not there is a frame error state.

【0051】尚、フレーム誤りが継続中は、音声復号化
装置は図19の構成に従って復号処理を行なっている。
従って、図5の構成の特徴は、音声復号化装置を構成す
る線形予測合成フィルタがフレーム誤り直前に合成した
合成音声情報を保持する予測合成用メモリ保持手段を備
え、フレーム誤りから復帰したフレームにおいて、該線
形予測合成用メモリ保持手段が保持する情報を線形予測
合成フィルタに与えて合成音声情報を生成し、生成した
合成音声情報によって線形予測合成用メモリの格納情報
を更新する点にある。
While the frame error continues, the speech decoding apparatus carries out the decoding process according to the configuration of FIG.
Therefore, the feature of the configuration of FIG. 5 is that the linear prediction synthesis filter that constitutes the speech decoding device is provided with a prediction synthesis memory holding unit that holds the synthesized speech information synthesized immediately before the frame error, and in the frame recovered from the frame error. The point is that the information held by the memory for holding linear prediction synthesis is given to the linear prediction synthesis filter to generate synthetic speech information, and the stored information in the memory for linear prediction synthesis is updated by the generated synthetic speech information.

【0052】図6は、図5の構成の誤り修復動作を示す
フローチャートで、図5の線形予測合成用メモリ保持手
段10と線形予測合成フィルタの動作フローチャートで
ある。以降、図6の符号に沿って図5の構成の誤り修復
動作を説明する。先ず、線形予測合成用メモリ保持手段
の動作は下記の通りである。 S41.フレーム誤りがあったか否か監視している。
FIG. 6 is a flow chart showing the error recovery operation of the configuration of FIG. 5, which is an operation flow chart of the memory unit 10 for linear prediction synthesis and the linear prediction synthesis filter of FIG. Hereinafter, the error correction operation of the configuration of FIG. 5 will be described with reference to the symbols of FIG. First, the operation of the memory holding means for linear prediction synthesis is as follows. S41. It is monitoring whether there was a frame error.

【0053】S42.ステップS41で、フレーム誤り
がなかった場合(No)には、線形予測合成用メモリの
保持情報で線形予測合成用メモリ保持手段の保持情報を
書き替えて、ステップS41にジャンプする。 一方、ステップS41で、フレーム誤りがなかった場合
(Yes)には、一旦処理を終了して待機する。
S42. If there is no frame error in step S41 (No), the information held in the linear prediction synthesis memory holding means is rewritten with the information held in the linear prediction synthesis memory, and the process jumps to step S41. On the other hand, in step S41, if there is no frame error (Yes), the process is once terminated and stands by.

【0054】従って、線形予測合成用メモリ保持手段が
保有するメモリには、フレーム誤りが生ずる直前の線形
予測合成用メモリの格納情報が保持される。次いで、線
形予測合成フィルタの動作は下記の通りである。 S51.フレーム誤りから復帰したか否か監視してい
る。 フレーム誤りから復帰していない場合(No)には、一
旦処理を終了して待機する。
Therefore, the memory held by the linear prediction synthesis memory holding means holds the storage information of the linear prediction synthesis memory immediately before the frame error occurs. Then, the operation of the linear prediction synthesis filter is as follows. S51. It is monitoring whether or not the frame error has recovered. If the frame error has not been recovered (No), the process is once terminated and waits.

【0055】S52.ステップS51で、フレーム誤り
から復帰した場合(Yes)には、線形予測合成用メモ
リ保持手段から保持情報を取得する。 S53.音声を合成する。 S54.合成した音声情報で線形予測合成用メモリを更
新して処理を終了する。
S52. In step S51, if the frame error is recovered (Yes), the holding information is acquired from the linear prediction synthesis memory holding unit. S53. Synthesize voice. S54. The memory for linear prediction synthesis is updated with the synthesized voice information, and the process ends.

【0056】上記の如く、図5の構成の場合は、線形予
測合成用メモリ保持手段10にフレーム誤り直前の線形
予測合成用メモリの情報を保持しておき、フレーム誤り
から復帰した時に、線形予測合成用メモリ保持手段の保
持情報を使用して線形予測合成フィルタが合成音声を生
成し、生成した合成音声情報によって線形予測合成用メ
モリを更新するので、フレーム誤り直後に線形予測合成
用メモリに格納される合成音声情報はフレーム誤り直前
の合成音声を近似することができ、以降の復号処理にお
ける復号誤差を縮減することができ、フレーム誤りから
復帰した後の復号処理における復号誤差の波及を縮減す
ることができる。
As described above, in the case of the configuration of FIG. 5, the linear prediction synthesis memory holding means 10 holds the information of the linear prediction synthesis memory immediately before the frame error, and the linear prediction is performed when the frame error is recovered. The linear prediction synthesis filter generates synthetic speech using the information held in the synthesis memory holding means, and the linear prediction synthesis memory is updated with the generated synthetic speech information, so that the linear prediction synthesis memory stores it immediately after a frame error. The synthesized speech information can approximate the synthesized speech immediately before the frame error, reduce the decoding error in the subsequent decoding processing, and reduce the spread of the decoding error in the decoding processing after returning from the frame error. be able to.

【0057】図7は、本発明の第四の実施の形態であ
る。図7において、1は音声の相関を除いた後の周期性
を有する音源情報を格納する適応符号帳、2は音声の相
関を除いた後の雑音成分の音源情報を格納する固定符号
帳、3は適応符号帳1から読み出した音源情報に適応符
号帳利得を掛ける適応符号帳利得乗算器、4は固定符号
帳から読み出した音源情報に固定符号帳利得を掛ける固
定符号帳利得乗算器、5は適応符号帳利得乗算器3及び
固定符号帳利得乗算器4の出力を合算して音源情報を生
成する加算器、6は加算器5が出力する音源情報と受信
した線形予測係数とを受けて合成音声を出力する線形予
測合成フィルタ、7は線形予測合成フィルタ6が合成音
声を生成する際に使用する過去の合成音声情報を格納す
る線形予測合成用メモリで、以上の構成要素は従来の音
声復号化装置の構成要素である。
FIG. 7 shows a fourth embodiment of the present invention. In FIG. 7, 1 is an adaptive codebook for storing excitation information having periodicity after removing speech correlation, 2 is a fixed codebook for storing excitation information of noise components after removing speech correlation, 3 Is an adaptive codebook gain multiplier that multiplies the excitation information read from the adaptive codebook 1 by the adaptive codebook gain, 4 is a fixed codebook gain multiplier that multiplies the excitation information read from the fixed codebook by the fixed codebook gain, and 5 is An adder that adds the outputs of the adaptive codebook gain multiplier 3 and the fixed codebook gain multiplier 4 to generate excitation information, and 6 receives the excitation information output from the adder 5 and the received linear prediction coefficient to synthesize the excitation information. A linear predictive synthesis filter for outputting speech, 7 is a memory for linear predictive synthesis that stores past synthetic speech information used when the linear predictive synthesis filter 6 generates synthetic speech, and the above components are conventional speech decoding units. Configurator It is.

【0058】8は適応符号帳1に格納されている、フレ
ーム誤りの直前の音源情報を保持する音源情報保持手
段、9aは音源情報保持手段8に保持されている情報を
受けて、適応符号帳1の格納情報を更新する音源情報算
出手段、10は線形予測合成用メモリ7のフレーム誤り
直前の格納情報を保持する線形予測合成用メモリ保持手
段で、音源情報保持手段8、音源情報算出手段9a及び
線形予測合成用メモリ保持手段10によって誤り修復手
段を構成する。そして、音源情報保持手段8、音源情報
算出手段9a及び線形予測合成用メモリ保持手段10に
はフレーム誤りであるか否かのエラー情報が与えられて
おり、音源情報保持手段8、音源情報算出手段9a及び
線形予測合成用メモリ保持手段10の動作はフレーム誤
り状態か否かによって異なる。
Reference numeral 8 denotes a sound source information holding means for holding the sound source information immediately before the frame error, which is stored in the adaptive code book 1, and 9a receives the information held in the sound source information holding means 8 and receives the adaptive code book. The sound source information calculating means 10 for updating the stored information of 1 is a linear predictive synthesizing memory holding means for holding the stored information immediately before the frame error of the linear predictive synthesizing memory 7, and the sound source information holding means 8 and the sound source information calculating means 9a. The error holding means is constituted by the linear prediction synthesis memory holding means 10. Then, the sound source information holding means 8, the sound source information calculating means 9a, and the linear predictive synthesis memory holding means 10 are provided with error information indicating whether or not there is a frame error, and the sound source information holding means 8 and the sound source information calculating means. 9a and the operation of the linear prediction synthesis memory holding means 10 differ depending on whether or not a frame error state exists.

【0059】尚、フレーム誤りが継続中は、音声復号化
装置は図19の構成に従って復号処理を行なっている。
ところで、図3及び図5と図7を比較すれば、図7の構
成における誤り修復手段は、図3の構成の誤り修復手段
と図5の構成の誤り修復手段とによってできていること
が判る。従って、図7の構成に関するこれ以上の説明は
省略する。
While the frame error continues, the speech decoding apparatus carries out the decoding process according to the configuration of FIG.
By the way, comparing FIGS. 3 and 5 with FIG. 7, it can be seen that the error repairing means in the configuration of FIG. 7 is made up of the error repairing means of the configuration of FIG. 3 and the error repairing means of the configuration of FIG. . Therefore, further description of the configuration of FIG. 7 is omitted.

【0060】図8は、本発明の第五の実施の形態であ
る。図8において、1は音声の相関を除いた後の周期性
を有する音源情報を格納する適応符号帳、2は音声の相
関を除いた後の雑音成分の音源情報を格納する固定符号
帳、3は適応符号帳1から読み出した音源情報に適応符
号帳利得を掛ける適応符号帳利得乗算器、4は固定符号
帳から読み出した音源情報に固定符号帳利得を掛ける固
定符号帳利得乗算器、5は適応符号帳利得乗算器3及び
固定符号帳利得乗算器4の出力を合算して音源情報を生
成する加算器、6は加算器5が出力する音源情報と受信
した線形予測係数とを受けて合成音声を出力する線形予
測合成フィルタ、7は線形予測合成フィルタ6が合成音
声を生成する際に使用する過去の合成音声情報を格納す
る線形予測合成用メモリで、以上の構成要素は従来の音
声復号化装置の構成要素である。
FIG. 8 shows a fifth embodiment of the present invention. In FIG. 8, reference numeral 1 is an adaptive codebook for storing excitation information having periodicity after speech correlation is removed, 2 is a fixed codebook for storing noise source excitation information after speech correlation is removed, 3 Is an adaptive codebook gain multiplier that multiplies the excitation information read from the adaptive codebook 1 by the adaptive codebook gain, 4 is a fixed codebook gain multiplier that multiplies the excitation information read from the fixed codebook by the fixed codebook gain, and 5 is An adder that adds the outputs of the adaptive codebook gain multiplier 3 and the fixed codebook gain multiplier 4 to generate excitation information, and 6 receives the excitation information output from the adder 5 and the received linear prediction coefficient to synthesize the excitation information. A linear predictive synthesis filter for outputting speech, 7 is a memory for linear predictive synthesis that stores past synthetic speech information used when the linear predictive synthesis filter 6 generates synthetic speech, and the above components are conventional speech decoding units. Configurator It is.

【0061】8aはフレーム誤り直前の合成音声情報を
保持する音源情報保持手段、9bはフレーム誤りから復
帰したフレームにおいて、音源情報保持手段8aが保持
する合成音声情報と、フレーム誤りから復帰したフレー
ムの線形予測係数とから音源情報を生成して、適応符号
帳を更新する音源情報算出手段で、音源情報保持手段8
a及び音源情報算出手段9bとによって誤り修復手段を
構成する。そして、音源情報保持手段8a、音源情報算
出手段9bにはフレーム誤りであるか否かのエラー情報
が与えられており、音源情報保持手段8a、音源情報算
出手段9bの動作はフレーム誤り状態か否かによって異
なる。
Reference numeral 8a denotes a sound source information holding means for holding the synthesized speech information immediately before the frame error, and 9b denotes the synthesized speech information held by the sound source information holding means 8a and the frame restored from the frame error in the frame restored from the frame error. Excitation information storage means 8 generates excitation information from the linear prediction coefficient and updates the adaptive codebook.
A and the sound source information calculation means 9b constitute error correction means. Then, the sound source information holding unit 8a and the sound source information calculating unit 9b are provided with error information indicating whether or not there is a frame error, and the operations of the sound source information holding unit 8a and the sound source information calculating unit 9b are in the frame error state. It depends on

【0062】尚、フレーム誤りが継続中は、音声復号化
装置は図19の構成に従って復号処理を行なっている。
従って、図8の構成の特徴は、音源情報保持手段8aに
フレーム誤り直前の合成音声情報を保持しておき、音源
情報保持手段8aが保持している情報を音源情報算出手
段9bが受けて音源情報を生成して、フレーム誤りから
復帰したフレームにおいて適応符号帳1の格納情報を更
新する点にある。
While the frame error continues, the speech decoding apparatus carries out the decoding process according to the configuration of FIG.
Therefore, the feature of the configuration of FIG. 8 is that the sound source information holding unit 8a holds the synthesized speech information immediately before the frame error, and the sound source information calculation unit 9b receives the information held by the sound source information holding unit 8a. The point is that information is generated and the stored information of the adaptive codebook 1 is updated in the frame recovered from the frame error.

【0063】図9は、図8の構成の誤り修復動作を示す
フローチャートで、音源情報保持手段8a及び音源情報
算出手段9bの動作フローチャートである。以降、図9
の符号に沿って図8の構成の誤り修復動作を説明する。
先ず、音源情報保持手段の動作は下記の通りである。 S61.フレーム誤りがあったか否か監視している。
FIG. 9 is a flow chart showing an error correction operation of the configuration of FIG. 8, which is an operation flow chart of the sound source information holding means 8a and the sound source information calculating means 9b. After that, FIG.
The error recovery operation of the configuration of FIG. 8 will be described with reference to symbols.
First, the operation of the sound source information holding means is as follows. S61. It is monitoring whether there was a frame error.

【0064】S62.ステップS61で、フレーム誤り
がなかった場合(No)には、合成された音声の情報で
音源情報保持手段の保持情報を書き替えて、ステップS
61にジャンプする。 一方、ステップS61で、フレーム誤りがなかった場合
(Yes)には、一旦処理を終了して待機する。
S62. If there is no frame error in step S61 (No), the held information of the sound source information holding means is rewritten with the information of the synthesized voice, and the step S61 is performed.
Jump to 61. On the other hand, in step S61, if there is no frame error (Yes), the process is temporarily terminated and the process stands by.

【0065】従って、音源情報保持手段が保有するメモ
リには、フレーム誤りが生ずる直前の合成音声情報が保
持される。次いで、音源情報算出手段の動作は下記の通
りである。 S71.フレーム誤りから復帰したか否か監視してい
る。 フレーム誤りから復帰していない場合(No)には、一
旦処理を終了して待機する。
Therefore, the memory held by the sound source information holding means holds the synthesized speech information immediately before the frame error occurs. Next, the operation of the sound source information calculation means is as follows. S71. It is monitoring whether or not the frame error has recovered. If the frame error has not been recovered (No), the process is once terminated and waits.

【0066】S72.ステップS71で、フレーム誤り
から復帰した場合(Yes)には、音源情報保持手段か
ら保持情報を取得する。 S73.フレーム誤りから復帰したフレームの線形予測
係数を、音源情報算出手段を構成する線形予測分析フィ
ルタに入力する。 S74.線形予測分析フィルタは、音源情報保持手段か
ら取得した情報とフレーム誤りから復帰したフレームの
線形予測係数とによって音源情報を算出する。
S72. In step S71, if the frame error is recovered (Yes), the holding information is acquired from the sound source information holding unit. S73. The linear prediction coefficient of the frame recovered from the frame error is input to the linear prediction analysis filter forming the sound source information calculation means. S74. The linear prediction analysis filter calculates the sound source information based on the information acquired from the sound source information holding unit and the linear prediction coefficient of the frame recovered from the frame error.

【0067】尚、線形予測分析フィルタは音声符号化装
置側に設置されるものと同じものである。 S75.線形予測分析フィルタが算出した音源情報で適
応符号帳を更新する。 上記の如く、図9の構成の場合は、音源情報保持手段8
aにフレーム誤り直前の合成音声情報を保持しておき、
フレーム誤りから復帰したフレームにおいて、音源情報
算出手段9bが音源情報を算出して適応符号帳を更新す
るので、フレーム誤り直後に適応符号帳1に格納される
音源情報はフレーム誤り直前の音源情報を近似すること
ができ、以降の復号処理における復号誤差を縮減するこ
とができ、フレーム誤りから復帰した後の復号処理にお
ける復号誤差の波及を縮減することができる。
The linear prediction analysis filter is the same as that installed on the side of the speech coder. S75. The adaptive codebook is updated with the sound source information calculated by the linear prediction analysis filter. As described above, in the case of the configuration of FIG. 9, the sound source information holding means 8
The synthetic speech information immediately before the frame error is held in a,
In the frame recovered from the frame error, the excitation information calculation means 9b calculates the excitation information and updates the adaptive codebook, so that the excitation information stored in the adaptive codebook 1 immediately after the frame error is the excitation information immediately before the frame error. It can be approximated, the decoding error in the subsequent decoding process can be reduced, and the spread of the decoding error in the decoding process after recovering from the frame error can be reduced.

【0068】図10は、本発明の第六の実施の形態であ
る。図10において、1は音声の相関を除いた後の周期
性を有する音源情報を格納する適応符号帳、2は音声の
相関を除いた後の雑音成分の音源情報を格納する固定符
号帳、3は適応符号帳1から読み出した音源情報に適応
符号帳利得を掛ける適応符号帳利得乗算器、4は固定符
号帳から読み出した音源情報に固定符号帳利得を掛ける
固定符号帳利得乗算器、5は適応符号帳利得乗算器3及
び固定符号帳利得乗算器4の出力を合算して音源情報を
生成する加算器、6は加算器5が出力する音源情報と受
信した線形予測係数とを受けて合成音声を出力する線形
予測合成フィルタ、7は線形予測合成フィルタ6が合成
音声を生成する際に使用する過去の合成音声情報を格納
する線形予測合成用メモリで、以上の構成要素は従来の
音声復号化装置の構成要素である。
FIG. 10 shows a sixth embodiment of the present invention. In FIG. 10, 1 is an adaptive codebook that stores excitation information having periodicity after removing speech correlation, 2 is a fixed codebook that stores excitation information of noise components after removing speech correlation, 3 Is an adaptive codebook gain multiplier that multiplies the excitation information read from the adaptive codebook 1 by the adaptive codebook gain, 4 is a fixed codebook gain multiplier that multiplies the excitation information read from the fixed codebook by the fixed codebook gain, and 5 is An adder that adds the outputs of the adaptive codebook gain multiplier 3 and the fixed codebook gain multiplier 4 to generate excitation information, and 6 receives the excitation information output from the adder 5 and the received linear prediction coefficient to synthesize the excitation information. A linear predictive synthesis filter for outputting speech, 7 is a memory for linear predictive synthesis that stores past synthetic speech information used when the linear predictive synthesis filter 6 generates synthetic speech, and the above components are conventional speech decoding units. Configuration Is the elementary.

【0069】11は合成音声情報からフレーム電力を算
出して、フレーム誤り直前のフレーム電力E1 を保持す
るフレーム電力算出手段、9cは、フレーム誤りから復
帰したフレームにおいて、フレーム電力算出手段11か
らフレーム誤り直前のフレーム電力E1 を受信し、フレ
ーム誤りから復帰したフレームにおける合成音声情報を
生成してフレーム誤りから復帰したフレームにおけるフ
レーム電力E2 を算出して、適応符号帳が格納している
情報をE1 /E2 倍に更新する音源情報算出手段で、フ
レーム電力算出手段11及び音源情報算出手段9cとに
よって誤り修復手段を構成する。そして、フレーム電力
算出手段11、音源情報算出手段9cにはフレーム誤り
であるか否かのエラー情報が与えられており、フレーム
電力算出手段11、音源情報算出手段9cの動作はフレ
ーム誤り状態か否かによって異なる。
Reference numeral 11 is a frame power calculating means for calculating the frame power from the synthesized speech information and holding the frame power E 1 immediately before the frame error, and 9c is a frame from the frame power calculating means 11 for the frame recovered from the frame error. Information stored in the adaptive codebook by receiving the frame power E 1 immediately before the error, generating synthetic speech information in the frame recovered from the frame error, and calculating the frame power E 2 in the frame recovered from the frame error. Is a sound source information calculating unit that updates the time by E 1 / E 2 times, and the frame power calculating unit 11 and the sound source information calculating unit 9c constitute an error correcting unit. Then, error information indicating whether or not there is a frame error is given to the frame power calculation means 11 and the sound source information calculation means 9c, and the operations of the frame power calculation means 11 and the sound source information calculation means 9c are in the frame error state. It depends on

【0070】尚、フレーム誤りが継続中は、音声復号化
装置は図19の構成に従って復号処理を行なっている。
従って、図10の構成の特徴は、フレーム電力算出手段
が合成音声情報からフレーム電力を算出して、フレーム
誤り直前のフレーム電力E1を保持し、音源情報算出手
段9cがフレーム誤りから復帰したフレームにおいて、
フレーム電力算出手段11からフレーム誤り直前のフレ
ーム電力E1 を受信し、フレーム誤りから復帰したフレ
ームにおける合成音声情報を生成してフレーム誤りから
復帰したフレームにおけるフレーム電力E2 を算出し
て、適応符号帳が格納している情報をE1 /E2 倍に更
新する点にある。
While the frame error continues, the speech decoding apparatus carries out the decoding process according to the configuration of FIG.
Therefore, the feature of the configuration of FIG. 10 is that the frame power calculation means calculates the frame power from the synthesized speech information, holds the frame power E 1 immediately before the frame error, and the sound source information calculation means 9c recovers from the frame error. At
The frame power E 1 immediately before the frame error is received from the frame power calculation means 11, synthetic speech information in the frame recovered from the frame error is generated, the frame power E 2 in the frame recovered from the frame error is calculated, and the adaptive code is calculated. The point is to update the information stored in the book by E 1 / E 2 times.

【0071】図11は、図10の構成の誤り修復動作を
示すフローチャートで、フローチャート電力算出手段と
音源情報算出手段の動作フローチャートである。以降、
図11の符号に沿って図10の構成の誤り修復動作を説
明する。先ず、フローチャート電力算出手段の動作は下
記の通りである。 S81.フレーム誤りがあったか否か監視している。
FIG. 11 is a flowchart showing the error correction operation of the configuration of FIG. 10, which is an operation flowchart of the flowchart power calculation means and the sound source information calculation means. Or later,
The error recovery operation of the configuration of FIG. 10 will be described with reference to the reference numerals of FIG. First, the operation of the flowchart power calculation means is as follows. S81. It is monitoring whether there was a frame error.

【0072】S82.ステップS81で、フレーム誤り
がなかった場合(No)には、合成音声でフレーム電力
1 を算出する。にジャンプする。 S83.ステップS82で算出したフレームE1 でフレ
ーム電力算出手段が保有するメモリを更新してステップ
S81にジャンプする。
S82. In step S81, if there is no frame error (No), the frame power E 1 is calculated for the synthetic speech. Jump to. S83. With the frame E 1 calculated in step S82, the memory held by the frame power calculation means is updated, and the process jumps to step S81.

【0073】一方、ステップS81で、フレーム誤りが
なかった場合(Yes)には、一旦処理を終了して待機
する。従って、フレーム電力算出手段が保有するメモリ
には、フレーム誤りが生ずる直前のフレーム電力E1
保持される。次いで、音源情報算出手段の動作は下記の
通りである。
On the other hand, in step S81, if there is no frame error (Yes), the process is once terminated and stands by. Therefore, the frame power E 1 immediately before the frame error occurs is held in the memory of the frame power calculation means. Next, the operation of the sound source information calculation means is as follows.

【0074】S91.フレーム誤りから復帰したか否か
監視している。 フレーム誤りから復帰していない場合(No)には、一
旦処理を終了して待機する。 S92.ステップS91で、フレーム誤りから復帰した
場合(Yes)には、フレーム電力算出手段からフレー
ム電力E1 を取得する。
S91. It is monitoring whether or not the frame error has recovered. If the frame error has not been recovered (No), the process is once terminated and waits. S92. In step S91, if the frame error is recovered (Yes), the frame power E 1 is acquired from the frame power calculation means.

【0075】S93.フレーム誤りからの復帰時の合成
音声を算出する。 S94.ステップS93で算出した合成音声からフレー
ム誤りから復帰した時のフレーム電力E2 を算出する。 S95.適応符号帳の保持情報をE1 /E2 倍に更新す
る。 ここで、適応符号帳の保持情報をE1 /E2 倍に更新す
るのは、フレーム誤り中に適応符号帳利得と固定符号帳
利得を減衰させて合成音声を生成しているので、フレー
ム誤りから復帰したばかりには合成音声のフレーム電力
がフレーム誤りが生じなかった時より小さくなってい
て、その減衰度をE1 /E2 で近似できる。従って、フ
レーム誤りから復帰した時に適応符号帳に格納されてい
る音声情報をE1 /E2 倍して更新すれば、フレーム誤
り直前とフレーム誤り直後のフレーム電力の連続性がよ
くなり、以降の復号処理における復号誤差を縮減するこ
とができ、フレーム誤りから復帰した後の復号処理にお
ける復号誤差の波及を縮減することができる。
S93. The synthesized speech at the time of recovery from a frame error is calculated. S94. The frame power E 2 at the time of recovering from the frame error is calculated from the synthesized voice calculated in step S93. S95. The information held in the adaptive codebook is updated to E 1 / E 2 times. Here, the information held in the adaptive codebook is updated to E 1 / E 2 times because the adaptive codebook gain and the fixed codebook gain are attenuated during the frame error to generate the synthesized speech, and thus the frame error is generated. Immediately after returning from the above, the frame power of the synthesized voice is smaller than that when no frame error occurred, and its attenuation can be approximated by E 1 / E 2 . Therefore, if the voice information stored in the adaptive codebook is updated by E 1 / E 2 times when the frame error is recovered, the continuity of the frame power immediately before the frame error and immediately after the frame error is improved. The decoding error in the decoding process can be reduced, and the spread of the decoding error in the decoding process after the recovery from the frame error can be reduced.

【0076】図12は、本発明の第七の実施の形態であ
る。図12において、1は音声の相関を除いた後の周期
性を有する音源情報を格納する適応符号帳、2は音声の
相関を除いた後の雑音成分の音源情報を格納する固定符
号帳、3は適応符号帳1から読み出した音源情報に適応
符号帳利得を掛ける適応符号帳利得乗算器、4は固定符
号帳から読み出した音源情報に固定符号帳利得を掛ける
固定符号帳利得乗算器、5は適応符号帳利得乗算器3及
び固定符号帳利得乗算器4の出力を合算して音源情報を
生成する加算器、6は加算器5が出力する音源情報と受
信した線形予測係数とを受けて合成音声を出力する線形
予測合成フィルタ、7は線形予測合成フィルタ6が合成
音声を生成する際に使用する過去の合成音声情報を格納
する線形予測合成用メモリで、以上の構成要素は従来の
音声復号化装置の構成要素である。
FIG. 12 shows the seventh embodiment of the present invention. In FIG. 12, 1 is an adaptive codebook that stores excitation information having periodicity after removing speech correlation, 2 is a fixed codebook that stores excitation information of noise components after removing speech correlation, 3 Is an adaptive codebook gain multiplier that multiplies the excitation information read from the adaptive codebook 1 by the adaptive codebook gain, 4 is a fixed codebook gain multiplier that multiplies the excitation information read from the fixed codebook by the fixed codebook gain, and 5 is An adder that adds the outputs of the adaptive codebook gain multiplier 3 and the fixed codebook gain multiplier 4 to generate excitation information, and 6 receives the excitation information output from the adder 5 and the received linear prediction coefficient to synthesize the excitation information. A linear predictive synthesis filter for outputting speech, 7 is a memory for linear predictive synthesis that stores past synthetic speech information used when the linear predictive synthesis filter 6 generates synthetic speech, and the above components are conventional speech decoding units. Configuration Is the elementary.

【0077】12は合成音声情報から、音声フレームで
あるか非音声フレームであるかを検出する音声検出手
段、8bは音声検出手段12の検出結果に対応して、フ
レーム誤りの直前の適応符号帳情報を保持する音源情報
保持手段、9dは音声検出手段12の検出結果に対応し
て、フレーム誤りから復帰したフレームにおいて、音源
情報保持手段8bが保持している適応符号帳情報によっ
て適応符号帳を更新する音源情報算出手段である。
Reference numeral 12 denotes a voice detecting means for detecting whether it is a voice frame or a non-voice frame from the synthesized voice information, and 8b corresponds to the detection result of the voice detecting means 12, and the adaptive codebook immediately before the frame error. A sound source information holding means for holding information, 9d corresponds to the detection result of the voice detecting means 12, and in the frame recovered from the frame error, the adaptive code book is held by the adaptive code book information held by the sound source information holding means 8b. It is a sound source information calculation means for updating.

【0078】尚、フレーム誤りが継続中は、音声復号化
装置は図19の構成に従って復号処理を行なっている。
従って、図12の構成の特徴は、フレーム誤りから復帰
したフレームにおいて、音声検出手段12が当該フレー
ムが音声フレームであるか非音声フレームであるか検出
し、音声検出手段12の検出結果に対応して、音源情報
保持手段8bがフレーム誤り直前のフレームの適応符号
帳情報を保持しており、音源情報算出手段9dが音源情
報保持手段8bが保持している適応符号帳情報によって
適応符号帳を更新する点にある。
While the frame error continues, the speech decoding apparatus carries out the decoding process according to the configuration of FIG.
Therefore, the feature of the configuration of FIG. 12 is that the voice detection means 12 detects whether the frame is a voice frame or a non-voice frame in the frame recovered from the frame error, and corresponds to the detection result of the voice detection means 12. Then, the excitation information holding unit 8b holds the adaptive codebook information of the frame immediately before the frame error, and the excitation information calculation unit 9d updates the adaptive codebook with the adaptive codebook information held by the excitation information holding unit 8b. There is a point to do.

【0079】図13は、図12の構成の誤り修復動作を
示すフローチャートで、音声検出手段、音源情報保持手
段及び音源情報算出手段の動作フローチャートである。
以降、図13の符号に沿って図12の構成の誤り修復動
作を説明する。先ず、音声検出手段はフレーム誤りが生
じていない時に音声フレームが非音声フレームかを判断
するが、フレーム誤り前とフレーム誤りから復帰した後
の動作は似ているので、フレーム誤りから復帰した後の
動作のみをフローチャートに示す。
FIG. 13 is a flowchart showing the error correcting operation of the configuration of FIG. 12, which is an operation flowchart of the voice detecting means, the sound source information holding means and the sound source information calculating means.
Hereinafter, the error recovery operation of the configuration of FIG. 12 will be described with reference to the symbols of FIG. First, the voice detection means determines whether the voice frame is a non-voice frame when no frame error has occurred. Since the operation before the frame error is the same as that after the recovery from the frame error, the operation after the recovery from the frame error is similar. Only the operation is shown in the flowchart.

【0080】S101.フレーム誤りから復帰したか否
か監視している。 S102.ステップS101で、フレーム誤りから復帰
していない場合(No)には、合成音声のフレーム電力
Eを算出する。 S103.ステップS102で算出したフレーム電力E
が所定の閾値より大きいか否か判定する。
S101. It is monitoring whether or not the frame error has recovered. S102. In step S101, if the frame error has not recovered (No), the frame power E of the synthesized speech is calculated. S103. Frame power E calculated in step S102
Is greater than a predetermined threshold value.

【0081】S104.ステップS103で、フレーム
電力Eが所定の閾値より大きいと判定した場合(Ye
s)には、フレーム誤りから復帰したフレームが音声フ
レームである旨の判定を出力して、音源情報保持手段及
び音源情報算出手段に供給して処理を終了する。 S105.ステップS103で、フレーム電力Eが所定
の閾値より小さいと判定した場合(No)には、平均の
線形予測係数LPCA と平均のピッチPA を算出し、格
納している平均の線形予測係数と平均のピッチを更新す
る。
S104. When it is determined in step S103 that the frame power E is larger than a predetermined threshold value (Yes
In s), a determination that the frame recovered from the frame error is a voice frame is output, supplied to the sound source information holding means and the sound source information calculating means, and the processing is ended. S105. When it is determined in step S103 that the frame power E is smaller than the predetermined threshold value (No), the average linear prediction coefficient LPC A and the average pitch P A are calculated, and the stored average linear prediction coefficient is calculated. Update the average pitch.

【0082】S106.フレーム誤りから復帰したフレ
ームが非音声フレームである旨の判定を出力して、音源
情報保持手段及び音源情報算出手段に供給して処理を終
了する。 S107.又、ステップS101で、フレーム誤りから
復帰した場合(Yes)には、線形予測係数LPCと平
均の線形予測係数LPCA との差が所定の閾値より小さ
いか、又は、ピッチPと平均のピッチPA の差が所定の
閾値より小さいかを判定する。
S106. A determination that the frame recovered from the frame error is a non-voice frame is output and supplied to the sound source information holding means and the sound source information calculating means, and the processing is ended. S107. When the frame error is recovered in step S101 (Yes), the difference between the linear prediction coefficient LPC and the average linear prediction coefficient LPC A is smaller than a predetermined threshold value, or the pitch P and the average pitch P are set. It is determined whether the difference of A is smaller than a predetermined threshold value.

【0083】線形予測係数LPCと平均の線形予測係数
LPCA との差が所定の閾値より小さいか、又は、ピッ
チPと平均のピッチPA の差が所定の閾値より小さい場
合(Yes)には、ステップS106にジャンプする。
一方、線形予測係数LPCと平均の線形予測係数LPC
A との差が所定の閾値より大きく、且つ、ピッチPと平
均のピッチPA の差が所定の閾値より大きい場合(N
o)には、ステップS104にジャンプする。
If the difference between the linear prediction coefficient LPC and the average linear prediction coefficient LPC A is smaller than a predetermined threshold value, or if the difference between the pitch P and the average pitch P A is smaller than the predetermined threshold value (Yes). , Jump to step S106.
On the other hand, the linear prediction coefficient LPC and the average linear prediction coefficient LPC
When the difference between A and the pitch P is larger than a predetermined threshold and the difference between the pitch P and the average pitch P A is larger than a predetermined threshold (N
In step o), the process jumps to step S104.

【0084】ここで、ステップS105で、平均の線形
予測係数LPCA と平均のピッチP A を算出し、格納し
ている平均の線形予測係数と平均のピッチを更新するの
は、ステップS107の判定を行なうための準備であ
る。尚、フレーム誤りが生ずる前にも、音声検出手段は
上記ステップS102乃至S107の動作を行なってい
て、フレーム誤り直前のフレームが音声フレームである
か非音声フレームであるかを判断して格納している。
Here, in step S105, the average linear
Prediction coefficient LPCAAnd the average pitch P ACalculate and store
Updating the mean linear prediction coefficient and mean pitch
Is a preparation for the determination in step S107.
It Even before a frame error occurs, the voice detection means
The operations of steps S102 to S107 are performed.
The frame immediately before the frame error is a voice frame.
It is stored by judging whether it is a non-voice frame.

【0085】次いで、音源情報保持手段の動作は下記の
通りである。 S111.フレーム誤りが生じたか否か監視している。 S112.ステップS111で、フレーム誤りが生じな
かった場合(No)には、適応符号帳の格納情報を保持
してステップS111にジャンプする。 一方、ステップS111で、フレーム誤りが生じた場合
(Yes)には、ステップS113に移行する。
Next, the operation of the sound source information holding means is as follows. S111. It is monitoring whether a frame error has occurred. S112. If no frame error occurs in step S111 (No), the stored information of the adaptive codebook is held and the process jumps to step S111. On the other hand, if a frame error occurs in step S111 (Yes), the process proceeds to step S113.

【0086】即ち、音源情報保持手段にはフレーム誤り
が生ずる直前の適応符号帳の格納情報が保持されてい
る。 S113.音声検出手段がフレーム誤りの直前にした判
断は音声判定であったか否か判定する。 S114.ステップS113で、音声判定であった場合
(Yes)には、ステップS112で保持した適応符号
帳情報で、音声フレームの適応符号帳情報を置換して処
理を終了する。
That is, the excitation information storage means holds the storage information of the adaptive codebook immediately before the frame error occurs. S113. It is determined whether the determination made by the voice detecting means immediately before the frame error is the voice determination. S114. In the case of voice determination in step S113 (Yes), the adaptive codebook information of the voice frame is replaced with the adaptive codebook information held in step S112, and the process ends.

【0087】S115.ステップS113で、非音声判
定であった場合(No)には、ステップS112で保持
した適応符号帳情報で、非音声フレームの適応符号帳情
報を置換して処理を終了する。 更に、音源情報算出手段の動作は下記の通りである。 S121.音声検出手段がフレーム誤りから復帰した後
に出力したのは音声判定であったか否か判定する。
S115. If the non-voice determination is made in step S113 (No), the adaptive codebook information of the non-voice frame is replaced with the adaptive codebook information held in step S112, and the process ends. Further, the operation of the sound source information calculation means is as follows. S121. It is determined whether or not the voice detection means outputs the voice determination after recovering from the frame error.

【0088】S122.ステップS121で、音声判定
であったと判定した場合(Yes)には、音源情報保持
手段から音声フレームの適応符号帳情報を取得する。 S123.ステップS121で、非音声判定であったと
判定した場合(No)には、音源情報保持手段から非音
声フレームの適応符号帳情報を取得する。 S124.ステップS122又はステップS123のい
ずれかで取得した適応符号帳情報で適応符号帳を更新し
て処理を終了する。
S122. When it is determined in step S121 that the voice determination is performed (Yes), the adaptive codebook information of the voice frame is acquired from the sound source information holding unit. S123. When it is determined in step S121 that the non-voice determination is made (No), the adaptive codebook information of the non-voice frame is acquired from the sound source information holding unit. S124. The adaptive codebook is updated with the adaptive codebook information acquired in either step S122 or step S123, and the process ends.

【0089】上記の如く、図12の構成では、音声検出
手段12が、フレーム誤り直前のフレームとフレーム誤
りから復帰したフレームにおいて、当該フレームが音声
フレームであるか非音声フレームであるか検出し、音源
情報保持手段8bがフレーム誤り直前のフレームの適応
符号帳情報を保持し、音声検出手段12の検出結果に対
応して保持している適応符号帳情報を音声フレームの適
応符号帳情報又は非音声フレームの適応符号帳情報と
し、音源情報算出手段9dが音源情報保持手段8bが保
持している適応符号帳情報によって適応符号帳を更新す
るので、フレーム誤りから復帰したフレームにおける適
応符号帳情報はフレーム誤り直前の適応符号帳情報と、
音声フレームか非音声フレームかを含めて連続性を保つ
ことができる。従って、以降の復号処理における復号誤
差を縮減することができ、フレーム誤りから復帰した後
の復号処理における復号誤差の波及を縮減することがで
きる。
As described above, in the configuration of FIG. 12, the voice detecting means 12 detects whether the frame is a voice frame or a non-voice frame in the frame immediately before the frame error and the frame recovered from the frame error, The excitation information holding unit 8b holds the adaptive codebook information of the frame immediately before the frame error, and the adaptive codebook information held corresponding to the detection result of the voice detection unit 12 is the adaptive codebook information of the voice frame or the non-voice. Since the adaptive codebook information of the frame is updated by the excitation information calculation means 9d as the adaptive codebook information of the frame, the adaptive codebook information is updated by the adaptive codebook information held by the excitation information holding means 8b. Adaptive codebook information immediately before the error,
Continuity can be maintained including voice frames and non-voice frames. Therefore, it is possible to reduce the decoding error in the subsequent decoding process and reduce the spread of the decoding error in the decoding process after recovering from the frame error.

【0090】そして、図12の構成は、図3の構成に音
声検出手段を付加したものであり、図1の構成と図3の
構成は本質的に同じであることを考慮すれば、図1の構
成に音声検出手段を付加したものであることが判る。図
14は、本発明の第八の実施の形態である。図14にお
いて、1は音声の相関を除いた後の周期性を有する音源
情報を格納する適応符号帳、2は音声の相関を除いた後
の雑音成分の音源情報を格納する固定符号帳、3は適応
符号帳1から読み出した音源情報に適応符号帳利得を掛
ける適応符号帳利得乗算器、4は固定符号帳から読み出
した音源情報に固定符号帳利得を掛ける固定符号帳利得
乗算器、5は適応符号帳利得乗算器3及び固定符号帳利
得乗算器4の出力を合算して音源情報を生成する加算
器、6は加算器5が出力する音源情報と受信した線形予
測係数とを受けて合成音声を出力する線形予測合成フィ
ルタ、7は線形予測合成フィルタ6が合成音声を生成す
る際に使用する過去の合成音声情報を格納する線形予測
合成用メモリで、以上の構成要素は従来の音声復号化装
置の構成要素である。
The configuration of FIG. 12 is obtained by adding a voice detecting means to the configuration of FIG. 3, and considering that the configuration of FIG. 1 and the configuration of FIG. 3 are essentially the same, the configuration of FIG. It is understood that the voice detection means is added to the configuration of FIG. FIG. 14 shows an eighth embodiment of the present invention. In FIG. 14, 1 is an adaptive codebook that stores excitation information having periodicity after removing speech correlation, 2 is a fixed codebook that stores excitation information of noise components after removing speech correlation, 3 Is an adaptive codebook gain multiplier that multiplies the excitation information read from the adaptive codebook 1 by the adaptive codebook gain, 4 is a fixed codebook gain multiplier that multiplies the excitation information read from the fixed codebook by the fixed codebook gain, and 5 is An adder that adds the outputs of the adaptive codebook gain multiplier 3 and the fixed codebook gain multiplier 4 to generate excitation information, and 6 receives the excitation information output from the adder 5 and the received linear prediction coefficient to synthesize the excitation information. A linear predictive synthesis filter for outputting speech, 7 is a memory for linear predictive synthesis that stores past synthetic speech information used when the linear predictive synthesis filter 6 generates synthetic speech, and the above components are conventional speech decoding units. Configuration Is the elementary.

【0091】12は合成音声情報から、音声フレームで
あるか非音声フレームであるかを検出する音声検出手
段、8cは音声検出手段12の検出結果に対応して、フ
レーム誤りの直前の合成音声情報を保持する音源情報保
持手段、9eは音声検出手段12の検出結果に対応し
て、フレーム誤りから復帰したフレームにおいて、音源
情報保持手段8cが保持する合成音声情報と、フレーム
誤りから復帰したフレームの線形予測係数とから適応符
号帳情報を生成して、適応符号帳を更新する音源情報算
出手段で、音声検出手段12、音源情報保持手段8c及
び音源情報算出手段9eとによって誤り修復手段を構成
する。 尚、フレーム誤りが継続中は、音声復号化装置
は図19の構成に従って復号処理を行なっている。従っ
て、図14の構成の特徴は、フレーム誤りから復帰した
フレームにおいて、音声検出手段12が当該フレームが
音声フレームであるか非音声フレームであるか検出し、
音声検出手段12の検出結果に対応して、音源情報保持
手段8cがフレーム誤り直前の合成音声情報を保持して
おり、音源情報算出手段9eが音源情報保持手段8cが
保持している合成音声情報と線形予測係数とから適応符
号帳情報を生成して適応符号帳を更新する点にある。
Reference numeral 12 denotes a voice detecting means for detecting whether it is a voice frame or a non-voice frame from the synthesized voice information, and 8c corresponds to the detection result of the voice detecting means 12, and the synthesized voice information immediately before the frame error. The sound source information holding unit 9e holds the synthesized voice information held by the sound source information holding unit 8c and the frame restored from the frame error in the frame recovered from the frame error corresponding to the detection result of the voice detection unit 12. The excitation information calculation means for generating adaptive codebook information from the linear prediction coefficient and updating the adaptive codebook, and the voice detection means 12, the excitation information holding means 8c, and the excitation information calculation means 9e constitute error correction means. . Note that, while the frame error continues, the voice decoding device performs the decoding process according to the configuration of FIG. Therefore, the feature of the configuration of FIG. 14 is that in the frame recovered from the frame error, the voice detection means 12 detects whether the frame is a voice frame or a non-voice frame,
Corresponding to the detection result of the voice detection means 12, the sound source information holding means 8c holds the synthesized speech information immediately before the frame error, and the sound source information calculation means 9e holds the synthesized speech information held by the sound source information holding means 8c. And adaptive codebook information is generated from the linear prediction coefficient and the adaptive codebook is updated.

【0092】図15は、図14の構成の誤り修復動作を
示すフローチャートで、音声検出手段、音源情報保持手
段及び音源情報算出手段の動作フローチャートである。
以降、図15の符号に沿って図14の構成の誤り修復動
作を説明する。先ず、音声検出手段はフレーム誤りが生
じていない時に音声フレームが非音声フレームかを判断
するが、フレーム誤り前とフレーム誤りから復帰した後
の動作は似ているので、フレーム誤りから復帰した後の
動作のみをフローチャートに示す。
FIG. 15 is a flowchart showing the error correction operation of the configuration of FIG. 14, which is an operation flowchart of the voice detecting means, the sound source information holding means, and the sound source information calculating means.
Hereinafter, the error recovery operation of the configuration of FIG. 14 will be described with reference to the reference numerals of FIG. First, the voice detection means determines whether the voice frame is a non-voice frame when no frame error has occurred. Since the operation before the frame error is the same as that after the recovery from the frame error, the operation after the recovery from the frame error is similar. Only the operation is shown in the flowchart.

【0093】S101.フレーム誤りから復帰したか否
か監視している。 S102.ステップS101で、フレーム誤りから復帰
していない場合(No)には、合成音声のフレーム電力
Eを算出する。 S103.ステップS102で算出したフレーム電力E
が所定の閾値より大きいか否か判定する。
S101. It is monitoring whether or not the frame error has recovered. S102. In step S101, if the frame error has not recovered (No), the frame power E of the synthesized speech is calculated. S103. Frame power E calculated in step S102
Is greater than a predetermined threshold value.

【0094】S104.ステップS103で、フレーム
電力Eが所定の閾値より大きいと判定した場合(Ye
s)には、フレーム誤りから復帰したフレームが音声フ
レームである旨の判定を出力して、音源情報保持手段及
び音源情報算出手段に供給して処理を終了する。 S105.ステップS103で、フレーム電力Eが所定
の閾値より小さいと判定した場合(No)には、平均の
線形予測係数LPCA と平均のピッチPA を算出し、格
納している平均の線形予測係数と平均のピッチを更新す
る。
S104. When it is determined in step S103 that the frame power E is larger than a predetermined threshold value (Yes
In s), a determination that the frame recovered from the frame error is a voice frame is output, supplied to the sound source information holding means and the sound source information calculating means, and the processing is ended. S105. When it is determined in step S103 that the frame power E is smaller than the predetermined threshold value (No), the average linear prediction coefficient LPC A and the average pitch P A are calculated, and the stored average linear prediction coefficient is calculated. Update the average pitch.

【0095】S106.フレーム誤りから復帰したフレ
ームが非音声フレームである旨の判定を出力して、音源
情報保持手段及び音源情報算出手段に供給して処理を終
了する。 S107.又、ステップS101で、フレーム誤りから
復帰した場合(Yes)には、線形予測係数LPCと平
均の線形予測係数LPCA との差が所定の閾値より小さ
いか、又は、ピッチPと平均のピッチPA の差が所定の
閾値より小さいかを判定する。
S106. A determination that the frame recovered from the frame error is a non-voice frame is output and supplied to the sound source information holding means and the sound source information calculating means, and the processing is ended. S107. When the frame error is recovered in step S101 (Yes), the difference between the linear prediction coefficient LPC and the average linear prediction coefficient LPC A is smaller than a predetermined threshold value, or the pitch P and the average pitch P are set. It is determined whether the difference of A is smaller than a predetermined threshold value.

【0096】線形予測係数LPCと平均の線形予測係数
LPCA との差が所定の閾値より小さいか、又は、ピッ
チPと平均のピッチPA の差が所定の閾値より小さい場
合(Yes)には、ステップS106にジャンプする。
一方、線形予測係数LPCと平均の線形予測係数LPC
A との差が所定の閾値より大きく、且つ、ピッチPと平
均のピッチPA の差が所定の閾値より大きい場合(N
o)には、ステップS104にジャンプする。
When the difference between the linear prediction coefficient LPC and the average linear prediction coefficient LPC A is smaller than a predetermined threshold value or when the difference between the pitch P and the average pitch P A is smaller than a predetermined threshold value (Yes). , Jump to step S106.
On the other hand, the linear prediction coefficient LPC and the average linear prediction coefficient LPC
When the difference between A and the pitch P is larger than a predetermined threshold and the difference between the pitch P and the average pitch P A is larger than a predetermined threshold (N
In step o), the process jumps to step S104.

【0097】ここで、ステップS105で、平均の線形
予測係数LPCA と平均のピッチP A を算出し、格納し
ている平均の線形予測係数と平均のピッチを更新するの
は、ステップS107の判定を行なうための準備であ
る。尚、フレーム誤りが生ずる前にも、音声検出手段は
上記ステップS102乃至S107の動作を行なってい
て、フレーム誤り直前のフレームが音声フレームである
か非音声フレームであるかを判断して格納している。
Here, in step S105, the average linear
Prediction coefficient LPCAAnd the average pitch P ACalculate and store
Updating the mean linear prediction coefficient and mean pitch
Is a preparation for the determination in step S107.
It Even before a frame error occurs, the voice detection means
The operations of steps S102 to S107 are performed.
The frame immediately before the frame error is a voice frame.
It is stored by judging whether it is a non-voice frame.

【0098】次いで、音源情報保持手段8cの動作は下
記の通りである。 S131.フレーム誤りが生じたか否か監視している。 S132.ステップS131で、フレーム誤りが生じな
かった場合(No)には、合成音声情報を保持してステ
ップS131にジャンプする。 一方、ステップS131で、フレーム誤りが生じた場合
(Yes)には、ステップS133に移行する。
Next, the operation of the sound source information holding means 8c is as follows. S131. It is monitoring whether a frame error has occurred. S132. If no frame error occurs in step S131 (No), the synthesized voice information is held and the process jumps to step S131. On the other hand, if a frame error occurs in step S131 (Yes), the process proceeds to step S133.

【0099】即ち、音源情報保持手段にはフレーム誤り
が生ずる直前の適応符号帳の格納情報が保持されてい
る。 S133.音声検出手段がフレーム誤りの直前にした判
断は音声判定であったか否か判定する。 S134.ステップS133で、音声判定であった場合
(Yes)には、保持している合成音声情報で、音声フ
レームの合成音声情報を置換して処理を終了する。
That is, the excitation information storage means holds the storage information of the adaptive codebook immediately before the frame error occurs. S133. It is determined whether the determination made by the voice detecting means immediately before the frame error is the voice determination. S134. In step S133, in the case of the voice determination (Yes), the synthetic voice information of the voice frame is replaced with the retained synthetic voice information, and the process ends.

【0100】S135.ステップS133で、非音声判
定であった場合(No)には、保持している合成音声情
報で、非音声フレームの音声情報を置換して処理を終了
する。更に、音源情報算出手段の動作は下記の通りであ
る。 S141.音声検出手段がフレーム誤りから復帰した後
に出力したのは音声判定であったか否か判定する。
S135. In step S133, if the non-voice determination is made (No), the voice information of the non-voice frame is replaced with the held synthetic voice information, and the process ends. Further, the operation of the sound source information calculation means is as follows. S141. It is determined whether or not the voice detection means outputs the voice determination after recovering from the frame error.

【0101】S142.ステップS141で、音声判定
であったと判定した場合(Yes)には、音源情報保持
手段から音声フレームの合成音声情報を取得する。 S143.ステップS141で、非音声判定であったと
判定した場合(No)には、音源情報保持手段から非音
声フレームの合成音声情報を取得する。 S144.ステップS142又はステップS143のい
ずれかで取得した合成音声情報と線形予測係数とを線形
予測分析フィルタに供給して音源情報を算出する。
S142. When it is determined in step S141 that the voice determination is performed (Yes), the synthesized voice information of the voice frame is acquired from the sound source information holding unit. S143. When it is determined in step S141 that the non-voice frame is determined (No), the synthesized voice information of the non-voice frame is acquired from the sound source information holding unit. S144. The synthesized speech information and the linear prediction coefficient acquired in either step S142 or step S143 are supplied to the linear prediction analysis filter to calculate the sound source information.

【0102】S145.ステップS144で算出した音
源情報で適応符号帳を更新して処理を終了する。 上記の如く、図14の構成では、音声検出手段12が、
フレーム誤り直前のフレームとフレーム誤りから復帰し
たフレームにおいて、当該フレームが音声フレームであ
るか非音声フレームであるか検出し、音源情報保持手段
8cがフレーム誤り直前のフレームの合成音声情報を保
持し、音声検出手段12の検出結果に対応して保持して
いる適応符号帳情報を音声フレームの合成音声情報又は
非音声フレームの合成音声情報とし、音源情報算出手段
9eが音源情報保持手段8cが保持している合成音声情
報と線形予測係数とによって音源情報を算出して適応符
号帳を更新するので、フレーム誤りから復帰したフレー
ムにおける適応符号帳情報はフレーム誤り直前の適応符
号帳情報と、音声フレームか非音声フレームかを含めて
連続性を保つことができる。従って、以降の復号処理に
おける復号誤差を縮減することができ、フレーム誤りか
ら復帰した後の復号処理における復号誤差の波及を縮減
することができる。
S145. The adaptive codebook is updated with the sound source information calculated in step S144, and the process ends. As described above, in the configuration of FIG. 14, the voice detecting means 12 is
In the frame immediately before the frame error and the frame recovered from the frame error, it is detected whether the frame is a voice frame or a non-voice frame, and the sound source information holding unit 8c holds the synthesized voice information of the frame immediately before the frame error, The adaptive codebook information held in correspondence with the detection result of the voice detection means 12 is used as the synthesized voice information of the voice frame or the synthesized voice information of the non-voice frame, and the sound source information calculation means 9e holds the sound source information holding means 8c. Since the adaptive codebook is updated by calculating the excitation information by the synthesized speech information and the linear prediction coefficient, the adaptive codebook information in the frame recovered from the frame error is the adaptive codebook information immediately before the frame error and the speech frame. It is possible to maintain continuity including non-voice frames. Therefore, it is possible to reduce the decoding error in the subsequent decoding process and reduce the spread of the decoding error in the decoding process after recovering from the frame error.

【0103】そして、図14の構成は、図8の構成に音
声検出手段を付加したものであることが判る。図16
は、本発明の第九の実施の形態である。図16におい
て、1は音声の相関を除いた後の周期性を有する音源情
報を格納する適応符号帳、2は音声の相関を除いた後の
雑音成分の音源情報を格納する固定符号帳、3は適応符
号帳1から読み出した音源情報に適応符号帳利得を掛け
る適応符号帳利得乗算器、4は固定符号帳から読み出し
た音源情報に固定符号帳利得を掛ける固定符号帳利得乗
算器、5は適応符号帳利得乗算器3及び固定符号帳利得
乗算器4の出力を合算して音源情報を生成する加算器、
6は加算器5が出力する音源情報と受信した線形予測係
数とを受けて合成音声を出力する線形予測合成フィル
タ、7は線形予測合成フィルタ6が合成音声を生成する
際に使用する過去の合成音声情報を格納する線形予測合
成用メモリで、以上の構成要素は従来の音声復号化装置
の構成要素である。
It can be seen that the configuration of FIG. 14 is obtained by adding voice detection means to the configuration of FIG. FIG.
Is a ninth embodiment of the present invention. In FIG. 16, 1 is an adaptive codebook that stores excitation information having periodicity after removing speech correlation, 2 is a fixed codebook that stores excitation information of noise components after removing speech correlation, 3 Is an adaptive codebook gain multiplier that multiplies the excitation information read from the adaptive codebook 1 by the adaptive codebook gain, 4 is a fixed codebook gain multiplier that multiplies the excitation information read from the fixed codebook by the fixed codebook gain, and 5 is An adder for adding the outputs of the adaptive codebook gain multiplier 3 and the fixed codebook gain multiplier 4 to generate excitation information,
Reference numeral 6 denotes a linear predictive synthesis filter that receives the sound source information output from the adder 5 and the received linear prediction coefficient and outputs synthetic speech. Reference numeral 7 denotes a past synthesis used when the linear predictive synthesis filter 6 generates synthetic speech. This is a memory for linear prediction synthesis that stores speech information, and the above constituent elements are constituent elements of a conventional speech decoding apparatus.

【0104】12は合成音声情報から、音声フレームで
あるか非音声フレームであるかを検出する音声検出手
段、11aは合成音声情報からフレーム電力を算出し
て、音声検出手段の検出結果に対応してフレーム誤り直
前のフレーム電力E1 を保持するフレーム電力算出手
段、9fはフレーム誤りから復帰したフレームにおい
て、音声検出手段12の検出結果に対応してフレーム電
力算出手段11aからフレーム誤り直前のフレーム電力
1 を受信し、フレーム誤りから復帰したフレームにお
ける合成音声情報を生成してフレーム誤りから復帰した
フレームにおけるフレーム電力E2 を算出して、適応符
号帳が格納している情報をE1 /E2 倍に更新する音源
情報算出手段で、音声検出手段12、フレーム電力算出
手段11a及び音源情報算出手段9fによって誤り修復
手段を構成する。
Reference numeral 12 denotes a voice detecting means for detecting whether it is a voice frame or a non-voice frame from the synthesized voice information, and 11a calculates frame power from the synthesized voice information and corresponds to the detection result of the voice detecting means. Frame power calculating means for holding the frame power E 1 immediately before the frame error, and 9f for the frame recovered from the frame error, corresponding to the detection result of the voice detecting means 12 from the frame power calculating means 11a. When E 1 is received, synthetic speech information in the frame recovered from the frame error is generated, frame power E 2 in the frame recovered from the frame error is calculated, and the information stored in the adaptive codebook is E 1 / E in the sound source information calculating means for updating doubled, voice detection means 12, the frame power calculation unit 11a and the sound source information calculating Constituting the error repair means by stages 9f.

【0105】尚、フレーム誤りが継続中は、音声復号化
装置は図19の構成に従って復号処理を行なっている。
従って、図16の構成の特徴は、フレーム誤りから復帰
したフレームにおいて、音声検出手段12が当該フレー
ムが音声フレームであるか非音声フレームであるか検出
し、音声検出手段12の検出結果に対応して、フレーム
電力算出手段11aが合成音声情報からフレーム電力を
算出して、音声検出手段の検出結果に対応してフレーム
誤り直前のフレーム電力E1 を保持し、音源情報算出手
段9fがフレーム誤りから復帰したフレームにおいて、
音声検出手段12の検出結果に対応してフレーム電力算
出手段11aからフレーム誤り直前のフレーム電力E1
を受信し、フレーム誤りから復帰したフレームにおける
合成音声情報を生成してフレーム誤りから復帰したフレ
ームにおけるフレーム電力E2 を算出して、適応符号帳
が格納している情報をE1 /E2 倍に更新する点にあ
る。
While the frame error continues, the speech decoding apparatus carries out the decoding process according to the configuration of FIG.
Therefore, the feature of the configuration of FIG. 16 is that the voice detection unit 12 detects whether the frame is a voice frame or a non-voice frame in the frame recovered from the frame error, and corresponds to the detection result of the voice detection unit 12. Then, the frame power calculating means 11a calculates the frame power from the synthesized voice information, holds the frame power E 1 immediately before the frame error corresponding to the detection result of the voice detecting means, and the sound source information calculating means 9f calculates the frame power from the frame error. In the returned frame,
Corresponding to the detection result of the voice detection means 12, the frame power E 1 immediately before the frame error is calculated from the frame power calculation means 11a.
Is received, the synthetic speech information in the frame recovered from the frame error is generated, the frame power E 2 in the frame recovered from the frame error is calculated, and the information stored in the adaptive codebook is multiplied by E 1 / E 2. There is a point to update.

【0106】図17は、図16の構成の誤り修復動作を
示すフローチャートで、音声検出手段、フレーム電力算
出手段及び音源情報算出手段の動作である。以降、図1
7の符号に沿って図16の構成の誤り修復動作を説明す
る。先ず、音声検出手段はフレーム誤りが生じていない
時に音声フレームが非音声フレームかを判断するが、フ
レーム誤り前とフレーム誤りから復帰した後の動作は似
ているので、フレーム誤りから復帰した後の動作のみを
フローチャートに示す。
FIG. 17 is a flow chart showing the error recovery operation of the configuration of FIG. 16, which is the operation of the voice detection means, frame power calculation means and sound source information calculation means. After that, FIG.
The error correction operation of the configuration of FIG. 16 will be described with reference to the reference numeral 7. First, the voice detection means determines whether the voice frame is a non-voice frame when no frame error has occurred. Since the operation before the frame error is the same as that after the recovery from the frame error, the operation after the recovery from the frame error is similar. Only the operation is shown in the flowchart.

【0107】S101.フレーム誤りから復帰したか否
か監視している。 S102.ステップS101で、フレーム誤りから復帰
していない場合(No)には、合成音声のフレーム電力
Eを算出する。 S103.ステップS102で算出したフレーム電力E
が所定の閾値より大きいか否か判定する。
S101. It is monitoring whether or not the frame error has recovered. S102. In step S101, if the frame error has not recovered (No), the frame power E of the synthesized speech is calculated. S103. Frame power E calculated in step S102
Is greater than a predetermined threshold value.

【0108】S104.ステップS103で、フレーム
電力Eが所定の閾値より大きいと判定した場合(Ye
s)には、フレーム誤りから復帰したフレームが音声フ
レームである旨の判定を出力して、音源情報保持手段及
び音源情報算出手段に供給して処理を終了する。 S105.ステップS103で、フレーム電力Eが所定
の閾値より小さいと判定した場合(No)には、平均の
線形予測係数LPCA と平均のピッチPA を算出し、格
納している平均の線形予測係数と平均のピッチを更新す
る。
S104. When it is determined in step S103 that the frame power E is larger than a predetermined threshold value (Yes
In s), a determination that the frame recovered from the frame error is a voice frame is output, supplied to the sound source information holding means and the sound source information calculating means, and the processing is ended. S105. When it is determined in step S103 that the frame power E is smaller than the predetermined threshold value (No), the average linear prediction coefficient LPC A and the average pitch P A are calculated, and the stored average linear prediction coefficient is calculated. Update the average pitch.

【0109】S106.フレーム誤りから復帰したフレ
ームが非音声フレームである旨の判定を出力して、音源
情報保持手段及び音源情報算出手段に供給して処理を終
了する。 S107.又、ステップS101で、フレーム誤りから
復帰した場合(Yes)には、線形予測係数LPCと平
均の線形予測係数LPCA との差が所定の閾値より小さ
いか、又は、ピッチPと平均のピッチPA の差が所定の
閾値より小さいかを判定する。
S106. A determination that the frame recovered from the frame error is a non-voice frame is output and supplied to the sound source information holding means and the sound source information calculating means, and the processing is ended. S107. When the frame error is recovered in step S101 (Yes), the difference between the linear prediction coefficient LPC and the average linear prediction coefficient LPC A is smaller than a predetermined threshold value, or the pitch P and the average pitch P are set. It is determined whether the difference of A is smaller than a predetermined threshold value.

【0110】線形予測係数LPCと平均の線形予測係数
LPCA との差が所定の閾値より小さいか、又は、ピッ
チPと平均のピッチPA の差が所定の閾値より小さい場
合(Yes)には、ステップS106にジャンプする。
一方、線形予測係数LPCと平均の線形予測係数LPC
A との差が所定の閾値より大きく、且つ、ピッチPと平
均のピッチPA の差が所定の閾値より大きい場合(N
o)には、ステップS104にジャンプする。
When the difference between the linear prediction coefficient LPC and the average linear prediction coefficient LPC A is smaller than a predetermined threshold value, or when the difference between the pitch P and the average pitch P A is smaller than the predetermined threshold value (Yes). , Jump to step S106.
On the other hand, the linear prediction coefficient LPC and the average linear prediction coefficient LPC
When the difference between A and the pitch P is larger than a predetermined threshold and the difference between the pitch P and the average pitch P A is larger than a predetermined threshold (N
In step o), the process jumps to step S104.

【0111】ここで、ステップS105で、平均の線形
予測係数LPCA と平均のピッチP A を算出し、格納し
ている平均の線形予測係数と平均のピッチを更新するの
は、ステップS107の判定を行なうための準備であ
る。尚、フレーム誤りが生ずる前にも、音声検出手段は
上記ステップS102乃至S107の動作を行なってい
て、フレーム誤り直前のフレームが音声フレームである
か非音声フレームであるかを判断して保持している。
Here, in step S105, the average linear
Prediction coefficient LPCAAnd the average pitch P ACalculate and store
Updating the mean linear prediction coefficient and mean pitch
Is a preparation for the determination in step S107.
It Even before a frame error occurs, the voice detection means
The operations of steps S102 to S107 are performed.
The frame immediately before the frame error is a voice frame.
It is determined whether it is a non-voice frame or not and is held.

【0112】次いで、フレーム電力算出手段の動作は下
記の通りである。 S151.フレーム誤りが生じたか否か監視している。 S152.ステップS151で、フレーム誤りが生じな
かった場合(No)には、合成音声情報WYフレーム電
力を算出して、ステップS151にジャンプする。
Next, the operation of the frame power calculation means is as follows. S151. It is monitoring whether a frame error has occurred. S152. If no frame error occurs in step S151 (No), the synthesized voice information WY frame power is calculated, and the process jumps to step S151.

【0113】一方、ステップS151で、フレーム誤り
が生じた場合(Yes)には、ステップS153に移行
する。即ち、フレーム電力算出手段にはフレーム誤りが
生ずる直前のフレーム電力適が保持されている。 S153.音声検出手段がフレーム誤りの直前にした判
断は音声判定であったか否か判定する。
On the other hand, if a frame error occurs in step S151 (Yes), the process proceeds to step S153. That is, the frame power calculation means holds the frame power suitability immediately before the frame error occurs. S153. It is determined whether the determination made by the voice detecting means immediately before the frame error is the voice determination.

【0114】S154.ステップS153で、音声判定
であった場合(Yes)には、算出したフレーム電力
を、音声フレームのフレーム電力として保持して処理を
終了する。 S155.ステップS153で、非音声判定であった場
合(No)には、保持しているフレーム電力を、非音声
フレームのフレーム電力として保持して処理を終了す
る。
S154. In step S153, if the audio determination is made (Yes), the calculated frame power is held as the frame power of the audio frame, and the process ends. S155. In step S153, if the non-voice determination is made (No), the held frame power is held as the frame power of the non-voice frame, and the process ends.

【0115】更に、音源情報算出手段の動作は下記の通
りである。 S161.音声検出手段がフレーム誤りから復帰したフ
レームで出力したのは音声判定であったか否か判定す
る。 S162.ステップS161で、音声判定であったと判
定した場合(Yes)には、フレーム電力算出手段から
音声フレームのフレーム電力E1 を取得する。
Furthermore, the operation of the sound source information calculation means is as follows. S161. It is determined whether or not the voice detection means outputs the voice in the frame recovered from the frame error is the voice determination. S162. When it is determined in step S161 that the audio determination is performed (Yes), the frame power E 1 of the audio frame is acquired from the frame power calculation means.

【0116】S163.ステップS161で、非音声判
定であったと判定した場合(No)には、フレーム電力
算出手段から非音声フレームのフレーム電力E2 を取得
する。 S164.フレーム誤りから復帰したフレームで合成音
声を生成して、生成した合成音声からフレーム電力E2
を算出する。
S163. When it is determined in step S161 that the non-voice determination is made (No), the frame power E 2 of the non-voice frame is acquired from the frame power calculation means. S164. Synthetic speech is generated by the frame recovered from the frame error, and the frame power E 2 is generated from the generated synthetic speech.
To calculate.

【0117】S165.ステップS162又はステップ
S163のいずれかで取得したフレーム電力E1 と、ス
テップS164で算出したフレーム電力E2 の比を算出
して、適応符号帳をE1 /E2 倍に更新して処理を終了
する。 上記の如く、図16の構成では、音声検出手段12が、
フレーム誤り直前のフレームとフレーム誤りから復帰し
たフレームにおいて、当該フレームが音声フレームであ
るか非音声フレームであるか検出し、フレーム電力算出
手段11aが誤り直前のフレーム電力を算出して音声検
出手段12の選出結果に対応して保持し、音源情報算出
手段9fがフレーム電力算出手段11aが算出したフレ
ーム電力E1 を取得すると共に、フレーム誤りからの復
帰フレームにおけるフレーム電力E2 を算出して、適応
符号帳をE1 /E2 倍に更新するので、フレーム誤りの
前後で適応符号帳の格納情報と、音声フレームであるか
非音声フレームであるかを含めて連続性を持たせること
ができる。従って、以降の復号処理における復号誤差を
縮減することができ、フレーム誤りから復帰した後の復
号処理における復号誤差の波及を縮減することができ
る。
S165. The ratio between the frame power E 1 obtained in either step S162 or step S163 and the frame power E 2 calculated in step S164 is calculated, the adaptive codebook is updated to E 1 / E 2 times, and the process ends. To do. As described above, in the configuration of FIG. 16, the voice detecting means 12 is
In the frame immediately before the frame error and the frame recovered from the frame error, it is detected whether the frame is a voice frame or a non-voice frame, and the frame power calculation means 11a calculates the frame power immediately before the error and the voice detection means 12 The sound source information calculating means 9f obtains the frame power E 1 calculated by the frame power calculating means 11a, and also calculates the frame power E 2 in the return frame from the frame error, which is adapted to be held. Since the codebook is updated to E 1 / E 2 times, continuity can be provided before and after the frame error, including the information stored in the adaptive codebook and whether it is a voice frame or a non-voice frame. Therefore, it is possible to reduce the decoding error in the subsequent decoding process and reduce the spread of the decoding error in the decoding process after recovering from the frame error.

【0118】そして、図16の構成は、図10の構成に
音声検出手段を付加したものであることが判る。最後
に、上記より、本発明の基本的な技術は、図1、図3、
図5、図8及び図10に示したものであることが判る。
これらをまとめると、本発明の基本的な技術は、 〔1〕線形予測分析で生成された符号化情報を受信し、
該符号化情報と、過去に生成した音声情報をフィードバ
ックして保持する内部メモリの保持内容とから合成音声
を出力する音声復号化装置において、音声復号化装置を
構成する適応符号帳に格納されている、フレーム誤りの
直前の情報を保持する音源情報保持手段と、該音源情報
保持手段に保持されている適応符号帳の情報を用いて音
源を算出し、フレーム誤りから復帰したフレームにおい
て該適応符号帳を更新する音源算出手段とから成る誤り
修復手段を備える音声復号化装置。
It can be seen that the configuration of FIG. 16 is obtained by adding voice detection means to the configuration of FIG. Finally, from the above, the basic technique of the present invention is as shown in FIGS.
It can be seen that it is the one shown in FIGS. 5, 8 and 10.
Summarizing these, the basic technique of the present invention is [1] receiving encoded information generated by linear prediction analysis,
A speech decoding apparatus that outputs a synthesized speech from the encoded information and the content stored in an internal memory that feeds back and stores speech information generated in the past, is stored in an adaptive codebook that constitutes the speech decoding apparatus. The excitation code is calculated using the excitation information holding means that holds the information immediately before the frame error and the information of the adaptive codebook that is held in the excitation information holding means, and the adaptive code is calculated in the frame recovered from the frame error. A speech decoding apparatus provided with an error correction means including a sound source calculation means for updating a book.

【0119】〔2〕線形予測分析で生成された符号化情
報を受信し、該符号化情報と、過去に生成した音声情報
をフィードバックして保持する内部メモリの保持内容と
から合成音声を出力する音声復号化装置において、音声
復号化装置を構成する予測合成フィルタが合成した合成
音声情報を格納する予測合成用メモリが、フレーム誤り
直前に格納している合成音声情報を保持する予測合成用
メモリ保持手段と、フレーム誤りから復帰したフレーム
において、該予測合成用メモリ保持手段が保持する格納
情報を該予測分析フィルタに与えて合成音声情報を生成
し、生成した合成音声情報によって該予測合成用メモリ
を更新する音源情報算出手段とから成る誤り修復手段を
備える音声復号化装置。
[2] Receive the coded information generated by the linear prediction analysis, and output the synthesized voice from the coded information and the content stored in the internal memory that feeds back and stores the voice information generated in the past. In a speech decoding apparatus, a predictive synthesis memory for storing synthetic speech information synthesized by a predictive synthesis filter forming the speech decoding apparatus holds a predictive synthesis memory for retaining synthetic speech information stored immediately before a frame error. And a frame recovered from a frame error, the storage information held by the prediction synthesis memory holding means is given to the prediction analysis filter to generate synthetic speech information, and the prediction synthesis memory is stored in the predicted synthesis memory according to the generated synthetic speech information. A speech decoding apparatus provided with an error correction means comprising a sound source information calculation means for updating.

【0120】〔3〕線形予測分析で生成された符号化情
報を受信し、該符号化情報と、過去に生成した音声情報
をフィードバックして保持する内部メモリの保持内容と
から合成音声を出力する音声復号化装置において、フレ
ーム誤り直前の合成音声情報を保持する音源情報保持手
段と、フレーム誤りから復帰したフレームにおいて、該
音源情報保持手段が保持する合成音声情報と、フレーム
誤りから復帰したフレームの線形予測係数とから適応符
号帳情報を生成して、適応符号帳を更新する音源情報算
出手段とから成る誤り修復手段を備える音声復号化装
置。
[3] Receive the encoded information generated by the linear prediction analysis, and output the synthesized voice from the encoded information and the content stored in the internal memory that feeds back and stores the voice information generated in the past. In the speech decoding device, a sound source information holding unit that holds the synthesized sound information immediately before the frame error, a synthesized sound information held by the sound source information holding unit, and a frame that is restored from the frame error A speech decoding apparatus comprising: an error recovery means, which comprises adaptive codebook information generated from a linear prediction coefficient, and excitation information calculation means for updating the adaptive codebook.

【0121】〔4〕線形予測分析で生成された符号化情
報を受信し、該符号化情報と、過去に生成した音声情報
をフィードバックして保持する内部メモリの保持内容と
から合成音声を出力する音声復号化装置において、合成
音声情報からフレーム電力を算出して、フレーム誤り直
前のフレーム電力E1 を保持するフレーム電力算出手段
と、フレーム誤りから復帰したフレームにおいて、該フ
レーム電力算出手段からフレーム誤り直前のフレーム電
力E1 を受信し、フレーム誤りから復帰したフレームに
おける合成音声情報を生成してフレーム誤りから復帰し
たフレームにおけるフレーム電力E2 を算出して、適応
符号帳が格納している情報をE1 /E2倍に更新する音
源情報算出手段とから成る誤り修復手段を備える音声復
号化装置。であるということができる。
[4] Receive the coded information generated by the linear prediction analysis, and output the synthesized voice from the coded information and the content stored in the internal memory that feeds back and holds the voice information generated in the past. In the speech decoding device, frame power calculation means for calculating frame power from the synthesized speech information and holding frame power E 1 immediately before the frame error, and for a frame recovered from the frame error, the frame power calculation means for calculating the frame error It receives the immediately preceding frame power E 1 , generates synthetic speech information in the frame recovered from the frame error, calculates the frame power E 2 in the frame recovered from the frame error, and calculates the information stored in the adaptive codebook. A speech decoding apparatus provided with an error correction means comprising a sound source information calculation means for updating E 1 / E 2 times. It can be said that

【0122】即ち、フレーム誤りから復帰したフレーム
において適応符号帳を更新するか、線形予測合成用メモ
リを更新するかのいずれかであり、しかも、適応符号帳
又は線形予測合成用メモリを更新するためにフレーム誤
りの直前の符号化情報を用いるか、フレーム誤りの前後
の符号化情報を用いるかのいずれかである。従って、本
発明の最も本質的なことは、「線形予測分析で生成され
た符号化情報を受信し、該符号化情報と、過去に生成し
た音声情報をフィードバックして保持する内部メモリの
保持情報とから合成音声を出力する音声復号化装置にお
いて、正常な符号化情報を受信できないフレーム誤りの
状態から正常に符号化情報を受信できる状態に復帰した
フレームにおいて、少なくともフレーム誤りの直前の該
内部メモリの保持情報を用いて、該内部メモリの保持内
容を更新する誤り修復手段を備えることを特徴とする音
声復号化装置。」ということができる。
That is, either the adaptive codebook is updated or the linear prediction synthesis memory is updated in the frame recovered from the frame error, and further, the adaptive codebook or the linear prediction synthesis memory is updated. Either the coded information immediately before the frame error is used for, or the coded information before and after the frame error is used. Therefore, the most essential thing of the present invention is that "the information stored in the internal memory that receives the coded information generated by the linear prediction analysis and feeds back the coded information and the voice information generated in the past is held. In a speech decoding apparatus for outputting synthetic speech from and, in a frame returned from a frame error state where normal coding information cannot be received to a state where normal coding information can be received, at least the internal memory immediately before the frame error The speech decoding apparatus is characterized by comprising an error repairing means for updating the contents held in the internal memory by using the holding information of.

【0123】更に、上記の音声復号化装置は、フレーム
誤りから復帰したフレームにおいて内部メモリである適
応符号帳又は予測合成用メモリの保持内容をフレーム誤
り直前の保持情報によって更新するものであるが、音声
復号化系全体として見ると、例えば、予測合成用メモリ
の後段に配置されるポスト・フィルタにも過去の情報を
保持する内部メモリがある。そして、該ポスト・フィル
タの内部メモリの保持内容をフレーム誤り直前の保持情
報によって更新して以降の復号化処理を行なうことも可
能である。従って、本発明の音声復号化装置には上記の
技術も当然包含されるべきものである。
Further, the speech decoding apparatus described above updates the content held in the adaptive codebook or the predictive synthesis memory, which is the internal memory, in the frame recovered from the frame error by the holding information immediately before the frame error. When viewed as the entire speech decoding system, for example, a post filter arranged in a subsequent stage of the prediction synthesis memory also has an internal memory for holding past information. Then, it is possible to update the contents held in the internal memory of the post filter with the holding information immediately before the frame error and perform the subsequent decoding processing. Therefore, the speech decoding apparatus of the present invention should naturally include the above technique.

【0124】(付記1) 線形予測分析で生成された符
号化情報を受信し、該符号化情報と、過去に生成した音
声情報をフィードバックして保持する内部メモリの保持
情報とから合成音声を出力する音声復号化装置におい
て、正常な符号化情報を受信できないフレーム誤りの状
態から正常に符号化情報を受信できる状態に復帰したフ
レームにおいて、少なくともフレーム誤りの直前の該内
部メモリの保持情報を用いて、該内部メモリの保持内容
を更新する誤り修復手段を備えることを特徴とする音声
復号化装置。
(Supplementary Note 1) The encoded information generated by the linear prediction analysis is received, and the synthesized speech is output from the encoded information and the information held in the internal memory for feeding back and holding the speech information generated in the past. In the audio decoding device, the information held in the internal memory is used at least immediately before the frame error in the frame returned from the state of the frame error where the normal encoded information cannot be received to the state where the normal encoded information can be received. A speech decoding apparatus comprising error correction means for updating the contents held in the internal memory.

【0125】(付記2) 付記1に記載の音声復号化装
置であって、上記誤り修復手段は、音声復号化装置を構
成する適応符号帳に格納されている、フレーム誤りの直
前の情報を保持する音源情報保持手段と、該音源情報保
持手段に保持されている適応符号帳の情報を用いて音源
を算出し、フレーム誤りから復帰したフレームにおいて
該適応符号帳を更新する音源算出手段とを備えることを
特徴とする音声復号化装置。
(Supplementary Note 2) In the speech decoding apparatus according to Supplementary Note 1, the error repairing means holds information immediately before a frame error stored in an adaptive codebook constituting the speech decoding apparatus. And a sound source calculation means for calculating a sound source using the information of the adaptive codebook held in the sound source information holding means and updating the adaptive codebook in a frame recovered from a frame error. A speech decoding device characterized by the above.

【0126】(付記3) 付記1に記載の音声復号化装
置であって、上記誤り修復手段は、音声復号化装置を構
成する予測合成フィルタが合成した合成音声情報を格納
する予測合成用メモリが、フレーム誤り直前に格納して
いる合成音声情報を保持する予測合成用メモリ保持手段
と、フレーム誤りから復帰したフレームにおいて、該予
測合成用メモリ保持手段が保持する格納情報を該予測分
析フィルタに与えて合成音声情報を生成し、生成した合
成音声情報によって該予測合成用メモリを更新する音源
情報算出手段とを備えることを特徴とする音声復号化装
置。
(Supplementary Note 3) In the speech decoding apparatus according to Supplementary Note 1, the error correcting means includes a predictive synthesis memory for storing synthetic speech information synthesized by the predictive synthesis filter forming the speech decoding apparatus. , A prediction synthesis memory holding means for holding the synthesized speech information stored immediately before the frame error, and a storage information held by the prediction synthesis memory holding means for the frame restored from the frame error to the prediction analysis filter. And a sound source information calculating unit for updating the predictive synthesis memory with the generated synthesized speech information.

【0127】(付記4) 付記1に記載の音声復号化装
置であって、上記誤り修復手段は、フレーム誤り直前の
合成音声情報を保持する音源情報保持手段と、フレーム
誤りから復帰したフレームにおいて、該音源情報保持手
段が保持する合成音声情報と、フレーム誤りから復帰し
たフレームの線形予測係数とから適応符号帳情報を生成
して、適応符号帳を更新する音源情報算出手段とを備え
ることを特徴とする音声復号化装置。
(Supplementary Note 4) In the speech decoding apparatus according to Supplementary Note 1, the error repairing means includes a sound source information retaining means for retaining synthesized speech information immediately before a frame error and a frame recovered from the frame error. The present invention further comprises excitation information calculation means for generating adaptive codebook information from the synthesized speech information held by the excitation information holding means and the linear prediction coefficient of the frame recovered from the frame error and updating the adaptive codebook. And a voice decoding device.

【0128】(付記5) 付記1に記載の音声復号化装
置であって、上記誤り修復手段は、合成音声情報からフ
レーム電力を算出して、フレーム誤り直前のフレーム電
力E1 を保持するフレーム電力算出手段と、フレーム誤
りから復帰したフレームにおいて、該フレーム電力算出
手段からフレーム誤り直前のフレーム電力E1 を受信
し、フレーム誤りから復帰したフレームにおける合成音
声情報を生成してフレーム誤りから復帰したフレームに
おけるフレーム電力E2 を算出して、適応符号帳が格納
している情報をE1 /E2 倍に更新する音源情報算出手
段とを備えることを特徴とする音声復号化装置。
(Supplementary Note 5) In the speech decoding apparatus according to Supplementary Note 1, the error correcting means calculates a frame power from the synthesized speech information and holds the frame power E 1 immediately before the frame error. A frame recovered from a frame error by receiving the frame power E 1 immediately before the frame error from the frame power calculation unit in the frame recovered from the frame error and generating synthetic speech information in the frame recovered from the frame error. And a sound source information calculating unit for calculating the frame power E 2 in Eq. 1 and updating the information stored in the adaptive codebook by E 1 / E 2 times.

【0129】(付記6) 付記1に記載の音声復号化装
置であって、上記誤り修復手段は、付記2に記載の誤り
修復手段と、付記3に記載の誤り修復手段とを備えるこ
とを特徴とする音声復号化装置。
(Supplementary Note 6) The speech decoding apparatus according to supplementary note 1, wherein the error recovery means comprises the error recovery means described in supplementary note 2 and the error recovery means described in supplementary note 3. And a voice decoding device.

【0130】(付記7) 付記1に記載の音声復号化装
置であって、上記誤り修復手段は、合成音声情報から、
フレーム誤り直前のフレームとフレーム誤りから復帰し
たフレームが音声フレームであるか非音声フレームであ
るかを検出する音声検出手段と、該音声検出手段の検出
結果に対応して、フレーム誤りの直前の適応符号帳情報
を保持する音源情報保持手段と、該音声検出手段の検出
結果に対応して、フレーム誤りから復帰したフレームに
おいて、該音源情報保持手段が保持している適応符号帳
情報によって適応符号帳を更新する音源情報算出手段と
を備えることを特徴とする音声復号化装置。
(Supplementary Note 7) In the speech decoding apparatus according to Supplementary Note 1, the error correction means may use the synthesized speech information to convert
Voice detection means for detecting whether the frame immediately before the frame error and the frame recovered from the frame error are voice frames or non-voice frames, and adaptation just before the frame error corresponding to the detection result of the voice detection means. An excitation code information holding means for holding codebook information and an adaptive codebook according to the detection result of the voice detection means, in the frame recovered from the frame error, by the adaptive codebook information held by the excitation code information holding means. And a sound source information calculating means for updating the speech decoding apparatus.

【0131】(付記8) 付記1に記載の音声復号化装
置であって、上記誤り修復手段は、合成音声情報から、
フレーム誤り直前のフレームとフレーム誤りから復帰し
たフレームが音声フレームであるか非音声フレームであ
るかを検出する音声検出手段と、該音声検出手段の検出
結果に対応して、フレーム誤り直前の合成音声情報を保
持する音源情報保持手段と、該音声検出手段の検出結果
に対応して、フレーム誤りから復帰したフレームにおい
て、該音源情報保持手段が保持する合成音声情報と、フ
レーム誤りから復帰したフレームの線形予測係数とから
適応符号帳情報を生成して、適応符号帳を更新する音源
情報算出手段とを備えることを特徴とする音声復号化装
置。
(Supplementary Note 8) In the speech decoding apparatus according to Supplementary Note 1, the error recovery means may use the synthesized speech information,
A voice detection unit for detecting whether the frame immediately before the frame error and the frame recovered from the frame error are a voice frame or a non-voice frame, and a synthesized voice immediately before the frame error corresponding to the detection result of the voice detection unit. Sound source information holding means for holding information, and in the frame recovered from the frame error corresponding to the detection result of the sound detecting means, the synthesized speech information held by the sound source information holding means and the frame recovered from the frame error. A speech decoding apparatus, comprising: excitation code information calculating means for generating adaptive codebook information from a linear prediction coefficient and updating the adaptive codebook.

【0132】(付記9) 付記1に記載の音声復号化装
置であって、上記誤り修復手段は、合成音声情報から、
フレーム誤り直前のフレームとフレーム誤りから復帰し
たフレームが音声フレームであるか非音声フレームであ
るかを検出する音声検出手段と、該音声検出手段の検出
結果に対応して、合成音声情報からフレーム電力を算出
して、フレーム誤り直前のフレーム電力E1 を保持する
フレーム電力算出手段と、該音声検出手段の検出結果に
対応して、フレーム誤りから復帰したフレームにおい
て、該フレーム電力算出手段からフレーム誤り直前のフ
レーム電力E1 を受信し、フレーム誤りから復帰したフ
レームにおける合成音声情報を生成してフレーム誤りか
ら復帰したフレームにおけるフレーム電力E2 を算出し
て、適応符号帳が格納している情報をE1 /E2 倍に更
新する音源情報算出手段とを備えることを特徴とする音
声復号化装置。
(Supplementary Note 9) In the speech decoding apparatus according to Supplementary Note 1, the error correcting means is configured to convert the synthesized speech information from the synthesized speech information.
A voice detection unit that detects whether the frame immediately before the frame error and the frame recovered from the frame error is a voice frame or a non-voice frame, and frame power from the synthesized voice information corresponding to the detection result of the voice detection unit. And a frame power calculating unit that holds the frame power E 1 immediately before the frame error and a frame error recovered from the frame error corresponding to the detection result of the voice detecting unit. It receives the immediately preceding frame power E 1 , generates synthetic speech information in the frame recovered from the frame error, calculates the frame power E 2 in the frame recovered from the frame error, and calculates the information stored in the adaptive codebook. A speech decoding apparatus comprising: a sound source information calculating unit that updates E 1 / E 2 times.

【0133】[0133]

【発明の効果】即ち、第一の発明によれば、該誤り修復
手段が、正常な符号化情報を受信できないフレーム誤り
の状態から正常に符号化情報を受信できる状態に復帰し
たフレームにおいて、少なくともフレーム誤りの直前の
該内部メモリの保持情報を用いて、該内部メモリの保持
内容を更新するので、該内部メモリの保持情報がフレー
ム誤りから復帰したフレームにおける正しい保持情報を
近似することができ、以降の復号処理における復号誤差
の波及を縮減することができる。
According to the first aspect of the invention, at least in a frame in which the error recovery means returns from a frame error state where normal encoding information cannot be received to a state where normal encoding information can be received, Since the held information in the internal memory is updated using the held information in the internal memory immediately before the frame error, the held information in the internal memory can approximate the correct held information in the frame recovered from the frame error, It is possible to reduce the spread of decoding error in the subsequent decoding processing.

【0134】又、第二の発明によれば、上記誤り修復手
段が、音声復号化装置を構成する適応符号帳に格納され
ている、フレーム誤りの直前の情報を保持する音源情報
保持手段と、該音源情報保持手段に保持されている適応
符号帳の情報を用いて音源を算出し、フレーム誤りから
復帰したフレームにおいて該適応符号帳を更新する音源
情報算出手段とを備えるので、該適応符号帳の格納情報
がフレーム誤りから復帰したフレームにおける正しい適
応符号帳情報を近似することができ、以降の復号処理に
おける復号誤差の波及を縮減することができる。
According to the second aspect of the invention, the error repairing means stores excitation information holding means for holding information immediately before the frame error, which is stored in the adaptive codebook constituting the speech decoding apparatus, The adaptive codebook is provided by including an excitation information calculation means for calculating an excitation using the information of the adaptive codebook held in the excitation information holding means and updating the adaptive codebook in a frame recovered from a frame error. It is possible to approximate the correct adaptive codebook information in the frame in which the storage information of 1 is recovered from the frame error, and it is possible to reduce the spread of decoding error in the subsequent decoding processing.

【0135】又、第三の発明によれば、上記誤り修復手
段は、音声復号化装置を構成する予測合成フィルタが合
成した合成音声情報を格納する、予測合成用メモリがフ
レーム誤り直前に格納している合成音声情報を保持する
予測合成用メモリ保持手段を備え、フレーム誤りから復
帰したフレームにおいて、該予測合成用メモリ保持手段
が保持する格納情報を該予測合成フィルタに与えて合成
音声情報を生成し、生成した合成音声情報によって該予
測合成用メモリを更新するので、該予測合成用メモリの
格納情報がフレーム誤りから復帰したフレームにおける
正しい格納情報を近似することができ、以降の復号処理
における復号誤差の波及を縮減することができる。
According to the third invention, the error repairing means stores the synthesized speech information synthesized by the predictive synthesis filter forming the speech decoding device, and stores it in the predictive synthesis memory immediately before the frame error. A predictive synthesis memory holding means for holding the synthesized speech information, and in a frame recovered from a frame error, the stored information held by the predictive synthesis memory holding means is given to the predictive synthesis filter to generate synthesized speech information. Then, since the prediction synthesis memory is updated with the generated synthesized speech information, the storage information of the prediction synthesis memory can approximate the correct storage information in the frame recovered from the frame error. The spread of error can be reduced.

【0136】又、第四の発明によれば、上記誤り修復手
段が、フレーム誤り直前の合成音声情報を保持する音源
情報保持手段と、フレーム誤りから復帰したフレームに
おいて、該音源情報保持手段が保持する合成音声情報
と、フレーム誤りから復帰したフレームの線形予測係数
とから適応符号帳情報を生成して、適応符号帳を更新す
る音源情報算出手段とを備えるので、該適応符号帳の格
納情報がフレーム誤りから復帰したフレームにおける正
しい格納情報を近似することができ、以降の復号処理に
おける復号誤差の波及を縮減することができる。
According to the fourth aspect of the invention, the error recovery means holds the sound source information holding means for holding the synthesized speech information immediately before the frame error and the sound source information holding means for holding the frame recovered from the frame error. Since the adaptive codebook information is generated from the synthesized speech information and the linear prediction coefficient of the frame recovered from the frame error, and the adaptive codebook is updated, the storage information of the adaptive codebook is stored. The correct stored information in the frame recovered from the frame error can be approximated, and the spread of decoding error in the subsequent decoding processing can be reduced.

【0137】更に、第五の発明によれば、上記誤り修復
手段は、合成音声情報からフレーム電力を算出して、フ
レーム誤り直前のフレーム電力E1 を保持するフレーム
電力算出手段と、フレーム誤りから復帰したフレームに
おいて、該フレーム電力算出手段からフレーム誤り直前
のフレーム電力E1 を受信し、フレーム誤りから復帰し
たフレームにおける合成音声情報を生成してフレーム誤
りから復帰したフレームにおけるフレーム電力E2 を算
出して、適応符号帳が格納している情報をE1/E2
に更新する音源情報算出手段とを備えるので、該適応符
号帳の格納情報がフレーム誤りから復帰したフレームに
おける正しい格納情報を近似することができ、以降の復
号処理における復号誤差の波及を縮減することができ
る。
Further, according to the fifth invention, the error repairing means calculates the frame power from the synthesized speech information and holds the frame power E 1 immediately before the frame error, and the frame error calculating means. In the restored frame, the frame power E 1 immediately before the frame error is received from the frame power calculation means, synthetic speech information in the frame recovered from the frame error is generated, and the frame power E 2 in the frame recovered from the frame error is calculated. And the excitation information calculation means for updating the information stored in the adaptive codebook by E 1 / E 2 times, the correct stored information in the frame in which the stored information in the adaptive codebook is recovered from the frame error is obtained. This can be approximated, and the spread of decoding error in the subsequent decoding processing can be reduced.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の第一の実施の形態。FIG. 1 is a first embodiment of the present invention.

【図2】 図1の構成の誤り修復動作を示すフローチャ
ート。
FIG. 2 is a flowchart showing an error recovery operation of the configuration of FIG.

【図3】 本発明の第二の実施の形態。FIG. 3 is a second embodiment of the present invention.

【図4】 図3の構成の誤り修復動作を示すフローチャ
ート。
FIG. 4 is a flowchart showing an error correction operation of the configuration of FIG.

【図5】 本発明の第三の実施の形態。FIG. 5 is a third embodiment of the present invention.

【図6】 図5の構成の誤り修復動作を示すフローチャ
ート。
FIG. 6 is a flowchart showing an error recovery operation of the configuration of FIG.

【図7】 本発明の第四の実施の形態。FIG. 7 is a fourth embodiment of the present invention.

【図8】 本発明の第五の実施の形態。FIG. 8 is a fifth embodiment of the present invention.

【図9】 図8の構成の誤り修復動作を示すフローチャ
ート。
9 is a flowchart showing an error correction operation of the configuration of FIG.

【図10】 本発明の第六の実施の形態。FIG. 10 shows a sixth embodiment of the present invention.

【図11】 図10の構成の誤り修復動作を示すフロー
チャート。
11 is a flowchart showing an error recovery operation of the configuration of FIG.

【図12】 本発明の第七の実施の形態。FIG. 12 is a seventh embodiment of the present invention.

【図13】 図12の構成の誤り修復動作を示すフロー
チャート。
FIG. 13 is a flowchart showing an error recovery operation of the configuration of FIG.

【図14】 本発明の第八の実施の形態。FIG. 14 is an eighth embodiment of the present invention.

【図15】 図14の構成の誤り修復動作を示すフロー
チャート。
FIG. 15 is a flowchart showing an error correction operation of the configuration of FIG.

【図16】 本発明の第九の実施の形態。FIG. 16 is a ninth embodiment of the present invention.

【図17】 図16の構成の誤り修復動作を示すフロー
チャート。
FIG. 17 is a flowchart showing an error recovery operation of the configuration of FIG.

【図18】 従来の音声復号化装置の構成(その1)。FIG. 18 shows a configuration of a conventional speech decoding device (1).

【図19】 従来の音声復号化装置の構成(その2)。FIG. 19 shows a configuration of a conventional speech decoding device (2).

【符号の説明】[Explanation of symbols]

1 適応符号帳 2 固定符号帳 3 適応符号帳利得乗算器 4 固定符号帳利得乗算器 5 加算器 6 線形予測合成フィルタ 7 線形予測合成用メモリ 8 音源情報保持手段 8a 音源情報保持手段 8b 音源情報保持手段 8c 音源情報保持手段 9 音源情報算出手段 9a 音源情報算出手段 9b 音源情報算出手段 9c 音源情報算出手段 9d 音源情報算出手段 9e 音源情報算出手段 9f 音源情報算出手段 10 線形予測合成用メモリ保持手段 11 フレーム電力算出手段 11a フレーム電力算出手段 12 音声検出手段 1 Adaptive codebook 2 fixed codebook 3 Adaptive codebook gain multiplier 4 Fixed codebook gain multiplier 5 adder 6 Linear prediction synthesis filter Memory for linear prediction synthesis 8 Sound source information holding means 8a Sound source information holding means 8b Sound source information holding means 8c Sound source information holding means 9 Sound source information calculation means 9a Sound source information calculation means 9b Sound source information calculation means 9c Sound source information calculation means 9d Sound source information calculation means 9e Sound source information calculation means 9f Sound source information calculation means 10 Memory holding means for linear prediction synthesis 11 Frame power calculation means 11a Frame power calculation means 12 Voice detection means

───────────────────────────────────────────────────── フロントページの続き (72)発明者 中間 真司 福岡県福岡市博多区博多駅前三丁目22番8 号 富士通九州ディジタル・テクノロジ株 式会社内 Fターム(参考) 5D045 DA20 5K041 AA02 BB08 CC01 EE12 EE22 GG01 GG13 JJ24    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Shinji Naka             3-22-8, Hakata Station, Hakata-ku, Fukuoka City, Fukuoka Prefecture             Issue Fujitsu Kyushu Digital Technology Co., Ltd.             Inside the company F-term (reference) 5D045 DA20                 5K041 AA02 BB08 CC01 EE12 EE22                       GG01 GG13 JJ24

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 線形予測分析で生成された符号化情報を
受信し、該符号化情報と、過去に生成した音声情報をフ
ィードバックして保持する内部メモリの保持情報とから
合成音声を出力する音声復号化装置において、 正常な符号化情報を受信できないフレーム誤りの状態か
ら正常に符号化情報を受信できる状態に復帰したフレー
ムにおいて、 少なくともフレーム誤りの直前の該内部メモリの保持情
報を用いて、該内部メモリの保持内容を更新する誤り修
復手段を備えることを特徴とする音声復号化装置。
1. A voice that receives coded information generated by linear prediction analysis, and outputs a synthesized voice from the coded information and information held in an internal memory that feeds back and holds voice information generated in the past. In the decoding device, at least in the frame returned from the state of the frame error where normal encoding information cannot be received to the state where normal encoding information can be received, by using the information held in the internal memory immediately before the frame error, An audio decoding device comprising an error recovery means for updating the contents held in an internal memory.
【請求項2】 請求項1に記載の音声復号化装置であっ
て、 上記誤り修復手段は、 音声復号化装置を構成する適応符号帳に格納されてい
る、フレーム誤りの直前の情報を保持する音源情報保持
手段と、 該音源情報保持手段に保持されている適応符号帳の情報
を用いて音源情報を求め、フレーム誤りから復帰したフ
レームにおいて該適応符号帳を更新する音源算出手段と
を備えることを特徴とする音声復号化装置。
2. The speech decoding apparatus according to claim 1, wherein the error repairing means holds information immediately before a frame error stored in an adaptive codebook constituting the speech decoding apparatus. Excitation source information holding means and excitation source calculation means for obtaining excitation information using the information of the adaptive codebook held in the excitation information holding means and updating the adaptive codebook in a frame recovered from a frame error A voice decoding device characterized by.
【請求項3】 請求項1に記載の音声復号化装置であっ
て、 上記誤り修復手段は、 音声復号化装置を構成する予測合成フィルタが合成した
合成音声情報を格納する、予測合成用メモリがフレーム
誤り直前に格納している合成音声情報を保持する予測合
成用メモリ保持手段を備え、 フレーム誤りから復帰したフレームにおいて、該予測合
成用メモリ保持手段が保持する格納情報を該予測合成フ
ィルタに与えて合成音声情報を生成し、生成した合成音
声情報によって該予測合成用メモリを更新することを特
徴とする音声復号化装置。
3. The speech decoding apparatus according to claim 1, wherein the error correction means includes a predictive synthesis memory for storing synthetic speech information synthesized by a predictive synthesis filter forming the speech decoding apparatus. A prediction synthesis memory holding unit for holding the synthesized speech information stored immediately before the frame error is provided, and in the frame recovered from the frame error, the storage information held by the prediction synthesis memory holding unit is given to the prediction synthesis filter. A speech decoding apparatus, wherein synthetic speech information is generated in accordance with the generated synthetic speech information, and the prediction synthesis memory is updated with the generated synthetic speech information.
【請求項4】 請求項1に記載の音声復号化装置であっ
て、 上記誤り修復手段は、 フレーム誤り直前の合成音声情報を保持する音源情報保
持手段と、 フレーム誤りから復帰したフレームにおいて、該音源情
報保持手段が保持する合成音声情報と、フレーム誤りか
ら復帰したフレームの線形予測係数とから適応符号帳情
報を生成して、適応符号帳を更新する音源情報算出手段
とを備えることを特徴とする音声復号化装置。
4. The speech decoding apparatus according to claim 1, wherein the error correction means includes a sound source information holding means for holding synthetic speech information immediately before a frame error, and a frame recovered from the frame error. The present invention is characterized by further comprising excitation information calculation means for generating adaptive codebook information from the synthesized speech information held by the excitation information holding means and the linear prediction coefficient of the frame recovered from the frame error, and updating the adaptive codebook. Audio decoding device.
【請求項5】 請求項1に記載の音声復号化装置であっ
て、 上記誤り修復手段は、 合成音声情報からフレーム電力を算出して、フレーム誤
り直前のフレーム電力E1 を保持するフレーム電力算出
手段と、 フレーム誤りから復帰したフレームにおいて、該フレー
ム電力算出手段からフレーム誤り直前のフレーム電力E
1 を受信し、フレーム誤りから復帰したフレームにおけ
る合成音声情報を生成してフレーム誤りから復帰したフ
レームにおけるフレーム電力E2 を算出して、適応符号
帳が格納している情報をE1 /E2 倍に更新する音源情
報算出手段とを備えることを特徴とする音声復号化装
置。
5. The speech decoding apparatus according to claim 1, wherein the error correction means calculates a frame power from the synthesized speech information and holds a frame power E 1 immediately before a frame error. And the frame power E immediately before the frame error from the frame power calculation means in the frame recovered from the frame error.
When 1 is received, synthetic speech information in the frame recovered from the frame error is generated, frame power E 2 in the frame recovered from the frame error is calculated, and the information stored in the adaptive codebook is E 1 / E 2 A speech decoding apparatus comprising: a sound source information calculation unit that doubles the time.
JP2001342244A 2001-11-07 2001-11-07 Voice decoding device Pending JP2003140699A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001342244A JP2003140699A (en) 2001-11-07 2001-11-07 Voice decoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001342244A JP2003140699A (en) 2001-11-07 2001-11-07 Voice decoding device

Publications (1)

Publication Number Publication Date
JP2003140699A true JP2003140699A (en) 2003-05-16

Family

ID=19156134

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001342244A Pending JP2003140699A (en) 2001-11-07 2001-11-07 Voice decoding device

Country Status (1)

Country Link
JP (1) JP2003140699A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019066867A (en) * 2013-06-21 2019-04-25 フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. Apparatus and method for improved concealment of adaptive codebook in acelp-like concealment employing improved pitch lag estimation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019066867A (en) * 2013-06-21 2019-04-25 フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. Apparatus and method for improved concealment of adaptive codebook in acelp-like concealment employing improved pitch lag estimation
JP2021103325A (en) * 2013-06-21 2021-07-15 フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. Apparatus and method for improved concealment of adaptive codebook in acelp-like concealment employing improved pitch lag estimation

Similar Documents

Publication Publication Date Title
US8391373B2 (en) Concealment of transmission error in a digital audio signal in a hierarchical decoding structure
EP2534655B1 (en) Concealing lost packets in a sub-band coding decoder
JP5062937B2 (en) Simulation of transmission error suppression in audio signals
TWI413107B (en) Sub-band voice codec with multi-stage codebooks and redundant coding
EP1332493A2 (en) Improved spectral parameter substitution for the frame error concealment in a speech decoder
EP1047045A2 (en) Sound synthesizing apparatus and method
RU2741518C1 (en) Audio signals encoding and decoding
US6889183B1 (en) Apparatus and method of regenerating a lost audio segment
KR20210125534A (en) Decoder and decoding method for LC3 concealment including full frame loss concealment and partial frame loss concealment
EP0916192B1 (en) Methods and apparatus for generating noise signals from speech signals
RU2437170C2 (en) Attenuation of abnormal tone, in particular, for generation of excitation in decoder with information unavailability
WO2020165265A1 (en) Decoder and decoding method for lc3 concealment including full frame loss concealment and partial frame loss concealment
US7617096B2 (en) Robust quantization and inverse quantization using illegal space
US20130085751A1 (en) Voice communication system encoding and decoding voice and non-voice information
US7962835B2 (en) Method and apparatus to update parameter of error frame
US20030078773A1 (en) Robust quantization with efficient WMSE search of a sign-shape codebook using illegal space
JP5604572B2 (en) Transmission error spoofing of digital signals by complexity distribution
US20030078774A1 (en) Robust composite quantization with sub-quantizers and inverse sub-quantizers using illegal space
JP2003140699A (en) Voice decoding device
WO2010000303A1 (en) Speech decoder with error concealment
CN1366659A (en) Error correction method with pitch change detection
JPH04149600A (en) Voice decoding system
EP1293966B1 (en) Robust composite quantization with sub-quantizers and inverse sub-quantizers using illegal space
JPH11316600A (en) Method and device for encoding lag parameter and code book generating method
KR20000013870A (en) Error frame handling method of a voice encoder using pitch prediction and voice encoding method using the same

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20040610

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20040610

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060825

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070424