JPH1097295A - Coding method and decoding method of acoustic signal - Google Patents

Coding method and decoding method of acoustic signal

Info

Publication number
JPH1097295A
JPH1097295A JP8251933A JP25193396A JPH1097295A JP H1097295 A JPH1097295 A JP H1097295A JP 8251933 A JP8251933 A JP 8251933A JP 25193396 A JP25193396 A JP 25193396A JP H1097295 A JPH1097295 A JP H1097295A
Authority
JP
Japan
Prior art keywords
vector
noise
gain
encoding
code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8251933A
Other languages
Japanese (ja)
Inventor
Akitoshi Kataoka
章俊 片岡
Sachiko Kurihara
祥子 栗原
Shigeaki Sasaki
茂明 佐々木
Shinji Hayashi
伸二 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP8251933A priority Critical patent/JPH1097295A/en
Publication of JPH1097295A publication Critical patent/JPH1097295A/en
Pending legal-status Critical Current

Links

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Abstract

PROBLEM TO BE SOLVED: To make decoding possible even when part of information is lost in a network where the usable bit rate is variable. SOLUTION: A first prediction coder 41 codes input voice to obtain the difference signal (43) between its decoding signal and the input voice. It gives gain to the noise waveform vector to supply as a driving vector to a synthesizing filter 14b, selects the noise vector and its gain to mininmize the distortion power of the synthesizing signal to the difference signal. The filtering coefficient of the synthesizing filter in the first coder 41 is set in the filter 14b.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は携帯電話やPHS
等の無線伝送路あるいはインターネットなどのATMや
LANなどのネットワークにおいて、電波状態やネット
ワークの状態に応じて最も望ましい品質を得るための音
声や音楽などの音響信号を符号化する方法及びその復号
化方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a cellular phone and a PHS
Method for encoding audio signals such as voice and music to obtain the most desirable quality according to the state of radio waves and the state of the network in a wireless transmission path such as the Internet or an ATM or a LAN such as the Internet, and a decoding method thereof It is about.

【0002】[0002]

【従来の技術】ディジタル移動通信やパソコン音声通信
などの分野では、電波やネットワークの有効利用などを
図るため、種々の高能率符号化法が用いられている。電
話帯域音声を符号化する方法としては、CELP(符号駆動
型線形予測)、VSELP(ベクトル加算駆動型線形予測) 、
CS-ACELPなどが知られている。それぞれの技術について
は、M.R.Schroeder and B.S.Atal: "Code-Excited Line
ar Prediction(CELP): High-quality Speech at Very L
ow Rates", Proc. ICASSP'85, 25.1.1, pp.937-940, 19
85(文献1)や I.A.Gerson and M.A.Jasiuk: " Vector
Sum Excited Linear Prediction (VSELP) Speech Codi
ng at 8kps", proc. ICASSP'90, S9.3, pp.461-464, 19
90(文献2)や A.Kataoka et al: "ITU-T 8-kbit/s St
andard Speech Coder for Personal Communication Ser
vices," Int. Conf. on UniversalPersonal Communicat
ions, pp.818-822, 1995 (文献3)などに述べられて
いる。
2. Description of the Related Art In the fields of digital mobile communication and personal computer voice communication, various high-efficiency coding methods are used in order to make effective use of radio waves and networks. Methods for encoding telephone band voice include CELP (code-driven linear prediction), VSELP (vector-addition driven linear prediction),
CS-ACELP and the like are known. For information on each technology, see MRSchroeder and BSAtal: "Code-Excited Line
ar Prediction (CELP): High-quality Speech at Very L
ow Rates ", Proc. ICASSP'85, 25.1.1, pp.937-940, 19
85 (1) and IAGerson and MAJasiuk: "Vector
Sum Excited Linear Prediction (VSELP) Speech Codi
ng at 8kps ", proc. ICASSP'90, S9.3, pp.461-464, 19
90 (Reference 2) and A. Kataoka et al: "ITU-T 8-kbit / s St
andard Speech Coder for Personal Communication Ser
vices, "Int. Conf. on UniversalPersonal Communicat
ions, pp.818-822, 1995 (Reference 3).

【0003】また、広帯域音声を全体域一括でCELP方式
で符号化する技術については A.Fuldseth et al: "Wid
eband speech coding at 16 kbit/s for a videophone
application," speech communication, No.11, pp.139-
148, 1992 (文献4)、C.Laflamme et al: "16 kbps w
ideband speech coding technique based on algebraic
CELP," ICASSP 91, pp.17-20, 1991 (文献5)などに
述べられている。また、QMFフィルタを用いた帯域分
割による符号化法は Rosario DROGO de IACOVOらによっ
て "Some Experiments of 7 kHz Audio Coding at 16kb
it/s," Proc. ICASSP 89,S4.19, pp.192-195, 1989(文
献6)に述べられている。
A technique for encoding wideband speech by the CELP method in a lump for the entire area is described in A. Fuldseth et al: "Wid
eband speech coding at 16 kbit / s for a videophone
application, "speech communication, No.11, pp.139-
148, 1992 (Reference 4), C. Laflamme et al: "16 kbps w
ideband speech coding technique based on algebraic
CELP, "ICASSP 91, pp.17-20, 1991 (Reference 5), etc. Also, a coding method based on band division using a QMF filter is described in" Some Experiments of 7 kHz "by Rosario DROGO de IACOVO et al. Audio Coding at 16kb
it / s, "Proc. ICASSP 89, S4.19, pp. 192-195, 1989 (Reference 6).

【0004】これらのCELP方式では図17に示すとお
り、入力端子11からの複数サンプルの入力音声からフ
ィルタ係数決定部12で線形予測分析によって、LPC
係数を算出し、そのLPC係数をLSPパラメータに変
換し、そのLSPパラメータをフィルタ係数量子化部1
3で量子化し、その量子化されたLSPパラメータを、
量子化されたLPC係数に変換し、これをフィルタ係数
として合成フィルタ14に設定する1/A(Z)は合成フィ
ルタ14の伝達関数である。適応符号帳15の複数のピ
ッチ周期波形ベクトルの中から1つのピッチ周期波形ベ
クトルを選択し、雑音符号帳16の複数の雑音波形ベク
トルの中から1つの雑音波形ベクトルを選択し、1ステ
ップと前記第11ステップで選択された複数の利得の中
から選択した利得を、これら選択されたピッチ周期波形
ベクトルと選択された雑音波形ベクトルに対して、それ
ぞれ利得部17で乗算した後、加算器18で加算し、そ
の加算結果を駆動ベクトルとして、合成フィルタ14に
供給して音声を合成する。なお利得が乗算された雑音波
形ベクトルから利得予測部19で雑音波形ベクトルに対
するおおよその利得を過去の選択された雑音波形ベクト
ルから予測、この予測利得を予測利得部21で乗算す
る。入力音声信号から合成フィルタ14よりの合成ベク
トルを減算器22で減算することにより、歪みデータを
求め、その歪みデータに対して聴覚重み付けフィルタ2
3で重み付けを行い、その重み付けされた歪みデータに
ついて、該当データの歪みパワーを歪みパワー計算部2
4で計算し、この歪みパワーが最も小さくなるように、
歪みパワー計算部24で両符号帳15、16中の各ベク
トルを選び、かつ利得部17の各利得を設定する。符号
出力部25では量子化フィルタ係数(通常LSP係
数)、ピッチ周期波形ベクトルと雑音波形ベクトルのそ
れぞれ選ばれたものの番号と利得などが符号(コード)
として出力される。
[0004] In these CELP systems, as shown in FIG. 17, a filter coefficient determination unit 12 performs LPC analysis on input speech of a plurality of samples from an input terminal 11 by linear prediction analysis.
The coefficient is calculated, the LPC coefficient is converted into an LSP parameter, and the LSP parameter is
3 and the quantized LSP parameter is
1 / A (Z), which is converted to quantized LPC coefficients and set as a filter coefficient in the synthesis filter 14, is a transfer function of the synthesis filter 14. One pitch period waveform vector is selected from the plurality of pitch period waveform vectors of the adaptive codebook 15, one noise waveform vector is selected from the plurality of noise waveform vectors of the noise codebook 16, and one step is performed. The gain unit 17 multiplies the gain selected from the plurality of gains selected in the eleventh step with the selected pitch period waveform vector and the selected noise waveform vector by the gain unit 17. The sum is supplied to the synthesis filter 14 as a drive vector, and the sound is synthesized. From the noise waveform vector multiplied by the gain, an approximate gain for the noise waveform vector is predicted from a noise waveform vector selected in the past by the gain prediction unit 19, and the prediction gain is multiplied by the prediction gain unit 21. The subtraction unit 22 subtracts a synthesis vector from the synthesis filter 14 from the input audio signal to obtain distortion data.
3 for the weighted distortion data, and for the weighted distortion data, calculate the distortion power of the corresponding data.
Calculate with 4, and minimize this distortion power,
The distortion power calculator 24 selects each vector in both codebooks 15 and 16 and sets each gain of the gain unit 17. In the code output unit 25, a quantization filter coefficient (usually an LSP coefficient), a number and a gain of a selected one of the pitch period waveform vector and the noise waveform vector are represented by a code.
Is output as

【0005】なお、合成フィルタ14はその入力がゼロ
でも過去の復号音声に影響された、いわゆるゼロ入力応
答が出力される。従って、例えば図18Aに示すような
聴覚重み付き入力波形に対し、図18Bに示すような復
号波形が合成フィルタ14より得られたとすると、入力
波形の現フレームを符号化するに先立ち、合成フィルタ
14にゼロの駆動ベクトルを与えて、その出力として、
ゼロ入力応答波形(図18C)を得、このゼロ入力応答
波形を現フレームの入力波形から取り除いた、例えば図
18Dに示す成分(ターゲット波形)について前記両符
号帳15、16ないのベクトル検索を行う。また符号化
した際の合成フィルタ14の駆動ベクトルは適応符号帳
15に一時格納される。
[0005] The synthesis filter 14 outputs a so-called zero input response which is affected by past decoded speech even if its input is zero. Therefore, for example, assuming that a decoded waveform as shown in FIG. 18B is obtained from the synthesis filter 14 for an input waveform with auditory weights as shown in FIG. 18A, prior to encoding the current frame of the input waveform, the synthesis filter 14 With a zero drive vector, and as its output:
A zero input response waveform (FIG. 18C) is obtained, and the vector search of the codebooks 15, 16 is performed on the component (target waveform) shown in FIG. 18D, for example, by removing the zero input response waveform from the input waveform of the current frame. . The drive vector of the synthesis filter 14 at the time of encoding is temporarily stored in the adaptive codebook 15.

【0006】このようにして符号化コードに対する復号
化は図19に示すようにして行われる。入力端子31よ
り入力コード中のピッチコードにより適応符号帳32か
らピッチ周期波形ベクトルが選出され、入力コード中の
雑音コードにより雑音符号帳33から雑音波形ベクトル
が選出され、これら選出されたピッチ周期波形ベクト
ル、雑音波形ベクトルはそれぞれ利得部34で入力コー
ド中の利得コードに応じた各利得が与えられた後、加算
器37で加算されて駆動ベクトルとして合成フィルタ3
8へ供給される。利得が与えられた雑音波形ベクトルは
利得予測部35に入力され、次に選択された雑音波形ベ
クトルに対するおおよその利得が予測され、その予測利
得が予測利得部36で、選択された雑音波形ベクトルに
対して与えられる。入力コード中の係数コードがフィル
タ係数復号化部39で復号化され、その復号化されたフ
ィルタ係数が合成フィルタ38に設定される。この場
合、LSP係数として復号され、これをLCP係数に変
換してフィルタ係数を得る場合もある。合成フィルタ3
8の駆動ベクトルは適応符号帳32に一時格納され、ま
た合成ベクトル38より復号化音声信号が得られる。
The decoding of the encoded code is performed as shown in FIG. A pitch period waveform vector is selected from the adaptive codebook 32 based on the pitch code in the input code from the input terminal 31, a noise waveform vector is selected from the noise codebook 33 based on the noise code in the input code, and the selected pitch period waveform is selected. The vector and the noise waveform vector are given respective gains according to the gain code in the input code by the gain unit 34, and are added by the adder 37 to be combined as a driving vector.
8. The gain-given noise waveform vector is input to a gain prediction unit 35, and then an approximate gain for the selected noise waveform vector is predicted, and the prediction gain is calculated by the prediction gain unit 36 as the selected noise waveform vector. Given to. The coefficient code in the input code is decoded by the filter coefficient decoding unit 39, and the decoded filter coefficient is set in the synthesis filter 38. In this case, the data may be decoded as LSP coefficients and converted into LCP coefficients to obtain filter coefficients. Synthetic filter 3
8 is temporarily stored in the adaptive codebook 32, and a decoded speech signal is obtained from the combined vector 38.

【0007】前記の各方式は低ビットで高品質の符号化
を行うが、一定のビットレートでしか動作できない。つ
まり例えば、16kbit/sで音声を電送しているとき、ネッ
トワークの回線容量の状態、例えば1回線を利用してい
る利用者が倍になる等によって8kbit/s でなければ伝送
できなくなった場合、従来の符号化方式では受信側では
すべての情報が受信できないため、復号化することがで
きない。そのため、会話が途切れたり、回線が切れると
いう問題がある。同様に、ATM(非同期転送モード)
のようなパケット単位で伝送するシステムでも、ネット
ワークの状態(例えば輻輳)によってパケットの一部が
なくなる(廃棄)ことが起こる。この場合でも先に述べ
たように、従来の符号化方式では一部の情報を失ったこ
とで、復号できないという問題がある。すべての情報が
受信できない時間(期間)が短い場合には、フレーム損
失として過去の復号音声によって補間する方法も可能で
あるが、受信できない時間が長い場合には、品質が著し
く劣化する。
[0007] Each of the above-mentioned systems performs high-quality coding with low bits, but can operate only at a constant bit rate. In other words, for example, when transmitting voice at 16 kbit / s, if the line capacity of the network, for example, the number of users using one line is doubled, etc. In the conventional encoding method, the receiving side cannot receive all information, and thus cannot decode. Therefore, there is a problem that the conversation is interrupted or the line is disconnected. Similarly, ATM (asynchronous transfer mode)
In such a system that transmits data in packet units, some of the packets may be lost (discarded) depending on the state of the network (for example, congestion). Even in this case, as described above, there is a problem that decoding cannot be performed in the conventional encoding method because some information is lost. If the time (period) during which all information cannot be received is short, a method of interpolating with past decoded speech as a frame loss is also possible, but if the time during which reception is not possible is long, the quality is significantly degraded.

【0008】近年、インターネットの急速な普及に見ら
れるように、ネットワークによるサービスが重要になっ
ている。これらLANやATMなどでは、ネットワーク
の状態によってパケット廃棄やセル損失が生ずる。その
ため、これらに用いる符号化法は伝送情報の一部からで
も復号できる、いわゆるスケーラビリティが望ましい。
このような方式として、神らによって“スケーラブルな
階層構造をもつ楽音・音声符号化”,音講論集3-1-5, P
P.277-278, 1995.9 (文献6)が提案されている。しか
し、この方式は下位(核)となる符号化器の出力に対し
てサンプリング変換が必要であり、上位の符号化器が下
位の符号化器に比べて、同等或いはそれ以上の情報(ビ
ット)が必要であるという問題がある。
[0008] In recent years, as seen in the rapid spread of the Internet, network services have become important. In these LANs and ATMs, packet discards and cell losses occur depending on the state of the network. Therefore, the coding method used for them is desirably so-called scalability that can decode even a part of the transmission information.
As such a method, the gods “music and sound coding with a scalable hierarchical structure”, Sound Lecture Book 3-1-5, P
P.277-278, 1995.9 (Reference 6) have been proposed. However, this method requires sampling conversion for the output of the lower (core) encoder, and the upper encoder has information (bits) equal to or greater than that of the lower encoder. Is necessary.

【0009】[0009]

【発明が解決しようとする課題】この発明の目的は、使
用できるビットレートが変化するネットワークやパケッ
ト廃棄の発生するネットワークにおいて、伝送される情
報の一部を失っても復号でき、伝送路の状態に応じて受
信側での品質の劣化を小さくすることである符号化方法
とその復号化方法を提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to provide a network in which a usable bit rate changes or a network in which packet discards occur, even if a part of the information to be transmitted can be decoded even if the information is lost. Accordingly, it is an object of the present invention to provide an encoding method and a decoding method for reducing the deterioration of quality on the receiving side in accordance with the above.

【0010】[0010]

【課題を解決するための手段】第1観点の発明の符号化
方法(分離形符号化方法と記す)によれば、図1Aに示
すように入力端子11よりの音響信号を第1符号化器4
1で符号化し、その符号化コードを符号出力部42に出
力し、その符号化コードの復号信号と、符号化に用いた
補助情報を第1符号化器41から出力し、その復号信号
と入力音響信号の差信号を減算器43で求め、その差信
号を前記補助情報を用いて第2符号化器44で符号化
し、その符号化コードを符号出力部42へ出力する。符
号出力部42は第1、第2符号化器41、44の両符号
化コード又は第1符号化器41の符号化コードのみを出
力する。
According to the encoding method (referred to as a separate encoding method) according to the first aspect of the present invention, as shown in FIG. 1A, an audio signal from an input terminal 11 is converted to a first encoder. 4
1 and outputs the encoded code to a code output unit 42, outputs a decoded signal of the encoded code and auxiliary information used for encoding from a first encoder 41, and outputs the decoded signal The difference signal of the audio signal is obtained by the subtractor 43, the difference signal is encoded by the second encoder 44 using the auxiliary information, and the encoded code is output to the code output unit 42. The code output unit 42 outputs both the encoded codes of the first and second encoders 41 and 44 or only the encoded code of the first encoder 41.

【0011】この分離形符号化方法による符号化コード
に対する復号化方法を図1Bに示す。入力端子31より
の入力コード中の第1符号化器41による符号化コード
を第1復号化器45で復号化し、第2符号化器44によ
る符号化コードを第2復号化器46へ供給し、第1復号
化器45から復号化に用いた補助情報を第2復号化器4
6へ供給し、第2復号化器46でその入力コードを前記
補助情報を用いて復号化する。第1、第2復号化器4
5、46の両復号信号を加算器47で合成して復号音響
信号として出力する。
FIG. 1B shows a decoding method for an encoded code according to the separate encoding method. The encoded code of the first encoder 41 in the input code from the input terminal 31 is decoded by the first decoder 45, and the encoded code of the second encoder 44 is supplied to the second decoder 46. , The auxiliary information used for decoding from the first decoder 45
6 and a second decoder 46 decodes the input code using the auxiliary information. First and second decoder 4
The two decoded signals 5 and 46 are combined by an adder 47 and output as a decoded audio signal.

【0012】第2観点の発明の符号化方法(以下最適形
符号化方法と記す)によれば図2Aに示すように、入力
端子11よりの音響信号を第1符号化器41で符号化
し、その符号化コードの復号信号を出力し、また第1符
号化器41の符号化に用いた補助情報を用いて、入力音
響信号を符号化し、その符号化コードの復号信号を出力
し、第1、第2符号化器41、44の両復号信号を加算
器48で合成し、その合成復号信号の入力音響信号に対
する歪みを減算器22で求め、その求めた歪みパワーが
最小になるように歪みパワー計算部24で第1、第2符
号化器41、44を制御し、歪みパワー最小が得られた
時の第1、第2符号化器41、44の符号化コードを符
号出力部25から出力する。
According to the encoding method of the invention of the second aspect (hereinafter referred to as the optimal encoding method), as shown in FIG. 2A, the audio signal from the input terminal 11 is encoded by the first encoder 41, A decoded signal of the encoded code is output, and the input audio signal is encoded using the auxiliary information used for encoding by the first encoder 41, and a decoded signal of the encoded code is output. , The two decoded signals of the second encoders 41 and 44 are combined by the adder 48, and the distortion of the combined decoded signal with respect to the input audio signal is obtained by the subtractor 22, and the distortion is obtained so that the obtained distortion power becomes minimum. The power calculator 24 controls the first and second encoders 41 and 44, and outputs the encoded codes of the first and second encoders 41 and 44 from the code output unit 25 when the minimum distortion power is obtained. Output.

【0013】この最適形符号化方法による符号化コード
に対する復号化方法を図2Bに示す。入力端子31より
入力コード中の第1符号化器41による符号化コードを
第1復号化器45で復号化し、第2復号化器46で第2
符号化器44による符号化コードを途中まで復号し、そ
の半復号化信号を第1復号化器45へ供給して、第1復
号化器45で半復号化信号を含めた復号信号を出力す
る。つまり第2復号化器46は第1復号化器45の復号
化に用い補助情報を兼用して復号化に利用している。
FIG. 2B shows a decoding method for a coded code according to the optimal coding method. The first decoder 41 decodes the encoded code in the input code from the input terminal 31 by the first encoder 41, and decodes the second code in the second decoder 46.
The half-decoded signal is decoded by the encoder 44, the half-decoded signal is supplied to the first decoder 45, and the first decoder 45 outputs a decoded signal including the half-decoded signal. . That is, the second decoder 46 is used for decoding by the first decoder 45 and is also used for decoding by using auxiliary information.

【0014】[0014]

【発明の実施の形態】図3に分離形符号化方法を適用し
た符号化器を示す。これは第1符号化器41として例え
ば図17に示したものを用いこれに第2符号化器44を
付加して、更に性能を補強したものである。図1Aで説
明したように第1符号化器41の符号化コードを復号し
た復号音声と入力音声との差を減算器43で得、この差
信号を第2符号化器44で符号化する。この第2符号化
器44も図17に示した符号化器とほぼ同様に構成した
場合であり、よって図17と対応する部分に同一番号に
文字「b」を付けて示す。図3より理解されるように図
17中の適応符号帳15、加算器18、フィルタ係数量
子化部13を省略し、つまりピッチ周期波形ベクトルの
系を省略し、かつ合成フィルタ14bのフィルタ係数と
して第1符号化器41内の合成フィルタのフィルタ係数
を用い、また聴覚重み付けフィルタ23bのフィルタ係
数も第1符号化器41の対応するものを用いる。つまり
ここでは補助情報として、第1符号化器41の合成フィ
ルタ及び聴覚重み付けフィルタの各フィルタ係数を用い
る。合成フィルタ14aの復号信号の差信号に対する歪
みパワーが最小になるように、雑音符号帳16bの雑音
波形ベクトル、利得部17bの利得を選定する。
FIG. 3 shows an encoder to which the separation type encoding method is applied. In this example, the first encoder 41 shown in FIG. 17 is used, for example, and a second encoder 44 is added to the first encoder 41 to further enhance the performance. As described with reference to FIG. 1A, the difference between the decoded speech obtained by decoding the encoded code of the first encoder 41 and the input speech is obtained by the subtractor 43, and the difference signal is encoded by the second encoder 44. This second encoder 44 is also configured in substantially the same manner as the encoder shown in FIG. 17, and therefore, the portions corresponding to those in FIG. As can be understood from FIG. 3, the adaptive codebook 15, the adder 18, and the filter coefficient quantization unit 13 in FIG. 17 are omitted, that is, the system of the pitch period waveform vector is omitted, and the filter coefficients of the synthesis filter 14b are used. The filter coefficient of the synthesis filter in the first encoder 41 is used, and the filter coefficient of the auditory weighting filter 23b is the same as that of the first encoder 41. That is, here, the filter coefficients of the synthesis filter and the auditory weighting filter of the first encoder 41 are used as the auxiliary information. The noise waveform vector of the noise codebook 16b and the gain of the gain unit 17b are selected so that the distortion power of the decoded signal of the synthesis filter 14a with respect to the difference signal is minimized.

【0015】第2符号化器44にも適用符号帳を設け、
そのピッチ周期波形ベクトルを選択し、その選択したピ
ッチ周期波形ベクトルに利得を与え、これと利得部17
bよりの利得付与した雑音波形ベクトルと加算して合成
フィルタ14bへ供給し、歪みパワーが最小になるよう
にピッチ周期波形ベクトルと、その利得も選定する。こ
の場合、ピッチ情報を第1符号化器41から補助情報と
してもらい、これに第2符号化器44の適応符号帳のベ
クトル選出を行い、その歪みパワー計算部24bにより
探索を行わないか、行っても、受け取ったピッチ情報に
近いその前後のベクトルの重みを探索する。同一ピッチ
情報を用いる場合は第2符号化器44よりピッチコード
は出力しない。前後のもののみを探索する場合は、前、
後のいずれかと、差を示す4ビット程度のピッチコード
を出力すればよい。
An application codebook is also provided in the second encoder 44,
The pitch period waveform vector is selected, and a gain is given to the selected pitch period waveform vector.
The pitch waveform waveform vector and its gain are also selected so that the distortion power is minimized by adding the noise waveform vector to which the gain is applied from b and adding the noise waveform vector to the synthesis filter 14b. In this case, the pitch information is received as auxiliary information from the first encoder 41, the vector of the adaptive codebook of the second encoder 44 is selected based on the auxiliary information, and the search is performed by the distortion power calculator 24b. However, it searches for the weights of the vectors before and after the pitch information that are close to the received pitch information. When the same pitch information is used, the second encoder 44 does not output a pitch code. If you want to search only the previous or next one,
What is necessary is just to output a pitch code of about 4 bits indicating the difference from any of the latter.

【0016】更に合成フィルタ14aのフィルタ係数と
しては改定し得るフィルタ係数として、第1符号化器4
1のそれと、更に余分にフィルタ係数を用意し、合成フ
ィルタ14bにおける合成を精度よく行うようにするこ
ともできる。この場合は第2符号化器44の合成フィル
タ14bのとり得るフィルタ係数中の第1符号化器41
の合成フィルタのとり得るフィルタ係数にない分につい
て、符号化の係数コードを送出する必要があるが、この
ビット数はわずかで済む。なお減算器43の差信号波形
は入力音声波形とかなり違っているように思われ、従っ
て合成フィルタ14bのフィルタ係数は差信号をLPC
分析して求める必要があり、そのようにすると、そのフ
ィルタ係数も符号化して係数コードとして送出する必要
が生じ、符号化ビット数が増加する。しかし、この実施
例では第1符号化器41の合成フィルタ係数を、合成フ
ィルタ14bに設定することにより、十分品質のよい符
号化がなされることがわかった。このため符号化ビット
数をそれほど増加しないで済む。
Further, the filter coefficient of the synthesis filter 14a is a filter coefficient which can be revised.
It is also possible to prepare an additional filter coefficient in addition to that of 1 so that the synthesis in the synthesis filter 14b is performed with high accuracy. In this case, the first encoder 41 in the filter coefficients that can be taken by the synthesis filter 14b of the second encoder 44
It is necessary to transmit an encoding coefficient code for the filter coefficients that cannot be obtained by the synthesis filter of the above, but the number of bits is small. Note that the difference signal waveform of the subtracter 43 seems to be significantly different from the input speech waveform, and therefore the filter coefficient of the synthesis filter
In this case, it is necessary to analyze and obtain the filter coefficients, and it is necessary to encode the filter coefficients and transmit them as coefficient codes, and the number of encoded bits increases. However, in this embodiment, it has been found that by setting the synthesis filter coefficient of the first encoder 41 to the synthesis filter 14b, encoding with sufficiently high quality is performed. Therefore, the number of coded bits does not need to be increased so much.

【0017】最適形符号化方法の実施例を図4に示す。
第1符号化器41、第2符号化器44も図17の符号化
器と同一手法のものであるが、合成フィルタ14、聴覚
重み付けフィルタ23、歪みパワー計算部24、符号出
力部25が両符号化器41、44に兼用され、別個には
各符号化器41、44の第1符号化励振源48、第2符
号化励振源49が設けられる。図17と対応する部分に
は同一番号に第1符号化励振源48には文字aを付け、
第2符号化励振源49には文字bを付けて示す。第1符
号化励振源48は図17中の適応符号帳15と雑音符号
帳16から合成フィルタ14の入力側までであり、第2
符号化励振源49はその雑音波形ベクトルの系のみとさ
れた場合である。第1符号化励振源48からの利得が与
えられたピッチ周期波形ベクトルと雑音波形ベクトル
と、第2符号化励振源49からの利得が付与された雑音
波形ベクトルとが加算器51で加算されて駆動ベクトル
として合成フィルタ14へ供給される。歪みパワー計算
部24は歪みパワーが最小になるように各符号帳15
a,16a,15bの選択と、利得部17a,17bの
利得選定とを行う。
FIG. 4 shows an embodiment of the optimal coding method.
The first encoder 41 and the second encoder 44 are of the same method as the encoder of FIG. 17, except that the synthesis filter 14, the auditory weighting filter 23, the distortion power calculator 24, and the code output unit 25 A first encoding excitation source 48 and a second encoding excitation source 49 of each of the encoders 41 and 44 are separately provided, which are also used for the encoders 41 and 44. The parts corresponding to those in FIG. 17 are assigned the same numbers with the letter a for the first encoded excitation source 48,
The second encoded excitation source 49 is shown with a letter b. The first encoding excitation source 48 extends from the adaptive codebook 15 and the noise codebook 16 to the input side of the synthesis filter 14 in FIG.
The coding excitation source 49 is a case where only the system of the noise waveform vector is used. The pitch period waveform vector and the noise waveform vector provided with the gain from the first encoded excitation source 48 and the noise waveform vector provided with the gain from the second encoded excitation source 49 are added by the adder 51. The driving vector is supplied to the synthesis filter 14. The distortion power calculator 24 calculates each codebook 15 so that the distortion power is minimized.
a, 16a, and 15b, and the gains of the gain units 17a and 17b.

【0018】この最適形符号化方法では、第1符号化器
41でも入力音声から符号化器全体の復号音声のゼロ入
力応答を引いたものをターゲットとして探索を行う。こ
れに対し分離形符号化方法では第1符号化器41の復号
音声のみのゼロ入力応答を引いたものをターゲットとし
ている。そのため、最適符号化方法は第2符号化器44
によるゼロ入力応答分だけ効率がよい。ただし、第1符
号化器と対応する第1復号化器の単体動作もできるよう
に、第1符号化励振源48の適応符号帳15aには加算
器18aの加算ベクトルが格納される。
In this optimal coding method, the first encoder 41 also searches for a target obtained by subtracting the zero input response of the decoded speech of the entire encoder from the input speech. On the other hand, in the separation type encoding method, a target obtained by subtracting a zero input response of only the decoded voice of the first encoder 41 is targeted. Therefore, the optimal encoding method is the second encoder 44
The efficiency is good by the amount of the zero input response. However, the addition vector of the adder 18a is stored in the adaptive codebook 15a of the first encoding excitation source 48 so that the single operation of the first decoder corresponding to the first encoder can also be performed.

【0019】この図4の構成では第1符号化器41、第
2符号化器44は合成フィルタ14と聴覚重み付けフィ
ルタ23を共通に利用しており、つまり第1符号化器4
1の符号付けに利用したこれらフィルタ14、23の各
フィルタ係数を補助情報として第2符号化器44での符
号化に利用していることになる。第2符号化器44の構
成について、従来のCELPのように適応符号帳を持つ
構成も可能である。その場合、第1符号化器41で得た
ピッチ周期T0 を適応符号帳の選択に用いることも可能
であり、また数ビットの情報を用いてT0 の前後を探索
して用いることも可能である。さらに、LSPについて
は第1符号化器41のものをそのまま用いる構成のほか
に、数ビットの情報を加えより精度の良いLSPを用い
ることもできる。つまりこの場合は、まず第1符号化励
振源48を用いて、第1符号化手段41による符号化を
行い、その後、その時の加算器18aの出力ベクトルを
加算器51へ供給し、次に第2符号化励振源49に対す
る探索を行い、つまり第2符号化手段44で符号化し、
その際に合成フィルタ14で使用可能なフィルタ係数の
個数を第1符号化手段41の時よりも多くする。
In the configuration shown in FIG. 4, the first encoder 41 and the second encoder 44 commonly use the synthesis filter 14 and the auditory weighting filter 23, that is, the first encoder 4
This means that the filter coefficients of the filters 14 and 23 used for coding 1 are used as auxiliary information in the encoding by the second encoder 44. Regarding the configuration of the second encoder 44, a configuration having an adaptive codebook like a conventional CELP is also possible. In that case, the pitch period T 0 obtained by the first encoder 41 can be used for selecting an adaptive codebook, and it is also possible to search and use before and after T 0 using several bits of information. It is. Further, as for the LSP, in addition to the configuration in which the one of the first encoder 41 is used as it is, a more accurate LSP can be used by adding several bits of information. That is, in this case, first, the encoding by the first encoding means 41 is performed using the first encoding excitation source 48, and then the output vector of the adder 18a at that time is supplied to the adder 51, and then the A search is performed for the 2-encoded excitation source 49, that is, encoded by the second encoding means 44,
At this time, the number of filter coefficients that can be used in the synthesis filter 14 is made larger than that in the first encoding unit 41.

【0020】この図4に示した最適形では、第1、第2
符号化手段41、44で符号化した時の、ゼロ入力応答
を検出し、このゼロ入力応答を入力音声から除去して、
探索のターゲット波形としているため、つまり第2符号
化手段44によるゼロ入力応答成分も考慮に入れて第1
符号化手段41で符号化するため、復号側で第1符号化
手段41に対応する第1復号化手段45の性能は、第1
符号化手段41のみで符号化したものに対する復号信号
よりも劣るが、符号化器全体としての性能は向上する。
In the optimal form shown in FIG. 4, the first and second
Detecting a zero input response at the time of encoding by the encoding means 41, 44, removing the zero input response from the input voice,
Since the search target waveform is used, that is, the zero input response component by the second encoding unit 44 is also taken into consideration,
Since the encoding is performed by the encoding unit 41, the performance of the first decoding unit 45 corresponding to the first encoding unit 41 on the decoding side is the first
Although it is inferior to the decoded signal for the signal encoded by the encoding means 41 alone, the performance of the entire encoder is improved.

【0021】この最適形符号化法では探索効率を上げる
ため、図5に図4と対応する部分に同一符号を付けて示
すように、第1符号化励振源48中の適応符号帳15a
からのピッチ周期波形ベクトルと雑音符号帳16aから
の雑音波形ベクトルに予測利得を与えたものとに対し
て、第2符号化励振源49中の雑音符号帳16bよりの
雑音波形ベクトルに予測利得を与えたものを直行化部5
1で直行化して探索を行い、得られた第1符号化励振源
48中のピッチ周期波形ベクトルと、雑音波形ベクトル
と、第2符号化励振源49中の雑音波形ベクトルに対
し、利得部17で3次元のベクトル量子化で利得を与え
るようにしてもよい。このように直行化することによ
り、雑音符号帳16b中から、第1符号化励振源48で
選出したピッチ周期波形ベクトル及び雑音波形ベクトル
となるべく異なる雑音波形ベクトルを効率的に選択する
ことができる。
In this optimal coding method, in order to increase the search efficiency, as shown in FIG. 5 with the same reference numerals assigned to parts corresponding to FIG. 4, the adaptive codebook 15a in the first coding excitation source 48 is used.
The pitch gain waveform vector obtained from the noise codebook 16a and the noise waveform vector obtained from the noise codebook 16a obtained by adding a prediction gain to the noise waveform vector obtained from the noise codebook 16b in the second encoding excitation source 49 are assigned the prediction gain. What is given is a straightening unit 5
1 and a search is performed. The obtained pitch period waveform vector in the first encoded excitation source 48, the noise waveform vector, and the noise waveform vector in the second encoded excitation source 49 are obtained by the gain unit 17. The gain may be given by three-dimensional vector quantization. By performing the orthogonalization in this way, it is possible to efficiently select, from the noise codebook 16b, noise waveform vectors different from the pitch period waveform vector and the noise waveform vector selected by the first encoding excitation source 48 as much as possible.

【0022】第2符号化器44が第1符号化器41とス
ケーラビリティを保つためピッチ成分は第1符号化器4
1の駆動ベクトルから求める必要がある。そのため第2
符号化器44の雑音符号帳16bより雑音波形ベクトル
の寄与はピッチ周期波形ベクトルには生かされない。そ
こでスケーラビリティを保ちながら、符号化器全体の駆
動ベクトルからピッチ周期波形ベクトルを求める手法の
例を図6に図4と対応する部分に同一符号を付けて示
す。第1符号化励振源48中の加算器18aよりの第1
符号化器41における駆動ベクトルを利得部17を通じ
て加算器51へ供給する。第2符号化励振源49に補助
適応符号帳15bを設け、この符号帳15bには全体の
符号化器としての駆動ベクトル、つまり合成フィルタ1
4の入力ベクトルを一時格納する。第1符号化励振源4
8で得られたピッチ周期T0 と同一、またその前後にお
ける補助適応符号帳15bの各ピッチ周期波形ベクトル
と、第1符号化励振源48の決定された駆動ベクトル、
つまり加算器18a(図4参照)の出力との各相関値を
計算し、その相関値の最も大きいものと対応する補助適
応符号帳15bのピッチ周期波形ベクトルを選択する。
この際に、ピッチ周期T0 の前後の波形と第1符号化器
41の駆動ベクトルのそれぞれのパワーで正規化するこ
とも可能である。
Since the second encoder 44 maintains scalability with the first encoder 41, the pitch component is
It is necessary to obtain from one drive vector. Therefore the second
The contribution of the noise waveform vector from the noise codebook 16b of the encoder 44 is not utilized in the pitch period waveform vector. Therefore, FIG. 6 shows an example of a method of obtaining the pitch period waveform vector from the drive vector of the entire encoder while maintaining scalability, with the same reference numerals given to portions corresponding to FIG. The first signal from the adder 18a in the first encoded excitation source 48
The drive vector in the encoder 41 is supplied to the adder 51 through the gain unit 17. An auxiliary adaptive codebook 15b is provided in the second encoding excitation source 49, and the codebook 15b has a drive vector as an entire encoder, that is, the synthesis filter 1b.
4 is temporarily stored. First encoded excitation source 4
8, the respective pitch period waveform vectors of the auxiliary adaptive codebook 15b before and after the pitch period T 0 obtained before and after, and the determined drive vector of the first encoded excitation source 48,
That is, each correlation value with the output of the adder 18a (see FIG. 4) is calculated, and the pitch period waveform vector of the auxiliary adaptive codebook 15b corresponding to the one having the largest correlation value is selected.
At this time, it is also possible to normalize the waveform before and after the pitch period T 0 and the respective powers of the drive vector of the first encoder 41.

【0023】このようにして選ばれたピッチ周期波形ベ
クトルから、第1符号化励振源48で決められた駆動ベ
クトルを減算器52で差し引き補助ピッチ周期波形ベク
トルを得る。つまり第1符号化器41の駆動ベクトル
と、この補助ピッチ周期波形ベクトルとの和を全体のピ
ッチ周期波形ベクトルと見なす。第1符号化励振源48
よりの駆動ベクトルと、減算器52からの補助ピッチ周
期波形ベクトルと、雑音符号帳16bから選択され予測
利得が与えられた雑音波形ベクトルとに対し、利得部1
7でそれぞれ利得を与えた後、加算器51で加算して駆
動ベクトルとして合成フィルタ14へ供給する。
From the pitch period waveform vector selected in this manner, the drive vector determined by the first encoding excitation source 48 is subtracted by the subtractor 52 to obtain an auxiliary pitch period waveform vector. That is, the sum of the drive vector of the first encoder 41 and the auxiliary pitch cycle waveform vector is regarded as the entire pitch cycle waveform vector. First encoded excitation source 48
, The auxiliary pitch period waveform vector from the subtractor 52, and the noise waveform vector selected from the noise codebook 16b and given the prediction gain,
After the gains are given in step 7, they are added in an adder 51 and supplied to the synthesis filter 14 as a drive vector.

【0024】利得部17の利得探索は閉ループで行われ
るため、使用する必要がない補助ピッチ周期ベクトルに
対しては予め決めた非常に小さい利得を与える。つまり
ピッチ周期波形ベクトルとしては、第1符号化器41で
得られたものだけで十分であり、補助ピッチ周期波形ベ
クトルを加えるとかえって品質を劣化させるような状態
が補助適応符号帳15bの探索中に分かった場合や、第
1符号化器41の駆動ベクトルとの前記相関値を求めた
際に、その相関値が所定値以下で、補助ピッチ周期波形
ベクトルの寄与が少ない場合は、補助ピッチ周期波形ベ
クトルには予め決めた非常に小さい利得を与え、品質劣
化を防ぎ、かつ利得部17で必要とする符号化利得コー
ドのビット数を少なくすることができる。
Since the gain search of the gain unit 17 is performed in a closed loop, a predetermined very small gain is given to an auxiliary pitch period vector that need not be used. That is, as the pitch period waveform vector, only the one obtained by the first encoder 41 is sufficient, and a state where the addition of the auxiliary pitch period waveform vector degrades the quality during the search of the auxiliary adaptive codebook 15b. Or when the correlation value with the drive vector of the first encoder 41 is obtained and the correlation value is equal to or less than a predetermined value and the contribution of the auxiliary pitch period waveform vector is small, the auxiliary pitch period It is possible to give a predetermined very small gain to the waveform vector, prevent the quality from deteriorating, and reduce the number of bits of the coding gain code required by the gain unit 17.

【0025】次に図7を参照して他の実施例を説明す
る。この例では図3中における第1符号化器41よりの
復号音声(補助情報)と第2符号化器44の合成フィル
タ14bの出力合成信号とを加算器53で合成して後方
予測LPC分析部54でLPC分析して合成フィルタ1
4bのフィルタ係数を設定する点が図3の場合と異な
る。この場合、第1符号化器41の復号信号が復号化器
で得られるため、後方予測LPC分析部54のフィルタ
係数の符号化係数コードを出力する必要はなく、分析次
数も制限されず、従って高次の次数(例えば50次)を
用いることもでき、音声信号のみならず、音楽信号の符
号化も高品質で行うことができる。
Next, another embodiment will be described with reference to FIG. In this example, the decoded speech (auxiliary information) from the first encoder 41 in FIG. 3 and the output combined signal of the synthesis filter 14b of the second encoder 44 are combined by an adder 53, and the backward prediction LPC analysis unit is used. LPC analysis at 54 and synthesis filter 1
4B is different from the case of FIG. In this case, since the decoded signal of the first encoder 41 is obtained by the decoder, there is no need to output the encoded coefficient code of the filter coefficient of the backward prediction LPC analysis unit 54, and the order of analysis is not limited. A higher order (for example, the 50th order) can be used, and not only a speech signal but also a music signal can be encoded with high quality.

【0026】このように第2符号化器44の合成フィル
タ14bのフィルタ係数を復号信号から得る方法を最適
形符号化方法にも適用できる。その例を図8に示す。こ
の場合は図4中の合成フィルタ14を合成フィルタ14
a,14bに分け、合成フィルタ14aは図4中の第1
符号化励振源48よりの利得が与えられたピッチ周期波
形ベクトルと雑音波形ベクトルを加算器18aで加算し
たベクトルを駆動ベクトルとして与え、第2符号化励振
源49の利得部17bの出力を駆動ベクトルとして合成
フィルタ14bに与える。これら合成フィルタ14a,
14bの各合成出力を加算器53で加算して減算器22
へ供給すると共に、LPC分析部54へ供給する。LP
C分析部54でその入力をLPC分析してフィルタ係数
を算出して合成フィルタ14bに設定する。この場合、
合成フィルタ14a,14bの各ゼロ入力応答波形を合
成し、その合成ゼロ入力応答を、入力音声から除去して
探索のためのターゲット波形とする。
As described above, the method of obtaining the filter coefficients of the synthesis filter 14b of the second encoder 44 from the decoded signal can be applied to the optimal coding method. An example is shown in FIG. In this case, the synthesis filter 14 in FIG.
a and 14b, and the synthesis filter 14a is the first filter in FIG.
A vector obtained by adding the pitch period waveform vector to which the gain from the encoding excitation source 48 is given and the noise waveform vector by the adder 18a is given as a driving vector, and the output of the gain unit 17b of the second encoding excitation source 49 is used as the driving vector. To the synthesis filter 14b. These synthesis filters 14a,
14b are added by an adder 53 to be added to a subtractor 22.
And to the LPC analysis unit 54. LP
The input is LPC-analyzed by the C analysis unit 54 to calculate a filter coefficient, which is set in the synthesis filter 14b. in this case,
The zero input response waveforms of the synthesis filters 14a and 14b are synthesized, and the synthesized zero input response is removed from the input speech to be used as a target waveform for search.

【0027】このように最適形符号化方法に合成フィル
タ14a,14bを用いることを図4に示した符号化器
に適用した場合は、合成フィルタ14bに対して、その
使用可能フィルタ係数の数を、合成フィルタ14aのそ
れより多くした場合に、前述のように二回分けて符号化
することなく同時に符号化することができる。また図8
に示すように加算器18aの両入力ベクトルに対し、予
測利得部21bよりの雑音波形ベクトルを直交化して雑
音符号帳16bの探索を行ってもよい。このような直交
化探索は図8において、合成フィルタ14bのフィルタ
係数に、合成フィルタ14aのフィルタ係数を用いる場
合にも適用できる。
When the use of the synthesis filters 14a and 14b for the optimal coding method is applied to the encoder shown in FIG. 4, the number of usable filter coefficients for the synthesis filter 14b is reduced. When the number of filters is larger than that of the synthesis filter 14a, encoding can be performed at the same time without performing encoding twice as described above. FIG.
As shown in (2), a search for the noise codebook 16b may be performed by orthogonalizing the noise waveform vector from the prediction gain unit 21b with respect to both input vectors of the adder 18a. Such an orthogonal search can be applied to the case where the filter coefficient of the synthesis filter 14a is used as the filter coefficient of the synthesis filter 14b in FIG.

【0028】次にこの発明による復号化方法の実施例を
説明する。まず分離形符号化方法に対する復号化方法の
実施例を図9を参照して説明する。この実施例では第1
復号化器45として図19に示したものと同一のものを
用いた場合で、対応する部分に同一番号に文字「a」を
付けて示し、重複説明は省略する。この発明で第2復号
化器46を設け、この第2復号化器46も図19に示し
たものとほぼ同様の構成であるが、適応符号帳と、フィ
ルタ係数復号化部を省略し、他の使用部分については、
図19と対応する部分に同一番号に文字「b」を付けて
示す。
Next, an embodiment of the decoding method according to the present invention will be described. First, an embodiment of a decoding method for a separation type encoding method will be described with reference to FIG. In this embodiment, the first
In the case where the same one as that shown in FIG. 19 is used as the decoder 45, the corresponding part is indicated by adding the letter “a” to the same number, and redundant description will be omitted. According to the present invention, a second decoder 46 is provided. This second decoder 46 has substantially the same configuration as that shown in FIG. 19, but omits the adaptive codebook and the filter coefficient decoding unit. For the use part of
Parts corresponding to those in FIG. 19 are indicated by the same numbers with the letter “b” added.

【0029】端子31からの入力コード中の第1符号化
器41によるピッチコード、雑音コード、利得コード、
係数コードにより図19で説明したように第1復号化器
45で音声信号が復号される。入力コード中の第2符号
化器44による雑音コードにより雑音符号帳33bから
雑音波形ベクトルを取り出し、予測利得部36bで予測
利得を与え、更に利得部34bで第2符号化器44によ
る入力コード中の利得コードに応じた利得を与え、合成
フィルタ38bへ駆動ベクトルとして供給する。この合
成フィルタ38bに対しては合成フィルタ38aに設定
したフィルタ係数を設定する。この合成フィルタ38b
より復号差信号を得、これと第1復号化器45の復号信
号と加算器47で合成して復号音声を得る。利得部34
bの出力により次の雑音波形ベクトルに対する利得を利
得予測部35bで予測して予測利得部36bに供給す
る。
A pitch code, a noise code, a gain code, and a pitch code by the first encoder 41 in the input code from the terminal 31
The audio signal is decoded by the first decoder 45 using the coefficient code as described with reference to FIG. A noise waveform vector is extracted from the noise codebook 33b by the noise code of the second encoder 44 in the input code, a prediction gain is given by the prediction gain unit 36b, and the noise is calculated by the gain unit 34b. , And supplies it as a drive vector to the synthesis filter 38b. The filter coefficient set for the synthesis filter 38a is set for the synthesis filter 38b. This synthesis filter 38b
The decoded difference signal is obtained, and the decoded signal is combined with the decoded signal of the first decoder 45 by the adder 47 to obtain a decoded speech. Gain section 34
The gain for the next noise waveform vector is predicted by the gain prediction unit 35b based on the output of b, and is supplied to the prediction gain unit 36b.

【0030】この構成によれば、第1符号化器41より
の符号化コードのみが入力されても、第1復号化器45
で復号される。また第1、第2符号化器41、44の両
符号化コードが入力されると、第1符号化器41で符号
化できなかった差信号が第2復号化器46で復号され、
高品質の復号信号が得られる。第2符号化器44の符号
化コード出力中に数ビットの係数コードを用いた場合
は、端子31の入力コード中に第2符号化器44の係数
コードがあり、これが入力コード中に含まれている時
は、図に示していないが、この第2係数コードをフィル
タ係数復号化部で復号化して合成フィルタ38bに設定
し、この第2係数コードがない時は、合成フィルタ38
aのフィルタ係数を合成フィルタ38bに用いる。
According to this configuration, even if only the encoded code from the first encoder 41 is input, the first decoder 45
Is decrypted. Further, when both the encoded codes of the first and second encoders 41 and 44 are input, the difference signal that cannot be encoded by the first encoder 41 is decoded by the second decoder 46,
A high quality decoded signal is obtained. When a several-bit coefficient code is used in the output of the encoded code of the second encoder 44, the coefficient code of the second encoder 44 is included in the input code of the terminal 31, and this is included in the input code. Although not shown in the figure, the second coefficient code is decoded by the filter coefficient decoding unit and set in the synthesis filter 38b. When there is no second coefficient code, the synthesis filter 38
The filter coefficient of a is used for the synthesis filter 38b.

【0031】第2符号化器44に適応符号帳が用いられ
る場合は、図9中に破線で示すように適応符号帳32b
を設け、この選択は、符号化側と第1符号化器41の検
出ピッチT0 と同一ピッチで第2符号化器44の適応符
号帳からの選択を行う場合は、入力コード中のピッチコ
ード、つまり適応符号帳32aからの取り出しと同一ピ
ッチコードで適応符号帳32bからピッチ周期波形ベク
トルを取り出し、利得部34bで利得を与えて、利得が
与えられた雑音符号帳33bからの雑音波形ベクトルと
加算して合成フィルタ38bへ供給する。第1符号化器
41のピッチT 0 とその前後のもののみを第2符号化器
44の適応符号帳を探索する場合は、そのわずか数ビッ
トの第2ピッチコードが端子31に入力され、この第2
ピッチコードにより適応符号帳32bからピッチ周期波
形ベクトルを選択する。
An adaptive codebook is used for the second encoder 44.
In this case, as shown by the broken line in FIG.
This selection depends on whether the encoding side and the first encoder 41
Outgoing pitch T0At the same pitch as the adaptive code of the second encoder 44.
When selecting from the number book, use the pitch code in the input code.
Code, that is, the same peak as that taken out from the adaptive codebook 32a.
Pitch code from adaptive codebook 32b
The gain is given by the gain section 34b, and the gain is
Given a noise waveform vector from the given noise codebook 33b,
The sum is supplied to the synthesis filter 38b. First encoder
41 pitch T 0And only those before and after the second encoder
When searching the 44 adaptive codebooks, only a few bits
The second pitch code is input to the terminal 31 and the second pitch code
Pitch periodic wave from adaptive codebook 32b by pitch code
Select a shape vector.

【0032】最適形符号化方法と対応する復号化方法を
図10を参照して説明する。図中の符号の付け方は図9
の場合と同一であり、第1復号化器45での復号は従来
と同様である。図4中の第2符号化励振源49と対応す
る第2復号化励振源61を設け、第2符号化器44によ
る符号化雑音コードと対応する入力コードで雑音符号帳
33bから雑音波形ベクトルを取り出し、この雑音波形
ベクトルに予測利得を与え、更に第2利得コードと対応
した利得を与えて駆動ベクトルを復号し、これと加算器
62で第1復号化器45中の第1復号化励振源63より
の駆動ベクトルと加算して合成フィルタ38へ供給す
る。なお、図からか明らかなように、第1復号化励振源
63は図19中の適応符号帳32、雑音符号帳33から
加算器37の出力側までの駆動ベクトルを得る方法であ
る。
The optimal encoding method and the corresponding decoding method will be described with reference to FIG. The reference numerals in the figure are shown in FIG.
And the decoding by the first decoder 45 is the same as in the prior art. A second decoding excitation source 61 corresponding to the second encoding excitation source 49 in FIG. 4 is provided, and a noise waveform vector is obtained from the noise codebook 33b by an input code corresponding to the encoding noise code by the second encoder 44. Then, the noise waveform vector is provided with a prediction gain, and a gain corresponding to the second gain code is further provided to decode the drive vector. The drive vector is decoded by the adder 62 and the first decoding excitation source in the first decoder 45. The sum is added to the drive vector from 63 and supplied to the synthesis filter 38. As is apparent from the figure, the first decoding excitation source 63 is a method of obtaining a drive vector from the adaptive codebook 32 and the noise codebook 33 in FIG.

【0033】この場合も、第1符号化器41による符号
化コードのみが入力されても、これを正しく復号化する
ことができ、かつ第2符号化器44による符号化コード
も入力されると、更に復号信号の品質が高まる。図6に
示した符号化方法に対する復号化方法の実施例を図11
を参照して説明する。図11でこれまでの図と対応する
部分に同一符号を付けてある。第1復号化器45中の第
1復号化励振源63は、図10中のものと異なり利得部
34aにより利得が与えられる前に、ピッチ周期波形ベ
クトルと雑音波形ベクトルとを加算器37aで加算す
る。第2復号化器46の第2復号化励振源61には図1
0のものに対し、適応符号帳32bを付け加え、適応符
号帳32bより取り出したピッチ周期波形ベクトルから
加算器37aの加算ベクトルを減算器64で減算して補
助ピッチ周期波形ベクトルを得、このベクトルと、加算
器37aよりの加算ベクトルと、雑音符号帳33bより
の雑音波形ベクトルとに対し、それぞれ利得部34で利
得コードに応じた各利得を与えて加算器62で加算して
合成フィルタ38に駆動ベクトルとして供給する。この
場合の適応符号帳32bからのピッチ周期波形ベクトル
の取り出しは図9において適応符号帳32bからのピッ
チ周期波形ベクトルの取り出しと同一である。
Also in this case, even if only the encoded code from the first encoder 41 is input, it can be correctly decoded, and if the encoded code from the second encoder 44 is also input. , The quality of the decoded signal is further improved. FIG. 11 shows an embodiment of a decoding method for the encoding method shown in FIG.
This will be described with reference to FIG. In FIG. 11, the same reference numerals are given to parts corresponding to the previous figures. The first decoding excitation source 63 in the first decoder 45 adds a pitch period waveform vector and a noise waveform vector by an adder 37a before gain is given by the gain unit 34a unlike the one shown in FIG. I do. The second decoding excitation source 61 of the second decoder 46 has the configuration shown in FIG.
0, the adaptive codebook 32b is added thereto, and the subtractor 64 subtracts the addition vector of the adder 37a from the pitch period waveform vector extracted from the adaptive codebook 32b to obtain an auxiliary pitch period waveform vector. , The gain unit 34 gives each gain according to the gain code to the addition vector from the adder 37a and the noise waveform vector from the noise codebook 33b, adds the gain in the adder 62, and drives the synthesis filter 38. Supply as a vector. In this case, the extraction of the pitch period waveform vector from the adaptive codebook 32b is the same as the extraction of the pitch period waveform vector from the adaptive codebook 32b in FIG.

【0034】この場合も第1符号化器41による符号化
コードのみが入力されてもこれを正しく復号化すること
ができることは用意に理解できよう。第2符号化器44
による符号化コードも入力されると、この場合は入力音
声に対する第1復号化器45により復号信号の波形の差
分を第2復号化器46で復号化するのみならず、ピッチ
成分についての不十分さも補うことができ、より高品質
な復号音声が得られる。
Also in this case, it can be easily understood that even if only the encoded code by the first encoder 41 is input, it can be correctly decoded. Second encoder 44
In this case, not only the difference of the waveform of the decoded signal with respect to the input voice is decoded by the first decoder 45 with the second decoder 46, but also the pitch component is insufficient for the input speech. As a result, higher quality decoded speech can be obtained.

【0035】図10、図11の構成においても、図9の
説明において、第2符号化器44による符号化コード中
に第2係数コードが含まれている時は、同様に、その第
2係数コードをフィルタ係数に復号化して合成フィルタ
38に設定する。図7、図8に示した符号化方法と対応
する復号化方法を図12を参照して説明する。この場合
の第1復号化器45の構成は図9中の第1復号化器45
のそれと同一であるが、第2復号化器46はその合成フ
ィルタ38bのフィルタ係数として合成フィルタ38a
のそれを用いず、合成フィルタ38a,38bの各合成
信号を加算器47で加算した復号音声信号をLPC分析
部66でLPC分析してフィルタ係数を計算し、このフ
ィルタ係数を合成フィルタ38bに設定する点が図9中
の第2復号化器46と異なる。
Also in the configuration of FIGS. 10 and 11, in the description of FIG. 9, when the second code is included in the coded code by the second coder 44, the second The code is decoded into filter coefficients and set in the synthesis filter 38. A decoding method corresponding to the encoding method shown in FIGS. 7 and 8 will be described with reference to FIG. The configuration of the first decoder 45 in this case is the first decoder 45 in FIG.
, But the second decoder 46 uses the synthesis filter 38a as the filter coefficient of the synthesis filter 38b.
The LPC analysis unit 66 performs LPC analysis on the decoded speech signal obtained by adding the respective combined signals of the synthesis filters 38a and 38b by the adder 47 without using that of the synthesis filter 38a, 38b, and sets the filter coefficient in the synthesis filter 38b. This is different from the second decoder 46 in FIG.

【0036】この場合も第1符号化器41による符号化
コードのみが入力されても正しく復号化することがで
き、第2符号化器44による符号化コードも入力される
と、更に高品質の復号信号を得ることができる。合成フ
ィルタ38bの次数を合成フィルタ38aのそれより高
くすることができ、音楽信号も高い品質で復号すること
ができる。
In this case as well, even if only the encoded code from the first encoder 41 is input, decoding can be performed correctly. If the encoded code from the second encoder 44 is also input, higher quality is obtained. A decoded signal can be obtained. The order of the synthesis filter 38b can be higher than that of the synthesis filter 38a, and the music signal can be decoded with high quality.

【0037】図1乃至図12に示した各構成は機能構成
であり、第1符号化器41、第2符号化器44も必ずし
も物理的に別体に構成されず、例えば1つのDSP(デ
ジタル シグナル プロセッサ)にて構成することもで
きる。このことは第1復号化器45、第2復号化器46
も同様の関係にある。次にこの発明を実際の広帯域音声
符号化に適用した例を説明する。電話帯域のITU−T
標準である8kbit/s G.729 とスケーラブルな16kbit/s広
帯域音声符号化方法について述べる。図13に示すよう
に、入力音声信号をQMFフィルタ71で電話帯域(0.3
〜3.4kHz) の低域成分と、これより高域の成分とに分離
され、それぞれ低域符号化復号化部72、高域符号化復
号化部73でそれぞれ符号化復号化された後、QMFフ
ィルタ74で合成される。この場合の低域部にこの発明
を適用した。つまり第1符号化器41としてITU標準
である8kbit/s G.729(CS-ACELP) を用い、第2符号化器
44として4kbit/s の符号化器を構成する。第1符号化
器41としてG.729 を用い、LSP係数、聴覚重み付け
フィルタを用いた分離形、最適形、及び図6に示した方
法(補助ピッチ形と呼ぶ)の各符号化方法により符号化
器を構成した。つまり、図3中の第1符号化器41とし
てG.729 を用いたものと、図4中の第1符号化励振源と
して、G.729 の励振源を用いたものと、図6中の第1符
号化励振源としてG.729 の励振源を用いたものを使用し
た。ただし図4、図6においてそれぞれ、図に示してい
ないが、第2符号化器44の駆動ベクトルを、図8に示
しているように、第1符号化器41の駆動ベクトルに対
して直交化している。電話帯域及び広帯域復号音声の品
質評価結果を以下に示す。
Each of the configurations shown in FIGS. 1 to 12 is a functional configuration, and the first encoder 41 and the second encoder 44 are not necessarily physically separate from each other. For example, one DSP (digital Signal processor). This means that the first decoder 45 and the second decoder 46
Have a similar relationship. Next, an example in which the present invention is applied to actual wideband speech coding will be described. ITU-T for telephone band
This paper describes the standard 8kbit / s G.729 and the scalable 16kbit / s wideband speech coding method. As shown in FIG. 13, the input voice signal is filtered by the QMF filter 71 into the telephone band (0.3
3.43.4 kHz), and are separated into low-frequency components and higher-frequency components, and are coded and decoded by the low-frequency coding / decoding unit 72 and the high-frequency coding / decoding unit 73, respectively. The images are combined by the filter 74. The present invention is applied to the low band in this case. That is, 8 kbit / s G.729 (CS-ACELP), which is an ITU standard, is used as the first encoder 41, and a 4 kbit / s encoder is configured as the second encoder 44. G.729 is used as the first encoder 41, and encoding is performed by using an LSP coefficient, a separation type using an auditory weighting filter, an optimal type, and a method shown in FIG. 6 (referred to as an auxiliary pitch type). The vessel was constructed. That is, one using G.729 as the first encoder 41 in FIG. 3, one using the G.729 excitation source as the first encoding excitation source in FIG. 4, and one in FIG. The first coded excitation source used was a G.729 excitation source. However, although not shown in FIGS. 4 and 6, the drive vector of the second encoder 44 is orthogonalized to the drive vector of the first encoder 41 as shown in FIG. ing. The quality evaluation results of the telephone band and the wideband decoded speech are shown below.

【0038】低域部の性能評価 各構成の性能をセグメンタルSNRとケプストラム歪み
(CD)値でそれぞれ評価した。G.729 部(第1符号化
器41)と低域部全体(第1符号化器41+第2符号化
器44)の各評価結果を図14に示す。図14よりG.72
9 のCD値が低域部全体のCD値に対していずれの形式
でも良くないことが分かるが、これはG.729 が3.4kHz帯
域の音声用に設計されているためである。低域部全体で
は各構成ともこの3.4kHz以上の帯域の劣化を補い、CD
値が改善している。またG.729 (第1符号化器41)に
比べ、分離形構成は約0.4dB 、最適形構成は約2.2dB 、
補助ピッチ形構成は2.6dB 、それぞれSNRが改善して
いる。補助の雑音符号帳(第2符号化器44)のゼロ入
力応答を考慮した探索の違いによるG.729 部の性能劣化
は約0.6dB に止まっている。
Performance Evaluation of Low-Frequency Portion The performance of each configuration was evaluated by a segmental SNR and a cepstrum distortion (CD) value. FIG. 14 shows the evaluation results of the G.729 part (first encoder 41) and the entire low-frequency part (first encoder 41 + second encoder 44). From Fig. 14, G.72
It can be seen that the CD value of 9 is not good in any format with respect to the CD value of the entire low-frequency part, because G.729 is designed for voice in the 3.4 kHz band. In the entire low-frequency section, each configuration compensates for the degradation of this 3.4 kHz or higher band, and the CD
The value has improved. Also, compared to G.729 (first encoder 41), the separation type configuration is about 0.4 dB, the optimal type configuration is about 2.2 dB,
The auxiliary pitch type configuration has 2.6 dB, each having improved SNR. The performance degradation of the G.729 part due to the difference in the search in consideration of the zero input response of the auxiliary noise codebook (second encoder 44) is only about 0.6 dB.

【0039】品質評価 符号化器の品質を評価するためオピニオン試験を行っ
た。評価は広帯域音声と電話帯域音声を別々に行った。
評価音声は日本語(男女各10名)、評価は1〜5の5
段階、被験者は一般人24名である。広帯域音声はP.34
1 フィルタで処理したものを用い、電話帯域音声は3.4k
Hz帯域の特性がフラットな音声とQMFによって分割さ
れた低域の音声を用いた。また、リファレンスとして広
帯域符号化法のITU標準であるG.722 とMNRU(Mod
ulated Noise Reference Unit)信号を用いた。MNRU
信号は原信号の振幅に比例して振幅が変化するように白
色雑音を付加した信号である。品質評価結果はMNRU
信号を用いて等価Q値に変換している。
Quality Evaluation An opinion test was performed to evaluate the quality of the encoder. The evaluation was performed separately for broadband speech and telephone band speech.
Evaluation voice is Japanese (10 men and women each), evaluation is 1-5
At the stage, the subjects are 24 ordinary people. P.34 for wideband audio
(1) 3.4k for telephone band voice
A sound with a flat Hz-band characteristic and a low-frequency sound divided by QMF were used. In addition, G.722, which is an ITU standard for wideband coding, and NMRU (Mod
ulated Noise Reference Unit) signal was used. NMRU
The signal is a signal to which white noise is added so that the amplitude changes in proportion to the amplitude of the original signal. The quality evaluation result is MINRU
It is converted to an equivalent Q value using a signal.

【0040】広帯域音声の品質評価結果を図15に示
す。Aは分離形構成、Bは最適形構成、Cは補助ピッチ
形構成を示す。この図より各構成とも56kbit/s G.722と
同等以上の品質が得られていることがわかる。特に補助
ピッチ形構成を用いたものは、ほぼ64kbit/s G.722と同
等の品質が得られている。これはピッチの補強によって
復号音声がはっきりした感じになるためと思われる。
FIG. 15 shows the results of evaluating the quality of wideband speech. A indicates a separated type configuration, B indicates an optimal type configuration, and C indicates an auxiliary pitch type configuration. From this figure, it can be seen that the quality of each configuration is equal to or better than 56 kbit / s G.722. In particular, the one using the auxiliary pitch type configuration has almost the same quality as 64 kbit / s G.722. This is probably because the decoded speech becomes clearer by reinforcing the pitch.

【0041】低域部(電話帯域)音声の品質評価結果を
図16に示す。Aはフラット音声(G.729) 、Bは帯域分
割音声(G.729) 、Cは最適形構成、Dは補助ピッチ形構
成、Eは補助ピッチ形構成+低域通過フィルタを示す。
この図よりG.729 の品質はフラットな音声に比べ、帯域
分割された音声は3.4kHz以上の影響によって約1dB 劣化
している。最適形のG.729 部の品質はG.729 と差はない
が、補助ピッチ形のG.729 部の品質は劣化が見られる。
この音声をカットオフ周波数3.4kHzの低域通過フィルタ
で処理すると、3.4kHz以上の雑音が取り除かれ、品質が
改善している。最適形や補助ピッチ形のG.729 部の劣化
が少ないのは、第2符号化器44が主に3.4kHz以上の帯
域の改善を行っているためと考えられる。
FIG. 16 shows the quality evaluation result of the low-frequency (telephone band) voice. A indicates a flat sound (G.729), B indicates a band-divided sound (G.729), C indicates an optimum type configuration, D indicates an auxiliary pitch type configuration, and E indicates an auxiliary pitch type configuration + low-pass filter.
From this figure, the quality of G.729 is about 1 dB worse for band-divided sound than for flat sound due to the effect of 3.4 kHz or more. The quality of the optimal G.729 part is not different from that of G.729, but the quality of the auxiliary pitch type G.729 part is degraded.
When this sound is processed by a low-pass filter having a cutoff frequency of 3.4 kHz, noise of 3.4 kHz or more is removed, and the quality is improved. It is considered that the reason why the deterioration of the G.729 part of the optimal type and the auxiliary pitch type is small is that the second encoder 44 mainly improves the band of 3.4 kHz or more.

【0042】上述においては第2符号化器44、第2復
号化器46をそれぞれ1個用いたが、これら第2符号化
器44、第2復号化器46を同様の手法によりそれぞれ
改善するように更に第2符号化器、第2復号化器を付加
してもよい。聴覚重み付けフィルタ処理は減算器22の
入力音声に対して行うと共に合成フィルタを聴覚重み付
けフィルタ処理を兼ねるようにしてもよい。
In the above description, one second encoder 44 and one second decoder 46 are used. However, the second encoder 44 and the second decoder 46 are improved by the same method. , A second encoder and a second decoder may be further added. The auditory weighting filter processing may be performed on the input voice of the subtractor 22, and the synthesis filter may also serve as the auditory weighting filter processing.

【0043】[0043]

【発明の効果】以上述べたように、この発明によって伝
送ビットの一部からでも復号化を行うことができるの
で、ネットワークの状態に左右されることなく、通信を
行うことができる。
As described above, according to the present invention, decoding can be performed even from a part of transmission bits, so that communication can be performed irrespective of the state of the network.

【図面の簡単な説明】[Brief description of the drawings]

【図1】Aは第1符号化器41と第2符号化器44は完
全に独立に動作するこの発明符号化方法の機能構成例
(分離形)を示すブロック図、Bはその復号化方法の機
能構成例を示すブロック図である。
1A is a block diagram showing a functional configuration example (separated type) of an encoding method of the present invention in which a first encoder 41 and a second encoder 44 operate completely independently, and FIG. 1B is a decoding method thereof; FIG. 2 is a block diagram showing an example of the functional configuration of the embodiment.

【図2】Aは第1符号化器41と第2符号化器44が一
体として符号化するこの発明符号化方法の機能構成例
(最適形)を示すブロック図、Bはその復号化方法の機
能構成例を示すブロック図である。
FIG. 2A is a block diagram showing an example of a functional configuration (optimal form) of an encoding method according to the present invention in which a first encoder 41 and a second encoder 44 are integrally encoded; FIG. 3 is a block diagram illustrating a functional configuration example.

【図3】この発明の分離形符号化方法の機能構成例を示
すブロック図。
FIG. 3 is a block diagram showing an example of a functional configuration of a separation type encoding method according to the present invention.

【図4】この発明の最適形符号化方法の機能構成例を示
すブロック図。
FIG. 4 is a block diagram showing an example of a functional configuration of an optimal coding method according to the present invention.

【図5】この発明の最適形符号化方法の他の実施例の機
能構成を示すブロック図。
FIG. 5 is a block diagram showing a functional configuration of another embodiment of the optimal coding method according to the present invention.

【図6】この発明の最適形符号化方法において第2符号
化器44として雑音符号帳と補助適応符号帳を備えた例
の機能構成を示すブロック図。
FIG. 6 is a block diagram showing a functional configuration of an example in which a noise codebook and an auxiliary adaptive codebook are provided as the second encoder 44 in the optimal coding method of the present invention.

【図7】この発明の分離形符号化方法において第1符号
化器の復号信号と第2符号化器の復号信号の和より後方
線形予測によって第2符号化器の合成フィルタ係数を求
める例の機能構成を示すブロック図。
FIG. 7 shows an example of obtaining a combined filter coefficient of the second encoder by backward linear prediction from the sum of the decoded signal of the first encoder and the decoded signal of the second encoder in the separation type encoding method of the present invention. FIG. 2 is a block diagram showing a functional configuration.

【図8】この発明の最適形符号化方法において、第1、
第2符号化器の両復号信号の和より後方線形予測によっ
て第2符号化器の合成フィルタ係数を求める例の機能構
成を示すブロック図。
FIG. 8 is a block diagram showing a first embodiment of the optimal coding method according to the present invention;
FIG. 10 is a block diagram showing a functional configuration of an example of obtaining a synthesis filter coefficient of the second encoder by backward linear prediction from a sum of both decoded signals of the second encoder.

【図9】この発明の分離形復号化方法の機能構成例を示
すブロック図。
FIG. 9 is a block diagram showing an example of a functional configuration of a separation type decoding method according to the present invention.

【図10】この発明の最適形復号化方法の機能構成例を
示すブロック図。
FIG. 10 is a block diagram illustrating a functional configuration example of an optimal decoding method according to the present invention.

【図11】この発明による補助ピッチ形復号化方法の機
能構成例を示すブロック図。
FIG. 11 is a block diagram showing a functional configuration example of an auxiliary pitch type decoding method according to the present invention.

【図12】この発明による復号化方法において第1、第
2復号化器の両復号信号の和により第2復号化器の合成
フィルタ係数を求める例の機能構成を示すブロック図。
FIG. 12 is a block diagram showing a functional configuration of an example of obtaining a synthesis filter coefficient of the second decoder by a sum of both decoded signals of the first and second decoders in the decoding method according to the present invention.

【図13】QMFフィルタを用いたサブバンド広帯域符
号化の構成を示すブロック図。
FIG. 13 is a block diagram showing a configuration of subband wideband coding using a QMF filter.

【図14】低域部の性能評価結果を示す図。FIG. 14 is a diagram showing a performance evaluation result of a low-frequency part.

【図15】広帯域音声に対する各構成の品質評価結果を
示す図。
FIG. 15 is a diagram showing a quality evaluation result of each configuration for wideband speech.

【図16】低域部(電話帯域音声)の各構成の品質評価
結果を示す図。
FIG. 16 is a diagram showing a quality evaluation result of each configuration of a low-frequency part (telephone band voice).

【図17】従来の予測符号化器の機能構成を示すブロッ
ク図。
FIG. 17 is a block diagram showing a functional configuration of a conventional predictive encoder.

【図18】予測符号化器の探索時のターゲットベクトル
の作成の流れを示す波形図。
FIG. 18 is a waveform chart showing a flow of creating a target vector when searching for a predictive encoder.

【図19】従来の復号化器の機能構成を示すブロック
図。
FIG. 19 is a block diagram showing a functional configuration of a conventional decoder.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 林 伸二 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Shinji Hayashi 3-19-2 Nishi-Shinjuku, Shinjuku-ku, Tokyo Nippon Telegraph and Telephone Corporation

Claims (21)

【特許請求の範囲】[Claims] 【請求項1】 入力音響信号を、第1符号化手段と、1
つ以上の第2符号化手段とを用いて符号化する方法にお
いて、 上記第1符号化手段により、上記入力音響信号のスペク
トル包絡を分析してフィルタ係数を抽出し、そのフィル
タ係数を量子化し、その量子化フィルタ係数を合成フィ
ルタに設定し、第1適応符号帳から選出したピッチ周期
波形ベクトルと、第1雑音符号帳から選出した雑音波形
ベクトルにそれぞれ利得を与えて、駆動ベクトルとして
上記合成フィルタに与え、その合成フィルタよりの合成
音響信号を得、その合成音響信号の上記入力音響信号に
対する歪みが最小になるように上記ピッチ周期波形ベク
トル、上記雑音波形ベクトルをそれぞれ選択し、上記利
得を選定して入力音響信号を符号化し、 上記第2符号化手段は第1符号化手段の符号化に用いた
補助情報を用いて符号処理を行うことを特徴とする音響
信号符号化方法。
1. An input audio signal is input to a first encoding unit,
In a method of encoding using one or more second encoding means, the first encoding means analyzes a spectral envelope of the input audio signal to extract a filter coefficient, and quantizes the filter coefficient. The quantization filter coefficients are set in the synthesis filter, and gains are given to the pitch period waveform vector selected from the first adaptive codebook and the noise waveform vector selected from the first noise codebook, and the synthesis filter is used as a drive vector. To obtain a synthesized audio signal from the synthesis filter, and select the pitch period waveform vector and the noise waveform vector so as to minimize distortion of the synthesized audio signal with respect to the input audio signal, and select the gain. The second encoding means encodes the input audio signal using the auxiliary information used for encoding by the first encoding means. Acoustic signal encoding method and performing.
【請求項2】 請求項1記載の符号化方法において、 上記第1符号化手段による符号化コードを復号した信号
と、上記入力音響信号との差信号を上記第2符号化手段
により符号化することを特徴とする音響信号符号化方
法。
2. The encoding method according to claim 1, wherein a difference signal between a signal obtained by decoding the encoded code by the first encoding unit and the input audio signal is encoded by the second encoding unit. A sound signal encoding method characterized by the above-mentioned.
【請求項3】 請求項2に記載の符号化方法において、 上記第2符号化手段は上記第1符号化手段の合成フィル
タに設定されたフィルタ係数を、上記補助情報として第
2合成フィルタに設定し、第2雑音符号帳から選択した
雑音波形ベクトルに利得を与えて上記第2合成フィルタ
に駆動ベクトルとして与え、その合成フィルタよりの合
成信号の上記差信号に対する歪みが最小になるように上
記第2雑音符号帳からの選択、その選択された雑音波形
ベクトルに与える利得を選定して符号化することを特徴
とする音響信号符号化方法。
3. The encoding method according to claim 2, wherein said second encoding means sets a filter coefficient set in a synthesis filter of said first encoding means in a second synthesis filter as said auxiliary information. Then, a gain is given to the noise waveform vector selected from the second noise codebook, and the gain is given to the second synthesis filter as a drive vector, and the distortion of the synthesized signal from the synthesis filter with respect to the difference signal is minimized. (2) A sound signal encoding method characterized by selecting from a noise codebook and selecting and encoding a gain to be applied to the selected noise waveform vector.
【請求項4】 請求項3に記載の符号化方法において、 上記第2符号化手段による符号化で第2適応符号帳から
選択したピッチ周期波形ベクトルに利得を与えて上記第
2合成フィルタへ上記駆動ベクトルと加算して供給し、
上記第2雑音符号帳の選択と共に上記第2適応符号帳の
選択と、その選択されたピッチ周期波形ベクトルに与え
る利得を選定し、かつ第2適応符号帳よりの波形切出し
を、上記補助情報としての上記第1符号化手段で符号化
したピッチ周期にもとづいて行うことを特徴とする音響
信号符号化方法。
4. The encoding method according to claim 3, wherein a gain is given to the pitch period waveform vector selected from the second adaptive codebook by the encoding by the second encoding means, and the gain is given to the second synthesis filter. It is added to the drive vector and supplied.
The selection of the second adaptive codebook together with the selection of the second noise codebook, the selection of the gain to be applied to the selected pitch period waveform vector, and the extraction of the waveform from the second adaptive codebook as the auxiliary information. A sound signal encoding method is performed based on the pitch period encoded by the first encoding means.
【請求項5】 請求項1記載の符号化方法において、 入力音響信号に対して、上記第1符号化手段と上記第2
符号化手段とによって最適となるように符号化すること
を特徴とする音響信号符号化方法。
5. The encoding method according to claim 1, wherein said first encoding means and said second
An audio signal encoding method, characterized in that encoding is performed by an encoding unit so as to be optimal.
【請求項6】 請求項5記載の符号化方法において、 上記第2符号化手段により、第2雑音符号帳から選択し
た雑音波形ベクトルに利得を与えて上記合成フィルタに
対し、上記駆動ベクトルに加算して供給し、上記第1適
応符号帳、第1雑音符号帳の選択と共に、上記第2雑音
符号帳の選択を行い、かつ上記利得選定と共に上記第2
雑音符号帳より選択された雑音波形ベクトルに与える利
得を選定することを特徴とする音響信号符号化方法。
6. The encoding method according to claim 5, wherein the second encoding means applies a gain to a noise waveform vector selected from a second noise codebook and adds the gain to the driving vector for the synthesis filter. And the selection of the first adaptive codebook and the first noise codebook, the selection of the second noise codebook, and the selection of the gain together with the selection of the second noise codebook.
A sound signal encoding method comprising selecting a gain given to a noise waveform vector selected from a noise codebook.
【請求項7】 請求項6記載の符号化方法において、 上記第1符号化手段の選択したピッチ周期波形ベクトル
と、上記選択した雑音波形ベクトルとにより上記第2雑
音符号帳から選択した雑音波形ベクトルを直交化して選
択し、その選択された雑音ベクトルに利得を与えて駆動
ベクトルに加算することを特徴とする符号化方法。
7. The encoding method according to claim 6, wherein the noise waveform vector selected from the second noise codebook by the pitch period waveform vector selected by the first encoding means and the selected noise waveform vector. Is selected by orthogonalizing, and a gain is given to the selected noise vector to be added to a driving vector.
【請求項8】 請求項6又は7記載の符号化方法におい
て、 上記第2符号化手段で第2適応符号帳から選択した補助
ピッチ周期波形ベクトルを選択して利得を与えて、上記
駆動ベクトルに加え、上記補助情報として上記第1符号
化手段で得たピッチにもとづいて上記第2適応符号帳か
らの補助ピッチ周期波形ベクトルの切出しを行うことを
特徴とする音響信号符号化方法。
8. The encoding method according to claim 6, wherein the second encoding means selects an auxiliary pitch period waveform vector selected from a second adaptive codebook and gives a gain to the driving vector. In addition, an audio signal encoding method characterized in that an auxiliary pitch period waveform vector is cut out from the second adaptive codebook based on the pitch obtained by the first encoding means as the auxiliary information.
【請求項9】 請求項8記載の符号化方法において、 上記第2適応符号帳の補助ピッチ周期波形ベクトルを上
記合成フィルタの駆動ベクトルの過去のものから作り、
上記選択した補助ピッチ周期波形ベクトルから、上記第
1符号化手段の選択したピッチ周期波形ベクトル及び雑
音波形ベクトルを差し引いて利得を与え上記合成フィル
タの駆動ベクトルに加えることを特徴とする音響信号符
号化方法。
9. The encoding method according to claim 8, wherein an auxiliary pitch period waveform vector of the second adaptive codebook is created from past drive vectors of the synthesis filter,
Acoustic signal coding characterized by subtracting the pitch period waveform vector and the noise waveform vector selected by the first encoding means from the selected auxiliary pitch period waveform vector to provide a gain and adding the gain to the driving vector of the synthesis filter. Method.
【請求項10】 請求項1に記載の符号化方法におい
て、 上記第2符号化手段により、第2雑音符号帳から選択し
た雑音波形ベクトルに利得を与えて駆動信号として第2
合成フィルタへ供給し、入力音響信号を上記第1符号化
手段の復号化信号との差信号に対する上記第2合成フィ
ルタの出力合成信号の歪みが最小になるように上記第2
雑音符号帳の選択、その選択された雑音波形ベクトルに
与える利得の選定を行い、上記復号信号及び上記第2合
成フィルタの出力合成信号の和のスペクトル包絡を分析
して、フィルタ係数を求めて上記第2合成フィルタに設
定することを特徴とする音響信号符号化方法。
10. The encoding method according to claim 1, wherein said second encoding means applies a gain to a noise waveform vector selected from a second noise codebook to generate a second drive signal as a second drive signal.
The second synthesis filter supplies the input audio signal to the second synthesis filter so as to minimize the distortion of the output synthesized signal of the second synthesis filter with respect to the difference signal from the decoded signal of the first encoding means.
The noise codebook is selected, the gain given to the selected noise waveform vector is selected, and the spectral envelope of the sum of the decoded signal and the output synthesized signal of the second synthesis filter is analyzed to obtain a filter coefficient. A sound signal encoding method, wherein the method is set in a second synthesis filter.
【請求項11】 請求項1乃至10の何れかに記載の符
号化方法において、 上記第1符号化手段、第2符号化手段の各符号化に聴覚
重み付けフィルタを用い、第1符号化手段の聴覚重み付
けフィルタのフィルタ係数を上記第2符号化手段の聴覚
重み付けフィルタ係数に設定することを特徴とする音響
信号符号化方法。
11. The encoding method according to claim 1, wherein an audio weighting filter is used for each of the first encoding means and the second encoding means. An acoustic signal encoding method, wherein a filter coefficient of an auditory weighting filter is set as an auditory weighting filter coefficient of the second encoding means.
【請求項12】 請求項1乃至4、10の何れかに記載
の符号化方法において、 上記第1符号化手段の上記合成フィルタに設定可能なフ
ィルタ係数の個数より、上記第2符号化手段の合成フィ
ルタに設定可能なフィルタ係数の個数が大とされている
ことを特徴とする音響信号符号化方法。
12. The encoding method according to claim 1, wherein the number of filter coefficients that can be set in the synthesis filter of the first encoding unit is smaller than the number of filter coefficients that can be set in the second encoding unit. An acoustic signal encoding method, wherein the number of filter coefficients that can be set for a synthesis filter is large.
【請求項13】 入力コードにもとづき第1復号化手段
と、第2復号化手段とにより音響信号を復号化する方法
において、 上記第1復号化手段により、入力コード中の係数コード
でフィルタ係数を復号し、その復号化されたフィルタ係
数を合成フィルタに設定し、入力コード中のピッチコー
ドで適応符号帳からピッチ周期波形ベクトルを選定し、
入力コード中の雑音コードで雑音符号帳から雑音波形ベ
クトルを選定し、これらピッチ周期波形ベクトル及び雑
音波形ベクトルに対し、入力中の利得コードに応じた各
利得を与えて上記合成フィルタへ駆動ベクトルとして与
えて合成音響信号を得、 上記第2復号化手段で入力コード中の第2復号化手段に
対するものと、上記第1復号化手段よりの補助情報とを
用いて復号化することを特徴とする音響信号復号化方
法。
13. A method for decoding an audio signal by a first decoding means and a second decoding means based on an input code, wherein the first decoding means converts a filter coefficient by a coefficient code in the input code. Decode, set the decoded filter coefficient to the synthesis filter, select the pitch period waveform vector from the adaptive codebook with the pitch code in the input code,
A noise waveform vector is selected from the noise codebook with the noise code in the input code, and each of the pitch period waveform vector and the noise waveform vector is given a gain according to the gain code being input to the synthesis filter as a drive vector. Giving a synthesized sound signal, and decoding by the second decoding means using the one for the second decoding means in the input code and the auxiliary information from the first decoding means. Audio signal decoding method.
【請求項14】 請求項13記載の復号化方法におい
て、 上記第1復号化手段で復号化した音響信号と第2復号化
手段で復号化した音響信号を加算して復号化することを
特徴とする音響信号復号化方法。
14. The decoding method according to claim 13, wherein the sound signal decoded by the first decoding means and the sound signal decoded by the second decoding means are added and decoded. Audio signal decoding method.
【請求項15】 請求項14記載の復号化方法におい
て、 第2復号化手段は入力コード中の第2雑音コードで第2
雑音符号帳から雑音波形ベクトルを選出し、その雑音波
形ベクトルに入力コード中の第2利得コードに応じた利
得を与えて上記第2合成フィルタに駆動ベクトルとして
供給し、 上記第2合成フィルタに上記復号化されたフィルタ係数
を設定し、第2合成フィルタの合成信号と第1合成フィ
ルタの合成音響信号とを加算して復号音響信号とするこ
とを特徴とする音響信号復号化方法。
15. The decoding method according to claim 14, wherein the second decoding means performs a second decoding based on a second noise code in the input code.
A noise waveform vector is selected from the noise codebook, a gain corresponding to the second gain code in the input code is given to the noise waveform vector, and the noise waveform vector is supplied as a drive vector to the second synthesis filter. An audio signal decoding method, comprising: setting a decoded filter coefficient; adding a synthesized signal of a second synthesis filter and a synthesized audio signal of a first synthesis filter to obtain a decoded audio signal.
【請求項16】 請求項15記載の復号化方法におい
て、 上記第2復号化手段で入力コード中の第2ピッチコード
により第2適応符号帳から補助ピッチ周期波形ベクトル
が選出され、その補助ピッチ周期波形ベクトルに、入力
コード中の第2利得コードに応じた利得を与えて上記第
2合成フィルタの上記駆動ベクトルに加算することを特
徴とする音響信号復号化方法。
16. The decoding method according to claim 15, wherein said second decoding means selects an auxiliary pitch period waveform vector from a second adaptive codebook according to a second pitch code in the input code, and the auxiliary pitch period is selected. A sound signal decoding method, characterized in that a gain according to a second gain code in an input code is given to a waveform vector and added to the drive vector of the second synthesis filter.
【請求項17】 請求項13記載の復号化方法におい
て、 上記第2復号化手段により、入力コード中の第2雑音コ
ードで第2雑音符号帳から雑音波形ベクトルを選出し、
その雑音波形ベクトルに入力コード中の第2利得コード
に応じた利得を与えて上記合成フィルタの駆動ベクトル
に加算することを特徴とする音響信号復号化方法。
17. The decoding method according to claim 13, wherein the second decoding means selects a noise waveform vector from a second noise codebook with a second noise code in the input code,
A sound signal decoding method, characterized in that a gain according to a second gain code in an input code is given to the noise waveform vector and added to a driving vector of the synthesis filter.
【請求項18】 請求項17記載の復号化方法におい
て、 上記第2復号化手段で、上記第2雑音符号帳から選出し
た雑音波形ベクトルを、上記選出されたピッチ周期波形
ベクトルと上記第1雑音符号帳から選出された雑音波形
ベクトルとに対して直交化し、その直交化したものに利
得を与えて、上記駆動ベクトルと加算することを特徴と
する音響信号復号化方法。
18. The decoding method according to claim 17, wherein the second decoding means converts the noise waveform vector selected from the second noise codebook into the selected pitch period waveform vector and the first noise vector. A sound signal decoding method comprising orthogonalizing a noise waveform vector selected from a codebook, giving a gain to the orthogonalized vector, and adding the gain to the drive vector.
【請求項19】 請求項13記載の復号化方法におい
て、 上記選出したピッチ周期波形ベクトルと上記選出された
雑音波形ベクトルを加算し、上記第2復号化手段で入力
コード中の第2ピッチコードにより第2適応符号帳から
補助ピッチ周期波形ベクトルを選出し、その補助ピッチ
周期波形ベクトルから上記加算ベクトルを引算し、入力
コード中の第2雑音コードにより第2雑音符号帳から雑
音波形ベクトルを選出し、これと上記引算結果と上記加
算ベクトルに入力コード中の利得コードに応じた各利得
を与えて加算して上記駆動ベクトルとすることを特徴と
する音響信号復号化方法。
19. The decoding method according to claim 13, wherein said selected pitch period waveform vector and said selected noise waveform vector are added, and said second decoding means uses a second pitch code in an input code. An auxiliary pitch period waveform vector is selected from the second adaptive codebook, the above addition vector is subtracted from the auxiliary pitch period waveform vector, and a noise waveform vector is selected from the second noise codebook based on the second noise code in the input code. A sound signal decoding method, wherein each of the gain, the subtraction result, and the addition vector is provided with each gain corresponding to a gain code in an input code and added to obtain the drive vector.
【請求項20】 請求項13記載の復号化方法におい
て、 第2復号化手段により、入力コード中の第2雑音符号帳
から雑音波形ベクトルを選出し、その雑音波形ベクトル
に入力コード中の第2利得コードに応じた利得を与えて
第2合成フィルタに駆動ベクトルとして供給し、この第
2合成フィルタの合成信号と上記合成フィルタの合成音
響信号とを合成して復号化音響信号を得、その復号音響
信号のスペクトル包絡を分析抽出してフィルタ係数を計
算し、そのフィルタ係数を上記第2合成フィルタに設定
することを特徴とする音響信号復号化方法。
20. The decoding method according to claim 13, wherein the second decoding means selects a noise waveform vector from the second noise codebook in the input code, and substitutes the noise waveform vector with the second noise code in the input code. A gain corresponding to the gain code is given and supplied as a drive vector to the second synthesis filter, and the synthesized signal of the second synthesis filter and the synthesized audio signal of the synthesis filter are synthesized to obtain a decoded audio signal. An acoustic signal decoding method characterized by analyzing and extracting a spectral envelope of an acoustic signal, calculating a filter coefficient, and setting the filter coefficient in the second synthesis filter.
【請求項21】 請求項14乃至19の何れかに記載の
復号化方法において、 上記第1復号化手段の合成フィルタに設定可能なフィル
タ係数の個数より第2復号化手段の合成フィルタの設定
可能なフィルタ係数の方が多くされていることを特徴と
する音響信号復号化方法。
21. The decoding method according to claim 14, wherein a synthesis filter of a second decoding unit can be set based on the number of filter coefficients that can be set in a synthesis filter of the first decoding unit. An acoustic signal decoding method characterized in that more filter coefficients are used.
JP8251933A 1996-09-24 1996-09-24 Coding method and decoding method of acoustic signal Pending JPH1097295A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8251933A JPH1097295A (en) 1996-09-24 1996-09-24 Coding method and decoding method of acoustic signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8251933A JPH1097295A (en) 1996-09-24 1996-09-24 Coding method and decoding method of acoustic signal

Publications (1)

Publication Number Publication Date
JPH1097295A true JPH1097295A (en) 1998-04-14

Family

ID=17230138

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8251933A Pending JPH1097295A (en) 1996-09-24 1996-09-24 Coding method and decoding method of acoustic signal

Country Status (1)

Country Link
JP (1) JPH1097295A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005109402A1 (en) * 2004-05-11 2005-11-17 Nippon Telegraph And Telephone Corporation Sound packet transmitting method, sound packet transmitting apparatus, sound packet transmitting program, and recording medium in which that program has been recorded
WO2005114655A1 (en) 2004-05-24 2005-12-01 Matsushita Electric Industrial Co., Ltd. Audio/music decoding device and audio/music decoding method
WO2006001218A1 (en) 2004-06-25 2006-01-05 Matsushita Electric Industrial Co., Ltd. Audio encoding device, audio decoding device, and method thereof
WO2007010844A1 (en) 2005-07-19 2007-01-25 Matsushita Electric Industrial Co., Ltd. Relay device, communication terminal, signal decoder, signal processing method, and signal processing program
WO2007063910A1 (en) * 2005-11-30 2007-06-07 Matsushita Electric Industrial Co., Ltd. Scalable coding apparatus and scalable coding method
WO2007105586A1 (en) 2006-03-10 2007-09-20 Matsushita Electric Industrial Co., Ltd. Coding device and coding method
WO2007114290A1 (en) * 2006-03-31 2007-10-11 Matsushita Electric Industrial Co., Ltd. Vector quantizing device, vector dequantizing device, vector quantizing method, and vector dequantizing method
US7289953B2 (en) 1999-08-23 2007-10-30 Matsushita Electric Industrial Co., Ltd. Apparatus and method for speech coding
JP2008111991A (en) * 2006-10-30 2008-05-15 Ntt Docomo Inc Encoder, decoder, encoding method and decoding method
JP2008533522A (en) * 2005-03-09 2008-08-21 テレフオンアクチーボラゲット エル エム エリクソン(パブル) Low complexity code-excited linear predictive coding
WO2009093466A1 (en) 2008-01-25 2009-07-30 Panasonic Corporation Encoding device, decoding device, and method thereof
US7752052B2 (en) 2002-04-26 2010-07-06 Panasonic Corporation Scalable coder and decoder performing amplitude flattening for error spectrum estimation
US7978771B2 (en) 2005-05-11 2011-07-12 Panasonic Corporation Encoder, decoder, and their methods
US7991611B2 (en) 2005-10-14 2011-08-02 Panasonic Corporation Speech encoding apparatus and speech encoding method that encode speech signals in a scalable manner, and speech decoding apparatus and speech decoding method that decode scalable encoded signals
US8000967B2 (en) 2005-03-09 2011-08-16 Telefonaktiebolaget Lm Ericsson (Publ) Low-complexity code excited linear prediction encoding
US8018993B2 (en) 2004-07-28 2011-09-13 Panasonic Corporation Relay device and signal decoding device
JP2013519920A (en) * 2010-02-11 2013-05-30 クゥアルコム・インコーポレイテッド Concealment of lost packets in subband coded decoder

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7289953B2 (en) 1999-08-23 2007-10-30 Matsushita Electric Industrial Co., Ltd. Apparatus and method for speech coding
US7383176B2 (en) 1999-08-23 2008-06-03 Matsushita Electric Industrial Co., Ltd. Apparatus and method for speech coding
US8209188B2 (en) 2002-04-26 2012-06-26 Panasonic Corporation Scalable coding/decoding apparatus and method based on quantization precision in bands
US7752052B2 (en) 2002-04-26 2010-07-06 Panasonic Corporation Scalable coder and decoder performing amplitude flattening for error spectrum estimation
US7711554B2 (en) 2004-05-11 2010-05-04 Nippon Telegraph And Telephone Corporation Sound packet transmitting method, sound packet transmitting apparatus, sound packet transmitting program, and recording medium in which that program has been recorded
WO2005109402A1 (en) * 2004-05-11 2005-11-17 Nippon Telegraph And Telephone Corporation Sound packet transmitting method, sound packet transmitting apparatus, sound packet transmitting program, and recording medium in which that program has been recorded
WO2005114655A1 (en) 2004-05-24 2005-12-01 Matsushita Electric Industrial Co., Ltd. Audio/music decoding device and audio/music decoding method
US8255210B2 (en) 2004-05-24 2012-08-28 Panasonic Corporation Audio/music decoding device and method utilizing a frame erasure concealment utilizing multiple encoded information of frames adjacent to the lost frame
US7840402B2 (en) 2004-06-25 2010-11-23 Panasonic Corporation Audio encoding device, audio decoding device, and method thereof
WO2006001218A1 (en) 2004-06-25 2006-01-05 Matsushita Electric Industrial Co., Ltd. Audio encoding device, audio decoding device, and method thereof
US8018993B2 (en) 2004-07-28 2011-09-13 Panasonic Corporation Relay device and signal decoding device
EP1780895B1 (en) * 2004-07-28 2020-07-01 III Holdings 12, LLC Signal decoding apparatus
US8099291B2 (en) 2004-07-28 2012-01-17 Panasonic Corporation Signal decoding apparatus
JP2008533522A (en) * 2005-03-09 2008-08-21 テレフオンアクチーボラゲット エル エム エリクソン(パブル) Low complexity code-excited linear predictive coding
US8000967B2 (en) 2005-03-09 2011-08-16 Telefonaktiebolaget Lm Ericsson (Publ) Low-complexity code excited linear prediction encoding
US7978771B2 (en) 2005-05-11 2011-07-12 Panasonic Corporation Encoder, decoder, and their methods
WO2007010844A1 (en) 2005-07-19 2007-01-25 Matsushita Electric Industrial Co., Ltd. Relay device, communication terminal, signal decoder, signal processing method, and signal processing program
US7991611B2 (en) 2005-10-14 2011-08-02 Panasonic Corporation Speech encoding apparatus and speech encoding method that encode speech signals in a scalable manner, and speech decoding apparatus and speech decoding method that decode scalable encoded signals
JP4969454B2 (en) * 2005-11-30 2012-07-04 パナソニック株式会社 Scalable encoding apparatus and scalable encoding method
US8086452B2 (en) 2005-11-30 2011-12-27 Panasonic Corporation Scalable coding apparatus and scalable coding method
WO2007063910A1 (en) * 2005-11-30 2007-06-07 Matsushita Electric Industrial Co., Ltd. Scalable coding apparatus and scalable coding method
WO2007105586A1 (en) 2006-03-10 2007-09-20 Matsushita Electric Industrial Co., Ltd. Coding device and coding method
US8306827B2 (en) 2006-03-10 2012-11-06 Panasonic Corporation Coding device and coding method with high layer coding based on lower layer coding results
WO2007114290A1 (en) * 2006-03-31 2007-10-11 Matsushita Electric Industrial Co., Ltd. Vector quantizing device, vector dequantizing device, vector quantizing method, and vector dequantizing method
JP2008111991A (en) * 2006-10-30 2008-05-15 Ntt Docomo Inc Encoder, decoder, encoding method and decoding method
WO2009093466A1 (en) 2008-01-25 2009-07-30 Panasonic Corporation Encoding device, decoding device, and method thereof
US8422569B2 (en) 2008-01-25 2013-04-16 Panasonic Corporation Encoding device, decoding device, and method thereof
JP2013519920A (en) * 2010-02-11 2013-05-30 クゥアルコム・インコーポレイテッド Concealment of lost packets in subband coded decoder

Similar Documents

Publication Publication Date Title
US5778335A (en) Method and apparatus for efficient multiband celp wideband speech and music coding and decoding
JP4550289B2 (en) CELP code conversion
JP3490685B2 (en) Method and apparatus for adaptive band pitch search in wideband signal coding
EP0707308B1 (en) Frame erasure or packet loss compensation method
JP2964344B2 (en) Encoding / decoding device
JP4498677B2 (en) Multi-channel signal encoding and decoding
US7613606B2 (en) Speech codecs
US20080033717A1 (en) Speech coding apparatus, speech decoding apparatus and methods thereof
KR100351484B1 (en) Speech coding apparatus and speech decoding apparatus
CN101006495A (en) Audio encoding apparatus, audio decoding apparatus, communication apparatus and audio encoding method
JPH10187197A (en) Voice coding method and device executing the method
JPH1097295A (en) Coding method and decoding method of acoustic signal
WO2001020595A1 (en) Voice encoder/decoder
WO2001059757A2 (en) Method and apparatus for compression of speech encoded parameters
WO2006030865A1 (en) Scalable encoding apparatus, scalable decoding apparatus, scalable encoding method, scalable decoding method, communication terminal apparatus, and base station apparatus
JPH07311596A (en) Generation method of linear prediction coefficient signal
JPH08263099A (en) Encoder
JP4445328B2 (en) Voice / musical sound decoding apparatus and voice / musical sound decoding method
JPH09281995A (en) Signal coding device and method
JPH09152896A (en) Sound path prediction coefficient encoding/decoding circuit, sound path prediction coefficient encoding circuit, sound path prediction coefficient decoding circuit, sound encoding device and sound decoding device
EP1073039A2 (en) Speech decoder with gain processing
JP3063668B2 (en) Voice encoding device and decoding device
EP1020848A2 (en) Method for transmitting auxiliary information in a vocoder stream
JPH10177398A (en) Voice coding device
JP2003044099A (en) Pitch cycle search range setting device and pitch cycle searching device