JPH0844398A - Voice encoding device - Google Patents

Voice encoding device

Info

Publication number
JPH0844398A
JPH0844398A JP6198950A JP19895094A JPH0844398A JP H0844398 A JPH0844398 A JP H0844398A JP 6198950 A JP6198950 A JP 6198950A JP 19895094 A JP19895094 A JP 19895094A JP H0844398 A JPH0844398 A JP H0844398A
Authority
JP
Japan
Prior art keywords
delay
subframe
frame
unit
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6198950A
Other languages
Japanese (ja)
Other versions
JP3153075B2 (en
Inventor
Kazunori Ozawa
一範 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP19895094A priority Critical patent/JP3153075B2/en
Priority to CA002154911A priority patent/CA2154911C/en
Priority to EP00128106A priority patent/EP1093115A3/en
Priority to DE69530442T priority patent/DE69530442T2/en
Priority to EP00128160A priority patent/EP1093116A1/en
Priority to EP95112094A priority patent/EP0696026B1/en
Priority to US08/510,217 priority patent/US5778334A/en
Publication of JPH0844398A publication Critical patent/JPH0844398A/en
Application granted granted Critical
Publication of JP3153075B2 publication Critical patent/JP3153075B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To provide a voice encoding system capable of obtaining satisfactory sound quality even with a low bit rate. CONSTITUTION:Delays corresponding to pitch periods of a voice signal are calculated at every sub-frame in an adaptive code book circuit 500. At this time, the delay is expressed with a difference in at least one sub-frame among plural pieces of sub-frames included in one frame. Plural kinds of bit allotting patterns are inputted from a pattern storage circuit 510 and at least one part of the number of bits to be allotted to the position and the delay of a sub-frame whose delay is expressed with the difference is determined at every frame and delays are calculated at every sub-frame and then they are outputted.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は音声信号を低いビットレ
ート、特に4.8kb/s以下で高品質に符号化するための音
声符号化方式に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice coding system for coding a voice signal with a low bit rate, especially at a quality of 4.8 kb / s or less.

【0002】[0002]

【従来の技術】音声信号を4.8kb/s以下の低いビットレ
ートで符号化する方式としては、例えば、シュレーダー
(M. Schroeder)及びアタル(B. A. Atal)氏による
“Code-excited linear prediction: High quality sp
eech at low bit rates”(Proc.ICASSP, pp.937〜940,
1985年)と題した論文(「文献1」という)や、クラ
イン(Kleijn)氏らによる“Improved speech quality
and efficient vector quantization in SELP”(Proc.
ICASSP, pp.155〜158, 1988年)と題した論文(「文献
2」という)等に記載されているCELP(Code Excited L
PC Coding)が知られている。
2. Description of the Related Art As a method for encoding a voice signal at a low bit rate of 4.8 kb / s or less, for example, "Code-excited linear prediction: High" by M. Schroeder and BA Atal. quality sp
eech at low bit rates ”(Proc.ICASSP, pp.937 ~ 940,
1985) (referred to as "Reference 1") and "Improved speech quality" by Kleijn et al.
and efficient vector quantization in SELP ”(Proc.
CELP (Code Excited L) described in a paper (referred to as "reference 2") entitled "ICASSP, pp.155-158, 1988).
PC Coding) is known.

【0003】この方式においては、送信側では、フレー
ム毎(例えば20ms)に音声信号から線形予測(LP
C)分析を用いて、音声信号のスペクトル特性を表わす
スペクトルパラメータを抽出し、フレームをさらにサブ
フレーム(例えば5ms)に分割し、サブフレーム毎に
過去の音源信号をもとに適応コードブックにおけるパラ
メータ(遅延パラメータとゲインパラメータ)を抽出
し、適応コードブックにより前記サブフレームの音声信
号をピッチ予測し、ピッチ予測して求めた残差信号に対
して、予め定められた種類の雑音信号からなる音源コー
ドブック(ベクトル量子化コードブック)から最適な音
源コードベクトルを選択し最適なゲインを計算する。
In this system, on the transmitting side, a linear prediction (LP) is performed for each frame (for example, 20 ms) from a voice signal.
C) Using analysis, the spectral parameters representing the spectral characteristics of the speech signal are extracted, the frame is further divided into subframes (for example, 5 ms), and the parameters in the adaptive codebook based on the past excitation signal for each subframe. (Delay parameter and gain parameter) are extracted, pitch prediction of the voice signal of the subframe is performed by an adaptive codebook, and a sound source composed of a noise signal of a predetermined type for the residual signal obtained by pitch prediction The optimum source code vector is selected from the code book (vector quantization code book) and the optimum gain is calculated.

【0004】音源コードベクトルの選択の仕方は、選択
した雑音信号により合成した信号と、前記残差信号との
誤差電力を最小化するように行う。そして選択されたコ
ードベクトルの種類を表すインデクスとゲイン、ならび
に、前記スペクトルパラメータと適応コードブックのパ
ラメータをマルチプレクサ部により組み合わせて伝送す
る。
The method of selecting the sound source code vector is such that the error power between the signal synthesized by the selected noise signal and the residual signal is minimized. Then, the index and the gain indicating the type of the selected code vector, the spectrum parameter and the parameter of the adaptive codebook are combined by the multiplexer unit and transmitted.

【0005】受信側の復号化装置では、送信側の符号化
装置から伝送された、コードベクトルのインデクスとゲ
イン、スペクトルパラメータ等の伝送符号に基づき、音
声信号を合成する。なお、復号化装置の構成は、本発明
の主題に直接関係しないため、その説明を省略する。
The receiving-side decoding apparatus synthesizes a voice signal based on the transmission code of the code vector index, gain, spectrum parameter, etc. transmitted from the transmitting-side encoding apparatus. Note that the configuration of the decoding device is not directly related to the subject of the present invention, and therefore its description is omitted.

【0006】[0006]

【発明が解決しようとする課題】上述した文献1、2の
従来方法では、ビットレートを低減化するために音源コ
ードブックのビット数を低減すると、特に女性音の音質
が急激に劣化するという問題があった。
In the conventional methods of the above-mentioned Documents 1 and 2, when the number of bits of the sound source codebook is reduced in order to reduce the bit rate, the sound quality of female sound is particularly deteriorated. was there.

【0007】この問題を解決する方法の一つとして、音
源コードブックのビット数はなるべく下げずに、適応コ
ードブックの遅延を差分表現にし、適応コードブックの
遅延を表すためのビット数を低減化する方法が知られて
いる。
As one of the methods for solving this problem, the number of bits of the excitation codebook is reduced as much as possible, and the delay of the adaptive codebook is expressed as a difference to reduce the number of bits for expressing the delay of the adaptive codebook. It is known how to do it.

【0008】差分表現するには、一つ過去(前)のサブ
フレームの遅延と現在のサブフレームの遅延との差分
を、予め定められた少ないビット数で表すことになる。
To express the difference, the difference between the delay of the previous (previous) subframe and the delay of the current subframe is expressed by a predetermined small number of bits.

【0009】例えば、フレーム長が40msで、サブフレー
ム長が8msの場合、第1番目のサブフレームの遅延を8
ビットで表現し、第2〜5サブフレームでの遅延は、一
つ過去のサブフレームとの差分表現として5ビットで表
現することにすれば、フレーム全体では28ビットで表さ
れる。
For example, when the frame length is 40 ms and the subframe length is 8 ms, the delay of the first subframe is 8
Expressed in bits, the delay in the second to fifth subframes is represented by 5 bits as a differential representation with respect to the previous subframe, and is represented by 28 bits in the entire frame.

【0010】この方法によれば、各サブフレームに8ビ
ットを割り当てる従来法がフレーム当たり40ビット必要
であるのに比べ、30%のビット数低減となる。
According to this method, the number of bits is reduced by 30% as compared with the conventional method of allocating 8 bits to each subframe, which requires 40 bits per frame.

【0011】なお、遅延を差分符合化する場合の構成の
詳細は、例えばガーソン(Gerson)氏らによる“Techni
ques for improving the performance of CELP type sp
eechcoders”, IEEE J. Sel. Areas in Commun, pp.858
〜865, 1992年(「文献3」という)等を参照すること
ができる。
For details of the configuration in the case of differentially encoding the delay, see, for example, "Techni by Gerson et al.
ques for improving the performance of CELP type sp
eechcoders ”, IEEE J. Sel. Areas in Commun, pp.858
~ 865, 1992 (referred to as "Reference 3") and the like can be referred to.

【0012】しかしながら、文献3の方法では、定常的
な母音部では、遅延の値はサブフレーム間において時間
的に相関が強いので、差分表現としても、劣化は少ない
ものの、音声の過渡部や、母音部でも音韻の遷移部など
で、音声のピッチ周期が比較的大きく変化しているよう
な箇所では、差分表現をすることにより、ピッチの時間
的変化を良好に表すことができず、再生音が不明瞭にな
ったり、雑音が混入したりして再生音声の音質が劣化し
てしまうという問題がある。
However, in the method of Reference 3, in the stationary vowel part, the delay value has a strong temporal correlation between the subframes, so even if it is expressed as a differential expression, there is little deterioration, but the transient part of the voice, Even in the vowel part, where the pitch period of the voice changes comparatively greatly, such as in the transition part of the phoneme, it is not possible to satisfactorily express the temporal change of the pitch by using the differential expression, and the reproduced sound There is a problem in that the sound quality of the reproduced voice is deteriorated due to unclearness or the inclusion of noise.

【0013】また、この問題は、ビットレートを下げて
いくと、特に、女性話者や、ピッチの時間的変化が激し
い話者では顕著であった。
Further, this problem becomes noticeable when the bit rate is lowered, especially for a female speaker or a speaker whose pitch changes with time.

【0014】従って、本発明の目的は、上述した問題点
を解決し、比較的少ない演算量及びメモリ量により、例
えば4.8kb/s以下の低ビットレートでも良好な音質が得
られる音声符号化装置を提供することにある。
Therefore, an object of the present invention is to solve the above-mentioned problems and to obtain a good sound quality at a low bit rate of, for example, 4.8 kb / s or less by a relatively small amount of calculation and memory. To provide.

【0015】[0015]

【課題を解決するための手段】前記目的は、本発明の第
1の視点によれば、音声信号を入力し予め定められた時
間長のフレームに分割し前記フレームの音声信号をフレ
ームよりも時間的に短い複数個のサブフレームに分割す
るフレーム分割部と、前記音声信号のスペクトル的特徴
を表すスペクトルパラメータを求めて量子化するスペク
トルパラメータ計算部と、サブフレーム毎に音声信号の
ピッチ周期に対応する遅延を求める適応コードブック部
と、音源信号を量子化する音源量子化部と、前記スペク
トルパラメータ計算部と、前記適応コードブック部と、
前記音源量子化部とのそれぞれの出力信号を組み合わせ
て出力するマルチプレクサ部と、を有する音声符号化装
置において、フレーム内の少なくとも一つのサブフレー
ムにおいて前記適応コードブック部の遅延を過去のサブ
フレームの遅延との差分で表すと共に、差分で表すサブ
フレームの位置と遅延を表すためのビット数のうち少な
くとも一方をフレーム毎に決定することを特徴とする音
声符号化装置によって達成される。
According to the first aspect of the present invention, the object is to input an audio signal, divide the frame into frames of a predetermined time length, and convert the audio signal of the frame to a time longer than the frame. Corresponding to the pitch period of the voice signal for each subframe, a frame division unit for dividing into a plurality of subframes that are relatively short, a spectrum parameter calculation unit for obtaining and quantizing a spectrum parameter representing the spectral characteristics of the voice signal. An adaptive codebook unit for obtaining a delay, an excitation quantization unit for quantizing an excitation signal, the spectrum parameter calculation unit, the adaptive codebook unit,
In a speech coding apparatus having a multiplexer unit for combining and outputting respective output signals of the excitation quantizer unit, a delay of the adaptive codebook unit in at least one subframe of a frame of a past subframe. The present invention is achieved by a voice encoding device characterized by determining at least one of a position of a subframe represented by a difference and a number of bits for representing a delay, for each frame, which is represented by a difference from a delay.

【0016】また、本発明は、第2の視点において、音
声信号を入力し予め定められた時間長のフレームに分割
し前記フレームの音声信号をフレームよりも時間的に短
い複数個のサブフレームに分割するフレーム分割部と、
前記音声信号のスペクトル的特徴を表すスペクトルパラ
メータを求めて量子化するスペクトルパラメータ計算部
と、前記音声信号から特徴量を計算し前記音声信号をフ
レーム又はサブフレーム毎に予め定められた複数種類の
モードの一つに分類するモード分類部と、サブフレーム
毎に音声信号のピッチ周期に対応する遅延を求める適応
コードブック部と、音源信号を量子化する音源量子化部
と、前記スペクトルパラメータ計算部と、前記モード分
類部と、前記適応コードブック部と、前記音源量子化部
と、のそれぞれの出力信号を組み合わせて出力するマル
チプレクサ部と、を備え、フレーム内の少なくとも一つ
のサブフレームにおいて前記適応コードブック部の遅延
を過去のサブフレームの遅延との差分で表すと共に、差
分で表すサブフレームの位置あるいは遅延を表すための
ビット数のうち少なくとも一方を前記モードに応じて決
定することを特徴とする音声符号化装置を提供する。
Further, in the second aspect of the present invention, the audio signal is input, divided into frames of a predetermined time length, and the audio signal of the frame is divided into a plurality of subframes which are shorter in time than the frame. A frame division part to divide,
A spectrum parameter calculation unit that obtains and quantizes a spectrum parameter that represents a spectral characteristic of the voice signal, and a plurality of types of modes in which the feature amount is calculated from the voice signal and the voice signal is predetermined for each frame or subframe. A mode classification unit for classifying into one, an adaptive codebook unit for obtaining a delay corresponding to a pitch period of a voice signal for each subframe, a sound source quantization unit for quantizing a sound source signal, and the spectrum parameter calculation unit. A mode classification unit, an adaptive codebook unit, and a sound source quantization unit, and a multiplexer unit that outputs the combined output signals, and the adaptive code in at least one subframe in a frame. The delay of the book part is expressed by the difference with the delay of the past subframes, and the subframe is expressed by the difference. To provide a speech coding apparatus characterized by determining in accordance with said mode at least one of the number of bits to represent the position or delay arm.

【0017】本発明は第1の視点において、遅延を差分
で表すサブフレームの位置と該遅延を表すビット数を予
め規定するパターンを格納蓄積するパターン蓄積部を備
えたことを特徴とする。
In a first aspect, the present invention is characterized by comprising a pattern accumulating section for accumulating and accumulating a pattern which predefines a position of a subframe which represents a delay by a difference and a bit number which represents the delay.

【0018】本発明は第1の視点において、前記適応コ
ードブック部が、(a)遅延を差分で表すサブフレームの
位置と該遅延を表すビット数を規定するパターンをパタ
ーン蓄積部から読み込み、(b)各サブフレームにおいて
パターンに対応したビット数に基づき遅延探索範囲を設
定し、(c)各サブフレームについて前記遅延探索範囲に
おいてピッチ予測歪を最小化する順に遅延を少なくとも
1種探索し、(d)予め定められた個数(複数)のサブフ
レームに亘って前記ピッチ予測歪を累積した累積歪を計
算し、前記工程(a)〜(d)をパターンの種類だけ繰り返し
た後に、(e)前記累積歪を最小とするパターンを選択す
ると共に、各サブフレームにおける遅延候補を算出し、
(f)クローズドループ探索により遅延探索を行なう、上
記各工程を含むことを特徴としている。
In the first aspect of the present invention, the adaptive codebook unit reads (a) a pattern defining a position of a subframe representing a delay by a difference and a bit number representing the delay from a pattern storage unit, and b) a delay search range is set based on the number of bits corresponding to the pattern in each subframe, and (c) at least one delay is searched for in the order of minimizing pitch prediction distortion in the delay search range for each subframe. d) Calculate the cumulative distortion by accumulating the pitch prediction distortion over a predetermined number (a plurality) of subframes, and after repeating the steps (a) to (d) by the type of pattern, (e) While selecting the pattern that minimizes the cumulative distortion, calculate the delay candidate in each subframe,
(f) It is characterized by including the above-mentioned steps of performing a delayed search by a closed loop search.

【0019】本発明の第2の視点においては、モード分
類部は、好ましくは、前記音声信号の特徴量として、フ
レーム全体でピッチ予測歪を累積した累積歪を算出し、
該累積歪の大きさに基づき、モードを決定するように構
成される。
In a second aspect of the present invention, the mode classification unit preferably calculates, as the feature amount of the voice signal, cumulative distortion in which pitch prediction distortion is accumulated in the entire frame,
A mode is determined based on the magnitude of the cumulative distortion.

【0020】また、本発明は第2の視点において、前記
適応コードブック部が、(a)前記モード分類部からの出
力信号に基づき、遅延を差分で表すサブフレームの位置
と該遅延を表すビット数を規定するパターンを決定し、
(b)各サブフレームにおいてパターンに対応したビット
数に基づき遅延探索範囲を設定し、(c)各サブフレーム
について前記遅延探索範囲においてピッチ予測歪を最小
化する順に遅延を少なくとも1種探索し、(d)予め定め
られた個数(複数)のサブフレームに亘って前記ピッチ
予測歪を加算した累積歪を計算し、前記工程(b)〜(d)を
パターンの種類だけ繰り返した後に、(e)前記累積歪を
最小とするパターンを選択すると共に、各サブフレーム
における遅延候補を算出し、(f)クローズドループ探索
により遅延探索を行なう、上記各工程を含むことを特徴
としている。
Further, in a second aspect of the present invention, the adaptive codebook section (a) based on the output signal from the mode classification section, the position of a subframe representing the delay as a difference and the bit representing the delay. Determine the pattern that defines the number,
(b) sets a delay search range based on the number of bits corresponding to the pattern in each subframe, and (c) searches at least one delay for each subframe in the order of minimizing pitch prediction distortion in the delay search range, (d) A cumulative distortion in which the pitch prediction distortion is added is calculated over a predetermined number (a plurality of) of subframes, and after the steps (b) to (d) are repeated for each pattern type, (e) ) It is characterized by including each of the above steps of selecting a pattern that minimizes the cumulative distortion, calculating a delay candidate in each subframe, and (f) performing a delay search by a closed loop search.

【0021】[0021]

【作用】本発明による音声符号化装置の原理・作用を以
下に説明する。
The principle and operation of the speech coding apparatus according to the present invention will be described below.

【0022】本発明の第1の視点に係る音声符号化装置
においては、音声信号をフレーム(例えば40ms)に分割
し、さらにサブフレーム(8ms)に分割する。フレーム
毎に音声のスペクトル的特徴を表すスペクトルパラメー
タを計算し量子化する。
In the speech coding apparatus according to the first aspect of the present invention, the speech signal is divided into frames (for example, 40 ms) and further divided into subframes (8 ms). Spectral parameters representing the spectral characteristics of speech are calculated and quantized for each frame.

【0023】適応コードブック部では、サブフレーム毎
に、音声のピッチ周期に対応する遅延を計算する。
The adaptive codebook unit calculates the delay corresponding to the pitch period of the voice for each subframe.

【0024】ここでは、遅延を差分で表すサブフレーム
の位置をフレーム毎に決定する例について説明する。
Here, an example will be described in which the position of the subframe, which represents the delay by the difference, is determined for each frame.

【0025】フレーム内のサブフレームの遅延のビット
数を表すパターンを予めM種類作成しておく。以下では
簡単のために、M=2について説明する。
M types of patterns representing the number of delay bits of subframes in a frame are created in advance. For simplicity, M = 2 will be described below.

【0026】M=2の場合、パターンは、例えば(8,
5,8,5,5)や(8,5,5,8,5)とする。ここで、5
ビットのサブフレームでは、遅延をサブフレームで表
し、8ビットのサブフレームでは、差分表現はしないも
のとする。
When M = 2, the pattern is, for example, (8,
5, 8, 5, 5) or (8, 5, 5, 8, 5). Where 5
It is assumed that the delay is represented by the subframe in the bit subframe, and the differential representation is not performed in the 8-bit subframe.

【0027】従って、上記の例では、最初のパターン
(8,5,8,5,5)では、第2、4、5サブフレーム
が、2番目のパターン(8,5,5,8,5)では、第2、
3、5サブフレームが差分で表される。なお、1フレー
ム(40ms)は5個のサブフレーム(8ms)より成るもの
としている。
Therefore, in the above example, in the first pattern (8,5,8,5,5), the second, fourth, and fifth subframes are divided into the second pattern (8,5,5,8,5). ) Then, the second,
The 3 and 5 subframes are represented by the difference. It should be noted that one frame (40 ms) is composed of 5 subframes (8 ms).

【0028】適応コードブック部では、オープンループ
あるいはクローズドループによる遅延の予備選択におい
て、まず各サブフレームにおいて、次式(1)を最小にす
る遅延をL種類(L≧1)選択する。
In the adaptive codebook section, in preselection of delay by open loop or closed loop, first, in each subframe, L types (L ≧ 1) of delays that minimize the following expression (1) are selected.

【0029】[0029]

【数1】 [Equation 1]

【0030】但し、上式(1)で、xw(n)は聴感重み付け
回路230の出力信号を、Tは遅延をそれぞれ示し、また
jはサブフレーム番号を示している。
However, in the above equation (1), x w (n) is the output signal of the perceptual weighting circuit 230, T is the delay, and j is the subframe number.

【0031】なお、適応コードブック部における、クロ
ーズドループによる遅延の選択とは、過去の音源信号を
フィルタ処理して合成信号を生成し、該合成信号と音声
信号との誤差電力を算出し、該算出された誤差電力が最
小となる順に遅延の候補を1又は複数個選択するもので
あり、一方、オープンループによる遅延の選択とは、過
去の音声信号を用いるものであり、探索においてフィル
タ処理は不要とされ、演算量が低減される。
The selection of the delay by the closed loop in the adaptive codebook section means that the past sound source signal is filtered to generate a synthetic signal, the error power between the synthetic signal and the speech signal is calculated, and One or a plurality of delay candidates are selected in the order in which the calculated error power is the minimum. On the other hand, the delay selection by the open loop is to use the past audio signal, and the filtering process is performed in the search. It is unnecessary and the amount of calculation is reduced.

【0032】次に、差分符号化するサブフレームでは前
サブフレームの遅延を基準にして、割り当てられたビッ
ト数で設定される遅延探索範囲(T3≦T≦T4、但し、
1≦T3<T4≦T2)において、上式(1)を最小にする
遅延を選択する。すなわち、遅延を差分表現しないサブ
フレームでは、例えば、T1=20、T2=147として、1/2
刻みの小数点遅延とすれば、遅延探索範囲は256種類と
なり、8ビットで表現され、また、差分表現するサブフ
レームでは、遅延探索範囲を、T3≦T≦T4とする。
Next, in the sub-frame to be differentially encoded, the delay search range (T 3 ≤T ≤T 4 , where T 3 ≤T ≤T 4 is set based on the delay of the preceding sub-frame, but
In T 1 ≤T 3 <T 4 ≤T 2 , the delay that minimizes the above equation (1) is selected. That is, in a subframe in which the delay is not expressed differentially, for example, T 1 = 20 and T 2 = 147
If there are decimal point delays in increments, there are 256 types of delay search ranges, which are represented by 8 bits, and in a subframe that expresses a difference, the delay search range is T 3 ≦ T ≦ T 4 .

【0033】ここで、差分表現の具体的な方法は、前記
文献3等を参照することができる。
Here, the specific method of the differential expression can be referred to the above-mentioned document 3 and the like.

【0034】これらの処理を、フレーム内のサブフレー
ムの個数だけ行い、次式(2)により複数個のサブフレー
ムに亘って累積した累積歪を計算する。
These processes are performed by the number of subframes in the frame, and the cumulative distortion accumulated over a plurality of subframes is calculated by the following equation (2).

【0035】[0035]

【数2】 [Equation 2]

【0036】上式で、Sは歪を累積するサブフレームの
個数である。例えばSの値は、フレームのサブフレーム
の個数とすることができる。
In the above equation, S is the number of subframes in which distortion is accumulated. For example, the value of S can be the number of subframes of a frame.

【0037】以上の処理を、サブフレームで求めた遅延
の候補数だけ繰り返し、累積歪(上式(2))を最小にす
る遅延のサブフレーム毎の組合せを1種類決定する。
The above processing is repeated for the number of delay candidates obtained in the subframe, and one kind of combination of delay subframes that minimizes the cumulative distortion (the above equation (2)) is determined.

【0038】さらに、以上の処理を2種類のパターンの
各々について繰り返し、累積歪の小さい方のパターンを
選択する。
Further, the above processing is repeated for each of the two types of patterns, and the pattern with the smaller cumulative distortion is selected.

【0039】次に、本発明の第2の視点においては、フ
レーム毎の音声信号から特徴量を計算し、これを用いて
音声信号を、予め定められた複数種類のモードのうちの
一つに分類する。
Next, in the second aspect of the present invention, the feature amount is calculated from the voice signal for each frame, and the feature amount is used to set the voice signal to one of a plurality of predetermined modes. Classify.

【0040】以下では、モードの種類は4種類とする。
また、特徴量としては、サブフレーム毎に求めたオープ
ンループのピッチ予測歪である上式(1)を式(2)により累
積した累積歪とする。
In the following, there are four types of modes.
Also, as the feature amount, the cumulative distortion obtained by accumulating the above equation (1), which is the open-loop pitch prediction distortion obtained for each subframe, by the equation (2) is used.

【0041】ここで、上式(2)のS値は5とする。この
累積歪の値を、予め定められた所定の3種類のしきい値
TH1〜TH3と比較して、モードを決定する。モードの
決定は、例えば、以下のようにして行う。
Here, the S value in the above equation (2) is 5. The value of the accumulated strain, as compared with the threshold value TH 1 to TH 3 of predetermined three predetermined, to determine the mode. The mode is determined, for example, as follows.

【0042】 G>TH1 モード0 TH2<G≦TH1 モード1 TH3<G≦TH2 モード2 G≦TH3 モード3G> TH 1 mode 0 TH 2 <G ≦ TH 1 mode 1 TH 3 <G ≦ TH 2 mode 2 G ≦ TH 3 mode 3

【0043】即ち、累積歪Gの値が、閾値TH1より大
のときはモード0を、閾値TH1以下でTH2より大のと
きはモード1を、閾値TH2以下でTH3より大のときは
モード2を、閾値TH3以下のときはモード3を選択す
る。但し、TH3<TH2<TH1とする。
That is, when the value of the cumulative distortion G is larger than the threshold value TH 1 , the mode 0 is set, when the value is less than the threshold value TH 1 and larger than TH 2, the mode 1 is set, and when the value is less than the threshold value TH 2 and larger than TH 3 . When it is less than the threshold value TH 3 , mode 2 is selected. However, the TH 3 <TH 2 <TH 1 .

【0044】次に、適応コードブック部では、モードに
応じて、遅延を差分で表すサブフレームの位置及び、遅
延を表すためのビット数を決定する。例えば、モードと
ビット数の対応は下記のようになる。
Next, the adaptive codebook section determines the position of the subframe in which the delay is represented by a difference and the number of bits for representing the delay, according to the mode. For example, the correspondence between the modes and the number of bits is as follows.

【0045】 モード0 (0,0,0,0,0) モード1 (8,5,5,8,5) モード2 (8,5,8,5,5) モード3 (8,5,5,5,5)Mode 0 (0,0,0,0,0) Mode 1 (8,5,5,8,5) Mode 2 (8,5,8,5,5) Mode 3 (8,5,5) , 5, 5)

【0046】上記モード0はビット数が全て0で適応コ
ードブックを使用しない。また、上記したモードとビッ
ト数との対応において、ビット数が5ビットのサブフレ
ームでは、遅延の差分表現を行い、8ビットのサブフレ
ームでは差分表現を行わない。
In the mode 0, the number of bits is all 0 and the adaptive codebook is not used. Further, in the above correspondence between the mode and the bit number, the differential expression of the delay is performed in the subframe having the bit number of 5 bits, and the differential expression is not performed in the subframe of the 8-bit number.

【0047】本発明によれば、適応コードブック部にお
いて遅延を計算する際に、フレーム内の少なくとも一つ
のサブフレームにおいて、遅延を差分で表現すると共
に、差分で表すサブフレームの位置と遅延を表すための
ビット数のうち、少なくとも一方をフレーム毎に決定す
るように構成されるため、従来の方式と比べ、適応コー
ドブック部において伝送すべき情報を低減化しており、
このため、ビットレートを低減化できるだけでなく、音
声の過渡部等で、ピッチ周期に対応する遅延が時間的に
変化していても劣化の少ない再生音声を提供できる。
According to the present invention, when the delay is calculated in the adaptive codebook section, the delay is represented by a difference in at least one subframe within the frame, and the position and delay of the subframe represented by the difference are represented. Since it is configured to determine at least one of the number of bits for each frame, the information to be transmitted in the adaptive codebook unit is reduced compared to the conventional method.
For this reason, not only the bit rate can be reduced, but also the reproduced sound with less deterioration can be provided in the transitional part of the sound or the like even if the delay corresponding to the pitch cycle changes with time.

【0048】また、本発明はその第2の視点において、
フレームの音声を、複数種類のモードに分類し、モード
に応じて差分表現をするサブフレームの位置あるいは、
差分表現のときの割当ビット数を決定するように構成さ
れているため、従来の方式と比べ、適応コードブック部
において伝送すべき情報を低減化しており、ビットレー
トを低減化できるだけでなく、音声の過渡部等で、ピッ
ト周期に対応する遅延が時間的に変化していても劣化の
少ない再生音声を提供できる。
Further, in the second aspect of the present invention,
The sound of a frame is classified into multiple types of modes, and the position of a subframe that expresses a difference according to the mode, or
Since it is configured to determine the number of allocated bits in the differential representation, the information to be transmitted in the adaptive codebook unit is reduced as compared with the conventional method, and not only the bit rate can be reduced but also the voice It is possible to provide a reproduced voice with little deterioration even if the delay corresponding to the pit period changes with time in the transition part of the above.

【0049】[0049]

【実施例】図面を参照して、本発明の実施例を以下に説
明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0050】[0050]

【実施例1】図1は本発明に係る音声符号化方式の一実
施例を示すブロック図である。
[Embodiment 1] FIG. 1 is a block diagram showing an embodiment of a voice encoding system according to the present invention.

【0051】図1において、入力端子100から音声信号
を入力し、フレーム分割回路110では音声信号をフレー
ム(例えば40ms)毎に分割し、サブフレーム分割回路12
0では、フレームの音声信号をフレームよりも短いサブ
フレーム(例えば8ms)に分割する。
In FIG. 1, a voice signal is input from the input terminal 100, the frame division circuit 110 divides the voice signal into frames (for example, 40 ms), and the subframe division circuit 12
At 0, the audio signal of the frame is divided into subframes (for example, 8 ms) shorter than the frame.

【0052】スペクトルパラメータ計算回路200では、
少なくとも一つのサブフレームの音声信号に対して、サ
ブフレーム長よりも長い窓(window)(例えば24ms)を
かけて音声を切り出し、スペクトルパラメータを予め定
められた次数(例えばP=10次)計算する。
In the spectrum parameter calculation circuit 200,
A speech signal is cut out by applying a window (for example, 24 ms) longer than a subframe length to a speech signal of at least one subframe, and a spectrum parameter is calculated in a predetermined order (for example, P = 10th order). .

【0053】スペクトルパラメータは、特に子音、母音
間での過渡区間では時間的に大きく変化するので、短い
時間毎に分析する方が望ましいが、そのようにすると分
析に必要な演算量が増大するため、ここでは、フレーム
中のいずれかL個(L>1)のサブフレーム(例えばL
=3とし、第1、3、5フレーム)に対してスペクトル
パラメータを計算することにする。
Since the spectral parameters change greatly in time especially in the transitional section between consonants and vowels, it is desirable to analyze every short time, but doing so increases the amount of calculation required for analysis. , Where any L (L> 1) sub-frames (eg L
= 3, the spectral parameters are calculated for the first, third, and fifth frames).

【0054】そして、分析をしなかったサブフレーム
(ここでは第2、4フレーム)では、それぞれ第1と第
3サブフレーム、第3と第5サブフレームのスペクトル
パラメータを後述のLSP(線スペクトル対)上で直線
補間したものをスペクトルパラメータとして使用する。
Then, in the sub-frames not analyzed (here, the second and fourth frames), the spectrum parameters of the first and third sub-frames and the third and fifth sub-frames are respectively set to LSP (line spectrum pair described later). ) Use the above linear interpolation as the spectral parameter.

【0055】ここではスペクトルパラメータの計算に
は、周知のLPC分析(線形予測符号化)や、Burg
分析等を用いることができる。
Here, the known LPC analysis (linear predictive coding) or Burg is used for the calculation of the spectrum parameter.
Analysis or the like can be used.

【0056】ここでは、Burg分析を用いることとす
る。なお、最大エントロピー法(MEM)に基づくスペ
クトル推定法であるBurg分析の詳細については、中
溝著による“信号解析とシステム同定”と題した単行本
(コロナ社1988年刊)の82〜87頁(「文献4」という)
に記載されているので説明は略する。
In this case, Burg analysis is used. For details of Burg analysis, which is a spectrum estimation method based on the maximum entropy method (MEM), see pages 82 to 87 of a book entitled "Signal Analysis and System Identification" by Nakamizo (Corona Publishing Co., Ltd., 1988). 4 ")
The explanation is omitted here.

【0057】さらにスペクトルパラメータ計算部では、
Burg法により計算された線形予測係数αi(i=1
〜10)を量子化や補間に適したLSPパラメータに変
換する。ここで、線形予測係数からLSPへの変換は、
菅村他による“線スペクトル対(LSP)音声分析合成
方式による音声情報圧縮”と題した論文(電子通信学会
論文誌、J64-A, pp.599〜606、1981年)(「文献5」と
いう)を参照することができる。なお、LSPはスペク
トルを線スペクトル対(Line Spectrum Pair)で求め周
波数軸上での量子化効率を上げるものである。
Further, in the spectrum parameter calculation section,
Linear prediction coefficient α i (i = 1) calculated by the Burg method
10 to 10) are converted into LSP parameters suitable for quantization and interpolation. Here, the conversion from the linear prediction coefficient to LSP is
Sugamura et al., "Speech information compression by line spectrum pair (LSP) speech analysis and synthesis method" (Journal of the Institute of Electronics and Communication Engineers, J64-A, pp.599-606, 1981) (referred to as "reference 5") Can be referred to. The LSP is to increase the quantization efficiency on the frequency axis by obtaining the spectrum with a line spectrum pair.

【0058】本実施例においては、第1、3、5サブフ
レームでBurg法により求めた線形予測係数をLSP
パラメータに変換し、第2、4サブフレームのLSPを
直線補間により求めて、第2、4サブフレームのLSP
を逆変換して線形予測係数に戻し、第1〜5サブフレー
ムの線形予測係数αil(i=1〜10、l=1〜5)を
聴感重み付け回路230に出力する。
In this embodiment, the linear prediction coefficient obtained by the Burg method in the first, third and fifth subframes is LSP.
Converted to parameters, the LSP of the 2nd and 4th subframes is obtained by linear interpolation, and the LSP of the 2nd and 4th subframes is obtained.
Is inversely transformed into a linear prediction coefficient, and the linear prediction coefficient α il (i = 1 to 10, l = 1 to 5) of the first to fifth subframes is output to the perceptual weighting circuit 230.

【0059】また、第1〜5サブフレームのLSPをス
ペクトルパラメータ量子化回路210へ出力する。
Also, the LSP of the first to fifth subframes is output to the spectrum parameter quantization circuit 210.

【0060】スペクトルパラメータ量子化回路210で
は、予め定められたサブフレームのLSPパラメータを
効率的に量子化する。
The spectrum parameter quantization circuit 210 efficiently quantizes the LSP parameters of a predetermined subframe.

【0061】以下では、量子化法として、ベクトル量子
化を用いるものとし、第5サブフレームのLSPパラメ
ータを量子化するものとする。LSPパラメータのベク
トル量子化の手法は周知の手法を用いることができる。
具体的な方法は例えば、本願発明者による一連の発明、
即ち、特開平4-171500号公報(特願平2-297600号)
(「文献6」という)、特開平4-363000号公報(特願平
3-261925号)(「文献7」という)、及び特開平5-6199
号公報(特願平3-155949号)(「文献8」という)、あ
るいはT. Nomuraらによる“LSP Coding Using VQ-SVQ W
ith Interpolationin 4.075 kbps M-LCELP Speech Code
r”と題した論文(Proc. Mobile Multimedia Communica
tions, pp.B.2.5, 1993)(「文献9」という)等を参
照できるため、ここでは説明は略する。
In the following, it is assumed that vector quantization is used as the quantization method and the LSP parameter of the fifth subframe is quantized. A well-known method can be used as the method of vector quantization of the LSP parameter.
A specific method is, for example, a series of inventions by the present inventor,
That is, JP-A-4-171500 (Japanese Patent Application No. 2-297600)
(Referred to as "reference 6"), Japanese Patent Application Laid-Open No. 4-363000 (Japanese Patent Application No.
3-261925) (referred to as "reference 7"), and JP-A-5-6199.
Publication (Japanese Patent Application No. 3-155949) (referred to as “reference 8”) or “LSP Coding Using VQ-SVQ W” by T. Nomura et al.
ith Interpolationin 4.075 kbps M-LCELP Speech Code
r ”entitled“ Proc. Mobile Multimedia Communica
tions, pp.B.2.5, 1993) (referred to as "reference 9"), etc., and therefore the explanation is omitted here.

【0062】また、スペクトルパラメータ量子化回路21
0では、第5サブフレームで量子化したLSPパラメー
タをもとに、第1〜第4サブフレームのLSPパラメー
タを復元する。
Further, the spectrum parameter quantization circuit 21
At 0, the LSP parameters of the first to fourth subframes are restored based on the LSP parameters quantized in the fifth subframe.

【0063】ここでは、現フレームの第5サブフレーム
の量子化LSPパラメータと一つ過去のフレームの第5
サブフレームの量子化LSPを直線補間して、第1〜第
4サブフレームのLSPを復元する。
Here, the quantized LSP parameter of the fifth subframe of the current frame and the fifth LSP of the previous frame are used.
The quantized LSP of the subframe is linearly interpolated to restore the LSP of the first to fourth subframes.

【0064】ここで、量子化前のLSPと量子化後のL
SPとの誤差電力を最小化するコードベクトルを1種類
選択した後に、直線補間により第1〜第4サブフレーム
のLSPを復元できる。
Here, LSP before quantization and LSP after quantization
After selecting one type of code vector that minimizes the error power with the SP, the LSP of the first to fourth subframes can be restored by linear interpolation.

【0065】さらに性能を向上させるためには、前記誤
差電力を最小化するコードベクトルを複数候補選択した
のちに、各々の候補について、累積歪を評価し、累積歪
を最小化する候補と補間LSPの組を選択するようにす
ることができる。詳細は、例えば、本願発明者による特
願平5-8737号明細書(「文献10」という)に記載されて
いる。
In order to further improve the performance, after selecting a plurality of code vectors that minimize the error power, the cumulative distortion is evaluated for each candidate, and the candidate and the interpolation LSP that minimize the cumulative distortion are evaluated. Can be selected. Details are described in, for example, Japanese Patent Application No. 5-8737 (referred to as “reference 10”) filed by the present inventor.

【0066】以上により復元した第1〜第4サブフレー
ムのLSPと第5サブフレームの量子化LSPをサブフ
レーム毎に線形予測係数α’il(i=1〜10、l=1
〜5)に変換し、インパルス応答計算回路310へ出力す
る。また、第5サブフレームの量子化LSPのコードベ
クトルを表すインデクスをマルチプレクサ400に出力す
る。
The LSP of the first to fourth sub-frames and the quantized LSP of the fifth sub-frame restored by the above are linear prediction coefficients α'il (i = 1 to 10, l = 1) for each sub-frame.
˜5) and output to impulse response calculation circuit 310. Also, the index representing the code vector of the quantized LSP of the fifth subframe is output to the multiplexer 400.

【0067】上記において、直線補間のかわりに、LS
Pの補間パターンを予め定められたビット数(例えば2
ビット)分用意しておき、これらのパターンの各々に対
して第1〜第4サブフレームのLSPを復元して累積歪
を最小化するコードベクトルと補間パターンの組を選択
するようにしてもよい。
In the above, instead of linear interpolation, LS
The P interpolation pattern has a predetermined number of bits (for example, 2
(Bits), and the LSPs of the first to fourth subframes are restored for each of these patterns to select a pair of a code vector and an interpolation pattern that minimizes cumulative distortion. .

【0068】このようにすると補間パターンのビット数
だけ伝送情報が増加するが、LSPのフレーム内での時
間的な変化をより精密に表すことができる。
In this way, the transmission information increases by the number of bits of the interpolation pattern, but it is possible to more accurately represent the temporal change in the LSP frame.

【0069】ここで、補間パターンは、トレーニング用
のSPデータを用いて予め学習して作成してもよいし、
予め定められたパターンを格納しておいてもよい。予め
定められたパターンとしては、例えば、T.Taniguchiら
による“Improved CELP speech coding at 4kb/s and b
elow”と題した論文(Proc. ICSLP, pp.41〜44, 1992)
(「文献11」という)等に記載のパターンを用いること
ができる。
Here, the interpolation pattern may be preliminarily learned and created by using SP data for training.
A predetermined pattern may be stored. The predetermined pattern is, for example, “Improved CELP speech coding at 4kb / s and b” by T. Taniguchi et al.
Paper entitled "elow" (Proc. ICSLP, pp.41-44, 1992)
The pattern described in (Reference 11) or the like can be used.

【0070】また、さらに性能を改善するためには、補
間パターンを選択した後に、予め定められたサブフレー
ムにおいて、LSPの真の値とLSPの補間値との誤差
信号を求め、前記誤差信号をさらに誤差コードブックで
表すようにしてもよい。詳細は、前記文献9等を参照で
きる。
In order to further improve the performance, after selecting an interpolation pattern, an error signal between the true value of LSP and the interpolation value of LSP is obtained in a predetermined subframe, and the error signal is calculated. Further, it may be represented by an error code book. For details, reference can be made to the aforementioned reference 9.

【0071】聴感重み付け回路230は、スペクトルパラ
メータ計算回路200から、各サブフレーム毎に量子化前
の線形予測係数αil(i=1〜10、l=1〜5)を入
力し、前記文献10に基づき、サブフレームの音声信号
に対して聴感重み付け信号xw(n)を出力する。
The perceptual weighting circuit 230 inputs the linear prediction coefficient α il (i = 1 to 10, l = 1 to 5) before quantization from the spectrum parameter calculation circuit 200 for each subframe, and the reference 10 Based on the above, the perceptual weighting signal x w (n) is output for the sub-frame audio signal.

【0072】応答信号計算回路240は、スペクトルパラ
メータ計算回路200から、各サブフレーム毎に線形予測
係数αilを入力し、スペクトルパラメータ量子化回路21
0から、量子化、補間して復元した線形予測係数α’il
をサブフレーム毎に入力し、保存されているフィルタメ
モリの値を用いて、入力信号d(n)=0とした応答信号
を1サブフレーム分計算し、減算器250へ出力する。こ
こで、応答信号xz(n)は次式(3)で表される。
The response signal calculation circuit 240 inputs the linear prediction coefficient α il for each subframe from the spectrum parameter calculation circuit 200, and the spectrum parameter quantization circuit 21
0, the quantization linear prediction coefficient alpha 'il restored by interpolating
Is input for each subframe, a response signal for the input signal d (n) = 0 is calculated for one subframe by using the value of the stored filter memory, and is output to the subtractor 250. Here, the response signal x z (n) is expressed by the following equation (3).

【0073】[0073]

【数3】 (Equation 3)

【0074】ここで、γは、聴感重み付け量を制御する
重み係数であり、次式(5)におけるγと同一の値であ
る。
Here, γ is a weighting coefficient for controlling the perceptual weighting amount, and has the same value as γ in the following equation (5).

【0075】減算器250は、次式(4)により、聴感重み付
け信号xw(n)から応答信号xz(n)を1サブフレーム分減
算し、x’w(n)を適応コードブック回路500へ出力す
る。
The subtracter 250 subtracts the response signal x z (n) for one subframe from the perceptual weighting signal x w (n) by the following equation (4), and x ′ w (n) is applied to the adaptive codebook circuit. Output to 500.

【0076】x’w(n)=xw(n)−xz(n) …(4)X ′ w (n) = x w (n) −x z (n) (4)

【0077】インパルス応答計算回路310は、伝達関数
が次式(5)のz変換表示で表される、重み付けフィルタ
のインパルス応答hw(n)を予め定められた点数Lだけ計
算し、適応コードブック回路500、音源量子化回路350へ
出力する。
The impulse response calculation circuit 310 calculates the impulse response h w (n) of the weighting filter, the transfer function of which is represented by the z-transform expression of the following equation (5), by a predetermined point L, and the adaptive code It outputs to the book circuit 500 and the excitation quantization circuit 350.

【0078】[0078]

【数4】 [Equation 4]

【0079】適応コードブック回路500は、ピッチパラ
メータを求める。
Adaptive codebook circuit 500 determines the pitch parameter.

【0080】ここでは、遅延を差分で表すサブフレーム
の位置と遅延に割り当てるビット数をフレーム毎に決定
する例について説明する。フレーム内のサブフレームの
遅延のビット数を表すパターンを予めM種類作成してお
く。
Here, an example will be described in which the position of the subframe in which the delay is represented by a difference and the number of bits assigned to the delay are determined for each frame. M types of patterns representing the number of delay bits of subframes in a frame are created in advance.

【0081】以下では説明の簡略化のために、M=2と
し、パターンとしては、例えば作用の欄で説明したよう
に、(8,5,8,5,5)と(8,5,5,8,5)とする。こ
れらのパターンにおいて、5ビットのサブフレームでは
遅延を差分表現し、8ビットのサブフレームでは差分表
現はしない。
In the following, for simplification of the description, M = 2, and as the pattern, for example, (8, 5, 8, 5, 5) and (8, 5, 5, , 8, 5). In these patterns, the delay is differentially expressed in the 5-bit subframe and is not differentially expressed in the 8-bit subframe.

【0082】図2に、遅延の計算をマイクロプロセッサ
等を用いて実現する場合の処理のフローを示す。
FIG. 2 shows a processing flow when the delay calculation is realized by using a microprocessor or the like.

【0083】図2を参照して、ステップ501では、パタ
ーン蓄積回路510に予め格納されたM種類のビット割当
パターンを読み込む。
Referring to FIG. 2, in step 501, M types of bit allocation patterns stored in advance in pattern storage circuit 510 are read.

【0084】ステップ502では、各サブフレームにおい
て、ステップ501で読み込んだパターンで示されたビッ
ト数に従い、遅延探索範囲を設定する。
In step 502, the delay search range is set in each subframe according to the number of bits indicated by the pattern read in step 501.

【0085】ここで、遅延探索範囲は、差分表現をしな
いサブフレームでは、T1≦T≦T2とする。一例とし
て、T1=20、T2=147として、1/2刻みの小数点遅延と
すれば、探索範囲は256種類となり、8ビットで表現で
きる。
Here, the delay search range is set to T 1 ≦ T ≦ T 2 in a subframe that does not express a difference. As an example, if T 1 = 20 and T 2 = 147 and the decimal delay is ½, the search range is 256 types and can be represented by 8 bits.

【0086】また、差分表現するサブフレームでは、遅
延探索範囲は、T3≦T≦T4とし、T1≦T3<T4≦T2
とする。
Further, in the sub-frame representing the difference, the delay search range is T 3 ≤T ≤T 4, and T 1 ≤T 3 <T 4 ≤T 2
And

【0087】また、前サブフレームの遅延値Tj-1に対
して、T3=Tj-1−15・Δ、T4=Tj-1+16・Δとなる
ように設定する。ここで、Δは、遅延の刻み幅であり、
例えば1/2刻みとする。
Further, with respect to the delay value T j-1 of the preceding subframe, T 3 = T j-1 -15 · Δ and T 4 = T j-1 + 16 · Δ are set. Where Δ is the step size of the delay,
For example, 1/2 step.

【0088】ステップ503では、各サブフレーム毎に設
定した遅延探索範囲において、各サブフレーム毎に遅延
を探索して、前記式(1)により歪Gjを計算し、Gjを最
小化する順に、遅延の候補をL種類(L≧1)選択す
る。
In step 503, the delay is searched for each subframe within the delay search range set for each subframe, the distortion G j is calculated by the above equation (1), and the order of minimizing G j is set. , L types (L ≧ 1) of delay candidates are selected.

【0089】ステップ504では、各サブフレームで求め
た歪GjをS個のサブフレームにわたり累積した累積歪
Gを計算する。Sは、フレームに含まれるサブフレーム
の個数とすることができる。ステップ504では、以上の
処理を遅延の候補数Lだけ繰り返し、累積歪Gを最小化
する遅延の組み合わせを選択する。
At step 504, the cumulative distortion G j obtained by accumulating the distortion G j found in each subframe over S subframes is calculated. S can be the number of subframes included in the frame. In step 504, the above processing is repeated for the number of delay candidates L to select a delay combination that minimizes the cumulative distortion G.

【0090】そして、図2に示す通り、ステップ501〜5
04の処理をパターンの種類だけ繰り返す。
Then, as shown in FIG. 2, steps 501 to 5
Repeat the process of 04 for each pattern type.

【0091】次に、ステップ505では、パターンごとに
累積歪Gを比較して累積歪を最小にするパターンを選択
すると共に、各サブフレームでの遅延を出力する。
Next, in step 505, the cumulative distortion G is compared for each pattern to select the pattern that minimizes the cumulative distortion, and the delay in each subframe is output.

【0092】ステップ506では、ビット割当のパターン
と各サブフレームでの遅延の値を受取り、各サブフレー
ムにおいて、探索範囲を設定し、クローズドループ法に
より最適な遅延を計算する。ここで、クローズドループ
法による遅延の計算は、例えば前記文献2等を参照する
ことができる。
In step 506, the bit allocation pattern and the delay value in each subframe are received, the search range is set in each subframe, and the optimum delay is calculated by the closed loop method. Here, for the delay calculation by the closed loop method, for example, the above-mentioned Document 2 can be referred to.

【0093】そして、求めたサブフレーム毎の遅延値に
対応するインデクスをマルチプレクサ400に出力する。
また選択されたパターンを示すインデクスをマルチプレ
クサ400へ出力する。
Then, the index corresponding to the calculated delay value for each subframe is output to the multiplexer 400.
In addition, the index indicating the selected pattern is output to the multiplexer 400.

【0094】また、適応コードブック回路500ではピッ
チ予測を次式(6)に従って行い、適応コードブック予測
残差信号z(n)を出力する。
Further, adaptive codebook circuit 500 performs pitch prediction according to the following equation (6) and outputs adaptive codebook prediction residual signal z (n).

【0095】z(n)=x’w(n)−b(n) …(6)Z (n) = x ' w (n) -b (n) (6)

【0096】ここで、b(n)は、適応コードブックピッ
チ予測信号であり、次式(7)で与えられる。
Here, b (n) is an adaptive codebook pitch prediction signal and is given by the following equation (7).

【0097】b(n)=β・v(n-T)*hw(n) …(7)B (n) = βv (nT) * h w (n) (7)

【0098】ここで、β、Tは、適応コードブックのゲ
イン、遅延をそれぞれ示す。v(n)は適応コードベクト
ルである。演算記号*は畳み込み演算(convolution)
を表している。
Here, β and T indicate the gain and delay of the adaptive codebook, respectively. v (n) is an adaptive code vector. Operation symbol * is a convolution operation
Is represented.

【0099】再び、図1を参照して、音源量子化回路35
0では、音源コードブック340に格納された音源コードベ
クトルの全部あるいは一部に対して次式(8)を最小化す
るように、最良の音源コードベクトルcj(n)を選択す
る。
Referring again to FIG. 1, the excitation quantization circuit 35
At 0, the best sound source code vector c j (n) is selected so as to minimize the following expression (8) for all or some of the sound source code vectors stored in the sound source code book 340.

【0100】このとき、最良のコードベクトルを1種類
選択してもよいし、2種類以上のコードベクトルを予備
的に選択しておいて、ゲイン量子化の際に、1種に本選
択してもよい。ここでは、2種以上のコードベクトルを
選んでおくものとする。
At this time, one kind of the best code vector may be selected, or two or more kinds of code vectors may be preliminarily selected and one kind may be finally selected at the time of gain quantization. Good. Here, it is assumed that two or more types of code vectors are selected.

【0101】[0101]

【数5】 (Equation 5)

【0102】なお、一部の音源コードベクトルに対して
のみ、上式(8)を適用するときには、複数個の音源コー
ドベクトルを予め予備選択しておき、予備選択された音
源コードベクトルに対して、上式(8)を適用することも
できる。
When the above equation (8) is applied only to some sound source code vectors, a plurality of sound source code vectors are preselected in advance and the preselected sound source code vectors are selected. The above equation (8) can also be applied.

【0103】ゲイン量子化回路380は、ゲインコードブ
ック370からゲインコードベクトルを読みだし、選択さ
れた音源コードベクトルに対して、次式(9)を最小化す
るように、音源コードベクトルとゲインコードベクトル
の組み合わせを選択する。
The gain quantization circuit 380 reads the gain code vector from the gain code book 370, and for the selected excitation code vector, the excitation code vector and the gain code vector are set so as to minimize the following expression (9). Select a vector combination.

【0104】[0104]

【数6】 (Equation 6)

【0105】ここで、β’k、γ’kは、ゲインコードブ
ック370に格納された2次元ゲインコードブックにおけ
るk番目のコードベクトルである。
Here, β ′ k and γ ′ k are the kth code vector in the two-dimensional gain codebook stored in the gain codebook 370.

【0106】選択された音源コードベクトルとゲインコ
ードベクトルを表すインデクスをマルチプレクサ400に
出力する。
The indexes representing the selected sound source code vector and gain code vector are output to the multiplexer 400.

【0107】重み付け信号計算回路360は、スペクトル
パラメータ計算回路の出力パラメータ及び、それぞれの
インデクスを入力し、インデクスからそれに対応するコ
ードベクトルを読み出し、まず次式(10)にもとづき駆動
音源信号v(n)を求める。
The weighting signal calculation circuit 360 inputs the output parameter of the spectrum parameter calculation circuit and each index, reads the code vector corresponding to the index, and first, based on the following equation (10), the driving sound source signal v (n ).

【0108】 v(n)=β’k・v(n-T)+γ’k・cj(n) …(10)V (n) = β ′ k · v (nT) + γ ′ k · c j (n) (10)

【0109】次に、スペクトルパラメータ計算回路200
の出力パラメータ、スペクトルパラメータ量子化回路21
0の出力パラメータを用いて次式(11)により、重み付け
信号sw(n)をサブフレーム毎に計算し、応答信号計算回
路240へ出力する。
Next, the spectrum parameter calculation circuit 200
Output parameter, spectrum parameter quantization circuit 21
The weighted signal s w (n) is calculated for each subframe by the following equation (11) using the output parameter of 0, and is output to the response signal calculation circuit 240.

【0110】[0110]

【数7】 (Equation 7)

【0111】[0111]

【実施例2】図3は、本発明に係る音声符号化装置の第
2の実施例を示すブロック図であり、本発明の第2の視
点に対応している。図3において、図1と同一の番号を
付した構成要素は、図1と同一の働きをするので、説明
は省略し、図1との相違点のみを以下に説明する。本実
施例では、フレーム毎の音声信号から特徴量を計算し、
これを用いて予め定められた複数種類のモードのうちの
一つに分類するものである。
[Embodiment 2] FIG. 3 is a block diagram showing a second embodiment of the speech coding apparatus according to the present invention, and corresponds to the second viewpoint of the present invention. In FIG. 3, components denoted by the same reference numerals as those in FIG. 1 have the same functions as those in FIG. 1, and therefore description thereof will be omitted and only differences from FIG. 1 will be described below. In this embodiment, the feature amount is calculated from the audio signal for each frame,
This is used to classify into one of a plurality of predetermined modes.

【0112】図3を参照して、モード分類回路600で
は、フレーム分割回路110からの出力に基づき、フレー
ムの音声信号から特徴量を抽出してフレーム毎に複数個
のモードのいずれかに分類する。
Referring to FIG. 3, in mode classification circuit 600, a feature amount is extracted from the audio signal of the frame based on the output from frame division circuit 110 and classified into any of a plurality of modes for each frame. .

【0113】以下の説明では、モードの種類は4種類と
し、特徴量としては、フレーム全体で累積した累積歪G
(前記式(2)参照)を用い、この累積歪Gを前記作用の
欄で説明した方法により、例えば予め定められた3種類
のしきい値TH1〜TH3と比較してモードを決定する。
In the following description, there are four types of modes, and the feature quantity is the cumulative distortion G accumulated in the entire frame.
(See the above equation (2)), the cumulative strain G is determined by the method described in the section of the action, for example, by comparing it with three predetermined thresholds TH 1 to TH 3. .

【0114】モード分類回路600は、モード情報を適応
コードブック回路550へ出力する。モード情報はマルチ
プレクサ400にも出力される。
The mode classification circuit 600 outputs the mode information to the adaptive codebook circuit 550. The mode information is also output to the multiplexer 400.

【0115】図4に、本実施例における適応コードブッ
ク回路550の処理フローを示す。図4において、図2と
同一の番号を付した各ステップは、図2と同一の処理を
行う。
FIG. 4 shows a processing flow of the adaptive codebook circuit 550 in this embodiment. 4, each step with the same number as in FIG. 2 performs the same process as in FIG.

【0116】図4を参照して、ステップ555では、モー
ド情報を入力し、遅延を差分で表すサブフレームの位
置、及び遅延を表すためのビット数を決定する。具体的
な例は、前記作用の欄で説明した通りである。
Referring to FIG. 4, in step 555, the mode information is input, and the position of the subframe in which the delay is represented by a difference and the number of bits for representing the delay are determined. A specific example is as described in the section of the action.

【0117】前記第1の実施例と同様にして、ステップ
502では、各サブフレームにおいて遅延探索範囲を設定
し、ステップ503では、各サブフレーム毎に前記式(1)に
より歪Gjを計算し、Gjを最小化する順に遅延の候補を
L種類(L≧1)選択し、ステップ504では、各サブフ
レームで求めた歪GjをS個のサブフレームにわたり累
積した累積歪Gを計算する。Sは、フレームに含まれる
サブフレームの個数とすることができる。ステップ504
では、以上の処理を遅延の候補数Lだけ繰り返し、累積
歪Gを最小化する遅延の組み合わせを選択する。
Similar to the first embodiment, steps
In step 502, a delay search range is set in each subframe, and in step 503, the distortion G j is calculated for each subframe by the equation (1), and L types of delay candidates (in the order of minimizing G j ) are calculated. L ≧ 1) is selected, and in step 504, the cumulative distortion G j obtained by accumulating the distortion G j obtained in each subframe over S subframes is calculated. S can be the number of subframes included in the frame. Step 504
Then, the above processing is repeated for the number of delay candidates L to select a delay combination that minimizes the cumulative distortion G.

【0118】そして、ステップ555でモードに応じて決
定されたパターンについて、ステップ502〜504の処理を
繰り返す。
Then, the processes of steps 502 to 504 are repeated for the pattern determined according to the mode in step 555.

【0119】ステップ505では、累積歪を最小にするパ
ターンを選択すると共に、各サブフレームでの遅延の候
補を出力し、ステップ506では、ビット割当のパターン
と各サブフレームでの遅延の値を受取り、各サブフレー
ムにおいて、探索範囲を設定し、クローズドループ法に
より最適な遅延を計算する。
In step 505, a pattern that minimizes the cumulative distortion is selected, and candidates for delay in each subframe are output. In step 506, the bit allocation pattern and the delay value in each subframe are received. , In each subframe, the search range is set and the optimum delay is calculated by the closed loop method.

【0120】以上、本発明を上記各実施例に即して説明
したが、本発明の範囲(スコープ)内において、上述し
た実施態様以外にも種々の変形が可能である。
Although the present invention has been described with reference to the above embodiments, various modifications can be made within the scope (scope) of the present invention other than the above-described embodiments.

【0121】例えば、適応コードブック回路におけるビ
ット配分パターンは任意の種類を選択可能である。
For example, the bit allocation pattern in the adaptive codebook circuit can be selected as desired.

【0122】ビット配分パターンについて、上記実施例
では、オープンループ探索を用いて最良パターンを選択
したが、クローズドループ探索を用いて選択することも
できる。
Regarding the bit allocation pattern, in the above embodiment, the best pattern is selected by using the open loop search, but it may be selected by using the closed loop search.

【0123】また、上記実施例では、遅延の差分表現を
行うサブフレームの位置と、遅延に割り当てるビット数
とを、M種類のビット割当パターンを用いて同時に表し
たが、差分表現を行うサブフレームの位置をB1ビット
で表し、差分表現のときの割当ビット数を別のB2ビッ
トで表すようにしてもよい。
Further, in the above embodiment, the position of the subframe in which the differential expression of the delay is expressed and the number of bits allocated to the delay are simultaneously expressed by using M kinds of bit allocation patterns. It is also possible that the position of B is represented by B 1 bit and the number of allocated bits in the differential representation is represented by another B 2 bit.

【0124】さらに、本発明の第2の視点においては、
モードに応じて、差分表現を行うサブフレームの位置、
個数、あるいは、差分表現をするときの割当ビット数を
変えても良い。
Furthermore, in the second aspect of the present invention,
Depending on the mode, the position of the subframe for differential expression,
The number of bits, or the number of allocated bits when expressing the difference may be changed.

【0125】さらにまた、スペクトルパラメータはLS
P以外にも他の周知なパラメータを用いることができ
る。
Furthermore, the spectral parameter is LS
Other known parameters than P can be used.

【0126】そして、スペクトルパラメータ計算回路で
は、フレーム中で少なくとも一つのサブフレームでスペ
クトルパラメータを計算する際に、前のサブフレームと
現在のサブフレームとのRMSの変化あるいはパワーの
変化を測定し、これらの変化が大きい複数個のサブフレ
ームに対してスペクトルパラメータを計算するようにし
てもよい。このようにすると、音声の変化点では必ずス
ペクトルパラメータを分析することになり、分析するサ
ブフレーム数を削減した場合にも、性能の劣化を防ぐこ
とができる。
Then, the spectrum parameter calculation circuit measures the change in RMS or the change in power between the previous subframe and the current subframe when calculating the spectrum parameter in at least one subframe in the frame, The spectrum parameter may be calculated for a plurality of subframes in which these changes are large. In this way, the spectrum parameter is always analyzed at the voice change point, and even if the number of subframes to be analyzed is reduced, it is possible to prevent performance degradation.

【0127】本発明においては、スペクトルパラメータ
の量子化には、ベクトル量子化、スカラ量子化、ベクト
ル−スカラ量子化等の周知な方法を用いることができ
る。
In the present invention, well-known methods such as vector quantization, scalar quantization, vector-scalar quantization, etc. can be used for the quantization of the spectrum parameter.

【0128】また、本発明においては、スペクトルパラ
メータ量子化回路における補間パターンの選択には、他
の周知な距離尺度をを用いることができる。
In the present invention, another well-known distance measure can be used for selecting the interpolation pattern in the spectrum parameter quantization circuit.

【0129】さらに、上記実施例では、音源量子化回路
において、コードブックが1段の場合について説明した
が、本発明では、音源量子化回路において、コードブッ
クを2段、あるいは多段構成にすることもできる。
Further, in the above embodiment, the case where the codebook has one stage in the excitation quantization circuit has been described, but in the present invention, the codebook has a two-stage or multistage configuration in the excitation quantization circuit. You can also

【0130】さらにまた、音源コードブックの探索、な
らびに学習の際の距離尺度は、あるいは学習法は、他の
周知な尺度を用いることもできる。
Furthermore, other known scales can be used as the distance scale at the time of searching and learning the sound source codebook, or as the learning method.

【0131】そして、ゲインコードブックは、伝送ビッ
ト数よりも全体で数倍大きなサイズのコードブックを予
め学習し、予め定められたモード毎に前記コードブック
の一部の領域を使用領域として割り当てておき、符号化
するときは、モードに応じて使用領域を切り替えて使用
することもできる。
For the gain codebook, a codebook having a size several times larger than the total number of transmission bits is previously learned, and a partial area of the codebook is assigned as a use area for each predetermined mode. In addition, when encoding, it is also possible to switch and use the use area according to the mode.

【0132】[0132]

【発明の効果】以上説明したように、本発明によれば、
適応コードブック部において遅延を計算する際に、フレ
ーム内の少なくとも一つのサブフレームにおいて、遅延
を差分で表現すると共に、差分で表すサブフレームの位
置と遅延を表すためのビット数のうち、少なくとも一方
をフレーム毎に決定しているので、従来方式と比べ、適
応コードブック部において伝送すべき情報を低減化して
いる。従って、本発明によれば、ビットレートを低減化
できるだけでなく、音声の過渡部等で、ピッチ周期に対
応する遅延が時間的に変化していても劣化の少ない再生
音声を提供できるという効果がある。
As described above, according to the present invention,
When calculating the delay in the adaptive codebook unit, at least one subframe in the frame represents the delay as a difference, and at least one of the position of the subframe represented by the difference and the number of bits for representing the delay. Since it is determined for each frame, the information to be transmitted in the adaptive codebook unit is reduced as compared with the conventional method. Therefore, according to the present invention, not only is it possible to reduce the bit rate, but it is possible to provide a reproduced voice that is less deteriorated even in the transitional portion of the voice even if the delay corresponding to the pitch period changes with time. is there.

【0133】また、本発明はその第2の視点において、
フレームの音声を、複数種類のモードに分類し、モード
に応じて差分表現をするサブフレームの位置あるいは、
差分表現のときの割当ビット数を決定しているので、従
来方式と比べ、適応コードブックにおいて伝送すべき情
報を低減化することができるため、ビットレートを低減
化できるだけでなく、音声の過渡部等で、ピット周期に
対応する遅延が時間的に変化していても劣化の少ない再
生音声を提供できるという効果がある。
Further, in the second aspect of the present invention,
The sound of a frame is classified into multiple types of modes, and the position of a subframe that expresses a difference according to the mode, or
Since the number of allocated bits in the differential representation is determined, the information to be transmitted in the adaptive codebook can be reduced as compared with the conventional method, so that not only the bit rate can be reduced, but also the voice transient part. As a result, there is an effect that it is possible to provide a reproduced voice with little deterioration even if the delay corresponding to the pit period changes with time.

【0134】そして、本発明によれば、適応コードブッ
ク部は、好ましくは請求項4又は5に規定された処理ス
テップを含み、比較的少ない演算量及びメモリ量とされ
るため、マイクロコンピュータ等による実装に好適であ
り、伝送情報量の低減を実現し、低ビットレートでも良
好な音質が得られる音声符号化装置を提供するものであ
る。
Further, according to the present invention, the adaptive codebook unit preferably includes the processing steps defined in claim 4 and has a relatively small amount of calculation and memory, so that the microcomputer or the like can be used. The present invention provides a speech coding apparatus which is suitable for mounting, realizes reduction of the amount of transmitted information, and can obtain good sound quality even at a low bit rate.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る音声符号化装置の一実施例(本発
明の第1の視点に対応)の構成を示すブロック図であ
る。
FIG. 1 is a block diagram showing the configuration of an embodiment (corresponding to the first aspect of the present invention) of a speech encoding apparatus according to the present invention.

【図2】適応コードブック回路500の処理フローを示す
流れ図である。
FIG. 2 is a flowchart showing a processing flow of an adaptive codebook circuit 500.

【図3】本発明に係る音声符号化装置の第2の実施例
(本発明の第2の視点に対応)の構成を示すブロック図
である。
FIG. 3 is a block diagram showing the configuration of a second embodiment (corresponding to the second aspect of the present invention) of the audio encoding device according to the present invention.

【図4】適応コードブック回路550の処理フローを示す
流れ図である。
FIG. 4 is a flowchart showing a processing flow of an adaptive codebook circuit 550.

【符号の説明】[Explanation of symbols]

110 フレーム分割回路 120 サブフレーム分割回路 200 スペクトルパラメータ計算回路 210 スペクトルパラメータ量子化回路 220 LSPコードブック 230 重み付け回路 240 応答信号計算回路 250 減算回路 310 インパルス応答計算回路 340 音源コードブック 350 音源量子化回路 360 重み付け信号計算回路 370 ゲインコードブック 380 ゲイン量子化回路 400 マルチプレクサ 500、550 適応コードブック回路 110 frame division circuit 120 sub-frame division circuit 200 spectrum parameter calculation circuit 210 spectrum parameter quantization circuit 220 LSP codebook 230 weighting circuit 240 response signal calculation circuit 250 subtraction circuit 310 impulse response calculation circuit 340 excitation codebook 350 excitation quantization circuit 360 Weighting signal calculation circuit 370 Gain codebook 380 Gain quantization circuit 400 Multiplexer 500, 550 Adaptive codebook circuit

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】音声信号を入力し予め定められた時間長の
フレームに分割し前記フレームの音声信号をフレームよ
りも時間的に短い複数個のサブフレームに分割するフレ
ーム分割部と、 前記音声信号のスペクトル的特徴を表すスペクトルパラ
メータを求めて量子化するスペクトルパラメータ計算部
と、 サブフレーム毎に音声信号のピッチ周期に対応する遅延
を求める適応コードブック部と、 音源信号を量子化する音源量子化部と、 前記スペクトルパラメータ計算部と、前記適応コードブ
ック部と、前記音源量子化部とのそれぞれの出力信号を
組み合わせて出力するマルチプレクサ部と、 を有する音声符号化装置において、 フレーム内の少なくとも一つのサブフレームにおいて前
記適応コードブック部の遅延を過去のサブフレームの遅
延との差分で表すと共に、差分で表すサブフレームの位
置と遅延を表すためのビット数のうち少なくとも一方を
フレーム毎に決定することを特徴とする音声符号化装
置。
1. A frame division unit for inputting a voice signal, dividing the voice signal into frames of a predetermined time length, and dividing the voice signal of the frame into a plurality of subframes that are shorter in time than the frame, and the voice signal. A spectrum parameter calculation unit that finds and quantizes the spectral parameters that represent the spectral characteristics of the, an adaptive codebook unit that finds the delay corresponding to the pitch period of the speech signal for each subframe, and a source quantization that quantizes the source signal. At least one of a frame, a spectrum parameter calculation unit, an adaptive codebook unit, and a multiplexer unit that outputs combined output signals of the excitation quantization unit. In one subframe, the delay of the adaptive codebook part is compared with the delay of the past subframe. With expressed in minutes, speech coding apparatus characterized by determining at least one of the number of bits to represent the location and the delay of the sub-frame for each frame representing the difference.
【請求項2】音声信号を入力し予め定められた時間長の
フレームに分割し前記フレームの音声信号をフレームよ
りも時間的に短い複数個のサブフレームに分割するフレ
ーム分割部と、 前記音声信号のスペクトル的特徴を表すスペクトルパラ
メータを求めて量子化するスペクトルパラメータ計算部
と、 前記音声信号から特徴量を計算し前記音声信号をフレー
ム又はサブフレーム毎に予め定められた複数種類のモー
ドの一つに分類するモード分類部と、 サブフレーム毎に音声信号のピッチ周期に対応する遅延
を求める適応コードブック部と、 音源信号を量子化する音源量子化部と、 前記スペクトルパラメータ計算部と、前記モード分類部
と、前記適応コードブック部と、前記音源量子化部と、
のそれぞれの出力信号を組み合わせて出力するマルチプ
レクサ部と、 を備え、 フレーム内の少なくとも一つのサブフレームにおいて前
記適応コードブック部の遅延を過去のサブフレームの遅
延との差分で表すと共に、差分で表すサブフレームの位
置あるいは遅延を表すためのビット数のうち少なくとも
一方を前記モードに応じて決定することを特徴とする音
声符号化装置。
2. A frame dividing section for inputting a voice signal, dividing the frame into frames of a predetermined time length, and dividing the voice signal of the frame into a plurality of subframes which are shorter in time than the frame, and the voice signal. A spectral parameter calculation unit that obtains and quantizes a spectral parameter that represents the spectral characteristics of the voice signal, and calculates one of the plurality of types of modes in which the feature amount is calculated from the voice signal and the voice signal is predetermined for each frame or subframe. A mode classification unit that classifies into a sub-frame, an adaptive codebook unit that obtains a delay corresponding to a pitch period of a speech signal for each subframe, a sound source quantization unit that quantizes a sound source signal, the spectrum parameter calculation unit, and the mode A classification unit, the adaptive codebook unit, the excitation quantization unit,
And a multiplexer unit that outputs the combined output signals of, and represents the delay of the adaptive codebook unit in at least one subframe in the frame by the difference from the delay of the past subframe and by the difference. A speech coding apparatus, characterized in that at least one of the number of bits for indicating the position or delay of a subframe is determined according to the mode.
【請求項3】遅延を差分で表すサブフレームの位置と該
遅延を表すビット数を予め規定するパターンを格納蓄積
するパターン蓄積部を備えたことを特徴とする請求項1
記載の音声符号化装置。
3. A pattern accumulating section for accumulating and accumulating a pattern which predefines a position of a subframe which represents a delay by a difference and a bit number which represents the delay.
The speech encoding device described.
【請求項4】前記適応コードブック部が、 (a) 遅延を差分で表すサブフレームの位置と該遅延を
表すビット数を規定するパターンを前記パターン蓄積部
から読み込み、 (b) 各サブフレームにおいてパターンに対応したビッ
ト数に基づき遅延探索範囲を設定し、 (c) 各サブフレームについて前記遅延探索範囲におい
てピッチ予測歪を最小化する順に遅延を少なくとも1種
探索し、 (d) 予め定められた個数のサブフレームに亘って前記
ピッチ予測歪を累積した累積歪を計算し、 前記工程(a)〜(d)をパターンの種類だけ繰り返した後
に、 (e) 前記累積歪を最小とするパターンを選択すると共
に、各サブフレームにおける遅延候補を算出し、 (f) クローズドループ探索により遅延探索を行なう、 上記各工程を含むことを特徴とする請求項3記載の音声
符号化装置。
4. The adaptive codebook unit reads (a) a pattern defining a position of a subframe that represents a delay as a difference and a bit number that represents the delay from the pattern accumulating unit, and (b) in each subframe. A delay search range is set based on the number of bits corresponding to the pattern, (c) at least one delay is searched for in each subframe in the order of minimizing pitch prediction distortion in the delay search range, and (d) predetermined The cumulative distortion is calculated by accumulating the pitch prediction distortion over a number of sub-frames, and after repeating the steps (a) to (d) by the type of pattern, (e) a pattern that minimizes the cumulative distortion. 4. The speech code according to claim 3, further comprising: each step of selecting a delay candidate in each subframe and calculating (f) a delay search by a closed loop search. Apparatus.
【請求項5】前記モード分類部が、前記音声信号の特徴
量として、フレーム全体でピッチ予測歪を累積した累積
歪を算出し、該累積歪の大きさに基づき、モードを決定
することを特徴とする請求項2記載の音声符号化装置。
5. The mode classification unit calculates, as the feature quantity of the audio signal, cumulative distortion in which pitch prediction distortion is accumulated over the entire frame, and determines a mode based on the magnitude of the cumulative distortion. The audio encoding device according to claim 2.
【請求項6】前記適応コードブック部が、 (a) 前記モード分類部からの出力に基づき、遅延を差
分で表すサブフレームの位置と遅延を表すビット数を規
定するパターンを決定し、 (b) 各サブフレームにおいてパターンに対応したビッ
ト数に基づき遅延探索範囲を設定し、 (c) 各サブフレームについて前記遅延探索範囲におい
てピッチ予測歪を最小化する順に遅延を少なくとも1種
探索し、 (d) 予め定められた個数のサブフレームに亘って前記
ピッチ予測歪を加算した累積歪を計算し、 前記工程(b)〜(d)をパターンの種類だけ繰り返した後
に、 (e) 前記累積歪を最小とするパターンを選択すると共
に、各サブフレームにおける遅延候補を算出し、 (f) クローズドループ探索により遅延探索を行なう、 上記各工程を含むことを特徴とする請求項4記載の音声
符号化装置。
6. The adaptive codebook section determines (a) a pattern that defines a position of a subframe that represents a delay as a difference and a bit number that represents the delay based on an output from the mode classification section, and (b) ) In each subframe, a delay search range is set based on the number of bits corresponding to the pattern, (c) For each subframe, at least one delay is searched in the delay search range in the order of minimizing pitch prediction distortion, and (d) ) Calculate the cumulative distortion by adding the pitch prediction distortion over a predetermined number of subframes, and after repeating the steps (b) to (d) only for the type of pattern, (e) the cumulative distortion. 6. The method according to claim 4, further comprising: selecting the minimum pattern, calculating a delay candidate in each subframe, and (f) performing a delay search by a closed loop search. Speech coding apparatus.
JP19895094A 1994-08-02 1994-08-02 Audio coding device Expired - Fee Related JP3153075B2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP19895094A JP3153075B2 (en) 1994-08-02 1994-08-02 Audio coding device
CA002154911A CA2154911C (en) 1994-08-02 1995-07-28 Speech coding device
DE69530442T DE69530442T2 (en) 1994-08-02 1995-08-01 Device for speech coding
EP00128160A EP1093116A1 (en) 1994-08-02 1995-08-01 Autocorrelation based search loop for CELP speech coder
EP00128106A EP1093115A3 (en) 1994-08-02 1995-08-01 Predictive coding of pitch lag in a speech coder
EP95112094A EP0696026B1 (en) 1994-08-02 1995-08-01 Speech coding device
US08/510,217 US5778334A (en) 1994-08-02 1995-08-02 Speech coders with speech-mode dependent pitch lag code allocation patterns minimizing pitch predictive distortion

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19895094A JP3153075B2 (en) 1994-08-02 1994-08-02 Audio coding device

Publications (2)

Publication Number Publication Date
JPH0844398A true JPH0844398A (en) 1996-02-16
JP3153075B2 JP3153075B2 (en) 2001-04-03

Family

ID=16399648

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19895094A Expired - Fee Related JP3153075B2 (en) 1994-08-02 1994-08-02 Audio coding device

Country Status (1)

Country Link
JP (1) JP3153075B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003532149A (en) * 2000-04-24 2003-10-28 クゥアルコム・インコーポレイテッド Method and apparatus for predictively quantizing speech utterance
JP2007241297A (en) * 2007-03-27 2007-09-20 Matsushita Electric Ind Co Ltd Voice encoding device
CN103262161A (en) * 2010-10-18 2013-08-21 三星电子株式会社 Apparatus and method for determining weighting function having low complexity for linear predictive coding (LPC) coefficients quantization
JP5400880B2 (en) * 2009-06-23 2014-01-29 日本電信電話株式会社 Encoding method, decoding method, apparatus, program, and recording medium using those methods

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0473700A (en) * 1990-07-13 1992-03-09 Nec Corp Sound encoding system
JPH06131000A (en) * 1992-10-15 1994-05-13 Nec Corp Fundamental period encoding device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0473700A (en) * 1990-07-13 1992-03-09 Nec Corp Sound encoding system
JPH06131000A (en) * 1992-10-15 1994-05-13 Nec Corp Fundamental period encoding device

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003532149A (en) * 2000-04-24 2003-10-28 クゥアルコム・インコーポレイテッド Method and apparatus for predictively quantizing speech utterance
US8660840B2 (en) 2000-04-24 2014-02-25 Qualcomm Incorporated Method and apparatus for predictively quantizing voiced speech
JP2007241297A (en) * 2007-03-27 2007-09-20 Matsushita Electric Ind Co Ltd Voice encoding device
JP4525694B2 (en) * 2007-03-27 2010-08-18 パナソニック株式会社 Speech encoding device
JP5400880B2 (en) * 2009-06-23 2014-01-29 日本電信電話株式会社 Encoding method, decoding method, apparatus, program, and recording medium using those methods
CN103262161A (en) * 2010-10-18 2013-08-21 三星电子株式会社 Apparatus and method for determining weighting function having low complexity for linear predictive coding (LPC) coefficients quantization
JP2013541737A (en) * 2010-10-18 2013-11-14 サムスン エレクトロニクス カンパニー リミテッド Apparatus and method for determining weight function having low complexity for quantizing linear predictive coding coefficient
US9311926B2 (en) 2010-10-18 2016-04-12 Samsung Electronics Co., Ltd. Apparatus and method for determining weighting function having for associating linear predictive coding (LPC) coefficients with line spectral frequency coefficients and immittance spectral frequency coefficients
JP2016130868A (en) * 2010-10-18 2016-07-21 サムスン エレクトロニクス カンパニー リミテッド Weighted value function determination method
US9773507B2 (en) 2010-10-18 2017-09-26 Samsung Electronics Co., Ltd. Apparatus and method for determining weighting function having for associating linear predictive coding (LPC) coefficients with line spectral frequency coefficients and immittance spectral frequency coefficients
US10580425B2 (en) 2010-10-18 2020-03-03 Samsung Electronics Co., Ltd. Determining weighting functions for line spectral frequency coefficients

Also Published As

Publication number Publication date
JP3153075B2 (en) 2001-04-03

Similar Documents

Publication Publication Date Title
JP2746039B2 (en) Audio coding method
JP3094908B2 (en) Audio coding device
JP3196595B2 (en) Audio coding device
JP3180786B2 (en) Audio encoding method and audio encoding device
JP3266178B2 (en) Audio coding device
JP3335841B2 (en) Signal encoding device
JP3582589B2 (en) Speech coding apparatus and speech decoding apparatus
JP3616432B2 (en) Speech encoding device
JP2624130B2 (en) Audio coding method
JP3353852B2 (en) Audio encoding method
JP3308764B2 (en) Audio coding device
JP3153075B2 (en) Audio coding device
JP3360545B2 (en) Audio coding device
JP3003531B2 (en) Audio coding device
JP3299099B2 (en) Audio coding device
JP3144284B2 (en) Audio coding device
JP3319396B2 (en) Speech encoder and speech encoder / decoder
JPH06131000A (en) Fundamental period encoding device
JP3089967B2 (en) Audio coding device
JP3192051B2 (en) Audio coding device
JP3471542B2 (en) Audio coding device
JP2001142499A (en) Speech encoding device and speech decoding device
JP3092654B2 (en) Signal encoding device
JP2907019B2 (en) Audio coding device
JPH08320700A (en) Sound coding device

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 19980401

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080126

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090126

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100126

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110126

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110126

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120126

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130126

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130126

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees