JPH0643898A - Voice coding device - Google Patents

Voice coding device

Info

Publication number
JPH0643898A
JPH0643898A JP4198115A JP19811592A JPH0643898A JP H0643898 A JPH0643898 A JP H0643898A JP 4198115 A JP4198115 A JP 4198115A JP 19811592 A JP19811592 A JP 19811592A JP H0643898 A JPH0643898 A JP H0643898A
Authority
JP
Japan
Prior art keywords
signal
unit
residual signal
quantization
pitch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4198115A
Other languages
Japanese (ja)
Inventor
Kazumi Kawano
和美 川野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP4198115A priority Critical patent/JPH0643898A/en
Publication of JPH0643898A publication Critical patent/JPH0643898A/en
Pending legal-status Critical Current

Links

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

PURPOSE:To improve tone deterioration when an information transmission speed is small by providing a quantization bit number storage part, utilizing it in a next analysis frame, providing a soundless detection part, storing a quantization bit number in a soundless part in the storage part and utilizing it in a sound part. CONSTITUTION:An input voice signal is predicted by a digital filter in adaptive, and a difference signal being a difference between the predicted voice signal and the input voice signal is generated, and the difference signal is quantized. Then, at the time of quantizing the difference signal, a storage part 48 storing the quantization bit number remaining without being allocated is provided, and then, is utilized in the next analysis frame. Further, the soundless detection part 49 judging whether an input voice is the sound part or the soundless part is provided, and when the difference signal is quantized from the soundless part, the quantization bit number allocated in adaptive at each partial section is kept to an absolute minimum, and the remaining quantization bit number is stored in the storage part 48, and is utilized in the sound part.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、アナログ回線やディジ
タル回線を利用し、その回線を通じて入力される音声信
号を予測符号化し、情報量を圧縮する音声符号化装置に
関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice coder which utilizes an analog line or a digital line, predictively codes a voice signal input through the line, and compresses an information amount.

【0002】[0002]

【従来の技術】従来より音声の高能率符号化法として、
例えば、APC−AB方式等があるが、近年多彩な音声
サービスの発達に伴い、音声データを符号化情報として
蓄積伝送する音声メール装置等に応用され、実用段階に
入っている。以下に従来のアナログ電話回線に接続され
る音声符号化装置において、APC−AB方式により音
声の高能率符号化を図っている場合について説明する。
2. Description of the Related Art Conventionally, as a high-efficiency coding method for speech,
For example, there is an APC-AB system and the like, but with the development of various voice services in recent years, it has been applied to a voice mail device or the like that stores and transmits voice data as encoded information, and is in a practical stage. A case will be described below in which a conventional voice encoding device connected to an analog telephone line is performing high-efficiency voice encoding by the APC-AB system.

【0003】図5は従来の音声符号化装置に於ける音声
符号化部のブロック図である。1はアナログ回線に接続
されて回線の制御や入出力の分離を行う回線インターフ
ェース部、2はアナログ信号をディジタル信号に変換す
るA/D変換器、3は入力される信号を複数の周波数帯
域に分割する帯域分割フィルタ、4は短時間予測フィル
タを構成する線形予測係数を抽出する線形予測係数抽出
部、5は線形予測係数抽出部4の短時間予測フィルタを
用い、近接相関にもとづいて音声信号の線形予測を行う
予測器、6は音声信号のピッチを検出するピッチ検出
部、7はピッチ検出部6から検出されたピッチ周期に対
する音声信号の相関の大きさを示すピッチゲインを導出
するピッチゲイン導出部、8はピッチゲイン導出部7よ
り導出されたピッチゲインを用いて長時間予測フィルタ
を構成し、ピッチ相関にもとづいて音声信号の予測を行
う予測器、9は近接相関にもとづく予測器5とピッチ相
関にもとづく予測器8とからなる適応予測部、10は帯
域分割フィルタ3の出力信号と適応予測部9から出力さ
れる予測信号との差である残差信号を量子化する残差信
号量子化器、11は疑似残差信号を導出する逆フィルタ
部、12はピッチ検出部において検出されたピッチ周期
を複数個の区間に等分割する部分区間設定部、13は逆
フィルタ部11より導出された疑似残差信号の平均振幅
を部分区間毎に算出する平均振幅算出部、14は平均振
幅算出部13において算出された平均振幅に応じて残差
信号の量子化ビット数を部分区間毎に決定する量子化ビ
ット数適応化部、15はピッチ情報、線形予測係数及び
平均振幅などの補助パラメータを量子化する補助情報量
子化器、16は残差信号量子化器10において量子化さ
れた残差信号と補助情報量子化器15において量子化さ
れた補助パラメータとを符号化し、符号データとして出
力する符号化部、17は各帯域における符号化部16よ
り出力された符号データを多重化する多重化部、18は
多重化部17から出力されるディジタル信号を格納して
おく音声バッファであり、以上が符号化部を構成する。
FIG. 5 is a block diagram of a speech coder in a conventional speech coder. 1 is a line interface unit that is connected to an analog line to control the line and separate input / output, 2 is an A / D converter that converts an analog signal into a digital signal, and 3 is an input signal in a plurality of frequency bands A band splitting filter for splitting, 4 is a linear prediction coefficient extracting unit that extracts linear prediction coefficients that form a short-term prediction filter, and 5 is a short-term prediction filter of the linear prediction coefficient extracting unit 4, and uses a short-term prediction filter to output a speech signal based on proximity correlation. , A pitch detector for detecting the pitch of the voice signal, and a pitch gain 7 for deriving a pitch gain indicating the magnitude of the correlation of the voice signal with respect to the pitch period detected by the pitch detector 6. A derivation unit, 8 constitutes a long-term prediction filter using the pitch gain derived by the pitch gain derivation unit 7, and predicts a speech signal based on the pitch correlation. A predictor to perform, 9 is an adaptive predictor including a predictor 5 based on proximity correlation and a predictor 8 based on pitch correlation, and 10 is an output signal of the band-splitting filter 3 and a predictive signal output from the adaptive predictor 9. A residual signal quantizer that quantizes a residual signal that is a difference, 11 an inverse filter unit that derives a pseudo residual signal, and 12 equally divides the pitch period detected by the pitch detection unit into a plurality of sections. The partial interval setting unit, 13 is an average amplitude calculating unit that calculates the average amplitude of the pseudo residual signal derived by the inverse filter unit 11 for each partial interval, and 14 is according to the average amplitude calculated by the average amplitude calculating unit 13. A quantization bit number adaptation unit that determines the quantization bit number of the residual signal for each sub-interval, 15 is an auxiliary information quantizer that quantizes auxiliary parameters such as pitch information, linear prediction coefficient, and average amplitude, 16 An encoding unit that encodes the residual signal quantized by the residual signal quantizer 10 and the auxiliary parameter quantized by the auxiliary information quantizer 15 and outputs the encoded data as coded data, and 17 is an encoder in each band. A multiplexing unit that multiplexes the code data output from the unit 16 and a voice buffer 18 that stores the digital signal output from the multiplexing unit 17, and the above constitutes the encoding unit.

【0004】次に音声復合号化部について図6を参照し
ながら説明する。19は音声バッファ18からの符号化
データを各帯域毎に分離する符号系列分離部、20は符
号系列分離部19で各帯域毎に分離された符号化データ
をさらに量子化残差信号とピッチ情報、線形予測係数及
び平均振幅などの補助パラメータに分離する情報系列分
離部、21は符号化された補助情報をもとの補助情報に
復元する補助情報復号化器、22は補助情報復号化器2
1において復元した平均振幅情報をもとにして、量子化
残差信号の各部分区間毎の量子化ビット数を解明する復
号化ビット数適応化部、23は量子化残差信号をもとの
残差信号に復元する残差信号復号化器、24はピッチ情
報や線形予測係数の補助情報によって構成された予測フ
ィルタにより、残差信号復号化器23の出力信号から原
信号を予測する予測合成部、25は各帯域毎の予測合成
部24からの出力信号を融合する帯域合成フィルタ、2
6はディジタル信号をアナログ信号に変換するD/A変
換器、27はアナログ回線に接続され、回線の制御や入
出力の分離を行う回線インターフェース部であり、以上
が復号化部を構成する。
Next, the voice decoding unit will be described with reference to FIG. Reference numeral 19 is a code sequence separation unit that separates the coded data from the audio buffer 18 into each band, and 20 is coded data that is separated into each band by the code sequence separation unit 19 and is further quantized residual signal and pitch information. , An information sequence separation unit for separating auxiliary parameters such as linear prediction coefficient and average amplitude, 21 is an auxiliary information decoder for restoring encoded auxiliary information to original auxiliary information, and 22 is an auxiliary information decoder 2
1. A decoding bit number adaptation unit for clarifying the quantization bit number for each partial section of the quantized residual signal based on the average amplitude information restored in 1 A residual signal decoder that restores a residual signal, and 24 is a predictive synthesis that predicts an original signal from an output signal of the residual signal decoder 23 by a prediction filter configured by pitch information and auxiliary information of a linear prediction coefficient. 25 is a band synthesizing filter for merging output signals from the prediction synthesizing unit 24 for each band, 2
Reference numeral 6 is a D / A converter for converting a digital signal into an analog signal, and 27 is a line interface unit which is connected to an analog line and controls the line and separates input and output. The above constitutes a decoding unit.

【0005】以上のように構成された音声符号化装置に
ついて、以下にその動作を説明する。まず、電話回線等
を通じて回線インターフェース部1に入力された音声等
のアナログ信号はA/D変換器2によりディジタル信号
に変換される。A/D変換器2によりディジタル化され
た音声信号は例えばQMF(QuadratureMi
rror Filter)等で構成される帯域分割フィ
ルタ3により複数個の帯域、例えば帯域A(0〜1kH
z)、帯域B(1〜2kHz)及び帯域C(2〜4kH
z)の3つの周波数帯域に分割される。
The operation of the speech coding apparatus configured as above will be described below. First, an analog signal such as voice input to the line interface unit 1 through a telephone line or the like is converted into a digital signal by the A / D converter 2. The audio signal digitized by the A / D converter 2 is, for example, a QMF (QuadratureMi).
A plurality of bands, for example, band A (0 to 1 kH) is generated by the band division filter 3 including a color filter.
z), band B (1 to 2 kHz) and band C (2 to 4 kHz)
z) divided into three frequency bands.

【0006】以後帯域Aについて説明する。帯域Aの原
信号に対し、線形予測係数抽出部4で線形予測係数の抽
出を行い、例えば偶数次である4次の線形予測フィルタ
を構成する。この線形予測フィルタを用いて近接相関に
もとづく予測器5において線形予測を行う。近接相関に
もとづく予測器5では比較的近傍の標本値例えば現時点
から4サンプル過去のデータを用いて予測を行う。また
ピッチ検出部6は帯域Aの原信号のピッチを検出し、検
出されたピッチ周期に対するピッチゲインがピッチゲイ
ン導出部7により導出される。ピッチ相関にもとづく予
測器8は導出されたピッチゲインより構成される予測フ
ィルタにより、ピッチ周期間の予測つまり1ピッチ周期
過去のデータから現時点の音声信号を予測するピッチ予
測を行う。近接相関にもとづく予測器5及びピッチ相関
にもとづく予測器8で予測された信号は合成され適応予
測部9から出力される。適応予測部9より出力される予
測信号は帯域Aの原信号との差分が取られ、残差信号と
して残差信号量子化器10に入力されて量子化されるこ
とになる。
The band A will be described below. The linear prediction coefficient extraction unit 4 extracts a linear prediction coefficient from the original signal in the band A to form, for example, an even-order fourth-order linear prediction filter. Linear prediction is performed in the predictor 5 based on the proximity correlation using this linear prediction filter. The predictor 5 based on the close correlation performs prediction using sample values relatively close to each other, for example, data of four samples past from the present time. The pitch detector 6 detects the pitch of the original signal in the band A, and the pitch gain deriving unit 7 derives the pitch gain for the detected pitch period. The predictor 8 based on the pitch correlation performs prediction between pitch periods, that is, pitch prediction for predicting a current voice signal from data of one pitch period past, by using a prediction filter composed of derived pitch gains. The signals predicted by the predictor 5 based on the proximity correlation and the predictor 8 based on the pitch correlation are combined and output from the adaptive prediction unit 9. The difference between the prediction signal output from the adaptive prediction unit 9 and the original signal in the band A is calculated, and the difference is input to the residual signal quantizer 10 and quantized.

【0007】ここで残差信号量子化器10の量子化ビッ
ト数は疑似残差信号の平均振幅に応じて適応化される。
そのために疑似残差信号の平均振幅を適応予測部9を動
作させる前に算出する必要がある。まず逆フィルタ部1
1において帯域Aの原信号から疑似残差信号を求める。
逆フィルタ部11の内部は近接相関にもとづく予測器5
及びピッチ相関にもとづく予測器8とからなり、適応予
測部9と同様である。
Here, the number of quantization bits of the residual signal quantizer 10 is adapted according to the average amplitude of the pseudo residual signal.
Therefore, it is necessary to calculate the average amplitude of the pseudo residual signal before operating the adaptive prediction unit 9. First, the inverse filter unit 1
In 1, the pseudo residual signal is obtained from the original signal of band A.
The inside of the inverse filter unit 11 is a predictor 5 based on proximity correlation.
And the predictor 8 based on the pitch correlation, which is the same as the adaptive predictor 9.

【0008】次にこの疑似残差信号は部分区間設定部1
2に入力される。部分区間は図7に示されるようにピッ
チ周期Tpを複数個に等分割、例えば4分割して得ら
れ、各区間が周期的に反復するように設定される。第1
番目の部分区間は疑似残差信号の振幅周期性に基づいて
検出され、部分区間の位置Tdはフレームの始めから第
1番目の部分区間の先頭までの時間長によって指定され
る。平均振幅算出部13では各部分区間毎の疑似残差信
号の平均振幅が算出され、量子化ビット数適応化部14
では前記平均振幅から量子化ビット数を各部分区間毎に
割り当てる演算を行う。i帯域j区間の量子化ビット数
ijは次式で与えられる。
Next, this pseudo residual signal is sent to the partial interval setting unit 1
Entered in 2. The partial section is obtained by equally dividing the pitch cycle Tp into a plurality of sections, for example, four sections, as shown in FIG. 7, and is set so that each section periodically repeats. First
The th partial section is detected based on the amplitude periodicity of the pseudo residual signal, and the position Td of the partial section is designated by the time length from the beginning of the frame to the beginning of the first partial section. The average amplitude calculation unit 13 calculates the average amplitude of the pseudo residual signal for each partial section, and the quantization bit number adaptation unit 14
Then, an operation of assigning the number of quantized bits to each partial section is performed from the average amplitude. The number of quantization bits R ij in the i band j section is given by the following equation.

【0009】 Rij=Rf (R)+F(log2 ij) (1) i=1、…、3 j=1、…、4 ここで、Rf はi帯域の平均ビットレートであり、残差
信号量子化に割り当てられる全ビット数Rに比例する。
ここで、Rは情報伝送速度により一意的に決まる定数で
あり、Fはi帯域j区間疑似残差信号の平均振幅Uij
対数に比例する関数である。
R ij = R f (R) + F (log 2 U ij ) (1) i = 1, ..., 3 j = 1, ..., 4, where R f is the average bit rate of the i band, It is proportional to the total number of bits R assigned to the residual signal quantization.
Here, R is a constant uniquely determined by the information transmission rate, and F is a function proportional to the logarithm of the average amplitude U ij of the i band j section pseudo residual signal.

【0010】このようにして決定された帯域Aの各部分
区間毎の量子化ビット数の例を図8に示す。この量子化
ビット数に従い残差信号量子化器10で量子化された残
差信号は、符号化部16へ送出されて符号化されると同
時に適応予測部9にも帰還されることになる。
FIG. 8 shows an example of the number of quantized bits for each partial section of the band A thus determined. The residual signal quantized by the residual signal quantizer 10 in accordance with the number of quantization bits is sent to the coding unit 16 and coded, and at the same time fed back to the adaptive prediction unit 9.

【0011】一方、ピッチ情報、線形予測係数及び疑似
残差信号の平均振幅などの補助パラメータも補助情報量
子化器15において量子化され、その後符号化部16で
符号化されることになる。この時の量子化ビット数は情
報伝送速度により一意的に決まっている。各帯域の符号
化部16から出力される符号データは多重化部17で多
重化され、音声バッファ18に符号データとして蓄えら
れる。
On the other hand, the auxiliary parameters such as the pitch information, the linear prediction coefficient and the average amplitude of the pseudo residual signal are also quantized by the auxiliary information quantizer 15 and then encoded by the encoder 16. The number of quantization bits at this time is uniquely determined by the information transmission speed. The code data output from the coding unit 16 of each band is multiplexed by the multiplexing unit 17 and stored in the voice buffer 18 as code data.

【0012】上記した信号処理過程は帯域B及び帯域C
でも同様であるが、ピッチ相関にもとづく予測器8にお
ける長時間予測フィルタや部分区間の設定は帯域Aで構
成されたものを用いているため、ピッチ検出部6、ピッ
チゲイン導出部7及び部分区間設定部12の動作は行わ
れない。以上の動作が符号化部の説明である。
The above-mentioned signal processing process is performed in the band B and the band C.
However, although the same is true, since the long-term prediction filter and the sub-interval setting in the predictor 8 based on the pitch correlation use those configured in the band A, the pitch detection unit 6, the pitch gain derivation unit 7, and the sub-interval are set. The operation of the setting unit 12 is not performed. The above operation is the description of the encoding unit.

【0013】次に、音声バッファ18から音声信号を復
元する例を示す。まず音声バッファ18からの符号デー
タを符号系列分離部19で各帯域毎の符号データ系列に
分離する。さらにこの符号データは各帯域の情報系列分
離部20において、量子化残差信号の符号データとピッ
チ情報、線形予測係数及び平均振幅等の補助パラメータ
の符号データに分離される。
Next, an example of restoring a voice signal from the voice buffer 18 will be shown. First, the coded data from the audio buffer 18 is separated into a coded data series for each band by the code series separation unit 19. Further, the coded data is separated into coded data of the quantized residual signal and coded data of auxiliary parameters such as pitch information, linear prediction coefficient, and average amplitude in the information sequence separation unit 20 of each band.

【0014】この後は帯域Aの信号処理について説明す
る。前記補助パラメータの符号データは補助情報復号化
器21に入力され、ピッチ情報、線形予測係数及び平均
振幅等のもとの補助パラメータに復元される。その後、
復号化ビット数適応化部22においては、復元された平
均振幅Uijから(1)式にもとづいて量子化残差信号の
復号化ビット数Rijを算出し、これに基づいて、量子化
残差信号は残差信号復号化器23においてもとの残差信
号に復元される。予測合成部24は前記復号化されたピ
ッチ情報、線形予測係数等の補助情報とから構成され、
図9に示すように近接相関にもとづく予測器28及びピ
ッチ相関にもとづく予測器29とからなり、それぞれ符
号化部の適応予測部9における近接相関にもとづく予測
器5及びピッチ相関にもとづく予測器8と同じである。
この予測合成部24に前記復号化された残差信号が入力
され、各帯域毎の音声信号が再生されることになる。以
上の信号処理過程は帯域B及び帯域Cでも全く同様であ
る。
The signal processing of band A will be described below. The coded data of the auxiliary parameters are input to the auxiliary information decoder 21 and restored to the original auxiliary parameters such as the pitch information, the linear prediction coefficient and the average amplitude. afterwards,
In the decoding bit number adaptation unit 22, the decoding bit number R ij of the quantized residual signal is calculated from the restored average amplitude U ij based on the equation (1), and based on this, the quantization residual number is calculated. The difference signal is restored to the original residual signal in the residual signal decoder 23. The predictive synthesis unit 24 is composed of the decoded pitch information, auxiliary information such as a linear prediction coefficient,
As shown in FIG. 9, it comprises a predictor 28 based on proximity correlation and a predictor 29 based on pitch correlation, and a predictor 5 based on proximity correlation and a predictor 8 based on pitch correlation in the adaptive predictor 9 of the encoding unit, respectively. Is the same as.
The decoded residual signal is input to the predictive synthesizer 24, and the audio signal for each band is reproduced. The above signal processing process is exactly the same for band B and band C.

【0015】帯域合成フィルタ25では各帯域毎に復元
された音声信号を融合し、D/A変換器26によりディ
ジタル信号をアナログ信号に変換し、再生信号として回
線インターフェース部27に出力することになる。
The band synthesizing filter 25 fuses the audio signals restored for each band, converts the digital signal into an analog signal by the D / A converter 26, and outputs it as a reproduced signal to the line interface unit 27. .

【0016】[0016]

【発明が解決しようとする課題】しかしながら従来の音
声符号化装置では、上記したような音声符号化処理を行
う際、分析フレーム当たりの補助情報、残差信号に割り
当てられる量子化ビット数が、情報伝送速度に比例して
一意的に決められている。従って、情報伝送速度が小さ
い場合、補助情報、残差信号に割り当てられる量子化ビ
ット数も少なくなる。補助情報の量子化に割り当てられ
る量子化ビット数が少なくなると、適応予測部での予測
精度が落ち、残差信号の量子化誤差を大きくする。加え
て残差信号量子化器に割り当てられる量子化ビット数も
少ないため、一層量子化雑音は増大し、音質の劣化が著
しくなるという問題点を有していた。
However, in the conventional speech coding apparatus, when performing the speech coding processing as described above, the auxiliary information per analysis frame and the number of quantization bits assigned to the residual signal are It is uniquely determined in proportion to the transmission rate. Therefore, when the information transmission rate is low, the number of quantization bits assigned to the auxiliary information and the residual signal also decreases. When the number of quantization bits assigned to the quantization of the auxiliary information decreases, the prediction accuracy of the adaptive prediction unit decreases and the quantization error of the residual signal increases. In addition, since the number of quantization bits assigned to the residual signal quantizer is small, there is a problem that the quantization noise is further increased and the sound quality is significantly deteriorated.

【0017】本発明は上記問題点を解決し、情報伝送速
度が小さい場合でも比較的良好な音質を確保できる音声
符号化装置を提供することを目的としている。
An object of the present invention is to solve the above problems and to provide a speech coding apparatus capable of ensuring a relatively good sound quality even when the information transmission rate is low.

【0018】[0018]

【課題を解決するための手段】本発明は上記目的を達成
するために、(ア)一般に量子化ビット数適応化部にお
いて量子化ビット数は各部分区間毎に割り当てられるた
め、その合計を、残差信号の量子化に割り当てられる全
ビット数Rと等しくなるように微調整することは困難で
あり、従ってR以下になるよう設定されているが、従来
の音声符号化装置では余った量子化ビット数は無視され
ている。(イ)また、無音声部では入力信号の振幅はほ
ぼ0であり、従って(1)式からも明らかなように割り
当てられる量子化ビット数は最小限でよい。以上の事実
に鑑み、従来例の構成に量子化ビット数貯蓄部を設け、
(ア)については、分析フレーム毎に余った量子化ビッ
ト数を蓄えておくようにした。また(イ)については、
音声符号化装置への入力が無音声部か有音声部かを判断
する無音検知部を設け、無音声の場合には残差信号量子
化器へ割り当てる量子化ビット数を最小限にとどめ、残
りのビット数を量子化ビット数貯蓄部に蓄えておくよう
にした。
In order to achieve the above-mentioned object, the present invention (a) In general, since the quantization bit number is assigned to each sub-interval in the quantization bit number adaptation unit, the total is It is difficult to finely adjust the number of bits to be equal to the total number of bits R assigned to the quantization of the residual signal, and therefore, it is set to be equal to or less than R. The number of bits is ignored. (A) Further, in the non-voice part, the amplitude of the input signal is almost 0. Therefore, as is clear from the equation (1), the number of quantization bits allocated may be minimum. In view of the above facts, a quantization bit number saving unit is provided in the configuration of the conventional example,
Regarding (a), the number of extra quantization bits is stored for each analysis frame. Regarding (a),
A silence detector is provided to determine whether the input to the speech encoder is a voiceless section or a voiced section.In the case of no voice, the number of quantization bits assigned to the residual signal quantizer is minimized and the remaining The bit number of is stored in the quantization bit number saving unit.

【0019】[0019]

【作用】本発明は上記した構成により、平均振幅の大き
い有音声部について、量子化ビット数貯蓄部に蓄えられ
ていた量子化ビット数を、残差信号の量子化に割り当て
られる全ビット数Rに加算した上で(1)式の計算を行
うことにより、従来の音声符号化装置における音声符号
化処理よりも多数の量子化ビット数が残差信号量子化器
に割り当てられ、残差信号を精密に量子化することがで
きる。
According to the present invention, with the above configuration, the number of quantized bits stored in the quantized bit number saving unit in the voiced part having a large average amplitude is converted into the total number of bits R allocated to the quantization of the residual signal. By performing the calculation of the equation (1) after adding to, the number of quantization bits is assigned to the residual signal quantizer more than that of the speech coding process in the conventional speech coding apparatus, and the residual signal is Can be quantized precisely.

【0020】[0020]

【実施例】以下、本発明の一実施例について、図面を参
照しながら説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings.

【0021】図1は本実施例に係る音声符号化装置の音
声符号化部のブロック図であり、30はアナログ回線に
接続されて回線の制御や入出力の分離を行う回線インタ
ーフェース部、31はアナログ信号をディジタル信号に
変換するA/D変換器、32は入力される信号を複数の
周波数帯域に分割する帯域分割フィルタ、33は短時間
予測フィルタを構成する線形予測係数を抽出する線形予
測係数抽出部、34は短時間予測フィルタを用い、近接
相関にもとづいて音声信号の線形予測を行う予測器、3
5は音声信号のピッチを検出するピッチ検出部、36は
ピッチ検出部35から検出されたピッチ周期に対する音
声信号の相関の大きさを示すピッチゲインを導出するピ
ッチゲイン導出部、37はピッチゲイン導出部36より
導出されたピッチゲインを用いて長時間予測フィルタを
構成し、ピッチ相関にもとづいて音声信号の予測を行う
予測器、38は近接相関にもとづく予測器34とピッチ
相関にもとづく予測器37とからなる適応予測部、39
は帯域分割フィルタ32の出力信号と適応予測部38か
ら出力される予測信号との差である残差信号を量子化す
る残差信号量子化器、40は疑似残差信号を導出する逆
フィルタ部、41はピッチ検出部35において検出され
たピッチ周期を複数個の区間に等分割する部分区間設定
部、42は逆フィルタ部40より導出された疑似残差信
号の平均振幅を前記部分区間毎に算出する平均振幅算出
部、43は平均振幅算出部42において算出された平均
振幅に応じて残差信号の量子化ビット数を前記部分区間
毎に決定する量子化ビット数適応化部、44はピッチ情
報、線形予測係数及び平均振幅などの補助パラメータを
量子化する補助情報量子化器、45は残差信号量子化器
39において量子化された残差信号と補助情報量子化器
44において量子化された補助パラメータとを符号化
し、符号データとして出力する符号化部、46は各帯域
における符号化部45より出力された符号データを多重
化する多重化部、47は多重化部46から出力されるデ
ィジタル信号を格納しておく音声バッファであり、以上
は従来例と全く同様である。また48は各分析フレーム
毎に余った量子化ビット数を蓄えておく量子化ビット数
貯蓄部である。
FIG. 1 is a block diagram of a voice encoding unit of a voice encoding apparatus according to this embodiment. Reference numeral 30 is a line interface unit connected to an analog line for controlling a line and separating input / output, and 31 is a line interface unit. An A / D converter that converts an analog signal into a digital signal, 32 is a band division filter that divides an input signal into a plurality of frequency bands, and 33 is a linear prediction coefficient that extracts a linear prediction coefficient that forms a short-time prediction filter The extraction unit 34 is a predictor that uses a short-term prediction filter to perform linear prediction of a speech signal based on proximity correlation.
Reference numeral 5 is a pitch detection unit that detects the pitch of the voice signal, 36 is a pitch gain derivation unit that derives a pitch gain that indicates the degree of correlation of the voice signal with respect to the pitch period detected by the pitch detection unit 35, and 37 is a pitch gain derivation unit. A predictor that forms a long-term prediction filter using the pitch gain derived from the unit 36 and predicts a speech signal based on the pitch correlation, and 38 is a proximity correlation-based predictor 34 and a pitch correlation-based predictor 37. An adaptive prediction unit consisting of 39
Is a residual signal quantizer for quantizing a residual signal which is the difference between the output signal of the band division filter 32 and the prediction signal output from the adaptive prediction unit 38, and 40 is an inverse filter unit for deriving a pseudo residual signal. , 41 is a partial interval setting unit that equally divides the pitch cycle detected by the pitch detecting unit 35 into a plurality of intervals, and 42 is the average amplitude of the pseudo residual signal derived by the inverse filter unit 40 for each partial interval. An average amplitude calculation unit 43 for calculating, a quantization bit number adaptation unit 43 for determining the quantization bit number of the residual signal for each of the partial intervals according to the average amplitude calculated by the average amplitude calculation unit 42, and 44 a pitch Auxiliary information quantizer for quantizing auxiliary parameters such as information, linear prediction coefficient and average amplitude, 45 is a residual signal quantized by residual signal quantizer 39 and quantized by auxiliary information quantizer 44. An encoding unit that encodes the generated auxiliary parameter and outputs the encoded data as coded data, 46 is a multiplexing unit that multiplexes the coded data output from the encoding unit 45 in each band, and 47 is output from the multiplexing unit 46. This is an audio buffer for storing a digital signal according to the related art. The above is exactly the same as the conventional example. Reference numeral 48 is a quantization bit number saving unit for storing the excess quantization bit number for each analysis frame.

【0022】以上のように構成された音声符号化装置に
ついて、以下にその動作を説明する。まず、初期状態で
は量子化ビット数貯蓄部48の蓄えRsは0である。こ
の状態で電話回線等と通じて回線インターフェース部3
0に入力された音声等のアナログ信号は、A/D変換器
31によりディジタル信号に変換される。A/D変換器
31によりディジタル化された信号は、例えば帯域A
(0〜1kHz)、帯域B(1〜2kHz)及び帯域C
(2〜4kHz)の3つの周波数帯域に分割される。
The operation of the speech coding apparatus configured as above will be described below. First, in the initial state, the storage Rs of the quantization bit number saving unit 48 is 0. In this state, the line interface unit 3 is connected to the telephone line etc.
An analog signal such as voice input to 0 is converted into a digital signal by the A / D converter 31. The signal digitized by the A / D converter 31 has a band A, for example.
(0 to 1 kHz), band B (1 to 2 kHz) and band C
It is divided into three frequency bands (2 to 4 kHz).

【0023】以後、帯域Aについての説明を行う。帯域
Aの信号について線形予測係数抽出部33で線形予測係
数の抽出を行うことによって線形予測フィルタを構成
し、この線形予測フィルタを用い近接相関にもとづく予
測器34において線形予測を行う。またピッチ検出部3
5は帯域Aの原信号のピッチを検出し、検出されたピッ
チ周期に対するピッチゲインがピッチゲイン導出部36
により導出される。ピッチ相関にもとづく予測器37は
導出されたピッチゲインより構成される予測フィルタに
よりピッチ周期間の予測すなわち1ピッチ周期過去のデ
ータから現時点の音声信号を予測するピッチを行う。近
接相関にもとづく予測器34及びピッチ相関にもとづく
予測器37で予測された信号は合成されて適応予測部3
8から出力される。適応予測部38より出力される予測
信号は帯域Aの原信号との差分が取られ残差信号として
残差信号量子化器39に入力され量子化される。以上は
従来例と全く同様の動作である。
The band A will be described below. A linear prediction coefficient is extracted by the linear prediction coefficient extraction unit 33 for the signal in the band A to form a linear prediction filter, and the linear prediction is performed by the predictor 34 based on the proximity correlation using the linear prediction filter. Also, the pitch detector 3
5 detects the pitch of the original signal in band A, and the pitch gain for the detected pitch period is the pitch gain deriving unit 36.
It is derived by. The predictor 37 based on the pitch correlation performs a prediction between pitch periods, that is, a pitch for predicting a current voice signal from data of one pitch period past by a prediction filter composed of the derived pitch gain. The signals predicted by the predictor 34 based on the close correlation and the predictor 37 based on the pitch correlation are combined to form an adaptive predictor 3
It is output from 8. The difference between the prediction signal output from the adaptive prediction unit 38 and the original signal in band A is calculated, and the difference signal is input to the residual signal quantizer 39 and quantized. The above is the same operation as the conventional example.

【0024】また残差信号量子化器39の量子化ビット
数は疑似残差信号の平均振幅に応じて適応化されるが、
この導出法も従来例と全く同様にして、逆フィルタ部4
0、部分区間設定部41を通して各部分区間毎の疑似残
差信号の平均振幅が平均振幅算出部42より算出され
る。その後、量子化ビット数適応化部43では前記平均
振幅から量子化ビット数を各部分区間毎に割り当てる演
算(1)式が行われる。
Further, the number of quantization bits of the residual signal quantizer 39 is adapted according to the average amplitude of the pseudo residual signal,
This derivation method is also the same as the conventional example, and the inverse filter unit 4
0, the average amplitude of the pseudo residual signal for each partial section is calculated by the average amplitude calculating section 42 through the partial section setting section 41. After that, the quantization bit number adaptation unit 43 performs the operation (1) equation for assigning the quantization bit number to each partial section from the average amplitude.

【0025】ここで、必ずしも R=ΣΣRij (2) が成立するわけではなく、むしろ成り立たない場合が多
い。即ち、 R≦ΣΣRij (3) 従って、量子化ビット数貯蓄部48において(4)式で
示される量子化ビット数Rsを蓄えることになる。
Here, R = ΣΣR ij (2) does not always hold, and in many cases it does not hold. That is, R ≦ ΣΣR ij (3) Therefore, the quantized bit number saving unit 48 stores the quantized bit number Rs represented by the equation (4).

【0026】 Rs=R−ΣΣRij (4) 以後、従来例と同様にして、量子化ビット数適応化部4
3において上記のように決定された量子化ビット数に従
い、残差信号量子化器39で量子化された残差信号は符
号化部45へ送出されて符号化されると同時に、適応予
測部38にも帰還されることになる。
Rs = R−ΣΣR ij (4) Thereafter, in the same way as the conventional example, the quantization bit number adaptation unit 4
The residual signal quantized by the residual signal quantizer 39 according to the number of quantization bits determined as described above in 3 is sent to the encoding unit 45 and encoded, and at the same time, the adaptive prediction unit 38. Will be returned to.

【0027】一方、ピッチ情報、線形予測係数及び疑似
残差信号の平均振幅などの補助パラメータも従来例と同
様にして、補助情報量子化器44において量子化され、
その後、符号化部45で符号化されることになる。この
時の量子化ビット数は情報伝送速度により一意的に決ま
っている。各帯域の符号化部45から出力される符号デ
ータは多重化部46で多重化され音声バッファ47に符
号データとして蓄えられる。
On the other hand, the auxiliary parameters such as the pitch information, the linear prediction coefficient and the average amplitude of the pseudo residual signal are quantized in the auxiliary information quantizer 44 in the same manner as in the conventional example.
After that, it is encoded by the encoding unit 45. The number of quantization bits at this time is uniquely determined by the information transmission speed. The code data output from the coding unit 45 of each band is multiplexed by the multiplexing unit 46 and stored in the voice buffer 47 as code data.

【0028】上記した信号処理過程は帯域B及び帯域C
でも同様であるが、ピッチ相関にもとづく予測器37に
おける長時間予測フィルタや部分区間の設定は帯域Aで
構成されたものを用いているため、ピッチ検出部35、
ピッチゲイン導出部36及び部分区間設定部41の動作
は行われない。以上の動作が符号化部の説明である。
The above-described signal processing process is performed in the band B and the band C.
However, although the same is true, since the long-term prediction filter and the sub-interval setting in the predictor 37 based on the pitch correlation are those configured by the band A, the pitch detection unit 35,
The operations of the pitch gain derivation unit 36 and the partial section setting unit 41 are not performed. The above operation is the description of the encoding unit.

【0029】次に、分析フレームが次の分析フレームに
移行した場合、量子化ビット数適応化部43のみが上記
動作と異なることになる。即ち量子化ビット数Rfjは次
式で与えられる。
Next, when the analysis frame shifts to the next analysis frame, only the quantization bit number adaptation unit 43 is different from the above operation. That is, the number of quantization bits R fj is given by the following equation.

【0030】 Rij=Rf (R+Rs)+F(log2 ij) (5) ここで、Rf はi帯域の平均ビットレートであり、残差
信号を量子化する際に割り当てられる全量子化ビット数
Rと量子化ビット数貯蓄部48に蓄えられていたビット
数Rsとの合計に比例する。Fはi帯域j区間の疑似残
差信号の平均振幅Ufjの対数に比例する関数であり、従
来例と同様である。こうして、決定された帯域Aの各部
分区間毎の量子化ビット数の例を図3に示す。このよう
に、平均振幅が大きく量子化誤差への影響が最も多大で
ある第1区間において量子化ビット数が従来例よりも多
く割り当てられ、精密な量子化が可能となり誤差も縮小
する。以上の動作が符号化部の説明である。
R ij = R f (R + Rs) + F (log 2 U ij ) (5) Here, R f is the average bit rate of the i band, and the total quantization assigned when quantizing the residual signal. It is proportional to the sum of the number of bits R and the number of bits Rs stored in the quantization bit number saving unit 48. F is a function proportional to the logarithm of the average amplitude U fj of the pseudo residual signal in the i band j section and is similar to the conventional example. FIG. 3 shows an example of the number of quantization bits for each partial section of the band A thus determined. As described above, in the first section in which the average amplitude is large and the influence on the quantization error is the largest, the number of quantization bits is assigned more than in the conventional example, and precise quantization is possible, and the error is reduced. The above operation is the description of the encoding unit.

【0031】また復号化における動作は従来例と全く同
様である。さらに、上記構成に回線インターフェース部
30より入力されてきた音声信号が有音声部か無音声部
かを判断する無音検知部49を帯域Aに設けることで、
更に多数の貯蓄ビット数Rsを得ることになる。図2を
参照しながら上記実施例と異なる部分のみ説明する。
The decoding operation is exactly the same as the conventional example. Further, by providing the band A with the silence detecting section 49 for judging whether the voice signal input from the line interface section 30 is a voiced section or a non-voiced section in the above configuration,
A larger number of savings bits Rs will be obtained. Only parts different from the above embodiment will be described with reference to FIG.

【0032】まず、初期状態において、量子化ビット数
貯蓄部48に蓄えられている量子化ビット数Rsは0で
ある。この状態で、無音検知部49は平均振幅算出部4
2において算出された平均振幅をあるレベルT0 と比較
し、その大小関係により無音声部であるか否かを判断す
る。無音でないと判断された場合は、上記実施例と同様
の動作を行うことになる。無音と判断された場合、量子
化ビット数適応化部43において(1)式の第1項のみ
を用いて最小限のビット数割当てが行われる。そして残
りの量子化ビット数Rsは(4)式より算出され、量子
化ビット数貯蓄部48に蓄えられることになる。この場
合の量子化ビット数Rsは上記した実施例よりもはるか
に多数である。この動作は無音声部が続く限り行われる
ことになる。その後、無音検知部49において有音声部
と判断された場合は、上記実施例と全く同様の動作を行
うことになる。このようにして決定された帯域Aの各部
分区間毎の量子化ビット数の例を図4に示す。このよう
に各区間それぞれ量子化ビット数が1ビットずつ増加す
ることにより、大幅に量子化誤差が抑えられることにな
る。
First, in the initial state, the number of quantized bits Rs stored in the quantized bit number saving unit 48 is zero. In this state, the silence detector 49 operates the average amplitude calculator 4
The average amplitude calculated in 2 is compared with a certain level T 0, and it is determined whether or not it is a non-voice part based on the magnitude relation. If it is determined that the sound is not silent, the same operation as in the above embodiment is performed. When it is determined that there is no sound, the quantization bit number adaptation unit 43 allocates the minimum number of bits using only the first term of the equation (1). Then, the remaining quantized bit number Rs is calculated by the equation (4) and is stored in the quantized bit number saving unit 48. The number of quantization bits Rs in this case is much larger than that in the above-described embodiment. This operation will be performed as long as the voiceless section continues. After that, if the silence detecting section 49 determines that the section is a voiced section, the same operation as in the above embodiment is performed. FIG. 4 shows an example of the number of quantization bits for each partial section of the band A determined in this way. In this way, the number of quantization bits in each section is increased by one bit, so that the quantization error is significantly suppressed.

【0033】[0033]

【発明の効果】以上のように本発明は、量子化ビット数
貯蓄部を設け、次の分析フレームで利用することによ
り、残差信号の量子化雑音(量子化誤差)による音質劣
化を小さくすることができる。さらに無音検知部を設
け、無音声部では最小限の量子化ビット数しか残差信号
の量子化に際し割り当てず、残りを全て量子化ビット数
貯蓄部に蓄え、有音声部でこの貯蓄ビット数を利用する
ことで、特に情報伝送速度が小さい場合の音質劣化を著
しく改善することができる。
As described above, the present invention reduces the sound quality deterioration due to the quantization noise (quantization error) of the residual signal by providing the quantization bit number saving unit and using it in the next analysis frame. be able to. Furthermore, a silence detection unit is provided, and in the voiceless unit, only the minimum number of quantized bits is allocated when the residual signal is quantized, and all the rest is stored in the quantized bit number saving unit, and this saved bit number is stored in the voiced unit. By utilizing it, the sound quality deterioration can be remarkably improved especially when the information transmission speed is low.

【0034】また子音に代表されるような不規則な入力
音声信号に対し、適応予測部における予測精度が落ちる
場合でも、信号対量子化雑音比(S/N比)の向上を図
ることができ、実用上有効な音声符号化装置を提供する
ことができる。
Further, with respect to an irregular input speech signal represented by a consonant, even when the prediction accuracy in the adaptive prediction unit is lowered, the signal-to-quantization noise ratio (S / N ratio) can be improved. It is possible to provide a practically effective speech encoding device.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に於ける音声符号化装置の音
声符号化部を示すブロック図
FIG. 1 is a block diagram showing a speech coder of a speech coder according to an embodiment of the present invention.

【図2】同音声符号化装置の音声符号化部を示すブロッ
ク図
FIG. 2 is a block diagram showing a speech encoding unit of the same speech encoding apparatus.

【図3】同音声符号化装置に於いて決定された領域の部
分区間毎の量子化ビット数を示す図
FIG. 3 is a diagram showing the number of quantized bits for each partial section of a region determined by the speech encoding apparatus.

【図4】同音声符号化装置に於いて決定された領域の部
分区間毎の量子化ビット数を示す図
FIG. 4 is a diagram showing the number of quantized bits for each partial section of a region determined by the speech encoding apparatus.

【図5】従来の音声符号化装置の音声符号化部を示すブ
ロック図
FIG. 5 is a block diagram showing a speech encoding unit of a conventional speech encoding device.

【図6】同音声符号化装置の音声復号化部を示すブロッ
ク図
FIG. 6 is a block diagram showing a speech decoding unit of the speech encoding apparatus.

【図7】音声符号化構成による部分区間設定法の説明図FIG. 7 is an explanatory diagram of a partial interval setting method using a voice coding configuration.

【図8】同音声符号化装置に於いて決定された領域の部
分区間毎の量子化ビット数を示す図
FIG. 8 is a diagram showing the number of quantized bits for each partial section of a region determined by the speech encoding apparatus.

【図9】同音声符号化装置の音声復号化部における予測
合成部の具体的ブロック図
FIG. 9 is a concrete block diagram of a prediction synthesis unit in the speech decoding unit of the speech encoding device.

【符号の説明】[Explanation of symbols]

30 回線インターフェース部 31 A/D変換器 32 帯域分割フィルター 33 線形予測係数抽出部 34 近接相関にもとづく予測器 35 ピッチ検出部 36 ピッチゲイン導出部 37 ピッチ相関にもとづく予測器 38 適応予測部 39 残差信号量子化器 40 逆フィルタ部 41 部分区間設定部 42 平均振幅算出部 43 量子化ビット数適応化部 44 補助情報量子化器 45 符号化部 46 多重化部 47 音声バッファ 48 量子化ビット数貯蓄部 49 無音検知部 30 line interface unit 31 A / D converter 32 band division filter 33 linear prediction coefficient extraction unit 34 predictor based on proximity correlation 35 pitch detection unit 36 pitch gain derivation unit 37 predictor based on pitch correlation 38 adaptive prediction unit 39 residual Signal quantizer 40 Inverse filter unit 41 Partial interval setting unit 42 Average amplitude calculation unit 43 Quantization bit number adaptation unit 44 Auxiliary information quantizer 45 Encoding unit 46 Multiplexing unit 47 Speech buffer 48 Quantization bit number saving unit 49 silence detector

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】入力音声信号をディジタルフィルタにより
適応的に予測する予測手段と、前記予測手段により予測
された音声信号と入力音声信号との差である残差信号に
対応した疑似残差信号を発生する手段と、入力音声信号
のピッチ周期を等分割することで部分区間を設定する手
段と、前記部分区間毎に前記疑似残差信号の平均振幅を
検出する手段と、前記残差信号を量子化する手段と、量
子化に際し量子化ビット数を前記部分区間毎に前記平均
振幅に対応して適応的に割り当てる手段と、前記残差信
号の量子化に際し割り当てられずに余った量子化ビット
数を蓄えておく貯蓄部とを設け次の分析フレームで利用
するようにした音声符号化装置。
1. A prediction means for adaptively predicting an input voice signal by a digital filter, and a pseudo residual signal corresponding to a residual signal which is a difference between the voice signal predicted by the predicting means and the input voice signal. Generating means, means for setting a partial interval by equally dividing the pitch period of the input speech signal, means for detecting the average amplitude of the pseudo residual signal for each partial interval, and the residual signal being a quantum signal. Means for adaptively allocating the number of quantization bits corresponding to the average amplitude for each of the sub-intervals, and the number of quantization bits remaining unallocated during the quantization of the residual signal A speech coding apparatus which is provided with a saving section for storing and uses it in the next analysis frame.
【請求項2】入力音声信号が有音声部か無音声部である
かを判断する手段を設け、無音声部なら前記残差信号を
量子化する際、前記部分区間毎に適応的に割り当てられ
る量子化ビット数を必要最小限にとどめ、残りの量子化
ビット数を貯蓄部に蓄えておき有音声部で利用するよう
にした請求項1記載の音声符号化装置。
2. A means for determining whether an input voice signal is a voiced portion or a voiceless portion is provided, and when the voiceless portion is used, when the residual signal is quantized, it is adaptively assigned to each partial section. 2. The speech coding apparatus according to claim 1, wherein the number of quantization bits is kept to a necessary minimum, and the remaining number of quantization bits is stored in a saving section and used in a voiced section.
JP4198115A 1992-07-24 1992-07-24 Voice coding device Pending JPH0643898A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4198115A JPH0643898A (en) 1992-07-24 1992-07-24 Voice coding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4198115A JPH0643898A (en) 1992-07-24 1992-07-24 Voice coding device

Publications (1)

Publication Number Publication Date
JPH0643898A true JPH0643898A (en) 1994-02-18

Family

ID=16385720

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4198115A Pending JPH0643898A (en) 1992-07-24 1992-07-24 Voice coding device

Country Status (1)

Country Link
JP (1) JPH0643898A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112289327A (en) * 2020-10-29 2021-01-29 北京百瑞互联技术有限公司 LC3 audio encoder post residual optimization method, device and medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112289327A (en) * 2020-10-29 2021-01-29 北京百瑞互联技术有限公司 LC3 audio encoder post residual optimization method, device and medium

Similar Documents

Publication Publication Date Title
KR100647336B1 (en) Apparatus and method for adaptive time/frequency-based encoding/decoding
US5915234A (en) Method and apparatus for CELP coding an audio signal while distinguishing speech periods and non-speech periods
US4704730A (en) Multi-state speech encoder and decoder
EP0785541B1 (en) Usage of voice activity detection for efficient coding of speech
US6678655B2 (en) Method and system for low bit rate speech coding with speech recognition features and pitch providing reconstruction of the spectral envelope
US5251261A (en) Device for the digital recording and reproduction of speech signals
EP0364647A1 (en) Improvement to vector quantizing coder
JP2707564B2 (en) Audio coding method
US6910009B1 (en) Speech signal decoding method and apparatus, speech signal encoding/decoding method and apparatus, and program product therefor
JPH02281300A (en) Voice coding and decoding device
EP0747879B1 (en) Voice signal coding system
US5802109A (en) Speech encoding communication system
JPH11184498A (en) Voice encoding and decoding method
JPS63282795A (en) Multi-pulse voice encoder
JP3330178B2 (en) Audio encoding device and audio decoding device
JPH0643898A (en) Voice coding device
JP2797348B2 (en) Audio encoding / decoding device
US5231669A (en) Low bit rate voice coding method and device
JPH06259096A (en) Audio encoding device
JPS6134697B2 (en)
JPH0748696B2 (en) Speech coding system
KR0175250B1 (en) Vocoder Tone Detection Circuit and Method
JP3107620B2 (en) Audio coding method
KR100703325B1 (en) Apparatus and method for converting rate of speech packet
JP2581050B2 (en) Voice analysis and synthesis device