JPH06259096A - Audio encoding device - Google Patents

Audio encoding device

Info

Publication number
JPH06259096A
JPH06259096A JP5043118A JP4311893A JPH06259096A JP H06259096 A JPH06259096 A JP H06259096A JP 5043118 A JP5043118 A JP 5043118A JP 4311893 A JP4311893 A JP 4311893A JP H06259096 A JPH06259096 A JP H06259096A
Authority
JP
Japan
Prior art keywords
unit
signal
residual signal
auxiliary information
pitch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5043118A
Other languages
Japanese (ja)
Inventor
Kazumi Kawano
和美 川野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP5043118A priority Critical patent/JPH06259096A/en
Publication of JPH06259096A publication Critical patent/JPH06259096A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To provide an audio encoding device capable of securing relatively good tone quality even when the compression rate is large in a device compressing digital audio data. CONSTITUTION:This device is provided with a means 50 judging whether an input audio waveform to an audio encoding part is regarded as the same between adjacent analysis frames or not and an encoding auxiliary information storage part 52 minutely storing the auxiliary information of pitch information, a pitch gain, a linear predictive coefficient and an average amplitude of a pseudo residual signal, etc., and is constituted so that, when the waveform is regarded as the same, the signal showing the fact and the signal quantizing only the residual signal, are sent to an encoding part 45, and no auxiliary information is quantized and sent to the encoding part. Then, the device is constituted so that the quantization number of bit to be allocated to the auxiliary information is added to the quantization number of bit of the residual signal. At this time, the auxiliary information stored in the encoding auxiliary information storage part 52 is used for the auxiliary information used in the adaptive prediction parts 34, 37 and the quantization number of bit adaptation part 51 of the audio encoding part.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、アナログ回線やディジ
タル回線を利用し、その回線を通じて入力される音声信
号を予測符号化し、音声情報量を圧縮する音声符号化装
置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice coder which utilizes an analog line or a digital line, predictively codes a voice signal input through the line, and compresses a voice information amount.

【0002】[0002]

【従来の技術】従来より音声の高能率符号化法として、
たとえば、APC−AB方式などがあるが、近年多彩な
音声サービスの発達にともない、音声データを符号化情
報として蓄積伝送する音声メール装置などに応用され、
実用段階に入っている。以下に従来のアナログ電話回線
に接続される音声符号化装置において、APC−AB方
式により音声の高能率符号化を図っている場合について
説明する。
2. Description of the Related Art Conventionally, as a high-efficiency coding method for speech,
For example, there is an APC-AB system, etc., but with the development of various voice services in recent years, it has been applied to a voice mail device that stores and transmits voice data as encoded information.
It is in the practical stage. A case will be described below in which a conventional voice encoding device connected to an analog telephone line is performing high-efficiency voice encoding by the APC-AB system.

【0003】図5は従来の音声符号化部のブロック図で
あり、1はアナログ回線に接続され回線の制御や入出力
の分離を行う回線インターフェース部、2はアナログ信
号をディジタル信号に変換するA/D変換器、3は入力
される信号を複数の周波数帯域に分割する帯域分割フィ
ルタ、4は短時間予測フィルタを構成する線形予測係数
を抽出する線形予測係数抽出部、5は前記短時間予測フ
ィルタを用い音声信号の線形予測を行う近接相関にもと
づく予測器、6は音声信号波形のピッチを検出するピッ
チ検出部、7はピッチ検出部6から検出されたピッチ周
期に対する音声信号の相関の大きさを示すピッチゲイン
を導出するピッチゲイン導出部、8はピッチゲイン導出
部7より導出されたピッチゲインを用いて長時間予測フ
ィルタを構成し音声信号の線形予測を行うピッチ相関に
もとづく予測器、9は近接相関にもとづく予測器5とピ
ッチ相関にもとづく予測器8とからなる適応予測部、1
0は帯域分割フィルタ3の出力信号と適応予測部9から
出力される予測信号との差である残差信号を量子化する
残差信号量子化器、11は前記残差信号に相当する疑似
残差信号を導出する逆フィルタ部、12はピッチ検出部
6において検出されたピッチ周期を複数個の区間に等分
割する部分区間設定部、13は逆フィルタ部11より導
出された疑似残差信号の平均振幅を前記部分区間毎に算
出する平均振幅算出部、14は平均振幅算出部13にお
いて算出された平均振幅に応じて残差信号の量子化ビッ
ト数を前記部分区間毎に決定する量子化ビット数適応化
部、15はピッチ情報、ピッチゲイン、線形予測係数お
よび平均振幅などの補助情報を量子化する補助情報量子
化器、16は残差信号量子化器10において量子化され
た残差信号と補助情報量子化器15において量子化され
た補助情報とを符号化し符号データとして出力する符号
化部、17は各帯域における符号化部16より出力され
た符号データを多重化する多重化部、18は多重化部1
7から出力されるディジタル信号を格納しておく音声バ
ッファであり、以上が音声符号化部を構成する。
FIG. 5 is a block diagram of a conventional speech coding unit. Reference numeral 1 is a line interface unit connected to an analog line for controlling the line and separating input / output, and 2 is an A for converting an analog signal into a digital signal. / D converter, 3 is a band division filter that divides an input signal into a plurality of frequency bands, 4 is a linear prediction coefficient extraction unit that extracts a linear prediction coefficient that constitutes a short time prediction filter, and 5 is the short time prediction A predictor based on proximity correlation that performs linear prediction of a speech signal using a filter, 6 is a pitch detection unit that detects the pitch of the speech signal waveform, and 7 is a magnitude of the correlation of the speech signal with respect to the pitch period detected by the pitch detection unit 6. A pitch gain derivation unit for deriving a pitch gain indicating a pitch, and a pitch gain derived by the pitch gain derivation unit 7 for forming a long-term prediction filter Predictor based on pitch correlation for performing linear prediction of the signal, 9 an adaptive prediction unit consisting predictor 8 which based on predictor 5 and pitch correlation based on proximity correlation, 1
0 is a residual signal quantizer that quantizes a residual signal that is the difference between the output signal of the band division filter 3 and the prediction signal output from the adaptive prediction unit 9, and 11 is a pseudo residual corresponding to the residual signal. An inverse filter unit that derives the difference signal, 12 is a partial interval setting unit that equally divides the pitch period detected by the pitch detecting unit 6 into a plurality of intervals, and 13 is a pseudo residual signal derived by the inverse filter unit 11. An average amplitude calculation unit that calculates an average amplitude for each of the partial intervals, and a quantization bit that determines the number of quantization bits of the residual signal for each of the partial intervals according to the average amplitude calculated by the average amplitude calculation unit 13. A number adaptation unit, 15 is an auxiliary information quantizer that quantizes auxiliary information such as pitch information, pitch gain, linear prediction coefficient, and average amplitude, and 16 is a residual signal quantized by the residual signal quantizer 10. And assistance An encoding unit that encodes the auxiliary information quantized by the information quantizer 15 and outputs the encoded data as code data, a multiplexing unit 17 that multiplexes the code data output from the encoding unit 16 in each band, and 18 Multiplexer 1
This is a voice buffer for storing the digital signal output from 7, and the above constitutes the voice encoding unit.

【0004】次に音声復号化部について図6を参照しな
がら説明する。19は音声バッファ18からの符号化デ
ータを各帯域毎に分離する符号系列分離部、20は符号
系列分離部19で各帯域毎に分離された符号データをさ
らに残差信号の符号データと、ピッチ情報やピッチゲイ
ンや線形予測係数および平均振幅などの補助情報の符号
データとに分離する情報系列分離部、21は情報系列分
離部20において分離された補助情報の符号データをも
との補助情報に復元する補助情報復号化器、22は補助
情報復号化器21において復元した平均振幅情報をもと
にして、上記した音声符号化部と同様にして残差信号の
各部分区間毎の量子化ビット数を算出する復号化ビット
数適応化部、23は残差信号の符号データをもとの残差
信号に復元する残差信号復号化器、24はピッチゲイン
や線形予測係数の補助情報により構成された予測フィル
タにより、残差信号復号化器23の出力信号から音声信
号を予測する予測合成部、25は各帯域毎の予測合成部
24からの出力信号を融合する帯域合成フィルタ、26
はディジタル信号をアナログ信号に変換するD/A変換
器、27はアナログ回線に接続され回線の制御や入出力
の分離を行う回線インターフェース部であり、以上が音
声復号化部を構成する。
Next, the voice decoding unit will be described with reference to FIG. Reference numeral 19 denotes a code sequence separation unit that separates the coded data from the audio buffer 18 for each band, and 20 denotes the code data that has been separated for each band by the code sequence separation unit 19 and the code data of the residual signal and the pitch. The information sequence separation unit 21 separates the information and the code data of the auxiliary information such as the pitch gain, the linear prediction coefficient, and the average amplitude. Reference numeral 21 represents the code data of the auxiliary information separated by the information sequence separation unit 20 as the original auxiliary information. A side information decoder for restoration, 22 is a quantized bit for each partial section of the residual signal, based on the average amplitude information restored by the side information decoder 21, in the same manner as the above speech coding unit. The decoding bit number adaptation unit for calculating the number, 23 is a residual signal decoder for restoring the coded data of the residual signal to the original residual signal, and 24 is the auxiliary information of the pitch gain and the linear prediction coefficient. The made prediction filter, prediction synthesis unit for predicting an audio signal from the output signal of the residual signal decoder 23, the band synthesis filter 25 for fusing the output signals from the prediction composer unit 24 of each band 26
Is a D / A converter that converts a digital signal into an analog signal, and 27 is a line interface unit that is connected to an analog line and controls the line and separates input and output. The above constitutes a speech decoding unit.

【0005】以上のように構成された音声符号化装置に
ついて、以下にその動作を説明する。まず図5におい
て、電話回線などを通じて回線インターフェース部1に
入力された音声などのアナログ信号はA/D変換器2に
よりディジタル信号に変換される。このディジタル信号
は、以後短い時間区間すなわち分析フレーム(たとえば
16msec)毎に区切られ、処理されていくことにな
る。A/D変換器2によりディジタル化された音声信号
(0〜4kHz)はたとえばQMF(Quadratu
re Mirror Filter)などで構成される
帯域分割フィルタ3により複数個の帯域、たとえば帯域
A(0〜1kHz)、帯域B(1〜2kHz)および帯
域C(2〜4kHz)の3つの周波数帯域に分割され
る。
The operation of the speech coding apparatus configured as above will be described below. First, in FIG. 5, an analog signal such as voice input to the line interface unit 1 through a telephone line or the like is converted into a digital signal by the A / D converter 2. This digital signal will be divided and processed in short time intervals, that is, every analysis frame (for example, 16 msec). The audio signal (0 to 4 kHz) digitized by the A / D converter 2 is, for example, a QMF (Quadrattu).
A band division filter 3 composed of a re-mirror filter or the like divides into a plurality of bands, for example, three frequency bands of band A (0 to 1 kHz), band B (1 to 2 kHz) and band C (2 to 4 kHz). To be done.

【0006】以後帯域Aについて説明する。帯域Aの原
信号(帯域分割フィルタ3からの出力信号)に対し線形
予測係数抽出部4で線形予測係数の抽出を行い、たとえ
ば偶数次である4次の線形予測フィルタを構成する。こ
の線形予測フィルタを用いて近接相関にもとづく予測器
5において線形予測を行う。近接相関にもとづく予測器
5では比較的近傍の標本値たとえば現時点から4サンプ
ル過去のデータを用いて予測を行う。またピッチ検出部
6は帯域Aの原信号のピッチを検出し、検出されたピッ
チ周期に対するピッチゲインがピッチゲイン導出部7に
より導出される。ピッチ相関にもとづく予測器8は導出
されたピッチゲインより構成される予測フィルタにより
ピッチ周期間の予測つまり1ピッチ周期過去のデータか
ら現時点の音声信号を予測するピッチ予測を行う。近接
相関にもとづく予測器5およびピッチ相関にもとづく予
測器8で予測された信号は合成され適応予測部9から出
力される。適応予測部9より出力される予測信号は帯域
Aの原信号との差が取られ残差信号として残差信号量子
化器10に入力され量子化されることになる。
The band A will be described below. The linear prediction coefficient extraction unit 4 extracts the linear prediction coefficient from the original signal of the band A (output signal from the band division filter 3) to form, for example, an even-order fourth-order linear prediction filter. Linear prediction is performed in the predictor 5 based on the proximity correlation using this linear prediction filter. The predictor 5 based on the close correlation performs prediction using sample values in a relatively close range, for example, data of four samples past from the present time. The pitch detector 6 detects the pitch of the original signal in the band A, and the pitch gain deriving unit 7 derives the pitch gain for the detected pitch period. The predictor 8 based on the pitch correlation performs prediction between pitch periods, that is, pitch prediction for predicting the current speech signal from the data of one pitch period past by the prediction filter configured by the derived pitch gain. The signals predicted by the predictor 5 based on the proximity correlation and the predictor 8 based on the pitch correlation are combined and output from the adaptive prediction unit 9. The prediction signal output from the adaptive prediction unit 9 is input to the residual signal quantizer 10 and quantized as a residual signal by taking the difference from the original signal in the band A.

【0007】ここで残差信号量子化器10の量子化ビッ
ト数は疑似残差信号の平均振幅に応じて適応化される。
そのために疑似残差信号の平均振幅を適応予測部9を動
作させる前に算出する必要がある。まず逆フィルタ部1
1において帯域Aの原信号から疑似残差信号を求める。
逆フィルタ部11の内部は近接相関にもとづく予測器5
およびピッチ相関にもとづく予測器8とからなり適応予
測部9と同様である。次にこの疑似残差信号は部分区間
設定部12に入力される。部分区間は図7に示されるよ
うにピッチ周期Tpを複数個に等分割、たとえば4分割
して得られ、各区間が周期的に反復するように設定され
る。第1番目の部分区間は疑似残差信号の振幅周期性に
基づいて検出され、部分区間の位置Tdはフレームの始
めから第1番目の部分区間の先頭までの時間長によって
指定される。平均振幅算出部13では各部分区間毎の疑
似残差信号の平均振幅が算出され、量子化ビット数適応
化部14では前記平均振幅から残差信号の量子化ビット
数を各部分区間毎に割り当てる演算を行う。i帯域j区
間の量子化ビット数Rijは次式で与えられる。
Here, the number of quantization bits of the residual signal quantizer 10 is adapted according to the average amplitude of the pseudo residual signal.
Therefore, it is necessary to calculate the average amplitude of the pseudo residual signal before operating the adaptive prediction unit 9. First, the inverse filter unit 1
In 1, the pseudo residual signal is obtained from the original signal of band A.
The inside of the inverse filter unit 11 is a predictor 5 based on proximity correlation.
And the predictor 8 based on the pitch correlation, and is the same as the adaptive predictor 9. Next, this pseudo residual signal is input to the partial section setting unit 12. The partial section is obtained by equally dividing the pitch cycle Tp into a plurality of sections, for example, four sections, as shown in FIG. 7, and is set so that each section periodically repeats. The first partial section is detected based on the amplitude periodicity of the pseudo residual signal, and the position Td of the partial section is designated by the time length from the beginning of the frame to the beginning of the first partial section. The average amplitude calculation unit 13 calculates the average amplitude of the pseudo residual signal for each partial section, and the quantization bit number adaptation unit 14 allocates the quantization bit number of the residual signal from the average amplitude for each partial section. Calculate. The number of quantization bits R ij in the i band j section is given by the following equation.

【0008】 Rij=Ri (R)+F(log2 ij) (1) i=A、B、C j=1、…、4 ここで、Ri はi帯域の平均ビットレートであり全帯域
の残差信号の量子化に割り当てられるビット数R(R=
A +RB +RC )に比例する。Rは情報伝送速度によ
り一意的に決まる定数である。Fはi帯域j区間擬似残
差信号の平均振幅Uijの対数に比例する関数である。こ
のようにして決定された帯域Aの各部分区間毎の量子化
ビット数の例を図8に示す。この量子化ビット数に従い
残差信号量子化器の10で量子化された残差信号は符号
化部16へ送出され符号化されると同時に、適応予測部
9にも帰還されることになる。
R ij = R i (R) + F (log 2 U ij ) (1) i = A, B, C j = 1, ... 4, where R i is the average bit rate of the i band and The number of bits R (R = R) allocated to the quantization of the residual signal of the band
Proportional to R A + R B + R C ). R is a constant uniquely determined by the information transmission rate. F is a function proportional to the logarithm of the average amplitude U ij of the i-band j-section pseudo residual signal. FIG. 8 shows an example of the number of quantization bits for each partial section of the band A determined in this way. The residual signal quantized by the residual signal quantizer 10 according to the number of quantization bits is sent to the encoding unit 16 and encoded, and at the same time, is also fed back to the adaptive prediction unit 9.

【0009】一方、ピッチ情報、ピッチゲイン、線形予
測係数および擬似残差信号の平均振幅などの補助情報も
補助情報量子化器15において量子化され、その後符号
化部16で符号化されることになる。このときの量子化
ビット数は情報伝送速度により一意的に決まっている。
各帯域の符号化部16から出力される符号データは多重
化部17で多重化され音声バッファ18に符号データと
して蓄えられる。
On the other hand, auxiliary information such as pitch information, pitch gain, linear prediction coefficient, and average amplitude of pseudo residual signal is also quantized by the auxiliary information quantizer 15 and then encoded by the encoder 16. Become. The number of quantization bits at this time is uniquely determined by the information transmission rate.
The code data output from the coding unit 16 of each band is multiplexed by the multiplexing unit 17 and stored in the voice buffer 18 as code data.

【0010】上記した信号処理過程は帯域Bおよび帯域
Cでも同様であるが、ピッチ相関にもとづく予測器8に
おける長時間予測フィルタや部分区間の設定は帯域Aで
構成されたものを用いているため、ピッチ検出部6、ピ
ッチゲイン導出部7および部分区間設定部12の動作は
行われない。以上の動作が音声符号化部の説明である。
The above-described signal processing process is the same for the band B and the band C, but the long-term prediction filter and the sub-interval setting in the predictor 8 based on the pitch correlation use those configured in the band A. The pitch detection unit 6, the pitch gain derivation unit 7, and the partial section setting unit 12 do not operate. The above operation is the description of the voice encoding unit.

【0011】次に図6において、前記音声バッファ18
から音声信号を復元する例を示す。まず音声バッファ1
8からの符号データを符号系列分離部19で各帯域毎の
符号データ系列に分離する。さらにこの符号データは各
帯域の情報系列分離部20において、残差信号の符号デ
ータと、ピッチ情報やピッチゲインや線形予測係数およ
び平均振幅などの補助情報の符号データとに分離され
る。
Next, referring to FIG. 6, the audio buffer 18
An example of reconstructing the audio signal from is shown. First voice buffer 1
The code data from No. 8 is separated into the code data series for each band by the code series separation unit 19. Further, this coded data is separated into coded data of the residual signal and coded data of auxiliary information such as pitch information, pitch gain, linear prediction coefficient, and average amplitude in the information series separation unit 20 of each band.

【0012】この後は帯域Aの信号処理について説明す
る。前記補助情報の符号データは補助情報復号化器21
に入力され、ピッチ情報、ピッチゲイン、線形予測係数
および平均振幅などのもとの補助情報に復元される。そ
の後、復号化ビット数適応化部22においては、復元さ
れた平均振幅Uijから(1)式にもとづき残差信号の復
号化ビット数Rijを算出し、これに基づいて、残差信号
の符号データは残差信号復号化器23においてもとの残
差信号に復元される。予測合成部24は前記復号化され
たピッチ情報、ピッチゲイン、線形予測係数などの補助
情報から構成され、図9に示すように近接相関にもとづ
く予測器28およびピッチ相関にもとづく予測器29と
からなり、これはそれぞれ音声符号化部の適応予測部9
における近接相関にもとづく予測器5およびパッチ相関
にもとづく予測器8と同じである。この予測合成部24
に、前記復号化された残差信号が入力され各帯域毎の音
声信号が再生されることになる。上記した信号処理過程
は帯域Bおよび帯域Cでも全く同様である。
The signal processing of band A will be described below. The coded data of the auxiliary information is the auxiliary information decoder 21.
And is restored to the original auxiliary information such as pitch information, pitch gain, linear prediction coefficient and average amplitude. Thereafter, the decoding bit number adaptation unit 22 calculates the decoding bit number R ij of the residual signal from the restored average amplitude U ij based on the equation (1), and based on this, calculates the residual signal The coded data is restored to the original residual signal in the residual signal decoder 23. The prediction synthesizing unit 24 is composed of auxiliary information such as the decoded pitch information, pitch gain, and linear prediction coefficient, and is composed of a predictor 28 based on proximity correlation and a predictor 29 based on pitch correlation as shown in FIG. Which is the adaptive prediction unit 9 of the speech coding unit.
Is the same as the predictor 5 based on the proximity correlation and the predictor 8 based on the patch correlation. This prediction synthesis unit 24
Then, the decoded residual signal is input and the audio signal for each band is reproduced. The above-described signal processing process is exactly the same for band B and band C.

【0013】帯域合成フィルタ25では各帯域毎に再生
された音声信号を融合し、D/A変換器26によりディ
ジタル信号をアナログ信号に変換し、再生信号として回
線インターフェース部27に出力することになる。
The band synthesizing filter 25 fuses the audio signals reproduced for each band, converts the digital signal into an analog signal by the D / A converter 26, and outputs it as a reproduced signal to the line interface unit 27. .

【0014】[0014]

【発明が解決しようとする課題】従来の音声符号化装置
では、上記したような音声符号化処理を行う際、分析フ
レーム当たりの補助情報、残差信号に割り当てられる量
子化ビット数が、情報伝送速度に比例して一意的に決め
られている。したがって、情報伝送速度が小さい場合、
補助情報、残差信号に割り当てられる量子化ビット数も
少なくなる。補助情報の量子化に割り当てられる量子化
ビット数が少なくなると、適応予測部9での予測精度が
落ち、残差信号の量子化誤差を大きくする。加えて残差
信号量子化器10に割り当てられる量子化ビット数も少
ないため、一層量子化誤差は増大し、音質の劣化が著し
くなるという問題点を有していた。
In the conventional speech coding apparatus, when performing the speech coding processing as described above, the auxiliary information per analysis frame and the number of quantization bits assigned to the residual signal are used for information transmission. It is uniquely determined in proportion to the speed. Therefore, if the information transmission rate is low,
The number of quantization bits assigned to the auxiliary information and the residual signal also decreases. When the number of quantization bits assigned to the quantization of the auxiliary information decreases, the prediction accuracy of the adaptive prediction unit 9 decreases and the quantization error of the residual signal increases. In addition, since the number of quantization bits assigned to the residual signal quantizer 10 is small, there is a problem that the quantization error is further increased and the sound quality is significantly deteriorated.

【0015】また情報伝送速度が小さい場合、補助情報
の量子化に割り当てられる量子化ビット数を増やして、
適応予測部9での予測精度を向上させても音質改善には
限界があることもわかっている。
When the information transmission rate is low, the number of quantization bits assigned to the quantization of the auxiliary information is increased,
It is also known that even if the prediction accuracy in the adaptive prediction unit 9 is improved, there is a limit to the sound quality improvement.

【0016】したがって残差信号量子化器10に割り当
てられる量子化ビット数を増やして量子化誤差を小さく
する手段を設けた方が音質向上に結びつくということも
分かっている。
Therefore, it is also known that providing the means for increasing the number of quantization bits assigned to the residual signal quantizer 10 to reduce the quantization error leads to the improvement of sound quality.

【0017】本発明は上記問題を解決するもので、情報
伝送速度が小さい場合でも比較的良好な音質を確保でき
る音声符号化装置を提供することを目的としている。
The present invention solves the above problem, and an object of the present invention is to provide a speech coding apparatus capable of ensuring a relatively good sound quality even when the information transmission rate is low.

【0018】[0018]

【課題を解決するための手段】上記目的を達成するため
に、本発明の音声符号化装置は、分析フレーム間で音声
波形は連続的に変化し、したがってその特徴を表す補助
情報も定常的に変化することに着目し、従来例の音声符
号化部の構成に、音声符号化装置への入力音声波形が隣
接する分析フレーム間で同一と見なされるかどうかを判
断する手段と、音声符号化部および音声復号化部に補助
情報を遂一記憶しておく符号化補助情報記憶部および復
号化補助情報記憶部とを設け、同一と見なされた場合に
はそのことを示す信号と残差信号のみ量子化して符号化
部へ送出し、補助情報は量子化せず符号化部へは送出し
ないよう構成した。そして、補助情報に割り当てられる
べき量子化ビット数を残差信号量子化器に割り当てられ
る量子化ビット数に加え、量子化ビット数を増やすよう
構成した。またこの際、適応予測部、量子化ビット数適
応化部などで用いられる補助情報には、前記符号化補助
情報記憶部に記憶されている補助情報を用いる。また、
音声復号化部においては、予測合成部、復号化ビット数
適応化部に使用される補助情報には復号化補助情報記憶
部に記憶されている補助情報を用いる構成とした。
In order to achieve the above object, the speech coding apparatus of the present invention is such that the speech waveform continuously changes between analysis frames, and therefore the auxiliary information representing the characteristics thereof is constantly maintained. Focusing on the change, in the configuration of the speech coding unit of the conventional example, a means for judging whether or not the input speech waveforms to the speech coding apparatus are considered to be the same between adjacent analysis frames, and a speech coding unit. And a decoding auxiliary information storage unit and a decoding auxiliary information storage unit for temporarily storing auxiliary information in the speech decoding unit, and when they are regarded as the same, only a signal indicating that and a residual signal It is configured so that it is quantized and transmitted to the encoding unit, and the auxiliary information is not quantized and is not transmitted to the encoding unit. Then, the number of quantization bits to be assigned to the auxiliary information is added to the number of quantization bits to be assigned to the residual signal quantizer, and the number of quantization bits is increased. At this time, the auxiliary information stored in the encoded auxiliary information storage unit is used as the auxiliary information used in the adaptive prediction unit, the quantization bit number adaptation unit, and the like. Also,
In the speech decoding unit, the auxiliary information stored in the decoding auxiliary information storage unit is used as the auxiliary information used in the prediction synthesis unit and the decoding bit number adaptation unit.

【0019】[0019]

【作用】本発明は上記した構成により、補助情報に割り
当てられるべき量子化ビット数を、全帯域の残差信号の
量子化に割り当てられるビット数Rに加算した上で
(1)式の計算を行うことにより、従来よりも多数の量
子化ビット数が残差信号量子化器に割り当てられ、残差
信号を緻密に量子化することができ、量子化誤差は小さ
くなり、より忠実に音声波形を再生できる。また前記し
たように隣接する分析フレーム間では補助情報は定常的
に変化すると考えて良い。したがって同一の音声波形と
判断される限り、同一の補助情報を用いても誤差は少な
い。以上のことから全体的に誤差を抑えることができ
る。
According to the present invention, the number of quantized bits to be assigned to the auxiliary information is added to the number R of bits to be assigned to the quantization of the residual signal in the entire band, and then the calculation of the equation (1) is performed by the above configuration. By doing so, a larger number of quantization bits than before is assigned to the residual signal quantizer, the residual signal can be quantized precisely, the quantization error becomes smaller, and the voice waveform can be faithfully reproduced. Can be played. Further, it may be considered that the auxiliary information constantly changes between adjacent analysis frames as described above. Therefore, as long as it is determined that the same voice waveform is used, there is little error even if the same auxiliary information is used. From the above, the error can be suppressed as a whole.

【0020】[0020]

【実施例】以下、本発明の一実施例について、図面を参
照ながら説明する。図1は本発明の一実施例における音
声符号化部のブロック図であり、30はアナログ回線に
接続され回線の制御や入出力の分離を行う回線インター
フェース部、31はアナログ信号をディジタル信号に変
換するA/D変換器、32は入力される信号を複数の周
波数帯域に分割する帯域分割フィルタ、33は短時間予
測フィルタを構成する線形予測係数を抽出する線形予測
係数抽出部、34は前記短時間予測フィルタを用い音声
信号の線形予測を行う近接相関にもとづく予測器、35
は音声信号波形のピッチを検出するピッチ検出部、36
はピッチ検出部から検出されたピッチ周期に対する音声
信号の相関の大きさを示すピッチゲインを導出するピッ
チゲイン導出部、37はピッチゲイン導出部36より導
出されたピッチゲインを用いて長時間予測フィルタを構
成し音声信号の線形予測を行うピッチ相関にもとづく予
測器、38は近接相関にもとづく予測器34とピッチ相
関にもとづく予測器37とからなる適応予測部、39は
帯域分割フィルタ32の出力信号と適応予測部38から
出力される予測信号との差である残差信号を量子化する
残差信号量子化器、40は前記残差信号に相当する疑似
残差信号を導出する逆フィルタ部、41はピッチ検出部
35において検出されたピッチ周期を複数個の区間に等
分割する部分区間設定部、42は逆フィルタ部40より
導出された疑似残差信号の平均振幅を前記部分区間毎に
算出する平均振幅算出部、45は残差信号量子化器39
において量子化された残差信号と後述の量子化ビット数
処理部43内の補助情報量子化器44において量子化さ
れた補助情報とを符号化し符号データとして出力する符
号化部、46は各帯域における符号化部45より出力さ
れた符号データを多重化する多重化部、47は多重化部
46から出力されるディジタル信号を格納しておく音声
バッファであり、以上は従来例と全く同様である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of a voice encoding unit according to an embodiment of the present invention. Reference numeral 30 is a line interface unit connected to an analog line for controlling the line and separating input / output, and 31 is for converting an analog signal into a digital signal. A / D converter, 32 is a band division filter that divides an input signal into a plurality of frequency bands, 33 is a linear prediction coefficient extraction unit that extracts a linear prediction coefficient that constitutes a short time prediction filter, and 34 is the short Predictor based on proximity correlation for linear prediction of speech signal using temporal prediction filter, 35
Is a pitch detector for detecting the pitch of the voice signal waveform, 36
Is a pitch gain deriving unit for deriving a pitch gain indicating the magnitude of the correlation of the voice signal with respect to the pitch period detected by the pitch detecting unit, and 37 is a long-term prediction filter using the pitch gain derived by the pitch gain deriving unit 36. A predictor based on pitch correlation for linear prediction of a speech signal, an adaptive predictor 38 including a predictor 34 based on proximity correlation and a predictor 37 based on pitch correlation, and 39 is an output signal of the band division filter 32. And a residual signal quantizer that quantizes a residual signal that is a difference between the prediction signal output from the adaptive prediction unit 38, and an inverse filter unit 40 that derives a pseudo residual signal corresponding to the residual signal, Reference numeral 41 is a partial section setting section for equally dividing the pitch cycle detected by the pitch detection section 35 into a plurality of sections, and 42 is a pseudo residual derived from the inverse filter section 40. The average amplitude calculating section for calculating an average amplitude of the signal for each said subinterval, 45 residual signal quantizer 39
An encoding unit that encodes the residual signal quantized in the above and the auxiliary information quantized in the auxiliary information quantizer 44 in the below-described quantization bit number processing unit 43, and outputs the encoded data as coded data. In the above, a multiplexing unit for multiplexing the code data output from the encoding unit 45 and a voice buffer 47 for storing the digital signal output from the multiplexing unit 46 are the same as the conventional example. .

【0021】量子化ビット数処理部43は、図2にその
構成を示す。図2において、50は音声符号化部への入
力音声波形が一つ前の分析フレームの音声波形と同一と
見なせるかを判断する音声波形判別部、51は平均振幅
算出部42において算出された平均振幅に応じて残差信
号の量子化ビット数を前記部分区間毎に決定する量子化
ビット数適応化部、44はピッチ情報、ピッチゲイン、
線形予測係数および平均振幅などの補助情報を量子化す
る補助情報量子化器、52は前記補助情報量子化器44
において量子化された補助情報を遂一記憶しておく符号
化補助情報記憶部である。なお、帯域B、帯域Cには音
声波形判別部50は無い。以上が音声符号化部を構成す
る。
The quantization bit number processing unit 43 is shown in FIG. In FIG. 2, reference numeral 50 is a speech waveform discrimination unit that determines whether the speech waveform input to the speech encoding unit can be regarded as the same as the speech waveform of the immediately preceding analysis frame, and 51 is the average calculated by the average amplitude calculation unit 42. A quantization bit number adaptation unit that determines the quantization bit number of the residual signal for each of the partial intervals according to the amplitude, 44 is pitch information, pitch gain,
Auxiliary information quantizer for quantizing auxiliary information such as linear prediction coefficient and average amplitude, 52 is the auxiliary information quantizer 44
It is a coding auxiliary information storage unit for temporarily storing the auxiliary information quantized in. The band B and the band C do not have the voice waveform discriminating unit 50. The above constitutes the speech encoding unit.

【0022】次に図3は本発明の一実施例における音声
復号化部のブロック図であり、60は音声バッファ47
からの符号化データを各帯域毎に分離する符号系列分離
部、61は符号系列分離部60で各帯域毎に分離された
符号データをさらに残差信号の符号データと、ピッチ情
報やピッチゲインや線形予測係数および平均振幅などの
補助情報の符号データとに分離する情報系列分離部、6
2は情報系列分離部61において分離された補助情報の
符号データをもとの補助情報に復元する補助情報復号化
器、63は補助情報復号化器62において復元した平均
振幅情報をもとにして、上記した音声符号化部と同様に
して残差信号の各部分区間毎の量子化ビット数を算出す
る復号化ビット数適応化部、64は残差信号の符号デー
タをもとの残差信号に復元する残差信号復号化器、65
はピッチ情報や線形予測係数の補助情報により構成され
た予測フィルタにより、残差信号復号化器64の出力信
号から音声信号を予測する予測合成部、66は各帯域毎
の予測合成部65からの出力信号を融合する帯域合成フ
ィルタ、67はディジタル信号をアナログ信号に変換す
るD/A変換器、68はアナログ回線に接続され回線の
制御や入出力の分離を行う回線インターフェース部であ
り、以上は従来例と全く同様である。69は情報系列分
離部61、において分離された補助情報を遂一記憶する
復号化補助情報記憶部であり、以上が音声復号化部を構
成している。
Next, FIG. 3 is a block diagram of a voice decoding unit in one embodiment of the present invention, and 60 is a voice buffer 47.
A code sequence separation unit for separating the coded data from each of the bands for each band, 61 denotes the code data separated for each band by the code sequence separation unit 60, the code data of the residual signal, the pitch information, the pitch gain, the An information sequence separation unit that separates the linear prediction coefficient and the code data of the auxiliary information such as the average amplitude, 6
Reference numeral 2 denotes a side information decoder that restores the coded data of the side information separated by the information sequence separation unit 61 to the side information that is the original, and 63 is based on the average amplitude information that is restored by the side information decoder 62. , A decoding bit number adaptation unit that calculates the number of quantization bits for each partial section of the residual signal in the same manner as the speech coding unit described above, and 64 represents the residual signal based on the code data of the residual signal. A residual signal decoder for recovering
Is a prediction synthesis unit that predicts a speech signal from the output signal of the residual signal decoder 64 by a prediction filter configured by pitch information and auxiliary information of a linear prediction coefficient, and 66 is a prediction synthesis unit 65 for each band. A band synthesis filter that fuses output signals, 67 is a D / A converter that converts a digital signal into an analog signal, and 68 is a line interface unit that is connected to an analog line and controls the line and separates input and output. This is exactly the same as the conventional example. Reference numeral 69 denotes a decoding auxiliary information storage unit that temporarily stores the auxiliary information separated by the information sequence separation unit 61, and the above constitutes a speech decoding unit.

【0023】以上のように構成された音声符号化装置に
ついて、以下にその動作を説明する。まず、電話回線な
どを通じて回線インターフェース部30に入力された音
声などのアナログ信号はA/D変換器31によりディジ
タル信号に変換される。このディジタル信号は、以後短
い時間区間すなわち分析フレーム(たとえば16mse
c)毎に区切られ、処理されていくことになる。A/D
変換器31によりディジタル化された音声信号(0〜4
kHz)はたとえばQMF(Quadrature M
irror Filter)などで構成される帯域分割
フィルタ32により複数個の帯域、たとえば帯域A(0
〜1kHz)、帯域B(1〜2kHz)および帯域C
(2〜4kHz)の3つの周波数帯域に分割される。
The operation of the speech coding apparatus configured as above will be described below. First, an analog signal such as voice input to the line interface unit 30 through a telephone line or the like is converted into a digital signal by the A / D converter 31. This digital signal will then be used for a short time interval or analysis frame (eg 16 mse).
It will be divided and processed for each c). A / D
Audio signal digitized by converter 31 (0-4
kHz) is, for example, QMF (Quadrature M).
A plurality of bands, for example, band A (0
˜1 kHz), band B (1-2 kHz) and band C
It is divided into three frequency bands (2 to 4 kHz).

【0024】以後帯域Aについての説明を行う。まずピ
ッチ検出部35において帯域Aの原信号のピッチを検出
する。このピッチ情報は量子化ビット数処理部43に送
出され、量子化ビット数処理部43内の音声波形判別部
50ではこの値が前の分析フレームにおいて検出された
ピッチの±5%の範囲内に含まれるかを判断する。±5
%の範囲内に含まれるなら現在の分析フレームの音声波
形は一つ前の分析フレームと同一の音声波形と判断し、
それ以外は現在の分析フレームの音声波形は一つ前の分
析フレームの音声波形と同一でないとする。
The band A will be described below. First, the pitch detector 35 detects the pitch of the original signal in the band A. This pitch information is sent to the quantized bit number processing unit 43, and the voice waveform discrimination unit 50 in the quantized bit number processing unit 43 sets this value within ± 5% of the pitch detected in the previous analysis frame. Determine if it is included. ± 5
If it is included in the range of%, it is determined that the voice waveform of the current analysis frame is the same as the voice waveform of the previous analysis frame,
Otherwise, the speech waveform of the current analysis frame is not the same as the speech waveform of the immediately preceding analysis frame.

【0025】現在の分析フレームの音声波形が一つ前の
分析フレームの音声波形と同一でないと見なされた場合
(図2の(a))について述べる。まず、音声波形判別
部50で同一波形でないと判断されたことを示す信号は
帯域B、帯域Cにも送出されることになる。この状態
で、帯域Aの原信号(帯域分割フィルタ32からの出力
信号)に対し線形予測係数抽出部33で線形予測係数の
抽出を行い、線形予測フィルタを構成する。この線形予
測フィルタを用い近接相関にもとづく予測器34におい
て線形予測を行う。またピッチ検出部35により検出さ
れたピッチ情報に基づき、ピッチゲインがピッチゲイン
導出部36により導出される。ピッチ相関にもとづく予
測器37は導出されたピッチゲインより構成される予測
フィルタによりピッチ周期間の予測つまり1ピッチ周期
過去のデータから現時点の音声信号を予測するピッチ予
測を行う。近接相関にもとづく予測器34およびピッチ
相関にもとづく予測器37で予測された信号は合成され
適応予測部38から出力される。適応予測部38より出
力される予測信号は帯域Aの原信号との差が取られ残差
信号として残差信号量子化器39に入力され量子化され
る。以上は従来例と全く同様の動作である。
The case where the speech waveform of the current analysis frame is considered not to be the same as the speech waveform of the previous analysis frame ((a) of FIG. 2) will be described. First, a signal indicating that the voice waveform determination unit 50 has determined that the waveforms are not the same is sent to the band B and the band C. In this state, the linear prediction coefficient is extracted by the linear prediction coefficient extraction unit 33 from the original signal of the band A (output signal from the band division filter 32) to form a linear prediction filter. Linear prediction is performed in the predictor 34 based on the close correlation using this linear prediction filter. The pitch gain deriving unit 36 derives a pitch gain based on the pitch information detected by the pitch detecting unit 35. The predictor 37 based on the pitch correlation performs prediction between pitch periods, that is, pitch prediction that predicts the current speech signal from the data of one pitch period past by the prediction filter configured by the derived pitch gain. The signals predicted by the predictor 34 based on the proximity correlation and the predictor 37 based on the pitch correlation are combined and output from the adaptive prediction unit 38. The difference between the prediction signal output from the adaptive prediction unit 38 and the original signal in band A is calculated, and the difference is input to the residual signal quantizer 39 and quantized as a residual signal. The above is the same operation as the conventional example.

【0026】また残差信号量子化器39の量子化ビット
数は疑似残差信号の平均振幅に応じて適応化されるが、
この導出法も従来例と全く同様にして、逆フィルタ部4
0、部分区間設定部41を通して各部分区間毎の疑似残
差信号の平均振幅が平均振幅算出部42により算出され
る。その後量子化ビット数適応化部51では前記平均振
幅から量子化ビット数を各部分区間毎に割り当てる演算
が(1)式により行われる。以後従来例と同様にして、
量子化ビット数適応化部51において(1)式により決
定された量子化ビット数に従い、残差信号量子化器39
で量子化された残差信号は符号化部45へ送出され符号
化されると同時に適応予測部38にも帰還されることに
なる。一方、ピッチ情報、ピッチゲイン、線形予測係数
および疑似残差信号の平均振幅などの補助情報も従来例
と同様にして、補助情報量子化器44において量子化さ
れ、その後、符号化部45で符号化される。このとき同
時に、量子化された補助情報は符号化補助情報記憶部5
2に記憶される。つまり、符号化補助情報記憶部52に
は現時点での分析フレームにおける補助情報が常に新規
に書き改められて記憶されている。またこのときの量子
化ビット数は情報伝送速度により一意的に決まってい
る。各帯域の符号化部45から出力される符号データは
多重化部46で多重化され音声バッファ47に符号デー
タとして蓄えられる。
The number of quantization bits of the residual signal quantizer 39 is adapted according to the average amplitude of the pseudo residual signal,
This derivation method is also the same as the conventional example, and the inverse filter unit 4
0, the average amplitude of the pseudo residual signal for each partial section is calculated by the average amplitude calculating section 42 through the partial section setting section 41. Thereafter, in the quantization bit number adaptation unit 51, the operation of assigning the quantization bit number for each partial section from the average amplitude is performed by the equation (1). After that, in the same way as the conventional example,
According to the quantization bit number determined by the equation (1) in the quantization bit number adaptation unit 51, the residual signal quantizer 39
The residual signal quantized in (1) is sent to the coding unit 45 and coded, and at the same time, fed back to the adaptive prediction unit 38. On the other hand, auxiliary information such as pitch information, pitch gain, linear prediction coefficient, and average amplitude of pseudo residual signal is also quantized by the auxiliary information quantizer 44 in the same manner as in the conventional example, and then encoded by the encoding unit 45. Be converted. At the same time, the quantized auxiliary information is stored in the encoded auxiliary information storage unit 5
Stored in 2. That is, the auxiliary information in the current analysis frame is always newly rewritten and stored in the encoded auxiliary information storage unit 52. The number of quantization bits at this time is uniquely determined by the information transmission rate. The code data output from the coding unit 45 of each band is multiplexed by the multiplexing unit 46 and stored in the voice buffer 47 as code data.

【0027】上記した信号処理過程は帯域Bおよび帯域
Cでも同様であるが、ピッチ相関にもとづく予測器37
における長時間予測フィルタや部分区間の設定は帯域A
で構成されたものを用いているため、ピッチ検出部3
5、ピッチゲイン導出部36および部分区間設定部41
の動作は行われない。また、入力音声波形が一つ前の分
析フレームの音声波形と同一と見なされるかどうかの判
断は帯域Aで行っているため、帯域B、帯域Cにおいて
音声波形判別部50の動作は行われない。以上の動作が
音声符号化部の説明である。
The above-mentioned signal processing process is the same for the band B and the band C, but the predictor 37 based on the pitch correlation is used.
For setting the long-term prediction filter and partial interval in
The pitch detection unit 3
5, pitch gain derivation unit 36 and partial section setting unit 41
Is not performed. Further, since it is determined in the band A whether the input voice waveform is considered to be the same as the voice waveform of the immediately preceding analysis frame, the operation of the voice waveform discriminating unit 50 is not performed in the band B and the band C. . The above operation is the description of the voice encoding unit.

【0028】次に、前記音声バッファ47から音声信号
を復元する場合を図3を参照しながら説明する。まず音
声バッファ47からの符号データを符号系列分離部60
で各帯域毎の符号データ系列に分離する。さらにこの符
号データは各帯域の情報系列分離部61において、残差
信号の符号データと、ピッチ情報やピッチゲインや線形
予測係数および平均振幅などの補助情報の符号データに
分類される。このとき、前記補助情報の符号データは常
に復号化補助情報記憶部69に記憶されることになる。
つまり、復号化補助情報記憶部69には現時点での分析
フレームにおける補助情報の符号データが常に新規に書
き改められて記憶されている。その後の動作は従来例と
全く同様である。
Next, the case where the audio signal is restored from the audio buffer 47 will be described with reference to FIG. First, the code data from the voice buffer 47 is converted into the code sequence separation unit 60.
Is separated into code data series for each band. Further, the coded data is classified into coded data of the residual signal and coded data of auxiliary information such as pitch information, pitch gain, linear prediction coefficient, and average amplitude in the information series separation unit 61 of each band. At this time, the coded data of the auxiliary information is always stored in the decoding auxiliary information storage unit 69.
That is, the coded data of the auxiliary information in the current analysis frame is always newly rewritten and stored in the decoding auxiliary information storage unit 69. The subsequent operation is exactly the same as the conventional example.

【0029】次に量子化ビット数処理部43内の音声波
形判別部50で一つ前の分析フレームの音声波形と同一
と判断された場合(図2の(b))について述べる。ま
ず、量子化ビット数処理部50で同一波形と判断された
ことを示す信号は帯域B、帯域Cにも送出されることに
なる。この状態で近接相関にもとづく予測器34におい
て用いられる線形予測フィルタは、符号化補助情報記憶
部52に記憶されている線形予測係数の情報によって構
成され線形予測を行う。またピッチ相関にもとづく予測
器37において用いられる予測フィルタは、符号化補助
情報記憶部52に記憶されているピッチゲインの情報に
よって構成され、ピッチ周期間の予測つまり1ピッチ周
期過去のデータから現時点の音声信号を予測するピッチ
予測を行う。近接相関にもとづく予測器34およびピッ
チ相関にもとづく予測器37で予測された信号は合成さ
れ適応予測部38から出力される。適応予測部38より
出力される予測信号は帯域Aの原信号のと差が取られ残
差信号として残差信号量子化器39に入力され量子化さ
れる。このとき、補助情報は量子化されず、同一音声波
形であるということを表示する信号のみが符号化部45
へ送出される。
Next, the case where the speech waveform discriminating unit 50 in the quantizing bit number processing unit 43 determines that the speech waveform is the same as the speech waveform of the immediately preceding analysis frame ((b) of FIG. 2) will be described. First, the signal indicating that the quantization bit number processing unit 50 has determined that the waveforms are the same is transmitted to the band B and the band C. In this state, the linear prediction filter used in the predictor 34 based on the proximity correlation is configured by the information of the linear prediction coefficient stored in the coding auxiliary information storage unit 52 and performs linear prediction. The prediction filter used in the predictor 37 based on the pitch correlation is composed of the pitch gain information stored in the coding auxiliary information storage unit 52, and the prediction between pitch cycles, that is, the data of one pitch cycle past, Pitch prediction for predicting a voice signal is performed. The signals predicted by the predictor 34 based on the proximity correlation and the predictor 37 based on the pitch correlation are combined and output from the adaptive prediction unit 38. The difference between the prediction signal output from the adaptive prediction unit 38 and the original signal in band A is calculated, and the difference is input to the residual signal quantizer 39 and quantized. At this time, the auxiliary information is not quantized, and only the signal indicating that they have the same voice waveform is encoded.
Sent to.

【0030】また残差信号量子化器39の量子化ビット
数は疑似残差信号の平均振幅に応じて適応化されるが、
これも符号化補助情報記憶部52に記憶されている平均
振幅の情報によって、量子化ビット数適応化部51では
量子化ビット数を各部分区間毎に割り当ている演算が
(2)式により行われる。すなわち残差信号の量子化ビ
ット数Rijは次式で与えられる。
The number of quantization bits of the residual signal quantizer 39 is adapted according to the average amplitude of the pseudo residual signal,
This is also based on the average amplitude information stored in the encoding auxiliary information storage unit 52, and in the quantization bit number adaptation unit 51, the operation of assigning the quantization bit number to each partial section is performed by the equation (2). . That is, the number of quantization bits R ij of the residual signal is given by the following equation.

【0031】 Rij=Rj (R+Rs)+F(log2 ij) (2) ここで、Ri はi帯域の平均ビットレートであり、従来
例において示した残差信号を量子化する際に割り当てら
れる全量子化ビット数Rと、上記実施例において補助情
報に割り当てられるべきビット数Rsとの合計に比例す
る。Fはi帯域j区間の擬似残差信号の平均振幅Uij
対数に比例する関数であり従来例と同様である。このよ
うにして決定された帯域Aの各部分区間毎の量子化ビッ
ト数の例を図4に示す。従来例の図8と比べ各区間それ
ぞれ量子化ビット数が増加することにより大幅に量子化
誤差が抑えられることになる。
R ij = R j (R + Rs) + F (log 2 U ij ) (2) Here, R i is the average bit rate of the i band, and when the residual signal shown in the conventional example is quantized. It is proportional to the sum of the total number of quantized bits R to be allocated and the number of bits Rs to be allocated to the auxiliary information in the above embodiment. F is a function proportional to the logarithm of the average amplitude U ij of the pseudo residual signal in the i band j section and is similar to the conventional example. FIG. 4 shows an example of the number of quantization bits for each partial section of the band A determined in this way. As compared with FIG. 8 of the conventional example, the number of quantization bits in each section increases, so that the quantization error can be significantly suppressed.

【0032】以後従来例と同様にして、量子化ビット数
適応化部51において(2)式により決定された量子化
ビット数に従い、残差信号量子化器39で量子化された
残差信号は符号化部45へ送出され符号化されると同時
に適応予測部38にも帰還されることになる。
Thereafter, in the same manner as in the conventional example, the residual signal quantized by the residual signal quantizer 39 according to the quantization bit number determined by the equation (2) in the quantization bit number adaptation unit 51 is At the same time as being sent to the encoding unit 45 and being encoded, it is also fed back to the adaptive prediction unit 38.

【0033】以上より、符号化される情報は同一音声波
形であることを示す信号と残差信号であり、この処理は
同一音声波形が続く限り行われることになる。またこの
処理は帯域B、帯域Cでも同様である。
As described above, the information to be encoded is the signal indicating the same voice waveform and the residual signal, and this processing is performed as long as the same voice waveform continues. This process is the same for the band B and the band C.

【0034】次に、前記音声バッファ47から音声信号
を復元する場合を図3を参照しながら説明する。まず音
声バッファ47からの符号データを符号系列分離部60
で各帯域毎の符号データ系列に分離する。さらにこの符
号データは各帯域の情報系列分離部61において、残差
信号の符号データと一つ前の分析フレームと同一音声波
形であることを示す信号の符号データに分離される。一
つ前の分析フレームと同一音声波形であることを示す信
号を検知すると、ピッチ情報、ピッチゲイン、線形予測
係数および平均振幅などの補助情報として、復号化補助
情報記憶部69に記憶されている符号データが読み込ま
れ、これに従い補助情報を復元することになる。つま
り、一つ前の分析フレームと同一音声波形であると判断
される間、補助情報は常に同一の情報が復元されること
になる。その後の動作は従来例と全く同様である。
Next, the case where the audio signal is restored from the audio buffer 47 will be described with reference to FIG. First, the code data from the voice buffer 47 is converted into the code sequence separation unit 60.
Is separated into code data series for each band. Further, this coded data is separated into coded data of the residual signal and coded data of a signal indicating that it has the same speech waveform as the immediately preceding analysis frame in the information sequence separation unit 61 of each band. When a signal indicating that it has the same speech waveform as the immediately preceding analysis frame is detected, it is stored in the decoding auxiliary information storage unit 69 as auxiliary information such as pitch information, pitch gain, linear prediction coefficient, and average amplitude. The code data is read, and the auxiliary information is restored accordingly. That is, while it is determined that the audio waveform is the same as the previous analysis frame, the same auxiliary information is always restored. The subsequent operation is exactly the same as the conventional example.

【0035】[0035]

【発明の効果】以上のように本発明は、量子化ビット数
処理部の音声波形制御部において入力音声波形が一つ前
の分析フレームと同一音声波形であるかを検知し、同一
音声波形の場合は補助情報に割り当てられるべきビット
数を残差信号量子化器で利用することにより、残差信号
の量子化誤差を大きく抑えることが可能となり、情報伝
送速度が小さい場合の音質劣化を著しく改善し、信号対
量子化雑音比(S/N比)の向上を図ることができる。
As described above, according to the present invention, the speech waveform control unit of the quantization bit number processing unit detects whether the input speech waveform is the same speech waveform as the immediately preceding analysis frame, and detects the same speech waveform. In this case, by using the number of bits that should be assigned to the auxiliary information in the residual signal quantizer, it is possible to greatly suppress the quantization error of the residual signal, and significantly improve the sound quality deterioration when the information transmission rate is low. However, the signal-to-quantization noise ratio (S / N ratio) can be improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例における音声符号化装置の音
声符号化部を示すブロック図
FIG. 1 is a block diagram showing a speech coding unit of a speech coding apparatus according to an embodiment of the present invention.

【図2】同音声符号化装置における音声符号化部の量子
化ビット数処理部内の構成を示すブロック図
FIG. 2 is a block diagram showing a configuration in a quantization bit number processing unit of a speech encoding unit in the same speech encoding device.

【図3】本発明の一実施例における音声符号化装置の音
声復号化部を示すブロック図
FIG. 3 is a block diagram showing a speech decoding unit of a speech coding apparatus according to an embodiment of the present invention.

【図4】同音声符号化装置における音声符号化部による
部分区間毎の量子化ビット数を説明する図
FIG. 4 is a diagram for explaining the number of quantization bits for each partial section by the speech encoding unit in the same speech encoding apparatus.

【図5】従来の音声符号化装置の音声符号化部を示すブ
ロック図
FIG. 5 is a block diagram showing a speech encoding unit of a conventional speech encoding device.

【図6】従来の音声符号化装置の音声復号化部を示すブ
ロック図
FIG. 6 is a block diagram showing a speech decoding unit of a conventional speech encoding device.

【図7】従来の音声符号化装置の音声符号化部による部
分区間設定法を説明する図
FIG. 7 is a diagram illustrating a partial interval setting method by a speech encoding unit of a conventional speech encoding device.

【図8】従来の音声符号化装置の音声符号化部による部
分区間毎の量子化ビット数を説明する図
FIG. 8 is a diagram for explaining the number of quantization bits for each partial section by the speech encoding unit of the conventional speech encoding device.

【図9】従来の音声符号化装置の音声復号化部における
予測合成部の具体的ブロック図
FIG. 9 is a specific block diagram of a prediction synthesis unit in a speech decoding unit of a conventional speech encoding device.

【符号の説明】[Explanation of symbols]

30 回線インターフェース部 31 A/D変換器 32 帯域分割フィルタ 33 線形予測係数抽出部 34 近接相関にもとづく予測器 35 ピッチ検出部 36 ピッチゲイン導出部 37 ピッチ相関にもとづく予測器 38 適応予測部 39 残差信号量子化器 40 逆フィルタ部 41 部分区間設定部 42 平均振幅算出部 43 量子化ビット数処理部 44 補助情報量化器 45 符号化部 46 多重化部 47 音声バッファ 50 音声波形判別部 51 量子化ビット数適応化部 52 符号化補助情報記憶部 60 符号系列分離部 61 情報系列分離部 62 補助情報復号化器 63 復号化ビット数適応化部 64 残差信号復号化器 65 予測合成部 66 帯域合成フィルタ 67 D/A変換器 68 回線インターフェース部 69 復号化補助情報記憶部 30 line interface section 31 A / D converter 32 band division filter 33 linear prediction coefficient extraction section 34 predictor based on proximity correlation 35 pitch detection section 36 pitch gain derivation section 37 predictor based on pitch correlation 38 adaptive prediction section 39 residual error Signal quantizer 40 Inverse filter unit 41 Partial interval setting unit 42 Average amplitude calculation unit 43 Quantization bit number processing unit 44 Auxiliary information quantizer 45 Encoding unit 46 Multiplexing unit 47 Speech buffer 50 Speech waveform discriminating unit 51 Quantization bit Number adaptation unit 52 coding auxiliary information storage unit 60 code sequence separation unit 61 information sequence separation unit 62 auxiliary information decoder 63 decoding bit number adaptation unit 64 residual signal decoder 65 prediction synthesis unit 66 band synthesis filter 67 D / A converter 68 Line interface unit 69 Decoding auxiliary information storage unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 H03M 7/30 8522−5J H04B 14/06 D 4101−5K ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 5 Identification code Office reference number FI Technical display location H03M 7/30 8522-5J H04B 14/06 D 4101-5K

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 分析フレーム毎に処理される入力音声信
号について、ディジタルフィルタにより適応的に予測す
る予測手段と、前記予測手段により予測された音声信号
と入力音声信号との差である残差信号に対応した疑似残
差信号を発生する手段と、入力音声信号のピッチ周期を
等分割することで部分区間を設定する手段と、前記部分
区間毎に前記疑似残差信号の平均振幅を検出する手段
と、前記残差信号を量子化する手段と、前記残差信号の
量子化に際し量子化ビット数を前記部分区間毎に前記平
均振幅に対応して適応的に割り当てる手段と、前記予測
手段に用いられる情報や前記残差信号の量子化ビット数
を適応的に割り当てる手段に用いられる情報を量子化す
る手段と、入力音声信号が一つ前の分析フレームの入力
音声信号と同一と見なせるかを判別する手段と、同一と
判断された場合、前記予測手段に用いられる情報や前記
残差信号の量子化ビット数を適応的に割り当てる手段に
用いられる情報は量子化せず、その量子化に割り当てら
れるべき量子化ビット数を、前記残差信号の量子化ビッ
ト数を適応的に割り当てる手段にて有効利用する手段と
を備えた音声符号化装置。
1. A prediction means for adaptively predicting an input speech signal processed for each analysis frame by a digital filter, and a residual signal which is a difference between the speech signal predicted by the prediction means and the input speech signal. Means for generating a pseudo residual signal, means for setting a partial interval by equally dividing the pitch period of the input audio signal, and means for detecting an average amplitude of the pseudo residual signal for each partial interval. And means for quantizing the residual signal, means for adaptively allocating the number of quantized bits at the time of quantizing the residual signal in correspondence with the average amplitude for each of the partial intervals, and the predicting means. Information and means for quantizing the information used in the means for adaptively allocating the quantization bit number of the residual signal, and the input audio signal is regarded as the same as the input audio signal of the immediately preceding analysis frame. If it is determined that the information is the same as the information used in the prediction means and the information used in the means for adaptively allocating the quantization bit number of the residual signal, And a means for effectively utilizing the number of quantization bits to be assigned to the quantization by means for adaptively assigning the number of quantization bits of the residual signal.
JP5043118A 1993-03-04 1993-03-04 Audio encoding device Pending JPH06259096A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5043118A JPH06259096A (en) 1993-03-04 1993-03-04 Audio encoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5043118A JPH06259096A (en) 1993-03-04 1993-03-04 Audio encoding device

Publications (1)

Publication Number Publication Date
JPH06259096A true JPH06259096A (en) 1994-09-16

Family

ID=12654930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5043118A Pending JPH06259096A (en) 1993-03-04 1993-03-04 Audio encoding device

Country Status (1)

Country Link
JP (1) JPH06259096A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003042648A1 (en) * 2001-11-16 2003-05-22 Matsushita Electric Industrial Co., Ltd. Speech encoder, speech decoder, speech encoding method, and speech decoding method
JP2003532149A (en) * 2000-04-24 2003-10-28 クゥアルコム・インコーポレイテッド Method and apparatus for predictively quantizing speech utterance
US7191126B2 (en) 2001-09-03 2007-03-13 Mitsubishi Denki Kabushiki Kaisha Sound encoder and sound decoder performing multiplexing and demultiplexing on main codes in an order determined by auxiliary codes

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003532149A (en) * 2000-04-24 2003-10-28 クゥアルコム・インコーポレイテッド Method and apparatus for predictively quantizing speech utterance
US8660840B2 (en) 2000-04-24 2014-02-25 Qualcomm Incorporated Method and apparatus for predictively quantizing voiced speech
US7191126B2 (en) 2001-09-03 2007-03-13 Mitsubishi Denki Kabushiki Kaisha Sound encoder and sound decoder performing multiplexing and demultiplexing on main codes in an order determined by auxiliary codes
US7756699B2 (en) 2001-09-03 2010-07-13 Mitsubishi Denki Kabushiki Kaisha Sound encoder and sound encoding method with multiplexing order determination
US7756698B2 (en) 2001-09-03 2010-07-13 Mitsubishi Denki Kabushiki Kaisha Sound decoder and sound decoding method with demultiplexing order determination
WO2003042648A1 (en) * 2001-11-16 2003-05-22 Matsushita Electric Industrial Co., Ltd. Speech encoder, speech decoder, speech encoding method, and speech decoding method

Similar Documents

Publication Publication Date Title
KR970011728B1 (en) Error chache apparatus of audio signal
EP0987827A2 (en) Audio signal encoding method without transmission of bit allocation information
US6678655B2 (en) Method and system for low bit rate speech coding with speech recognition features and pitch providing reconstruction of the spectral envelope
JP2707564B2 (en) Audio coding method
JPH01233500A (en) Multiple rate voice encoding
JP2001094433A (en) Sub-band coding and decoding medium
JPH0782359B2 (en) Speech coding apparatus, speech decoding apparatus, and speech coding / decoding apparatus
EP0747879B1 (en) Voice signal coding system
EP1096476A2 (en) Speech decoding gain control for noisy signals
JP2003150198A (en) Voice encoding device and voice decoding device
JP4359949B2 (en) Signal encoding apparatus and method, and signal decoding apparatus and method
JPH11184498A (en) Voice encoding and decoding method
JP4281131B2 (en) Signal encoding apparatus and method, and signal decoding apparatus and method
JPH06259096A (en) Audio encoding device
JP2797348B2 (en) Audio encoding / decoding device
JP3004664B2 (en) Variable rate coding method
JP3330178B2 (en) Audio encoding device and audio decoding device
JPH0643898A (en) Voice coding device
JPS6134697B2 (en)
JPH11109996A (en) Voice coding device, voice coding method and optical recording medium recorded with voice coding information and voice decoding device
JP2543345B2 (en) Speech coding system
JP3107620B2 (en) Audio coding method
JP3010655B2 (en) Compression encoding apparatus and method, and decoding apparatus and method
JP2952776B2 (en) Variable bit rate adaptive predictive coding
JP2935213B2 (en) Audio information transmission method