JPH01261930A - Sound encoding/decoding system - Google Patents
Sound encoding/decoding systemInfo
- Publication number
- JPH01261930A JPH01261930A JP63088922A JP8892288A JPH01261930A JP H01261930 A JPH01261930 A JP H01261930A JP 63088922 A JP63088922 A JP 63088922A JP 8892288 A JP8892288 A JP 8892288A JP H01261930 A JPH01261930 A JP H01261930A
- Authority
- JP
- Japan
- Prior art keywords
- filter
- signal
- predictor
- short
- noise shaping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000007493 shaping process Methods 0.000 claims abstract description 85
- 230000005236 sound signal Effects 0.000 claims abstract description 30
- 230000007774 longterm Effects 0.000 claims description 58
- 239000011295 pitch Substances 0.000 claims description 45
- 238000000034 method Methods 0.000 claims description 20
- 238000013139 quantization Methods 0.000 claims description 18
- 238000001228 spectrum Methods 0.000 claims description 14
- 230000015572 biosynthetic process Effects 0.000 claims description 9
- 230000003595 spectral effect Effects 0.000 claims description 9
- 238000003786 synthesis reaction Methods 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims 1
- 230000005540 biological transmission Effects 0.000 abstract description 3
- 238000012545 processing Methods 0.000 abstract description 3
- 230000003044 adaptive effect Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 238000012546 transfer Methods 0.000 description 9
- 238000007796 conventional method Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000002316 cosmetic surgery Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 101150098466 rpsL gene Proteins 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
Landscapes
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Description
【発明の詳細な説明】
(産業上の利用分野)
本発明はディジタル入力音声信号を低ビツトレートに符
号化・復号化する音声符号化・復号化方式に関する。DETAILED DESCRIPTION OF THE INVENTION (Field of Industrial Application) The present invention relates to an audio encoding/decoding method for encoding/decoding a digital input audio signal at a low bit rate.
(従来技術)
ディジタル海事衛星通信システムや5cpcによるディ
ジタル・ビジネス衛星通信システムなどのように周波数
帯域の制限や送信電力の制限の厳しいシステムにあって
は、低ビツトレートで、かつ高品質な符号化処理音声が
得られ、しかも伝送符号誤りの影響が非常に少ない音声
符号化・復号化方式が要求されている。(Prior art) In systems with severe frequency band restrictions and transmission power restrictions, such as digital maritime satellite communication systems and 5cpc digital business satellite communication systems, low bit rate and high quality encoding processing is required. There is a need for a voice encoding/decoding system that can obtain voice and has very little influence from transmission code errors.
このような背景から種々の音声符号化・復号化方式がす
でに提案され、代表的な方式として、フレームごとに予
測係数を算出する予測器を用い標本値間の相関を取り除
いた残差信号を適応量子化器を用いて符号化する適応予
測符号化(APC)方式と、複数個のパルスを音源とし
てLPC合成フィルタを駆動するマルチパルス駆動線形
予測符号化(MPEC)方式とがある。Against this background, various audio encoding/decoding methods have already been proposed, and a typical method uses a predictor that calculates prediction coefficients for each frame and adapts residual signals by removing correlations between sample values. There is an adaptive predictive coding (APC) method in which coding is performed using a quantizer, and a multi-pulse driven linear predictive coding (MPEC) method in which an LPC synthesis filter is driven using a plurality of pulses as sound sources.
ここでは、従来の音声符号化・復号化方式として適応予
測符号化方式を例にとり説明する。Here, an adaptive predictive coding method will be explained as an example of a conventional audio encoding/decoding method.
第1図(a)は、従来の適応予測符号化方式に用いる符
号器のブロック図である。まず、動作を説明する。ディ
ジタル入力音声信号Sjは、符号化入力端子1を介して
LPC分析器2と短時間予測器6に入力される。LPC
分析器2ではディジタル入力音声信号をもとにフレーム
毎に短時間スペクトル分析(以下、rLPC分析」と称
す)を行い、そこで得られたLPCパラメータをL’P
Cパラメータ符号器3を介して符号化し、多重回路30
を介して受信側の復号器へ伝送する。又、L P ’C
パラメータ符号器3の出力をLPCパラメータ復号器4
を介して復号し、その出力からLPCパラメータ・短時
間予測パラメータ変換器5を介して短時間予測パラメー
タを得る。そして、この短時間予測パラメータを短時間
予測器6、雑音整形フィルタ19、局部復号用の短時間
予測器24に設定する。FIG. 1(a) is a block diagram of an encoder used in a conventional adaptive predictive coding method. First, the operation will be explained. A digital input speech signal Sj is input to an LPC analyzer 2 and a short-term predictor 6 via a coding input terminal 1. LPC
The analyzer 2 performs short-time spectrum analysis (hereinafter referred to as rLPC analysis) for each frame based on the digital input audio signal, and the LPC parameters obtained therefrom are used as L'P
encoded via C-parameter encoder 3 and multiplexed circuit 30
to the decoder on the receiving side. Also, LP'C
The output of the parameter encoder 3 is sent to the LPC parameter decoder 4.
The LPC parameter/short-term prediction parameter converter 5 obtains short-term prediction parameters from the output thereof. Then, this short-time prediction parameter is set in the short-time predictor 6, the noise shaping filter 19, and the short-time predictor 24 for local decoding.
引算器11では、この短時間予測パラメータを使用した
短時間予測器6の出力をディジタル入力音声信号Sjか
ら差し引くことにより、音声波形の隣接サンプル間の相
関を取り除き短時間予測残差信号△Sjを得る。この短
時間予測残差信号△Sjは、ピッチ分析器7と長時間予
測器10に入力される。ピッチ分析器7では短時間予測
残差信号△Sjをもとにフレーム毎にピッチ分析を行い
、そこで得られたピッチ周期とピッチパラメータをピッ
チパラメータ符号器8を介して符号化し、多重回路30
を介して受信側の復号器へ伝送する。−方、ピッチ周期
とピッチパラメータをピッチパラメータ復号器9を介し
て復号し、長時間予測器10、雑音整形フィルタ19、
局部復号用の長時間予測器23に設定する。The subtracter 11 subtracts the output of the short-time predictor 6 using this short-time prediction parameter from the digital input audio signal Sj, thereby removing the correlation between adjacent samples of the audio waveform and producing a short-time prediction residual signal ΔSj. get. This short-term prediction residual signal ΔSj is input to the pitch analyzer 7 and the long-term predictor 10. The pitch analyzer 7 performs pitch analysis for each frame based on the short-time prediction residual signal ΔSj, and the pitch period and pitch parameter obtained there are encoded via the pitch parameter encoder 8, and the multiplex circuit 30
to the decoder on the receiving side. - On the other hand, the pitch period and the pitch parameter are decoded via the pitch parameter decoder 9, the long-term predictor 10, the noise shaping filter 19,
It is set in the long-term predictor 23 for local decoding.
引算器12では、このピッチ周期とピッチパラメータを
使用した長時間予測器1oの出力を短時間予測残差信号
△Sjがら差し引くことにより、音声信号のピッチによ
る繰り返し波形の相関を取り除き理想的に白色化された
長時間予測残差信号を得る。この長時間予測残差信号が
ら雑音整形フィルタ19の出力を引算器17を用いて差
し引き、最終予測残差信号とじてこゎを適応量子化器1
6で量子化、符号化し、多重回路3oを介して受信側の
復号器へ伝送する。又、この符号化された最終予測残差
信号は逆量子化器18を介して復号化・逆量子化され引
算器20及び加算器21に入力される。引算器20では
、この量子化された最終予測残差信号から適応量子化器
16の入力信号である最終予測残差信号を差し引くこと
により量子化雑音を得、これを雑音整形フィルタ19に
入力する。The subtracter 12 subtracts the output of the long-term predictor 1o using this pitch period and pitch parameter from the short-term prediction residual signal ΔSj, thereby removing the correlation of the repetitive waveform due to the pitch of the audio signal and ideally Obtain a whitened long-term prediction residual signal. The output of the noise shaping filter 19 is subtracted from this long-term prediction residual signal using a subtracter 17, and the final prediction residual signal is calculated by the adaptive quantizer 1.
6, the signal is quantized and encoded, and transmitted to the receiving side decoder via the multiplexing circuit 3o. Further, this encoded final prediction residual signal is decoded and dequantized via the dequantizer 18 and inputted to the subtracter 20 and the adder 21. The subtracter 20 obtains quantization noise by subtracting the final prediction residual signal, which is the input signal of the adaptive quantizer 16, from this quantized final prediction residual signal, and inputs this to the noise shaping filter 19. do.
サブフレーム毎に量子化ステップサイズを更新するため
に、前述の長時間予測残差信号はRMS計算回路13で
RMS値が計算され、RMS値符号器14で符号化され
て、その出力レベルを基準レベルとし、併せて近傍のレ
ベルをRMS値符号器14内に記憶しておく。そして、
RMS値符号器14の出力信号はRMS値復号器15を
介して復号され、特にこの基準レベルに対応した量子化
されたRMS値を基準RMS値とし、これにあらかじめ
用意しておいた基本ステップサイズを掛は合せることに
より適応量子化器16のステップサイズを決定する。一
方、逆量子化器18の出力信号である量子化された最終
予測残差信号に局部復号用長時間予測器23の出力を加
算器21を介して加算する。更に、これを局部復号用長
時間予測器23に入力すると共に、局部復号用短時間予
測器24の出力を加算器22を介して加算し、これを局
部復号用短時間予測器24の入力とする。この様な過程
によって局部復号されたディジタル入力音声信号Sj′
が得られる。この局部復号されたディジタル入力音声信
号Sj′ と元のディジタル入力信号Sjとの差を誤差
信号として引算器26を介して求める。サブフレーム間
に渡って、この誤差信号の電力を最小誤差電力検出器2
7で計算する。そして、あらかじめ用意されている全で
の基本ステップサイズと記憶しておいた基準レベルの近
傍レベルについても同様な一連の動作を行い、以上得ら
れた誤差信号電力の内で最小な電力を与える符号化RM
Sレベルと基本ステップサイズを選択しこれを多重回路
30を介して受信側の復号器へ伝送する。なお、ステッ
プサイズの符号化に際tノてはステップサイズ符号器2
9を用いている。In order to update the quantization step size for each subframe, the RMS value of the above-mentioned long-term prediction residual signal is calculated in the RMS calculation circuit 13, encoded in the RMS value encoder 14, and the output level is used as a reference. level, and also store nearby levels in the RMS value encoder 14. and,
The output signal of the RMS value encoder 14 is decoded via the RMS value decoder 15, and in particular, the quantized RMS value corresponding to this reference level is used as the reference RMS value, and a basic step size prepared in advance is set to this value. The step size of the adaptive quantizer 16 is determined by multiplying and summing . On the other hand, the output of the local decoding long-term predictor 23 is added to the quantized final prediction residual signal, which is the output signal of the inverse quantizer 18, via the adder 21. Furthermore, this is input to the long-term predictor 23 for local decoding, and the output of the short-term predictor 24 for local decoding is added via the adder 22, and this is input to the short-term predictor 24 for local decoding. do. The digital input audio signal Sj' locally decoded by this process
is obtained. The difference between this locally decoded digital input audio signal Sj' and the original digital input signal Sj is determined as an error signal via a subtracter 26. Between subframes, the power of this error signal is detected by the minimum error power detector 2.
Calculate by 7. Then, the same series of operations is performed for the total basic step size prepared in advance and the levels near the stored reference level, and the code that gives the minimum power among the error signal powers obtained above is executed. RM
The S level and basic step size are selected and transmitted via the multiplex circuit 30 to the decoder on the receiving side. Note that when encoding the step size, the step size encoder 2
9 is used.
第1図(b)は、従来の適応予測符号化方式に用いる復
号器のブロック図である。FIG. 1(b) is a block diagram of a decoder used in the conventional adaptive predictive coding method.
復号器では、復号器入力端子32を介して入力された信
号は、最終残差信号に関する信号、RMS値やステップ
サイズに関する信号、及びLPCパラメータやピッチ周
期・ピッチパラメータに関する信号とに多重分離回路3
3を用いて分離され、各々、適応逆量子化器36、RM
S値復号器35、ステップサイズ復号器34、LPCパ
ラメータ復号器38、及びピッチパラメータ復号器37
に入力される。In the decoder, the signal input through the decoder input terminal 32 is demultiplexed into a signal related to the final residual signal, a signal related to the RMS value and step size, and a signal related to the LPC parameter and pitch period/pitch parameter.
3 and an adaptive inverse quantizer 36, RM
S value decoder 35, step size decoder 34, LPC parameter decoder 38, and pitch parameter decoder 37
is input.
RMS値復号器35を用いてRMS値を復号し、これと
、基本ステップサイズ復号器34を介して得られた基本
ステップサイズとを適応逆量子化器36に設定する。そ
して、受信された最終予測残差信号に関する信号を適応
逆量子化器36を用いて逆量子化し、量子化された最終
予測残差信号を得る。一方、LPCパラメータ復号器3
8を介して復号しLPCパラメータ・短時間予測パラメ
ータ変換器39を介して得られた短時間予測パラメータ
を、合成フィルタを形成する一方の予測器である短時間
予測器43とポスト雑音整形フィルタ44に設定し、更
に、ピッチパラメータ復号器37を介して復号されたピ
ッチ周期とピッチパラメータを合成フィルタを形成する
他方の予測器である長時間予測器42に設定する。The RMS value decoder 35 is used to decode the RMS value, and this and the basic step size obtained via the basic step size decoder 34 are set in the adaptive inverse quantizer 36. Then, the signal regarding the received final prediction residual signal is dequantized using the adaptive dequantizer 36 to obtain a quantized final prediction residual signal. On the other hand, LPC parameter decoder 3
The short-time prediction parameters obtained through the LPC parameter/short-time prediction parameter converter 39 are decoded through the LPC parameter/short-time prediction parameter converter 39, and are then decoded through the short-time predictor 43, which is one of the predictors forming the synthesis filter, and the post-noise shaping filter 44. Further, the pitch period and pitch parameter decoded via the pitch parameter decoder 37 are set in the long-term predictor 42, which is the other predictor forming the synthesis filter.
加算器40では、長時間予測器42の出力を適応逆量子
化器35の出力に加算し、その出力を長時間予測器42
の入力とすると共に、更にこれに短時間予測器43の出
力を加算器41を介して加算することにより、再生音声
信号を得る。そして、この信号は短時間予測器43に入
力すると共に、ポスト雑音整形フィルタ44に入力され
雑音整形が行われる。更に、その信号はレベル調整器4
5にも入力され、ポスト雑音整形フィルタ44の出力と
比較することによりレベル調整を行う。The adder 40 adds the output of the long-term predictor 42 to the output of the adaptive inverse quantizer 35, and adds the output to the long-term predictor 42.
By adding the output of the short-time predictor 43 to this input via the adder 41, a reproduced audio signal is obtained. Then, this signal is input to the short-time predictor 43, and is also input to the post-noise shaping filter 44, where noise shaping is performed. Furthermore, the signal is sent to the level adjuster 4.
5, and the level is adjusted by comparing it with the output of the post-noise shaping filter 44.
次に、符号器及び復号器に用いられている雑音整形フィ
ルタ19及びポスト雑音整形フィルタ44の構成につい
て述べる。Next, the configurations of the noise shaping filter 19 and the post noise shaping filter 44 used in the encoder and decoder will be described.
第2図は、従来の符号器内の雑音整形フィルタ19の一
構成図である。この動作を説明すると、まず、LPCパ
ラメータ・短時間予測パラメータ変換器5より得られた
短時間予測パラメータを短時間予測器49に、又、ピッ
チパラメータ復号器9より得られたピッチ周期、ピッチ
パラメータを長時間予測器47に設定する。次に、量子
化雑音が引算器20より長時間予測器47に入力され、
その出力を量子化雑音から引算器48を介して差し引く
。そして、この引算器48の出力を短時間予測器49に
入力し、その出力と長時間予測器47の出力を引算器5
0を介して加算し、これを引算器17へ送る。この雑音
整形フィルタの伝達関数F’(z)は次式のようになる
。FIG. 2 is a block diagram of a noise shaping filter 19 in a conventional encoder. To explain this operation, first, the short-time prediction parameters obtained from the LPC parameter/short-time prediction parameter converter 5 are input to the short-time predictor 49, and the pitch period and pitch parameters obtained from the pitch parameter decoder 9 are input to the short-time predictor 49. is set in the long-term predictor 47. Next, the quantization noise is input from the subtracter 20 to the long-term predictor 47,
The output is subtracted from the quantization noise via a subtractor 48. Then, the output of the subtracter 48 is input to the short-time predictor 49, and the output of the subtracter 48 and the output of the long-term predictor 47 are input to the subtracter 5.
It is added via 0 and sent to the subtracter 17. The transfer function F'(z) of this noise shaping filter is expressed by the following equation.
F’(z)
= rnlPl (z)+(l−rnlPI (z))
Ps (z/rsrns) (1)ここて、Ps(z)
及びPI(z)は例えば、後述する(2)式、(3)式
から求まる短時間予測器6及び長時間予測器10の伝達
関数、rsはリーケージ、rnl、rnsは長・短時間
予測器の雑音整形荷重係数と呼ばれ、各々0≦rs、r
nl、rns≦1の範囲の値である。従来の雑音整形フ
ィルタには、このrnl、rnsとして一定の値が用い
られている。F'(z) = rnlPl (z) + (l-rnlPI (z))
Ps (z/rsrns) (1) Here, Ps(z)
and PI(z) are the transfer functions of the short-time predictor 6 and the long-term predictor 10 found from equations (2) and (3) described later, rs is leakage, and rnl and rns are long/short-time predictors. is called the noise shaping weighting coefficient of 0≦rs, r
It is a value in the range of nl, rns≦1. In conventional noise shaping filters, constant values are used for rnl and rns.
短時間予測器6の伝達関数Ps(z)は、次式で与えら
れる。The transfer function Ps(z) of the short-time predictor 6 is given by the following equation.
Ns
i=]
ここで、aiは短時間予測パラメータ、Nsは短時間予
測器のタップ数である。aiはフレーム単位毎にLPC
分析器2とLPCパラメータ・短時間予測パラメータ変
換器5内で計算され、入力信号のスペクトルの変動に対
してフレーム毎に適応的に変化する。同様の式で長時間
予測器10の伝達関数も定義でき、特に、1タツプの予
測器を用いるとその伝達関数PI(z)は、次式で与え
られる。Ns i =] Here, ai is a short-time prediction parameter, and Ns is the number of taps of the short-time predictor. ai is LPC for each frame
It is calculated within the analyzer 2 and the LPC parameter/short-time prediction parameter converter 5, and changes adaptively for each frame in response to the fluctuation of the spectrum of the input signal. The transfer function of the long-term predictor 10 can also be defined using a similar equation. In particular, when a one-tap predictor is used, the transfer function PI(z) is given by the following equation.
PI(z) = blz−Pp (3)ここで、b
lはピッチパラメータ、Ppはピッチ周期を表す。この
blやPpもまたフレーム単位毎にピッチ分析器7で計
算され、入力信号の波形の周期性の変動に対してフレー
ム毎に適応的に変化する。PI(z) = blz−Pp (3) Here, b
l represents a pitch parameter, and Pp represents a pitch period. These bl and Pp are also calculated by the pitch analyzer 7 on a frame-by-frame basis, and change adaptively on a frame-by-frame basis in response to fluctuations in the periodicity of the waveform of the input signal.
第3図(a)及び(b)は、従来の復号器内のポスト雑
音整形フィルタ44の一構成図である。従来方式では、
(2)式の短時間予測パラメータを荷重した短時間ポス
ト雑音整形フィルタを用いている。FIGS. 3(a) and 3(b) are block diagrams of a post-noise shaping filter 44 in a conventional decoder. In the conventional method,
A short-time post-noise shaping filter loaded with the short-time prediction parameter of equation (2) is used.
まず、極フィルタのみで構成されている第3図(a)に
示す様なポスト雑音整形フィルタの動作から説明する。First, the operation of a post-noise shaping filter as shown in FIG. 3(a), which is composed of only pole filters, will be explained.
LPCパラメータ・短時間予測パラメータ変換器39よ
り得られる短時間予測パラメータを短時間予測器52に
設定する。加算器41からの再生音声信号と短時間予測
器52の出力を加算器51を介して加算し、それを短時
間予測器52とレベル調整器45に入力する。レベル調
整器45を含めたこのポスト雑音整形フィルタ44の伝
達関数Fp’(z)としては、次式のようになる。The short-term prediction parameters obtained from the LPC parameter/short-term prediction parameter converter 39 are set in the short-term predictor 52. The reproduced audio signal from the adder 41 and the output of the short-term predictor 52 are added via the adder 51, and the result is input to the short-term predictor 52 and the level adjuster 45. The transfer function Fp'(z) of this post-noise shaping filter 44 including the level adjuster 45 is expressed as follows.
ここて、GOはゲインコントロールパラメータ、rps
は雑音整形荷重係数と呼ばれ、0≦rps≦1の範囲の
値である。Here, GO is the gain control parameter, rps
is called a noise shaping weight coefficient and has a value in the range of 0≦rps≦1.
次に、第3図(a)に更に零フィルタを加えた構成の第
3図(b)に示す様なポスト雑音整形フィルタの動作を
説明する。LPCパラメータ・短時間予測パラメータ変
換器39より得られる短時間予測パラメータを短時間予
測器の極フィルタ54と零フィルタ55に設定する。加
算器41からの再生音声信号と極フィルタ54の出力を
加算器51を介して加算し、これを極フィルタ54と零
フィルタ55の入力とする。加算器53の出力から零フ
ィルタ55の出力を引算器56を介して差し引き、この
出力をレベル調整器45へ入力する。レベル調整器45
を含めたこのポスト雑音整形フィルタの伝達関数F p
o’ (z)としては、次式のようになる。Next, the operation of the post-noise shaping filter shown in FIG. 3(b), which has a configuration in which a zero filter is further added to FIG. 3(a), will be explained. The short-time prediction parameters obtained from the LPC parameter/short-time prediction parameter converter 39 are set in the pole filter 54 and zero filter 55 of the short-time predictor. The reproduced audio signal from the adder 41 and the output of the pole filter 54 are added via the adder 51, and this is used as input to the pole filter 54 and the zero filter 55. The output of the zero filter 55 is subtracted from the output of the adder 53 via a subtracter 56, and this output is input to the level adjuster 45. Level adjuster 45
The transfer function F p of this post-noise shaping filter including
o' (z) is as shown in the following equation.
ここで、GOはゲインコントロールパラメータ、rps
z、 rpspは零・極雑音整形荷重係数と呼ばれ、各
々0≦rpsz、rpsp≦1の範囲の値である。where GO is the gain control parameter, rps
z and rpsp are called zero/pole noise shaping weighting coefficients, and have values in the ranges of 0≦rpsz and rpsp≦1, respectively.
従来のポスト雑音整形フィルタでは、これらのrps、
rpSZ、ml)Sl)として一定の値が用いている。In conventional post-noise shaping filters, these rps,
A constant value is used for rpSZ, ml)Sl).
(発明が解決しようとする課題)
従来の符号器内の雑音整形フィルタ19は予測フィルタ
を基本としたフィルタ構成であり、量子化雑音のスペク
トルを音声スペクトルに近い形に整形し音声でマスクす
ることにより、聴感上の音声品質を改善するものである
。特に、音声信号成分の少ない帯域に存在する量子化雑
音の聴感上の改善に効果がある。しかしながら、音声信
号のスペクトルは時間変動し、有声音や無声音など様々
なスペクトル上での特徴を有しているが、これまでの雑
音整形フィルタでは、これらの音声信号の特徴を調べる
ことなく予測フィルタ係数に一定の荷重をかけている。(Problems to be Solved by the Invention) The noise shaping filter 19 in the conventional encoder has a filter configuration based on a predictive filter, and it shapes the spectrum of quantization noise into a form close to the speech spectrum and masks it with speech. This improves the perceptual sound quality. In particular, it is effective in improving the audibility of quantization noise that exists in bands with few audio signal components. However, the spectrum of a speech signal changes over time and has various spectral characteristics such as voiced and unvoiced sounds, but conventional noise shaping filters do not examine these characteristics of the speech signal and can be used as predictive filters. A constant weight is applied to the coefficient.
従って、無声音に最適な太きい荷重係数を用いると有声
音の部分で音声がこもったり或いは歪んだりしてしまう
。また、有声音に最適な小さい荷重係数を用いると無声
音に対して必ずしも充分な雑音整形とはならない。この
為、これまで様な一定の荷重係数を用いた方式では、有
声音と無声音との双方で十分な音声品質が得られない。Therefore, if a large weighting coefficient that is optimal for unvoiced sounds is used, the voiced sounds will become muffled or distorted. Furthermore, using a small weighting coefficient that is optimal for voiced sounds does not necessarily result in sufficient noise shaping for unvoiced sounds. For this reason, with the conventional method using a constant weighting coefficient, sufficient voice quality cannot be obtained for both voiced and unvoiced sounds.
また、従来の復号器内のポスト雑音整形フィルタ44は
合成フィルタ(長時間予測器42及び短時間予測器43
)に用いられているのと同一の短時間予測器43のみを
使用しているフィルタ構成であり、音声のホルマント周
波数近傍のエネルギーを強調することにより、相対的に
音声の主成分とそれ以外の周波数領域での雑音とのレベ
ル差を大きくし、聴感上雑音が気にならないように品質
の改善を図っている。これまでのポスト雑音整形フィル
タも又、前述の音声信号のスペクトルの特徴を調べるこ
となく短時間予測パラメータに一定の荷重をかけている
。従って、無声音に最適な大きい荷重係数を用いると有
声音の部分で歪やりリックを発生する。又、有声音に最
適な荷重係数を用いると無声音に対して必ずしも十分な
雑音整形とはならない。この為、やはりこれまでの様な
一定の荷重係数を用いた方式では、有声音と無声音との
双方で十分な音声品質が達成されない欠点がある。Further, the post-noise shaping filter 44 in the conventional decoder is a synthesis filter (long-term predictor 42 and short-term predictor 43).
) is a filter configuration that uses only the same short-time predictor 43 used in The quality is improved by increasing the level difference from noise in the frequency domain so that the noise is not noticeable to the auditory sense. Conventional post-noise shaping filters also apply a constant weight to short-term prediction parameters without examining the spectral features of the audio signal mentioned above. Therefore, if a large weighting coefficient that is optimal for unvoiced sounds is used, distortions and licks will occur in voiced sounds. Furthermore, if a weighting coefficient that is optimal for voiced sounds is used, noise shaping will not necessarily be sufficient for unvoiced sounds. For this reason, the conventional method using a constant weighting coefficient has the drawback that sufficient voice quality cannot be achieved for both voiced and unvoiced sounds.
一方、説明を省略したMPECにおいても、送信側にお
いて、入力音声と合成フィルタから得られた再生音声と
の誤差信号に対して、誤差荷重フィルタを用いその出力
電力が最小となる様に駆動パルスの振幅及び位置を最適
に決定している力釈この場合にも誤差荷重フィルタとし
て合成フィルタ内の短時間予測パラメータに一定の荷重
係数をかけたものを用いているため、前述の雑音整形フ
ィルタ19(ポスト雑音整形フィルタ44)と同様に有
声音と無声音との双方で十分な音声品質が得られないと
いう問題点があった。On the other hand, in MPEC, the explanation of which is omitted, on the transmitting side, an error weighting filter is used for the error signal between the input audio and the reproduced audio obtained from the synthesis filter, and the drive pulse is adjusted so that the output power is minimized. In this case as well, the short-term prediction parameters in the synthesis filter multiplied by a constant weighting coefficient are used as error weighting filters, so the above-mentioned noise shaping filter 19 ( Similar to the post-noise shaping filter 44), there is a problem in that sufficient voice quality cannot be obtained for both voiced and unvoiced sounds.
本発明の第1の目的は、上術した従来技術の問題点を解
決するためになされたもので、有声音と無声音に関係な
く良好な音声品質が得られる音声符号化・復号化方式を
提供することにある。The first object of the present invention was to solve the above-mentioned problems of the prior art, and to provide a speech encoding/decoding method that can obtain good speech quality regardless of voiced or unvoiced sounds. It's about doing.
本発明の第2及び第3の目的は、有声音と無声音に関係
なく良好な音声品質が得られる音声符号化・復号化方式
を実現するための雑音整形フィルタ及びポスト雑音整形
フィルタを提供することにある。The second and third objects of the present invention are to provide a noise shaping filter and a post noise shaping filter for realizing a speech encoding/decoding method that can obtain good speech quality regardless of voiced or unvoiced sounds. It is in.
(課題を解決するための手段)
本発明の第1の特徴は、雑音整形フィルタ及びポスト雑
音整形フィルタの荷重係数を予測信号の当り具合に応じ
て変化させてディジタル入力音声信号を符号化・復号化
するように構成したことにある。(Means for Solving the Problems) The first feature of the present invention is to encode/decode a digital input audio signal by changing the weighting coefficients of the noise shaping filter and the post-noise shaping filter according to the degree of accuracy of the prediction signal. The reason lies in the fact that it is structured in such a way that it becomes
本発明の第2の特徴は、符号器内にある雑音整形フィル
タが荷重係数選択器66、長時間予測器極フィルタ58
及び零フィルタ59.短時間予測器極フィルタ62及び
零フィルタ63を用いて構成したことにある。The second feature of the present invention is that the noise shaping filter in the encoder includes a weighting coefficient selector 66 and a long-term predictor pole filter 58.
and zero filter 59. The short-time predictor is configured using a pole filter 62 and a zero filter 63.
本発明の第3の特徴は、復号器内にあるポスト雑音整形
フィルタが荷重係数選択器(75゜76)、長時間予測
器極フィルタ68及び零フィルタ69.短時間予測器極
フィルタ72及び零フィルタ73を用い、かつ長時間予
測器極フィルタ68及び零フィルタ69の出力を加算し
、他方、短時間予測器極フィルタ72及び零フィルタ7
3の出力を減算するように構成したことにある。A third feature of the present invention is that the post-noise shaping filters in the decoder include a weighting factor selector (75° 76), a long-term predictor pole filter 68, and a zero filter 69. Using short-term predictor pole filter 72 and zero filter 73 and adding the outputs of long-term predictor pole filter 68 and zero filter 69, while short-term predictor pole filter 72 and zero filter 7
The reason is that the configuration is such that the output of 3 is subtracted.
(発明の構成) 以下に、図面を用いて本発明の詳細な説明する。(Structure of the invention) The present invention will be explained in detail below using the drawings.
なお、以下の説明では本発明と従来との相違点である符
号器に用いる雑音整形フィルタ及び復号器に用いるポス
ト雑音整形フィルタの構成について詳述し、他の構成に
ついては説明の重複を省くために省略する。In addition, in the following explanation, the configurations of the noise shaping filter used in the encoder and the post noise shaping filter used in the decoder, which are the differences between the present invention and the conventional one, will be detailed, and other configurations will be explained in order to avoid duplication of explanation. abbreviated to
第4図は、本発明による符号器に用いる雑音整形□フィ
ルタの構成図である。荷重係数選択器66では、符号器
入力端子(コーダ入力)1からのディジタル入力音声信
号、引算器11からの短時間予測残差信号、及び引算器
12からの長時間予測残差信号を用いて予測の当り具合
を評価することにより、LPCパラメータ・短時間予測
パラメー夕変換器5からの短時間予測パラメータ、及び
、ピッチパラメータ復号器9からのピッチパラメータを
適応的に荷重して、各々、短時間予測器極フィルタ62
、短期間予測難字フィルタ63、長時間予測器極フィル
タ58及び長時間予測難字フィルタ59に設定する。引
算器20からの量子化雑音と長時間予測器極フィルタ5
8の出力とを加算器57で加算し、その加算出力を長時
間予測器極フィルタ58と零フィルタ59とに入力する
。FIG. 4 is a block diagram of a noise shaping □ filter used in the encoder according to the present invention. The weighting factor selector 66 receives the digital input audio signal from the encoder input terminal (coder input) 1, the short-time predicted residual signal from the subtracter 11, and the long-term predicted residual signal from the subtracter 12. The short-term prediction parameters from the LPC parameter/short-time prediction parameter converter 5 and the pitch parameters from the pitch parameter decoder 9 are weighted adaptively, and each , short-time predictor pole filter 62
, the short-term predictive difficult character filter 63, the long-term predictor pole filter 58, and the long-term predictive difficult character filter 59. Quantization noise from subtractor 20 and long-term predictor pole filter 5
8 in an adder 57, and the added output is input to a long-term predictor pole filter 58 and a zero filter 59.
又、加算器57の出力から長時間予測難字フィルタ59
の出力を引算器60で差し引き、この引算器60の出力
と短時間予測器極フィルタ62の出力とを加算器61で
加算し、更に、加算器61の出力を短時間予測器極フィ
ルタ62と零フィルタ63に入力する。そして、加算器
61の出力から短時間予測難事フィルタ63の出力を引
算器64で差し引き、この差分出力をさらに量子化雑音
から引算器65で差し引き、その結果を雑音整形フィル
タ19の出力として引算器17へ送る。この雑音整形フ
ィルタの伝達関数F (z)は、次式で与えられる。Also, from the output of the adder 57, a long-time prediction difficult character filter 59 is used.
A subtracter 60 subtracts the output of 62 and zero filter 63. Then, the output of the short-time prediction difficulty filter 63 is subtracted from the output of the adder 61 by a subtracter 64, this difference output is further subtracted from the quantization noise by a subtracter 65, and the result is used as the output of the noise shaping filter 19. It is sent to the subtractor 17. The transfer function F (z) of this noise shaping filter is given by the following equation.
本発明の雑音整形フィルタ19は(5)式を満足するよ
うに長時間予測器極フィルタ58及び零フィルタ59、
短時間予測器極フィルタ62及び零フィルタ63を構成
すれば良い。例えば、長時間予測器極フィルタ58及び
零フィルタ59、短時間予測器極フィルタ62及び零フ
ィルタ63の位置を反対にして構成してもよい。また、
第4図では、荷重係数選択器66が長時間予測器極フィ
ルタ58及び零フィルタ59、短時間予測器極フィルタ
62及び零フィルタ63とて共用した構成例を示したが
、別々の荷重係数選択器を用いてもよい。The noise shaping filter 19 of the present invention includes a long-term predictor pole filter 58, a zero filter 59,
The short-time predictor pole filter 62 and zero filter 63 may be configured. For example, the positions of the long-term predictor pole filter 58 and zero filter 59 and the short-term predictor pole filter 62 and zero filter 63 may be reversed. Also,
Although FIG. 4 shows a configuration example in which the weighting coefficient selector 66 is shared by the long-term predictor pole filter 58 and zero filter 59, and the short-term predictor pole filter 62 and zero filter 63, it is possible to select separate weighting coefficients. A container may also be used.
一般に、有声音は明確なスペクトルエンベロープを有し
ており、特に、鼻音や語尾等は正弦波に近いので、短時
間スペクトル予測か当りやすく、又、それらの音声が明
かなどッチ構造も持つので、ピッチ予測も当りやすく、
量子化雑音も少ない。逆に、摩擦音等の無声音は、ラン
ダム雑音に近いスペクトルを有しており、又、明確なピ
ッチ構造も持たないため、短・長時間予測が当りにくく
、量子化雑音も多い。よって、予測の当り具合を観察す
ることにより音声の特徴に合った雑音整形を行う必要が
ある。例えば、ディジタル入力音声信号の電力をSk、
短時間予測残差信号の電力をRk、更に、長時間予測残
差信号の電力をPkとすると、予測器の入出力比である
短時間予測処理前後の音声信号の電力比Sk/Rkや全
予測処理前後の音声信号の電力比Sk/Pkを用いるこ
とにより、予測の当り具合すなわち入力音声のスペクト
ル構造を調べることがでる。これにより、有声音の様な
これらの比の値が大きい部分には弱く、又、無声音の様
なこれらの比が小さい部分には強く、雑音整形を行うこ
とが可能となる。第4図の荷重係数選択器66は、予測
の当り具合としてこの予測器の入出力比を用いた例であ
る。具体的には、Sk/Pk 。In general, voiced sounds have clear spectral envelopes, especially nasal sounds and word endings, which are close to sine waves, so short-term spectral prediction is easy to predict, and also because these sounds have a clear pitch structure. , pitch prediction is easy to hit,
Quantization noise is also low. On the other hand, unvoiced sounds such as fricatives have a spectrum similar to random noise and do not have a clear pitch structure, so short-term and long-term predictions are difficult to predict and there is a lot of quantization noise. Therefore, it is necessary to perform noise shaping that matches the characteristics of the voice by observing the accuracy of the prediction. For example, if the power of the digital input audio signal is Sk,
If the power of the short-time prediction residual signal is Rk, and the power of the long-term prediction residual signal is Pk, then the power ratio Sk/Rk of the audio signal before and after the short-time prediction processing, which is the input/output ratio of the predictor, and the total By using the power ratio Sk/Pk of the audio signal before and after the prediction process, it is possible to check the accuracy of the prediction, that is, the spectral structure of the input audio. This makes it possible to perform noise shaping weakly on portions where these ratios are large, such as voiced sounds, and strongly on portions where these ratios are small, such as unvoiced sounds. The weighting factor selector 66 in FIG. 4 is an example in which the input/output ratio of this predictor is used as the accuracy of prediction. Specifically, Sk/Pk.
Sk/Rk各々についてスレッショールド5thl、
5th2を設け、短・長時間予測器の雑音整形荷重係数
rns 、 、rnlを、次式のように切換える。Threshold 5thl for each Sk/Rk,
5th2 is provided, and the noise shaping weight coefficients rns, , rnl of the short- and long-term predictors are switched as shown in the following equation.
Sk/Pk > 5thl or Sk/Rk > 5
th2 :rns = rnthl 、 rnl =
rnth3または、Sk/Pk≦5thl及びSk/R
k≦5th2 、:rns = rnth2 、 rn
l = rnth4 (7)但し、 0 ≦rn
t旧≦rnth2≦1゜0≦rnth3≦rnth4≦
1
又、予測の当り具合としては、第4図における荷重係数
選択器66のコーダ入力1.引算器11及び引算器12
の入力情報の代りにLPCパラメータ複号器4の出力で
あるLPCパラメータ(反射係数)kiを用いることも
できる。一般に、有声音、鼻音、或は、語尾等は予測利
得が高いので1kilが1に近い。また、摩擦音等の無
声音は、予測利得が低いのて1kilが0に近い。そこ
で、予測利得を定めるパラメータGは次式から求まる。Sk/Pk > 5thl or Sk/Rk > 5
th2: rns = rnthl, rnl =
rnth3 or Sk/Pk≦5thl and Sk/R
k≦5th2, :rns=rnth2, rn
l = rnth4 (7) However, 0 ≦rn
t old≦rnth2≦1゜0≦rnth3≦rnth4≦
1. Also, as for the accuracy of the prediction, the coder input 1. of the weighting coefficient selector 66 in FIG. Subtractor 11 and subtractor 12
It is also possible to use the LPC parameter (reflection coefficient) ki output from the LPC parameter decoder 4 instead of the input information. Generally, 1 kil is close to 1 because the prediction gain is high for voiced sounds, nasal sounds, word endings, etc. Furthermore, for unvoiced sounds such as fricatives, 1 kiL is close to 0 because the prediction gain is low. Therefore, the parameter G that determines the prediction gain can be found from the following equation.
i=1
この式は、パラメータGが0に近いと予測利得が高く、
1に近いと予測利得が低いことを意味することから、こ
のパラメータGの小さい有声音と、大きいわたり音や無
声音の区別が可能となる。具体的には、このパラメータ
6ついてスレッショールドGthlを設け、短・長時間
予測器の雑音整形荷重係数rns 、 rnlを、次式
のように定めて切換える。i=1 This formula shows that when the parameter G is close to 0, the prediction gain is high;
Since a value close to 1 means that the prediction gain is low, it is possible to distinguish between voiced sounds with a small parameter G and loud overtones or unvoiced sounds. Specifically, a threshold Gthl is set for this parameter 6, and the noise shaping weight coefficients rns and rnl of the short- and long-term predictors are determined and switched as shown in the following equation.
G < Gthl : rns = rnth5 、
rnl = rnth7Gthl≦G : rns =
rnth6 、 rnl = rnth8 (9
)但し、 0≦Gthl≦1゜
0≦ rnth5≦ rnth6≦ 1 。G < Gthl: rns = rnth5,
rnl = rnth7Gthl≦G: rns =
rnth6, rnl = rnth8 (9
) However, 0≦Gthl≦1゜0≦rnth5≦rnth6≦1.
0≦rnth7≦rnth8≦1
この他に、上述した4つのスレッショールドに限定され
ることなく、更にスレッショールドを多く設け、パラメ
ータGの取り得る値の領域を小さく分割して荷重係数を
切換えることも考えられる。0≦rnth7≦rnth8≦1 In addition to this, it is not limited to the four thresholds mentioned above, and more thresholds are provided, and the range of possible values of the parameter G is divided into smaller regions to switch the load coefficient. It is also possible.
第5図は、本発明による復号器に用いるポスト雑音整形
フィルタ44のブロック図である。短詩間予側器用荷重
係数選択器76は、LPCパラメータ復号器38の出力
であるLPCパラメータから予測の当り具合を評価する
ことにより、LPCパラメータ・短時間予測パラメータ
変換器39の出力である短時間予測パラメータを適応的
に荷重し、短時間予測器極フィルタ72と零フィルタ7
3とに設定する。更に、長時間予測器用荷重係数選択器
75でも、同様にピッチパラメータ復号器37の出力で
あるピッチパラメータから予測の当り具合を評価するこ
とにより、同ピツチパラメータを適応的に荷重し長時間
予測器極フィルタ68と零フィルタ69とに設定する。FIG. 5 is a block diagram of a post-noise shaping filter 44 used in a decoder according to the present invention. The short-term prediction device loading coefficient selector 76 evaluates the accuracy of the prediction from the LPC parameter output from the LPC parameter decoder 38, and calculates the short-time prediction parameter output from the LPC parameter/short-time prediction parameter converter 39. The prediction parameters are weighted adaptively and the short-time predictor pole filter 72 and zero filter 7
Set to 3. Furthermore, the long-term predictor weight coefficient selector 75 similarly evaluates the accuracy of the prediction from the pitch parameter output from the pitch parameter decoder 37, and adaptively weights the same pitch parameter. The polar filter 68 and the zero filter 69 are set.
引算器41からの再生音声信号と長時間予測器極フィル
タ68の出力とを加算器67で加算し、長時間予測器極
フィルタ68と零フィルタ690入力とする。The reproduced audio signal from the subtracter 41 and the output of the long-term predictor pole filter 68 are added by an adder 67, and the result is input to the long-term predictor pole filter 68 and zero filter 690.
この加算器67の出力から長時間予測難字フィルタ69
の出力とを加算器70で加算し、更に、この加算出力と
短時間予測器極フィルタ72の出力とを加算器71で加
算し、短時間予測器極フィルタ72と零フィルタ73に
入力する。この加算器71の出力と短時間予測難事フィ
ルタ73の出力を引算器74で差し引き、その結果をポ
スト雑音整形フィルタ44の出力としてレベル調整器4
5へ送る。レベル調整器45を含めた本発明のポスト雑
音整形フィルタの伝達関数G (z)は、次式で与えら
れる。From the output of this adder 67, a long-term predictive difficult character filter 69
An adder 70 adds the added output to the output of the short-time predictor pole filter 72 , and an adder 71 adds the added output to the output of the short-time predictor pole filter 72 and inputs the result to the short-time predictor pole filter 72 and zero filter 73 . The output of this adder 71 and the output of the short-time prediction difficulty filter 73 are subtracted by a subtracter 74, and the result is used as the output of the post-noise shaping filter 44 and the level adjuster 4
Send to 5. The transfer function G (z) of the post-noise shaping filter of the present invention including the level adjuster 45 is given by the following equation.
但し、rpsp、rpsz、rplp、rplzは、各
々、短時間予測器様・零フィルタの雑音整形荷重係数、
長時間予測器様・零フィルタの雑音整形荷重係数を表す
。この短時間予測器は、スペクトル上で、極フィルタの
極とそれより荷重の小さい零フィルタの零を重ねること
により、LPCスペクトルのホルマント構造を保持した
スペクトル特性を持つ。これは、単なる極フィルタだけ
のスペクトル特性よりも結果的に高周波ホルマントの強
調された特性となる。これに対して、長時間予測器は、
極の位置を零と零の間に置くことにより、スペクトル上
でピッチ成分をより強調したスペクトル特性を持つ。こ
のように、短時間予測難事フィルタ73及び長時間予測
利得フィルタ69とを挿入し、さらに加算器70を用い
ることにより、音声のホルマント成分、特に、高域のホ
ルマント成分と、ピッチ成分とをさらに強調するため、
メリハリがあり、かつ明瞭な音声(こもらない音声)を
再現することができる。However, rpsp, rpsz, rplp, and rplz are the noise shaping weight coefficients of the short-time predictor-like/zero filter, respectively;
Represents the noise shaping weighting coefficient of the long-term predictor-like/zero filter. This short-time predictor has spectral characteristics that maintain the formant structure of the LPC spectrum by overlapping the poles of the polar filter and the zeros of the zero filter with a smaller weight on the spectrum. This results in a characteristic in which the high frequency formant is emphasized more than the spectral characteristic of a simple polar filter. On the other hand, the long-term predictor is
By placing the poles between zero and zero, the spectrum has spectral characteristics that emphasize the pitch component more. In this way, by inserting the short-time prediction difficulty filter 73 and the long-term prediction gain filter 69 and further using the adder 70, the formant components of speech, especially the high-frequency formant components and pitch components, can be further improved. To emphasize,
It is possible to reproduce crisp and clear sound (sound that is not muffled).
そして、符搭器内の雑音整形フィルタの場合と同様な理
由により、有声音の様な予測の当る部分に対しては弱く
、又、無声音の様な予測の当らない部分に対しては強く
雑音整形を行うことが可能となる。具体的には、まず、
ポスト雑音整形フィルタの短時間予測器において、スペ
クトルエンベロープ情報にLPCパラメータkiを用い
た場合、すなわち、例えば前述と同様に、予測利得とし
て(8)式のパラメータGを用いた場合について示す。For the same reason as the noise shaping filter in the signal generator, it is weak against parts where predictions are correct, such as voiced sounds, and strong against parts where predictions are not correct, such as unvoiced sounds. It becomes possible to perform plastic surgery. Specifically, first,
In the short-time predictor of the post-noise shaping filter, the case where the LPC parameter ki is used as the spectrum envelope information, that is, the case where, for example, the parameter G of equation (8) is used as the prediction gain as described above, will be described.
パラメータGについてスレッショールドGth2 、
Gth3を用いて、rpsp、rpszを、次式のよう
に切換える。Threshold Gth2 for parameter G,
Gth3 is used to switch rpsp and rpsz as shown in the following equation.
G < Gth2 : rpsp = rpsthl
、 rpsz = rpsth4、Gth2≦G<
G th3 : rpsp = rpsth2 。G < Gth2: rpsp = rpsthl
, rpsz = rpsth4, Gth2≦G<
G th3: rpsp = rpsth2.
rpsz = rpsth5 (11)Gt
h3≦G : rpsp = rpsth3 、 r
psz −rpsth6但し、 0≦Gth2≦Gth
3≦1゜0≦rpsthl≦rpsth2≦rpsth
3≦1゜0≦rpsth4≦rpstti5≦rpsL
h6≦lこのように短時間予測器極フィルタ72及び零
フィルタ73の荷重係数を切換えることにより、音声ス
ペクトルに合った係数を設定することができる。又、そ
の長時間予測器に対しても同様のことができ、上式を用
いることも可能である。ここでは、説明を簡単化するた
めに1タツプフイルタを用い説明する。ピッチパラメー
タbtは0<bl<1の範囲の値でピッチの相関度を表
し、blが1に近づくと、ピッチ構造が明確となり長時
間予測利得も大きくなる。ここで、blについて、スレ
ッショールドbthを設け、rplp、rplzを、次
式のように切換える。rpsz = rpsth5 (11) Gt
h3≦G: rpsp = rpsth3, r
psz -rpsth6However, 0≦Gth2≦Gth
3≦1゜0≦rpsthl≦rpsth2≦rpsth
3≦1゜0≦rpsth4≦rpstti5≦rpsL
h6≦l By switching the weighting coefficients of the short-time predictor pole filter 72 and zero filter 73 in this manner, it is possible to set coefficients that match the speech spectrum. The same thing can be done for the long-term predictor, and the above equation can also be used. Here, in order to simplify the explanation, a one-tap filter will be used. The pitch parameter bt represents the degree of correlation between pitches with a value in the range 0<bl<1, and as bl approaches 1, the pitch structure becomes clear and the long-term prediction gain becomes large. Here, a threshold bth is provided for bl, and rplp and rplz are switched as shown in the following equation.
bl < bth : rplp = rplth2.
rplz −rplth4bth≦bl : rpl
p = rplthl、 rplz = rplth3
(12)但し、
0≦bth≦ 1゜
0≦rplthl≦rplth2≦ 1゜0≦rplt
h3≦rplth4≦ 1同様に長時間予測器極フィル
タ68及び零フィルタ69の荷重係数を切換えることに
より、音声スペクトルに合った係数を設定することがで
きる。bl < bth : rplp = rplth2.
rplz −rplth4bth≦bl: rpl
p = rplthl, rplz = rplth3
(12) However, 0≦bth≦ 1゜0≦rplthl≦rpltth2≦ 1゜0≦rplt
h3≦rplth4≦1 Similarly, by switching the weighting coefficients of the long-term predictor pole filter 68 and zero filter 69, coefficients that match the speech spectrum can be set.
なお、第5図では第4図とは逆に荷重係数選択器(75
,76)が長時間予測器極フィルタ58及び零フィルタ
59、短時間予測器極フィルタ62及び零フィルタ63
とで別々のものを使用した構成例を示したが、第4図と
同様に同一の荷重係数選択器を用いてもよい。In addition, in Fig. 5, the load factor selector (75
, 76) are the long-term predictor pole filter 58 and zero filter 59, and the short-term predictor pole filter 62 and zero filter 63.
Although a configuration example using different load factor selectors has been shown, the same load factor selector may be used as in FIG. 4.
次に、パラメータの具体例として、9.6KbpSの最
尤量子化適応予測符号化方式(APC−MLQ)を用い
たシュミレーション結果をつぎに示す。Next, as a specific example of parameters, simulation results using a 9.6 KbpS maximum likelihood quantization adaptive predictive coding method (APC-MLQ) will be shown below.
(a)符号器の雑音整形フィルタに予測信号の当り具合
として、予測器の入出力比をもちいた場合(7式のパラ
メータ)。(a) A case where the input/output ratio of the predictor is used as the degree of hit of the predicted signal to the noise shaping filter of the encoder (parameters in equation 7).
Sk/Pk >40 or Sk/Rk >30
: rns =0.2゜rnl = 0.2
または、Sk/Pk≦40及びSk/Rk≦30:rn
s=0.5 、 rnl = 0.5
(b)復号器のポスト雑音整形フィルタに予測信号の当
り具合として、LPCパラメータをもちいた場合(11
式のパラメータ)。Sk/Pk >40 or Sk/Rk >30
: rns = 0.2゜rnl = 0.2 or Sk/Pk≦40 and Sk/Rk≦30:rn
s = 0.5, rnl = 0.5 (b) When the LPC parameter is used as the hit condition of the predicted signal to the post-noise shaping filter of the decoder (11
parameters of the expression).
G <0.08 : rpsp −0,25,rpsz
= 0.1.0.08≦G < 0.4 : rps
p = 0.6 、 rpsz =0.3.0.4≦G
: rpsp = 0.9 、 rpsz = 0
.30(C)復号器のポスト雑音整形フィルタに予測信
号の当り具合として、ピッチパラメータをもちいた場合
(12式のパラメータ)。G <0.08: rpsp -0,25,rpsz
= 0.1.0.08≦G<0.4: rps
p = 0.6, rpsz =0.3.0.4≦G
: rpsp = 0.9, rpsz = 0
.. 30(C) A case where the pitch parameter is used as the degree of hit of the predicted signal to the post-noise shaping filter of the decoder (parameters in equation 12).
bl < 0.4: rplp = 0.62. rp
lz = 0.5.0.4≦bl : rplp =
0.35. rplz = 0.5(発明の効果)
以上のように、本発明は雑音整形フィルタ及びポスト雑
音整形フィルタの荷重係数を予測信号の当り具合に応じ
て変化させてディジタル入力音声信号を符号化・復号化
することにより、有声音・無声音に関係なく良好な音声
品質が得られる。また、予測信号の当り具合として、予
測器の入出力比、LPCパラメータ及びピッチパラメー
タ等を用いることにより、本発明を簡単に実現すること
ができる。bl < 0.4: rplp = 0.62. rp
lz = 0.5.0.4≦bl : rplp =
0.35. rplz = 0.5 (Effect of the Invention) As described above, the present invention encodes and decodes a digital input audio signal by changing the weighting coefficients of the noise shaping filter and the post-noise shaping filter according to the degree of accuracy of the predicted signal. By optimizing the audio quality, good audio quality can be obtained regardless of whether the sound is voiced or unvoiced. Further, the present invention can be easily implemented by using the input/output ratio of the predictor, the LPC parameter, the pitch parameter, etc. as the accuracy of the predicted signal.
また、雑音整形フィルタを荷重係数選択器66、長時間
予測器極フィルタ58及び零フィルタ59、短時間予測
器極フィルタ62及び零フィルタ63で構成することに
より、従来構造よりも雑音整形を強く行うことができる
ため、量子化雑音を低減することが可能となる。In addition, by configuring the noise shaping filter with a weighting coefficient selector 66, a long-term predictor pole filter 58 and zero filter 59, and a short-term predictor pole filter 62 and zero filter 63, noise shaping is performed more strongly than in the conventional structure. Therefore, it is possible to reduce quantization noise.
更に、ポスト雑音整形フィルタが荷重係数選択器(75
,76)、長時間予測器極フィルタ68及び零フィルタ
69.短時間予測器極フィルタ72及び零フィルタ73
を用い、かつ長時間予測器極フィルタ68及び零フィル
タ69の出力を加算し、他方、短時間予測器極フィルタ
72及び零フィルタ73の出力を減算するように構成す
ることにより、従来構造よりも雑音整形を強く行うこと
ができるため、量子化雑音を低減し、かつメリハリのあ
る明瞭な音声を再現することが可能となる。従フて、本
発明による雑音整形フィルタ及びポスト雑音整形フィル
タを用いた音声符号化・復号化方式は、低ビツトレート
の高能率音声符号化・復号化方式を実現することが可能
となり、その効果が極めて大である。Additionally, the post-noise shaping filter uses a weighting factor selector (75
, 76), long-term predictor pole filter 68 and zero filter 69 . Short-time predictor pole filter 72 and zero filter 73
By using a configuration in which the outputs of the long-term predictor pole filter 68 and zero filter 69 are added, and the outputs of the short-term predictor pole filter 72 and zero filter 73 are subtracted, this structure is more advantageous than the conventional structure. Since noise shaping can be performed strongly, it is possible to reduce quantization noise and reproduce clear and well-defined speech. Therefore, the speech encoding/decoding method using the noise shaping filter and the post-noise shaping filter according to the present invention can realize a low bit rate, high efficiency speech encoding/decoding method, and its effects are It is extremely large.
第1図(a)及び(b)は従来の音声符号化・復号化方
式及び音声復号化方式のブロック図、第2図は従来の符
号化器に用いる雑音整形フィルタの構成図、第3図(a
)及び(b)は従来の復号化器に用いるポスト雑音整形
フィルタの構成図、第4図は本発明の符号化器に用いる
雑音整形フィルタの構成図、第5図は本発明の復号化器
に用いるポスト雑音整形フィルタの構成図である。
1・・・符号化器入力端子、2・・・LPC分析器、3
・・・LPCパラメータ符号器、4,38・・・LPC
パラメータ復号器、5,39・・・LPCパラメータ・
短時間予測パラメータ変換器、6,24,43.49・
・・短時間予測器、7・・・ピッチ分析器、8・・・ピ
ッチパラメータ符号器、9.37・・・ピッチパラメー
タ復号器、10,23,42.47・・・長時間予測器
、11,12.17,20,26,48゜56.60,
64,65.74・・・引算器、13・・・RMS計算
回路、14・・・RMS値符号器、15.35−−・R
MS値復号器、16・・・適応量子化器、18.36・
・・逆量子化器、19・・・雑音整形フィルタ、21,
22゜40.41,50,51,53,57,61,6
7.70,71. ・・・加算器、25・・・局部復
号信号端子、27・・・最小誤差電力検出器、28・・
・RMS値スデステップサイズ選択器9・・・ステップ
サイズ符号器、30・・・多重回路、32・・・復号止
器入力端子、33・・・多型分離回路、34・・・ステ
ップサイズ復号器、44・・・ポスト雑音整形フィルタ
、45・・・レベル調整器、54,62.72・・・短
時間予測器極フィルタ、55,63.73・・・短時間
予測難事フィルタ、58.68・・・長時間予測器極フ
ィルタ、59.69・・・長時間予測器零フィルタ、6
6・・・荷重係数選択器、75・・・長時間予測器用荷
重係数選択器、76・・・短時間予測器用荷重係数選択
器。Figures 1 (a) and (b) are block diagrams of conventional audio encoding/decoding systems and audio decoding systems, Figure 2 is a block diagram of a noise shaping filter used in a conventional encoder, and Figure 3 (a
) and (b) are block diagrams of post-noise shaping filters used in conventional decoders, FIG. 4 is block diagrams of noise shaping filters used in encoders of the present invention, and FIG. 5 is block diagrams of post-noise shaping filters used in encoders of the present invention. FIG. 2 is a configuration diagram of a post-noise shaping filter used in FIG. 1... Encoder input terminal, 2... LPC analyzer, 3
...LPC parameter encoder, 4,38...LPC
Parameter decoder, 5, 39...LPC parameter
Short-time prediction parameter converter, 6,24,43.49・
... Short-time predictor, 7... Pitch analyzer, 8... Pitch parameter encoder, 9.37... Pitch parameter decoder, 10, 23, 42.47... Long-term predictor, 11,12.17,20,26,48゜56.60,
64, 65.74...Subtractor, 13...RMS calculation circuit, 14...RMS value encoder, 15.35--R
MS value decoder, 16... adaptive quantizer, 18.36.
... Inverse quantizer, 19... Noise shaping filter, 21,
22゜40.41,50,51,53,57,61,6
7.70,71. ...Adder, 25...Local decoding signal terminal, 27...Minimum error power detector, 28...
- RMS value step size selector 9...Step size encoder, 30...Multiple circuit, 32...Decoder input terminal, 33...Polymorphism separation circuit, 34...Step size Decoder, 44... Post-noise shaping filter, 45... Level adjuster, 54, 62.72... Short-term predictor pole filter, 55, 63.73... Short-term prediction difficulty filter, 58 .68...Long-term predictor pole filter, 59.69...Long-term predictor zero filter, 6
6... Loading factor selector, 75... Loading factor selector for long time predictor, 76... Loading factor selector for short time predictor.
Claims (5)
を作成する予測器と、該予測信号と該ディジタル入力音
声信号との残差信号を求め該残差信号を量子化・符号化
する量子化器と、該量子化器の出力信号を復号・逆量子
化して前記残差信号を得る逆量子化器と、該逆量子化器
の出力信号と前記量子化器の入力信号との差分を量子化
雑音として抽出して該量子化雑音を整形し低減する雑音
整形フィルタとを有する符号器と、 受信側では、該送信側から送られてきた符号化された前
記残差信号を復号・逆量子化するための逆量子化器と、
該逆量子化器の出力信号と再生された前記予測信号とを
加算して前記ディジタル入力音声信号を再生する合成フ
ィルタと、再生された前記ディジタル入力音声信号の前
記量子化雑音を低減するためのポスト雑音整形フィルタ
とを有する復号器とを配置して、前記ディジタル入力音
声信号を符号化・復号化する音声符号化・復号化方式に
おいて、 前記雑音整形フィルタ及びポスト雑音整形フィルタが前
記予測信号の当り具合に応じて適応的に係数を変化させ
るように構成したことを特徴とする音声符号化・復号化
方式。(1) On the transmitting side, there is a predictor that creates a predicted signal of the digital input audio signal, and a quantizer that calculates a residual signal between the predicted signal and the digital input audio signal and quantizes and encodes the residual signal. a dequantizer that decodes and dequantizes the output signal of the quantizer to obtain the residual signal; and a dequantizer that decodes and dequantizes the output signal of the quantizer to obtain the residual signal; a noise shaping filter that extracts it as quantization noise and shapes and reduces the quantization noise; and a receiving side decodes and dequantizes the encoded residual signal sent from the transmitting side; an inverse quantizer for
a synthesis filter for reproducing the digital input audio signal by adding the output signal of the inverse quantizer and the reproduced predicted signal; and a synthesis filter for reducing the quantization noise of the reproduced digital input audio signal. In the speech encoding/decoding method, the digital input speech signal is encoded/decoded by arranging a decoder having a post-noise shaping filter, and the noise-shaping filter and the post-noise shaping filter are arranged to encode/decode the digital input speech signal. A speech encoding/decoding method characterized by being configured to adaptively change coefficients depending on the degree of success.
出力比を求めて用いることを特徴とする請求項(1)に
記載の音声符号化・復号化方式。(2) The audio encoding/decoding method according to claim 1, wherein the input/output ratio of the predictor is determined and used as the accuracy of the predicted signal.
作成するためのLPCパラメータ及びピッチパラメータ
を用いることを特徴とする請求項(1)に記載の音声符
号化・復号化方式。(3) The audio encoding/decoding method according to claim 1, wherein an LPC parameter and a pitch parameter for creating the predicted signal are used as the accuracy of the predicted signal.
た予測信号との差分である残差信号と該残差信号を符号
化した後符号器内の逆量子化器により復号された復号信
号との差分である量子化雑音を低減するための雑音整形
フィルタにおいて、スペクトル包絡上での雑音整形を行
う短時間予測器極フィルタ及び短時間予測器零フィルタ
と、スペクトル上でのピッチ間の雑音整形を行う長時間
予測器極フィルタ及び長時間予測器零フィルタと、 前記予測信号の当り具合を判定しかつ短時間予測器極フ
ィルタ、短時間予測器零フィルタ、長時間予測器極フィ
ルタ及び長時間予測器零フィルタの荷重係数を選択する
ための荷重係数選択器とを具備することを特徴とする雑
音整形フィルタ。(4) A residual signal that is the difference between the digital input audio signal and the predicted signal created by the predictor, and a decoded signal that is decoded by the inverse quantizer in the encoder after encoding the residual signal. In the noise shaping filter for reducing quantization noise, which is a difference, we use a short-time predictor pole filter and a short-time predictor zero filter that shape noise on the spectrum envelope, and a short-time predictor zero filter that shapes noise between pitches on the spectrum. a long-term predictor pole filter and a long-term predictor zero filter for determining the accuracy of the prediction signal; 1. A noise shaping filter comprising: a weighting coefficient selector for selecting a weighting coefficient of a zero filter.
された前記残差信号を復号・逆量子化した後、該逆量子
化器の出力信号と合成フィルタにより再生された予測信
号とを加算して音声信号を再生し、該再生された音声信
号の前記量子化雑音を取り除くためのポスト雑音整形フ
ィルタにおいて、 再生された音声信号のスペクトル包絡上での雑音整形を
行う短時間予測器極フィルタ及び短時間予測器零フィル
タと、 該再生された音声信号のスペクトルのピッチ間の雑音整
形を行う長時間予測器極フィルタ及び長時間予測器零フ
ィルタと、 前記予測信号の当り具合を判定しかつ短時間予測器極フ
ィルタ、短時間予測器零フィルタ、長時間予測器極フィ
ルタ及び長時間予測器零フィルタの荷重係数を選択する
ための荷重係数選択器とを有し、 前記再生された音声信号を荷重係数選択器により最適な
係数が設定されている長時間予測器極フィルタ及び長時
間予測器零フィルタで処理した後加算し、一方、短時間
予測器極フィルタ及び短時間予測器零フィルタにより前
記再生された音声信号を同様に処理した後減算するよう
に構成したことを特徴とするポスト雑音整形フィルタ。(5) After decoding and dequantizing the encoded residual signal sent from the transmitting side by an inverse quantizer, the output signal of the inverse quantizer and the predicted signal reproduced by the synthesis filter are combined. a short-time predictor that performs noise shaping on the spectral envelope of the reproduced audio signal in a post-noise shaping filter for reproducing the audio signal by adding the quantization noise of the reproduced audio signal. a pole filter and a short-time predictor zero filter; a long-term predictor pole filter and a long-term predictor zero filter that perform pitch-to-pitch noise shaping of the spectrum of the reproduced audio signal; and determine the accuracy of the predicted signal. and a weighting factor selector for selecting weighting factors of the short-term predictor pole filter, the short-term predictor zero filter, the long-term predictor pole filter, and the long-term predictor zero filter; The audio signal is processed by a long-term predictor pole filter and a long-term predictor zero filter whose optimal coefficients are set by a weighting coefficient selector, and then summed. A post-noise shaping filter characterized in that the reproduced audio signal is processed in the same manner by the filter and then subtracted.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63088922A JP3074680B2 (en) | 1988-04-13 | 1988-04-13 | Post-noise shaping filter for speech decoder. |
CA000581746A CA1321025C (en) | 1988-04-13 | 1988-10-31 | Speech signal coding/decoding system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63088922A JP3074680B2 (en) | 1988-04-13 | 1988-04-13 | Post-noise shaping filter for speech decoder. |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH01261930A true JPH01261930A (en) | 1989-10-18 |
JP3074680B2 JP3074680B2 (en) | 2000-08-07 |
Family
ID=13956406
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP63088922A Expired - Lifetime JP3074680B2 (en) | 1988-04-13 | 1988-04-13 | Post-noise shaping filter for speech decoder. |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP3074680B2 (en) |
CA (1) | CA1321025C (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03245195A (en) * | 1990-02-23 | 1991-10-31 | Toshiba Corp | Adaptive post filter |
JPH056197A (en) * | 1991-06-28 | 1993-01-14 | Sharp Corp | Post filter for voice synthesizing device |
JPH086596A (en) * | 1994-06-21 | 1996-01-12 | Mitsubishi Electric Corp | Voice emphasis device |
JPH08502604A (en) * | 1993-06-30 | 1996-03-19 | モトローラ・インコーポレイテッド | Method and apparatus for reducing the undesirable characteristics of the spectral estimation of noise signals during the generation of speech signals |
EP0805564A2 (en) * | 1991-08-02 | 1997-11-05 | Sony Corporation | Digital encoder with dynamic quantization bit allocation |
US5819213A (en) * | 1996-01-31 | 1998-10-06 | Kabushiki Kaisha Toshiba | Speech encoding and decoding with pitch filter range unrestricted by codebook range and preselecting, then increasing, search candidates from linear overlap codebooks |
JP2000305598A (en) * | 1990-02-23 | 2000-11-02 | Toshiba Corp | Adaptive post filter |
JP2010145593A (en) * | 2008-12-17 | 2010-07-01 | Sony Corp | Information coding apparatus |
JP2010160496A (en) * | 2010-02-15 | 2010-07-22 | Toshiba Corp | Signal processing device and signal processing method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61184912A (en) * | 1985-02-12 | 1986-08-18 | Nec Corp | Constant variable type audible sense weighting filter |
JPS62111299A (en) * | 1985-11-08 | 1987-05-22 | 松下電器産業株式会社 | Voice signal feature extraction circuit |
JPS62111300A (en) * | 1985-11-08 | 1987-05-22 | 松下電器産業株式会社 | Voice analysis/synthesization circuit |
-
1988
- 1988-04-13 JP JP63088922A patent/JP3074680B2/en not_active Expired - Lifetime
- 1988-10-31 CA CA000581746A patent/CA1321025C/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61184912A (en) * | 1985-02-12 | 1986-08-18 | Nec Corp | Constant variable type audible sense weighting filter |
JPS62111299A (en) * | 1985-11-08 | 1987-05-22 | 松下電器産業株式会社 | Voice signal feature extraction circuit |
JPS62111300A (en) * | 1985-11-08 | 1987-05-22 | 松下電器産業株式会社 | Voice analysis/synthesization circuit |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03245195A (en) * | 1990-02-23 | 1991-10-31 | Toshiba Corp | Adaptive post filter |
JP2000305598A (en) * | 1990-02-23 | 2000-11-02 | Toshiba Corp | Adaptive post filter |
JPH056197A (en) * | 1991-06-28 | 1993-01-14 | Sharp Corp | Post filter for voice synthesizing device |
EP0805564A2 (en) * | 1991-08-02 | 1997-11-05 | Sony Corporation | Digital encoder with dynamic quantization bit allocation |
EP0805564A3 (en) * | 1991-08-02 | 1999-10-13 | Sony Corporation | Digital encoder with dynamic quantization bit allocation |
JPH08502604A (en) * | 1993-06-30 | 1996-03-19 | モトローラ・インコーポレイテッド | Method and apparatus for reducing the undesirable characteristics of the spectral estimation of noise signals during the generation of speech signals |
JPH086596A (en) * | 1994-06-21 | 1996-01-12 | Mitsubishi Electric Corp | Voice emphasis device |
US5819213A (en) * | 1996-01-31 | 1998-10-06 | Kabushiki Kaisha Toshiba | Speech encoding and decoding with pitch filter range unrestricted by codebook range and preselecting, then increasing, search candidates from linear overlap codebooks |
JP2010145593A (en) * | 2008-12-17 | 2010-07-01 | Sony Corp | Information coding apparatus |
JP4735711B2 (en) * | 2008-12-17 | 2011-07-27 | ソニー株式会社 | Information encoding device |
US8311816B2 (en) | 2008-12-17 | 2012-11-13 | Sony Corporation | Noise shaping for predictive audio coding apparatus |
JP2010160496A (en) * | 2010-02-15 | 2010-07-22 | Toshiba Corp | Signal processing device and signal processing method |
Also Published As
Publication number | Publication date |
---|---|
CA1321025C (en) | 1993-08-03 |
JP3074680B2 (en) | 2000-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA2185746C (en) | Perceptual noise masking measure based on synthesis filter frequency response | |
EP0764941B1 (en) | Speech signal quantization using human auditory models in predictive coding systems | |
Chen et al. | Real-time vector APC speech coding at 4800 bps with adaptive postfiltering | |
US5778335A (en) | Method and apparatus for efficient multiband celp wideband speech and music coding and decoding | |
EP0503684B1 (en) | Adaptive filtering method for speech and audio | |
US4811396A (en) | Speech coding system | |
RU2325707C2 (en) | Method and device for efficient masking of deleted shots in speech coders on basis of linear prediction | |
US5125030A (en) | Speech signal coding/decoding system based on the type of speech signal | |
RU2262748C2 (en) | Multi-mode encoding device | |
EP0764939B1 (en) | Synthesis of speech signals in the absence of coded parameters | |
KR20030046451A (en) | Codebook structure and search for speech coding | |
JP3033060B2 (en) | Voice prediction encoding / decoding method | |
US6205423B1 (en) | Method for coding speech containing noise-like speech periods and/or having background noise | |
EP0856185B1 (en) | Repetitive sound compression system | |
JPH01261930A (en) | Sound encoding/decoding system | |
WO1997031367A1 (en) | Multi-stage speech coder with transform coding of prediction residual signals with quantization by auditory models | |
Kataoka et al. | A 16-kbit/s wideband speech codec scalable with G. 729 | |
JPH028900A (en) | Voice encoding and decoding method, voice encoding device, and voice decoding device | |
JPH0786952A (en) | Predictive encoding method for voice | |
Viswanathan et al. | Baseband LPC coders for speech transmission over 9.6 kb/s noisy channels | |
JP3350340B2 (en) | Voice coding method and voice decoding method | |
JPH10149200A (en) | Linear predictive encoder | |
JPH08139688A (en) | Voice encoding device | |
JPH034300A (en) | Voice encoding and decoding system | |
JPH09185396A (en) | Speech encoding device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
EXPY | Cancellation because of completion of term |