JP4660496B2 - Speech coding apparatus and speech coding method - Google Patents

Speech coding apparatus and speech coding method Download PDF

Info

Publication number
JP4660496B2
JP4660496B2 JP2007044048A JP2007044048A JP4660496B2 JP 4660496 B2 JP4660496 B2 JP 4660496B2 JP 2007044048 A JP2007044048 A JP 2007044048A JP 2007044048 A JP2007044048 A JP 2007044048A JP 4660496 B2 JP4660496 B2 JP 4660496B2
Authority
JP
Japan
Prior art keywords
sound source
excitation
adaptive
driving
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2007044048A
Other languages
Japanese (ja)
Other versions
JP2007179071A5 (en
JP2007179071A (en
Inventor
裕久 田崎
正 山浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2007044048A priority Critical patent/JP4660496B2/en
Publication of JP2007179071A publication Critical patent/JP2007179071A/en
Publication of JP2007179071A5 publication Critical patent/JP2007179071A5/ja
Application granted granted Critical
Publication of JP4660496B2 publication Critical patent/JP4660496B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To prevent quality deterioration when a pitch period and a repetition period are different from each other. <P>SOLUTION: A period preselecting means 23 multiplies a repetition period of an adaptive sound source by a plurality of constants to find repetition period candidates of a plurality of driving sound sources, and selects repetition period candidates of a predetermined number of driving sound sources. A driving sound source encoding means 27 outputs the polarity of a sound source position which minimizes encoding distortion and an evaluated value of the encoding distortion at the time by the repetition period candidates of every predetermined number of driving sound sources. A period encoding means 28 compares evaluated values of encoding distortion by repetition periods, selects repetition period candidates of the driving sound sources based upon the comparison results, and outputs selection information, a sound source position code, and a polarity. <P>COPYRIGHT: (C)2007,JPO&amp;INPIT

Description

この発明は、ディジタル音声信号を少ない情報量に圧縮する音声符号化装置及び音声符号化方法に関するものである。   The present invention relates to a speech encoding apparatus and speech encoding method for compressing a digital speech signal to a small amount of information.

従来の多くの音声符号化装置及び音声復号化装置では、入力音声をスペクトル包絡情報と音源に分けて、所定長区間のフレーム単位で各々を符号化して音声符号を生成し、この音声符号を復号化して、合成フィルタによってスペクトル包絡情報と音源を合わせることで復号音声を得る構成をとっている。最も代表的な音声符号化装置及び音声復号化装置としては、符号駆動線形予測符号化(Code−Excited Linear Prediction:CELP)方式を用いたものがある。   In many conventional speech coding apparatuses and speech decoding apparatuses, input speech is divided into spectral envelope information and a sound source, and each speech is encoded in units of frames of a predetermined long section, and this speech code is decoded. And the decoded speech is obtained by combining the spectral envelope information and the sound source by the synthesis filter. As the most typical speech coding apparatus and speech decoding apparatus, there is one using a code-driven linear prediction encoding (Code-Linear Prediction: CELP) system.

図14は従来のCELP系音声符号化装置の構成を示すブロック図であり、図15は従来のCELP系音声復号化装置の構成を示すブロック図である。
図14及び図15において、1は入力音声、2は線形予測分析手段、3は線形予測係数符号化手段、4は適応音源符号化手段、5は駆動音源符号化手段、6はゲイン符号化手段、7は多重化手段、8は音声符号、9は分離手段、10は線形予測係数復号化手段、11は適応音源復号化手段、12は駆動音源復号化手段、13はゲイン復号化手段、14は合成フィルタ、15は出力音声である。
FIG. 14 is a block diagram showing the configuration of a conventional CELP speech encoding apparatus, and FIG. 15 is a block diagram showing the configuration of a conventional CELP speech decoding apparatus.
14 and 15, 1 is input speech, 2 is linear prediction analysis means, 3 is linear prediction coefficient coding means, 4 is adaptive excitation coding means, 5 is driving excitation coding means, and 6 is gain coding means. , 7 is a multiplexing means, 8 is a speech code, 9 is a separation means, 10 is a linear prediction coefficient decoding means, 11 is an adaptive excitation decoding means, 12 is a driving excitation decoding means, 13 is a gain decoding means, 14 Is a synthesis filter, and 15 is an output voice.

次に動作について説明する。
この従来の音声符号化装置及び音声復号化装置では、5〜50ms程度を1フレームとして、フレーム単位で処理を行う。まず、図14に示す音声符号化装置において、入力音声1が線形予測分析手段2と適応音源符号化手段4とゲイン符号化手段6に入力される。線形予測分析手段2は、入力音声1を分析し、音声のスペクトル包絡情報である線形予測係数を抽出する。線形予測係数符号化手段3は、この線形予測係数を符号化し、その符号を多重化手段7に出力すると共に、音源の符号化のために量子化された線形予測係数を出力する。
Next, the operation will be described.
In this conventional speech encoding device and speech decoding device, processing is performed in units of frames, with about 5 to 50 ms as one frame. First, in the speech coding apparatus shown in FIG. 14, input speech 1 is input to linear prediction analysis means 2, adaptive excitation coding means 4, and gain coding means 6. The linear prediction analysis means 2 analyzes the input speech 1 and extracts linear prediction coefficients that are speech spectral envelope information. The linear prediction coefficient encoding unit 3 encodes the linear prediction coefficient, outputs the code to the multiplexing unit 7, and outputs a linear prediction coefficient quantized for encoding the sound source.

適応音源符号化手段4は、過去の所定長の音源(信号)を適応音源符号帳として記憶しており、内部で発生させた数ビットの2進数値で示した各適応音源符号に対応して、過去の音源を周期的に繰り返した時系列ベクトルを生成する。次に各時系列ベクトルに適切なゲインを乗じ、線形予測係数符号化手段3から出力された量子化された線形予測係数を用いた合成フィルタに通すことにより、仮の合成音を得る。この仮の合成音と入力音声1との距離を調べ、この距離を最小とする適応音源符号を選択して多重化手段7に出力すると共に、選択された適応音源符号に対応する時系列ベクトルを適応音源として、駆動音源符号化手段5とゲイン符号化手段6に出力する。また、入力音声1,又は入力音声1から適応音源による合成音を差し引いた信号を、符号化対象信号として駆動音源符号化手段5に出力する。   The adaptive excitation coding means 4 stores a sound source (signal) of a predetermined length in the past as an adaptive excitation codebook, and corresponds to each adaptive excitation code indicated by a binary value of several bits generated internally. Then, a time series vector in which past sound sources are periodically repeated is generated. Next, each time series vector is multiplied by an appropriate gain and passed through a synthesis filter using the quantized linear prediction coefficient output from the linear prediction coefficient encoding means 3 to obtain a temporary synthesized sound. The distance between the temporary synthesized sound and the input speech 1 is checked, an adaptive excitation code that minimizes this distance is selected and output to the multiplexing means 7, and a time series vector corresponding to the selected adaptive excitation code is obtained. The adaptive excitation is output to the drive excitation encoding means 5 and the gain encoding means 6. Further, a signal obtained by subtracting the synthesized sound from the adaptive sound source from the input sound 1 or the input sound 1 is output to the driving sound source encoding means 5 as a signal to be encoded.

駆動音源符号化手段5は、まず、内部で発生させた数ビットの2進数値で示した各駆動音源符号に対応して、内部に格納してある駆動音源符号帳から時系列ベクトルを順次読み出す。次に、読み出した各時系列ベクトルと適応音源符号化手段4から出力された適応音源に適切なゲインを乗じて加算し、線形予測係数符号化手段3から出力された量子化された線形予測係数を用いた合成フィルタに通すことにより、仮の合成音を得る。この仮の合成音と、適応音源符号化手段4から出力された入力音声1又は入力音声1から適応音源に
よる合成音を差し引いた信号である符号化対象信号との距離を調べ、この距離を最小とする駆動音源符号を選択して多重化手段7に出力すると共に、選択された駆動音源符号に対応する時系列ベクトルを駆動音源として、ゲイン符号化手段6に出力する。
First, the driving excitation encoding means 5 sequentially reads out the time series vectors from the driving excitation codebook stored therein corresponding to each driving excitation code indicated by a binary value of several bits generated internally. . Next, each of the read time series vectors and the adaptive excitation output from the adaptive excitation encoding unit 4 are multiplied by an appropriate gain and added, and the quantized linear prediction coefficient output from the linear prediction coefficient encoding unit 3 is added. A tentative synthesized sound is obtained by passing through a synthesis filter using. The distance between the provisional synthesized sound and the input signal 1 output from the adaptive excitation coding means 4 or the signal to be encoded which is a signal obtained by subtracting the synthesized sound from the adaptive sound source from the input sound 1 is checked, and this distance is minimized. Is selected and output to the multiplexing means 7, and a time series vector corresponding to the selected driving excitation code is output to the gain encoding means 6 as a driving excitation.

ゲイン符号化手段6は、まず、内部で発生させた数ビットの2進数値で示した各ゲイン符号に対応して、内部に格納してあるゲイン符号帳からのゲインベクトルを順次読み出す。そして各ゲインベクトルの各要素を、適応音源符号化手段4から出力された適応音源と駆動音源符号化手段5から出力された駆動音源に乗じて加算して音源を生成し、生成したこの音源を線形予測係数符号化手段3から出力された量子化された線形予測係数を用いた合成フィルタに通すことにより、仮の合成音を得る。この仮の合成音と入力音声1との距離を調べ、この距離を最小とするゲイン符号を選択して多重化手段7に出力する。また、このゲイン符号に対応する上記生成された音源を適応音源符号化手段4に出力する。   First, the gain encoding means 6 sequentially reads out the gain vector from the gain codebook stored therein corresponding to each gain code indicated by a binary value of several bits generated internally. Then, each element of each gain vector is multiplied by the adaptive excitation output from the adaptive excitation encoding unit 4 and the driving excitation output from the driving excitation encoding unit 5 and added to generate a excitation, and the generated excitation is By passing through a synthesis filter using the quantized linear prediction coefficient output from the linear prediction coefficient encoding means 3, a provisional synthesized sound is obtained. The distance between the provisional synthesized sound and the input speech 1 is checked, and a gain code that minimizes this distance is selected and output to the multiplexing means 7. Further, the generated excitation corresponding to the gain code is output to the adaptive excitation encoding means 4.

最後に、適応音源符号化手段4は、ゲイン符号化手段6により生成されたゲイン符号に対応する音源を用いて、内部の適応音源符号帳の更新を行う。   Finally, the adaptive excitation encoding unit 4 updates the internal adaptive excitation codebook using the excitation corresponding to the gain code generated by the gain encoding unit 6.

多重化手段7は、線形予測係数符号化手段3から出力された線形予測係数の符号と、適応音源符号化手段4から出力された適応音源符号と、駆動音源符号化手段5から出力された駆動音源符号と、ゲイン符号化手段6から出力されたゲイン符号を多重化し、得られた音声符号8を出力する。   The multiplexing unit 7 includes the code of the linear prediction coefficient output from the linear prediction coefficient encoding unit 3, the adaptive excitation code output from the adaptive excitation encoding unit 4, and the driving output from the driving excitation encoding unit 5. The excitation code and the gain code output from the gain encoding means 6 are multiplexed, and the obtained speech code 8 is output.

次に、図15に示す音声復号化装置において、分離手段9は、音声符号化装置から出力された音声符号8を分離して、線形予測係数の符号を線形予測係数復号化手段10に出力し、適応音源符号を適応音源復号化手段11に出力し、駆動音源符号を駆動音源復号化手段12に出力し、ゲイン符号をゲイン復号化手段13に出力する。線形予測係数復号化手段10は、分離手段9が分離した線形予測係数の符号から線形予測係数を復号化し、合成フィルタ14のフィルタ係数として設定し出力する。   Next, in the speech decoding apparatus shown in FIG. 15, the separating means 9 separates the speech code 8 output from the speech encoding apparatus and outputs the code of the linear prediction coefficient to the linear prediction coefficient decoding means 10. The adaptive excitation code is output to the adaptive excitation decoding unit 11, the driving excitation code is output to the driving excitation decoding unit 12, and the gain code is output to the gain decoding unit 13. The linear prediction coefficient decoding means 10 decodes the linear prediction coefficient from the code of the linear prediction coefficient separated by the separation means 9, sets it as a filter coefficient of the synthesis filter 14, and outputs it.

次に、適応音源復号化手段11は、内部に過去の音源を適応音源符号帳として記憶しており、分離手段9が分離した適応音源符号に対応して過去の音源を周期的に繰り返した時系列ベクトルを適応音源として出力する。また、駆動音源復号化手段12は、分離手段9が分離した駆動音源符号に対応した時系列ベクトルを駆動音源として出力する。ゲイン復号化手段13は、分離手段9が分離したゲイン符号に対応したゲインベクトルを出力する。そして、上記2つの時系列ベクトルに上記ゲインベクトルの各要素を乗じて加算することで音源を生成し、この音源を合成フィルタ14に通すことで出力音声15を生成する。最後に、適応音源復号化手段11は、上記生成された音源を用いて内部の適応音源符号帳の更新を行う。   Next, the adaptive excitation decoding means 11 stores the past excitation as an adaptive excitation codebook and periodically repeats the past excitation corresponding to the adaptive excitation code separated by the separating means 9. A sequence vector is output as an adaptive sound source. Further, the driving excitation decoding unit 12 outputs a time series vector corresponding to the driving excitation code separated by the separating unit 9 as a driving excitation. The gain decoding unit 13 outputs a gain vector corresponding to the gain code separated by the separating unit 9. Then, a sound source is generated by multiplying the two time-series vectors by each element of the gain vector and adding them, and an output sound 15 is generated by passing the sound source through the synthesis filter 14. Finally, adaptive excitation decoding means 11 updates the internal adaptive excitation codebook using the generated excitation.

次に、このCELP系音声符号化装置及び音声復号化装置の改良を図った従来の技術について説明する。
非特許文献1には、演算量とメモリ量の削減を主な目的として、駆動音源の符号化にパルス音源を導入したCELP系音声符号化装置及び音声復号化装置が開示されている。この従来の構成では、駆動音源を数本のパルスの各位置情報と極性情報のみで表現している。このような音源は代数的音源と呼ばれ、構造が簡単な割に符号化特性が良く、最近の多くの標準方式に採用されている。
Next, conventional techniques for improving the CELP speech coding apparatus and speech decoding apparatus will be described.
Non-Patent Document 1 discloses a CELP speech encoding apparatus and speech decoding apparatus in which a pulse excitation is introduced into the encoding of a driving excitation for the main purpose of reducing the amount of calculation and the amount of memory. In this conventional configuration, the driving sound source is expressed only by position information and polarity information of several pulses. Such a sound source is called an algebraic sound source and has a good coding characteristic for its simple structure, and has been adopted in many recent standard systems.

図16は、非特許文献1で用いられているパルス音源の位置候補を示した表であり、上記図14の音声符号化装置では駆動音源符号化装置5,上記図15の音声復号化装置では駆動音源復号化装置12に搭載される。非特許文献1では、音源符号化フレーム長が40サンプルであり、駆動音源は4つのパルスで構成されている。音源番号1から音源番号3のパルス音源の位置候補は、図16に示したように各々8つの位置に制約されており、パルス位置は各々3ビットで符号化できる。音源番号4のパルスは16の位置に制約されており、パルス位置は4ビットで符号化できる。パルス音源の位置候補に制約を与えることにより、符号化特性の劣化を抑えつつ、符号化ビット数の削減、組合せ数の削減による演算量の削減を実現している。   FIG. 16 is a table showing pulse excitation position candidates used in Non-Patent Document 1. In the speech encoding apparatus shown in FIG. 14, the driving excitation encoding apparatus 5 is used, and in the speech decoding apparatus shown in FIG. It is mounted on the drive excitation decoding device 12. In Non-Patent Document 1, the excitation encoding frame length is 40 samples, and the driving excitation is composed of four pulses. As shown in FIG. 16, the position candidates of the sound source numbers 1 to 3 are restricted to 8 positions, and each pulse position can be encoded with 3 bits. The pulse of the sound source number 4 is restricted to the position of 16, and the pulse position can be encoded with 4 bits. By constraining the pulse sound source position candidates, it is possible to reduce the amount of calculation by reducing the number of encoded bits and the number of combinations while suppressing deterioration of the encoding characteristics.

なお、非特許文献1では、パルス位置探索の演算量を削減するために、インパルス応答(単一のパルス音源による合成音)と符号化対象信号の相関関数とインパルス応答(単一のパルス音源による合成音)の相互相関関数を予め計算して、プリテーブルとして記憶しておき、それらの値の簡単な加算によって距離(符号化歪)計算を実行する。そして、この距離を最小にするパルス位置と極性を探索する。この処理は、上記図14の音声符号化装置の駆動音源符号化装置5より実施される。   In Non-Patent Document 1, in order to reduce the calculation amount of pulse position search, the impulse response (synthesized sound by a single pulse sound source), the correlation function of the signal to be encoded, and the impulse response (by a single pulse sound source) The cross-correlation function of the synthesized sound) is calculated in advance and stored as a pre-table, and distance (encoding distortion) calculation is performed by simple addition of these values. Then, the pulse position and polarity that minimize this distance are searched. This process is performed by the driving excitation encoding device 5 of the speech encoding device shown in FIG.

以下、非特許文献1で用いられている探索方法を具体的に説明する。
まず、距離の最小化は次の(1)式で示される評価値Dを最大化することと等価であり、この評価値Dの計算をパルス位置の全組合せに対して実行することで探索が実行できる。
D=C2 /E (1)
但し、

Figure 0004660496
The search method used in Non-Patent Document 1 will be specifically described below.
First, the distance minimization is equivalent to maximizing the evaluation value D expressed by the following equation (1), and the search is performed by calculating this evaluation value D for all combinations of pulse positions. Can be executed.
D = C 2 / E (1)
However,
Figure 0004660496

ここで、
k はk番目のパルスのパルス位置、
g(k)はk番目のパルスのパルス振幅、
d(x)はパルス位置xにインパルスを立てた時のインパルス応答と符号化対象信号の相関値、
φ(x,y)はパルス位置xにインパルスを立てた時のインパルス応答とパルス位置yにインパルスを立てた時のインパルス応答との相関値
である。
here,
m k is the pulse position of the k-th pulse,
g (k) is the pulse amplitude of the kth pulse,
d (x) is the correlation value between the impulse response when the impulse is set at the pulse position x and the signal to be encoded,
φ (x, y) is a correlation value between an impulse response when an impulse is set at the pulse position x and an impulse response when an impulse is set at the pulse position y.

さらに、非特許文献1では、g(k)をd(mk )と同符号で絶対値を1として、上記(2)式と(3)式を、次の(4)式、(5)式のように単純化して計算を行う。

Figure 0004660496
Further, in Non-Patent Document 1, g (k) is the same sign as d (m k ) and the absolute value is 1, and the above equations (2) and (3) The calculation is simplified as shown in the equation.
Figure 0004660496

但し、
d’(mk )=|d(mk )| (6)
φ’(mk ,mi
=sign[d(mk )]sign[d(mi )]φ(mk ,mi ) (7)
となり、パルス位置の全組合せに対する評価値Dの計算を始める前に、d’とφ’の計算を行っておけば、後は(4)式と(5)式の単純加算という少ない演算量で評価値Dが算出できる。
However,
d ′ (m k ) = | d (m k ) | (6)
φ ′ (m k , m i )
= Sign [d (m k )] sign [d (m i )] φ (m k , m i ) (7)
If the calculation of d ′ and φ ′ is performed before the calculation of the evaluation value D for all combinations of pulse positions, the subsequent calculation is performed with a small amount of calculation such as simple addition of the equations (4) and (5). An evaluation value D can be calculated.

この代数的音源の品質を改善する構成が、特許文献1、特許文献2に開示されていると共に、非特許文献2に開示されている。   A configuration for improving the quality of the algebraic sound source is disclosed in Patent Document 1 and Patent Document 2, and also disclosed in Non-Patent Document 2.

特許文献1では、複数の固定波形を用意しておいて、代数的に符号化された音源位置に、この固定波形を配置することで、駆動音源を生成するようにしている。この構成によって、品質の高い出力音声が得られるとされている。   In Patent Document 1, a plurality of fixed waveforms are prepared, and driving sound sources are generated by arranging these fixed waveforms at algebraically encoded sound source positions. With this configuration, high-quality output audio is obtained.

非特許文献2では、駆動音源(非特許文献2中ではACELP音源)の生成部に、ピッチフィルタを内包させる構成について検討が行われている。これらの固定波形の導入とピッチフィルタ処理については、非特許文献1におけるインパルス応答の算出部分で同時に行うことで、探索処理量を大きく増やさずに品質改善効果を得ることができる。   In Non-Patent Document 2, a configuration in which a pitch filter is included in a generation unit of a driving sound source (ACELP sound source in Non-Patent Document 2) is being studied. The introduction of the fixed waveform and the pitch filter processing are simultaneously performed in the impulse response calculation part in Non-Patent Document 1, so that a quality improvement effect can be obtained without greatly increasing the search processing amount.

特許文献2では、ピッチ利得が予め決めた値以上のときに、駆動音源を適応音源に直交化させながらパルス位置を探索する構成が開示されている。   Patent Document 2 discloses a configuration for searching for a pulse position while orthogonalizing a driving sound source to an adaptive sound source when the pitch gain is equal to or greater than a predetermined value.

図17は、上記の特許文献1及び非特許文献2の改良構成を導入した、従来のCELP系音声符号化装置における駆動音源符号化手段5の詳細構成を示すブロック図である。図において、16は聴覚重み付けフィルタ係数算出手段、17,19は聴覚重み付けフィルタ、18は基礎応答生成手段、20はプリテーブル算出手段、21は探索手段、22は音源位置テーブルである。   FIG. 17 is a block diagram showing a detailed configuration of the driving excitation encoding means 5 in the conventional CELP speech encoding apparatus in which the improved configurations of Patent Document 1 and Non-Patent Document 2 are introduced. In the figure, 16 is an auditory weighting filter coefficient calculating means, 17 and 19 are auditory weighting filters, 18 is a basic response generating means, 20 is a pre-table calculating means, 21 is a searching means, and 22 is a sound source position table.

次に駆動音源符号化手段5の動作について説明する。
まず、図14に示す音声符号化装置内の線形予測係数符号化手段3から、量子化された線形予測係数が聴覚重み付けフィルタ係数算出手段16と基礎応答生成手段18に入力され、適応音源符号化手段4から、入力音声1又は入力音声1から適応音源による合成音を差し引いた信号である符号化対象信号が聴覚重み付けフィルタ17に入力され、適応音源符号化手段4から、適応音源符号を変換して得られる適応音源の繰り返し周期が基礎応答生成手段18に入力される。
Next, the operation of the drive excitation encoding means 5 will be described.
First, quantized linear prediction coefficients are input to the perceptual weighting filter coefficient calculation means 16 and the basic response generation means 18 from the linear prediction coefficient encoding means 3 in the speech encoding apparatus shown in FIG. The encoding target signal, which is the input speech 1 or the signal obtained by subtracting the synthesized sound from the adaptive excitation from the input speech 1, is input to the auditory weighting filter 17 from the means 4, and the adaptive excitation code is converted from the adaptive excitation encoding means 4. The repetition cycle of the adaptive sound source obtained in this way is input to the basic response generation means 18.

聴覚重み付けフィルタ係数算出手段16は、上記量子化された線形予測係数を用いて聴覚重み付けフィルタ係数を算出し、算出した聴覚重み付けフィルタ係数を聴覚重み付けフィルタ17と聴覚重み付けフィルタ19のフィルタ係数として設定する。聴覚重み付けフィルタ17は、聴覚重み付けフィルタ係数算出手段16によって設定されたフィルタ係数により、入力された上記符号化対象信号に対してフィルタ処理を行う。   The perceptual weighting filter coefficient calculating means 16 calculates perceptual weighting filter coefficients using the quantized linear prediction coefficients, and sets the perceptual weighting filter coefficients as the perceptual weighting filter 17 and perceptual weighting filter 19 filter coefficients. . The perceptual weighting filter 17 performs a filtering process on the input encoding target signal with the filter coefficient set by the perceptual weighting filter coefficient calculation means 16.

基礎応答生成手段18は、単位インパルス又は固定波形に対して、入力された上記適応音源の繰り返し周期を用いた周期化処理を行い、得られた信号を音源として、上記量子化された線形予測係数を用いて構成した合成フィルタによる合成音を生成し、これを基礎応答として出力する。聴覚重み付けフィルタ19は、聴覚重み付けフィルタ係数算出手段16により設定されたフィルタ係数により、上記基礎応答に対してフィルタ処理を行う。   The basic response generation means 18 performs a periodic process using a repetition period of the input adaptive sound source on a unit impulse or a fixed waveform, and uses the obtained signal as a sound source to generate the quantized linear prediction coefficient. A synthesized sound is generated by a synthesis filter constituted by using and is output as a basic response. The auditory weighting filter 19 performs a filtering process on the basic response using the filter coefficient set by the auditory weighting filter coefficient calculation unit 16.

プリテーブル算出手段20は、上記聴覚重み付けされた符号化対象信号と聴覚重み付けされた基礎応答の相関値を計算してd(x)とし、聴覚重み付けされた基礎応答の相互相関値を計算してφ(x,y)とする。そして、上記(6)式と(7)式によりd’(x)とφ’(x,y)を求めて、これらをプリテーブルとして記憶する。   The pre-table calculation means 20 calculates a correlation value between the perceptually weighted encoding target signal and the perceptually weighted basic response as d (x), and calculates a percorrelation value of the perceptually weighted basic response. Let φ (x, y). Then, d ′ (x) and φ ′ (x, y) are obtained from the above equations (6) and (7), and these are stored as a pre-table.

音源位置テーブル22には、図16と同様な音源位置候補が格納されている。探索手段21は、音源位置テーブル22から音源の位置候補を順次読み出して、各音源位置の組み合わせに対する評価値Dを、上記(1)式、(4)式、(5)式に基づいて、プリテーブル算出手段20により算出されたプリテーブルを使用して計算する。そして、探索手段21は、評価値Dを最大にする音源位置の組み合わせを探索し、得られた複数の音源位置を表す音源位置符号(音源位置テーブルにおけるインデックス)と極性を、駆動音源符号として図14に示す多重化手段7に出力すると共に、この駆動音源符号に対応する時系列ベクトルを、駆動音源としてゲイン符号化手段6に出力する。   The sound source position table 22 stores sound source position candidates similar to those in FIG. The search means 21 sequentially reads out the sound source position candidates from the sound source position table 22 and pre-determines the evaluation value D for each combination of sound source positions based on the above formulas (1), (4), and (5). Calculation is performed using the pre-table calculated by the table calculation means 20. Then, the search means 21 searches for a combination of sound source positions that maximizes the evaluation value D, and uses the obtained sound source position codes (index in the sound source position table) and polarity representing the plurality of sound source positions as drive sound source codes. 14 and the time series vector corresponding to the driving excitation code are output to the gain encoding means 6 as a driving excitation.

特許文献2に開示されている直交化の導入は、プリテーブル算出手段20に入力される聴覚重み付けされた符号化対象信号を適応音源に対して直交化させることと、探索手段21内で上記(5)式で表されるEの値から適応音源と各駆動音源の相関に関する寄与分を減算することにより実現されている。   The introduction of orthogonalization disclosed in Patent Document 2 is performed by orthogonalizing the perceptually weighted encoding target signal input to the pre-table calculation means 20 with respect to the adaptive sound source and the above ( This is realized by subtracting the contribution related to the correlation between the adaptive sound source and each drive sound source from the value of E expressed by equation (5).

特開平10−232696号公報JP-A-10-232696 特開平10−312198号公報Japanese Patent Laid-Open No. 10-312198 片岡章俊、林伸二、守谷健弘、栗原祥子、間野一則「CS−ACELPの基本アルゴリズム」NTT R&D,Vol.45,pp.325−330,1996年4月Akitoshi Kataoka, Shinji Hayashi, Takehiro Moriya, Shoko Kurihara, Kazunori Mano “CS-ACELP Basic Algorithm” NTT R & D, Vol. 45, pp. 325-330, April 1996 土屋、天田、三関「適応パルス位置ACELP音声符号化の改善」日本音響学会、1999年春季研究発表会講演論文集I、213〜214頁Tsuchiya, Amada, and Mitseki, “Improvement of Adaptive Pulse Position ACELP Speech Coding” The Acoustical Society of Japan, 1999 Spring Research Conference Lecture I, pp. 213-214

従来の音声符号化装置及び音声復号化装置は以上のように構成されているので、駆動音源のピッチ周期化処理は、探索演算処理量を大きく増加することなく符号化特性を改善することができるが、周期化に用いる繰り返し周期に適応音源の繰り返し周期を使っているため、本来のピッチ周期とこの繰り返し周期が異なっている場合等に、品質劣化を起こすという課題があった。   Since the conventional speech coding apparatus and speech decoding apparatus are configured as described above, the pitch periodization processing of the driving sound source can improve the coding characteristics without greatly increasing the search calculation processing amount. However, since the repetition period of the adaptive sound source is used as the repetition period used for periodicization, there is a problem that quality degradation occurs when the original pitch period is different from this repetition period.

図18及び図19は、従来の音声符号化装置及び音声復号化装置における符号化対象信号と周期化された駆動音源の音源位置の関係を説明する図である。図18は適応音源の繰り返し周期が本来のピッチ周期の約2倍になった場合で、図19は適応音源の繰り返し周期が本来のピッチ周期の約1/2倍になった場合である。   18 and 19 are diagrams for explaining the relationship between the encoding target signal and the sound source position of the periodic drive sound source in the conventional speech encoding device and speech decoding device. FIG. 18 shows a case where the repetition period of the adaptive sound source is about twice the original pitch period, and FIG. 19 shows a case where the repetition period of the adaptive sound source is about ½ times the original pitch period.

適応音源の繰り返し周期は、符号化対象信号に対する符号化歪を最小にするように決定されるので、声帯の振動周期であるピッチ周期とは異なる値となることが頻繁である。異なる場合は、概ね本来のピッチ周期の整数分の1又は整数倍の値をとり、特に多いのは1/2倍と2倍である。   Since the repetition period of the adaptive sound source is determined so as to minimize the coding distortion with respect to the signal to be coded, it is frequently a value different from the pitch period, which is the vibration period of the vocal cords. If they are different, they generally take a value that is an integer or an integral multiple of the original pitch period, and the most common values are 1/2 and 2 times.

図18では、声帯の振動が1ピッチ置きに周期的に変動したために、適応音源の繰り返し周期が本来のピッチ周期の約2倍になってしまっている。このため、この繰り返し周期を用いて駆動音源の符号化を行うと、先頭の1繰り返し周期に音源位置が集まり、これをフレーム内で該繰り返し周期で繰り返した結果が図のようになる。本来のピッチ周期とは異なる周期で繰り返された音源を用いると、そのフレームの音色が変わり、合成音に不安定な印象を生じてしまう。この課題は、低ビットレート化して駆動音源の音源情報量が少なくなる程、無視できなくなり、適応音源の振幅が駆動音源の振幅に比べて小さい区間で顕著になる。   In FIG. 18, the vocal cord vibration periodically fluctuates every other pitch, so that the repetition period of the adaptive sound source is about twice the original pitch period. For this reason, when the driving sound source is encoded using this repetition period, the sound source positions are gathered in the first repetition period, and the result of repeating this in the repetition period in the frame is as shown in the figure. If a sound source repeated at a period different from the original pitch period is used, the timbre of the frame changes, resulting in an unstable impression of the synthesized sound. This problem cannot be ignored as the amount of sound source information of the driving sound source decreases as the bit rate is reduced, and becomes more pronounced when the amplitude of the adaptive sound source is smaller than the amplitude of the driving sound source.

図19では、低域成分が支配的で、本来のピッチ周期内の前半と後半の波形が類似した形状となったため、適応音源の繰り返し周期が本来のピッチ周期の約1/2倍になってしまっている。この場合にも、図18と同様に、本来のピッチ周期とは異なる周期で繰り返された音源を用いたために、そのフレームの音色が変わり、合成音に不安定な印象を生じてしまう。   In FIG. 19, the low frequency component is dominant, and the waveforms of the first half and the latter half in the original pitch period are similar to each other, so that the repetition period of the adaptive sound source is about ½ times the original pitch period. I'm stuck. Also in this case, similarly to FIG. 18, since the sound source repeated at a cycle different from the original pitch cycle is used, the tone color of the frame changes and an unstable impression is generated in the synthesized sound.

また、低ビットレート化して駆動音源の情報量が少ない場合には、波形歪(符号化歪)を最小化するように決定した駆動音源では、低振幅の帯域の誤差が大きくなって合成音のスペクトル歪みが大きくなる傾向があり、このスペクトル歪が音質的な劣化として検知されてしまうことがある。このスペクトル歪による音質劣化を抑制するために、聴覚重み付け処理が導入されているが、聴覚重み付けを強くしていくと波形歪が増大して、これがザラザラした感じの音質劣化を引き起こすため、通常波形歪とスペクトル歪による音質劣化の影響が同程度になるように調整を行っている。しかしながら、前者のスペクトル歪の増大は特に女声で大きくなり、男声と女声で両者に最適になるようには聴覚重み付けが調整できないという課題があった。   In addition, when the bit rate is reduced and the amount of information of the driving sound source is small, in the driving sound source determined to minimize the waveform distortion (coding distortion), the error in the low-amplitude band increases and Spectral distortion tends to increase, and this spectral distortion may be detected as sound quality degradation. Auditory weighting processing has been introduced to suppress the sound quality degradation due to this spectral distortion, but as the auditory weighting is increased, the waveform distortion increases and this causes a rough sound quality degradation. Adjustments are made so that the effects of sound quality degradation due to distortion and spectral distortion are comparable. However, the increase in the spectral distortion of the former is particularly large for female voices, and there is a problem that auditory weighting cannot be adjusted so as to be optimal for both male voices and female voices.

また、従来の構成では、複数の音源位置に配置する音源(パルス含む)に対してフレーム内で一定の振幅を与えている。各音源位置の候補数を比べたときに、その数が異なっているにもかかわらず、振幅が一定というのには無駄がある。例えば、図16に示した音源位置テーブルの場合、音源番号1から音源番号3の音源位置に対しては各々3ビットが使用され、音源番号4の音源位置に対しては4ビットが使用される。各音源番号毎に、各位置候補での音源と符号化対象信号の相関の最大値を調べると、候補数が最も多い音源番号4が確率的に最も大きい値が得られることが容易に予測される。極端な場合を考えると、ある音源番号に0ビットしか与えない場合を考える。0ビット、つまり固定位置に音源を配置する場合、極性を別途与えるとしてもその相関値は小さく、つまり他の音源番号のものに比べてあまり大きな振幅を与えることが最適でないことが分かる。よって、従来の構成では振幅に関して最適に設計されていないという課題があった。   In the conventional configuration, a constant amplitude is given within a frame to sound sources (including pulses) arranged at a plurality of sound source positions. When the number of candidates for each sound source position is compared, it is wasteful that the amplitude is constant despite the difference in the number. For example, in the sound source position table shown in FIG. 16, 3 bits are used for the sound source positions of sound source number 1 to sound source number 3, and 4 bits are used for the sound source position of sound source number 4. . When the maximum value of the correlation between the sound source and the encoding target signal at each position candidate is examined for each sound source number, it is easily predicted that the sound source number 4 with the largest number of candidates will obtain the largest probability value. The Considering an extreme case, consider a case where only 0 bits are given to a certain sound source number. When the sound source is arranged at 0 bits, that is, at a fixed position, even if the polarity is given separately, the correlation value is small, that is, it is not optimal to give a much larger amplitude than those of other sound source numbers. Therefore, there is a problem that the conventional configuration is not optimally designed with respect to amplitude.

なお、この音源番号毎の振幅については、別途ゲイン量子化時に独立の値をベクトル量子化によって与える構成も別途開示されているが、これはゲイン量子化情報量が増える、処理が複雑になる等の課題があった。   As for the amplitude for each sound source number, a configuration in which an independent value is separately given by vector quantization at the time of gain quantization is separately disclosed. However, this increases the amount of gain quantization information, makes the processing complicated, etc. There was a problem.

さらに、駆動音源の適応音源に対する直交化の導入においては、探索処理の増加を伴う構成となっており、代数的音源の組み合わせ数が増加した場合には、大きな負担となるという課題があった。特に固定波形やピッチ周期化を導入した構成において直交化を行う場合には、その演算量の増加は一層大きくなるという課題があった。   Further, the introduction of orthogonalization of the driving sound source to the adaptive sound source has a configuration accompanied by an increase in search processing, and there has been a problem that when the number of combinations of algebraic sound sources increases, a large burden is imposed. In particular, when orthogonalization is performed in a configuration in which a fixed waveform or pitch period is introduced, there is a problem that the increase in the amount of calculation becomes even greater.

この発明は上記のような課題を解決するためになされたもので、高品質の音声符号化装置及び音声符号化方法を得ることを目的としている。また、演算量の増加を最小限に抑えつつ、高品質の音声符号化装置及び音声符号化方法を得ることを目的としている。   The present invention has been made to solve the above-described problems, and an object thereof is to obtain a high-quality speech encoding apparatus and speech encoding method. Another object of the present invention is to obtain a high-quality speech encoding apparatus and speech encoding method while minimizing an increase in the amount of computation.

この発明に係る音声符号化装置は、複数のパルス位置の内の第1のパルス位置にインパルスを立てた時の第1のインパルス応答と、複数のパルス位置の内の第2のパルス位置にインパルスを立てた時の第2のインパルス応答との第1の相関値を、第1のパルス位置と第2のパルス位置の全ての組み合わせについて計算する相関値算出手段と、複数のパルス位置の内の1つのパルス位置にインパルスを立てた時のインパルス応答と適応音源に基づく合成音との間の第2の相関値を計算し、第2の相関値を用いて、第1の相関値を補正する相関値補正手段と、補正された第1の相関値を用いて符号化歪に関する評価値を計算し、該評価値を用いて駆動音源の所定数のパルス位置を探索する探索手段とを備え、相関値補正手段は、適応音源に基づく合成音のパワーと第2の相関値の積とを用いて補正を行うようにしたものである。 The speech coding apparatus according to the present invention includes a first impulse response when an impulse is set at a first pulse position among a plurality of pulse positions, and an impulse at a second pulse position among the plurality of pulse positions. Correlation value calculating means for calculating the first correlation value with the second impulse response at the time of setting for all combinations of the first pulse position and the second pulse position, and among the plurality of pulse positions A second correlation value between the impulse response when the impulse is set at one pulse position and the synthesized sound based on the adaptive sound source is calculated, and the first correlation value is corrected using the second correlation value. Correlation value correcting means; and a search means for calculating an evaluation value related to coding distortion using the corrected first correlation value and searching for a predetermined number of pulse positions of the driving sound source using the evaluation value; Correlation value correction means is based on adaptive sound source By using the power and the product of the second correlation value Naruoto it is obtained to perform the correction.

この発明に係る音声符号化方法は、複数のパルス位置の内の第1のパルス位置にインパルスを立てた時の第1のインパルス応答と、複数のパルス位置の内の第2のパルス位置にインパルスを立てた時の第2のインパルス応答との第1の相関値を、第1のパルス位置と第2のパルス位置の全ての組み合わせについて計算する相関値算出ステップと、複数のパルス位置の内の1つのパルス位置にインパルスを立てた時のインパルス応答と適応音源に基づく合成音との間の第2の相関値を計算し、第2の相関値を用いて、第1の相関値を補正する相関値補正ステップと、補正された第1の相関値を用いて符号化歪に関する評価値を計算し、該評価値を用いて駆動音源の所定数のパルス位置を探索する探索ステップとを備え、相関値補正ステップは、適応音源に基づく合成音のパワーと第2の相関値の積とを用いて補正を行うようにしたものである。 The speech encoding method according to the present invention includes a first impulse response when an impulse is set at a first pulse position among a plurality of pulse positions, and an impulse at a second pulse position among the plurality of pulse positions. A correlation value calculating step for calculating a first correlation value with the second impulse response at the time of setting for all combinations of the first pulse position and the second pulse position; A second correlation value between the impulse response when the impulse is set at one pulse position and the synthesized sound based on the adaptive sound source is calculated, and the first correlation value is corrected using the second correlation value. A correlation value correcting step; and a search step of calculating an evaluation value related to coding distortion using the corrected first correlation value and searching for a predetermined number of pulse positions of the driving sound source using the evaluation value, Correlation value correction step By using the power and the product of the second correlation value of the combined sound based on応音source is obtained to perform the correction.

この発明によれば、複数のパルス位置の内の第1のパルス位置にインパルスを立てた時の第1のインパルス応答と、複数のパルス位置の内の第2のパルス位置にインパルスを立てた時の第2のインパルス応答との第1の相関値を、第1のパルス位置と第2のパルス位置の全ての組み合わせについて計算する相関値算出手段と、複数のパルス位置の内の1つのパルス位置にインパルスを立てた時のインパルス応答と適応音源に基づく合成音との間の第2の相関値を計算し、第2の相関値を用いて、第1の相関値を補正する相関値補正手段と、補正された第1の相関値を用いて符号化歪に関する評価値を計算し、該評価値を用いて駆動音源の所定数のパルス位置を探索する探索手段とを備え、相関値補正手段は、適応音源に基づく合成音のパワーと第2の相関値の積とを用いて補正を行うことにより、探索手段における処理量を増やさずに、符号化対象信号を適応音源に対して直交化することができ、これにより符号化特性を改善でき、高品質の音声符号化装置を提供できるという効果がある。 According to the present invention, when the impulse is set at the first pulse position among the plurality of pulse positions, and when the impulse is set at the second pulse position among the plurality of pulse positions. Correlation value calculating means for calculating the first correlation value with the second impulse response for all combinations of the first pulse position and the second pulse position, and one pulse position among the plurality of pulse positions Correlation value correction means for calculating a second correlation value between the impulse response when the impulse is set up and the synthesized sound based on the adaptive sound source, and correcting the first correlation value using the second correlation value And a search means for calculating an evaluation value related to the coding distortion using the corrected first correlation value and searching for a predetermined number of pulse positions of the driving sound source using the evaluation value, and a correlation value correction means Is the power of synthesized sound based on adaptive sound source By performing correction using the product of the second correlation value, without increasing the amount of processing in the search unit, it can be orthogonalized with respect to the adaptive excitation encoding target signal, this by coding characteristics There is an effect that it can be improved and a high-quality speech encoding apparatus can be provided.

この発明によれば、複数のパルス位置の内の第1のパルス位置にインパルスを立てた時の第1のインパルス応答と、複数のパルス位置の内の第2のパルス位置にインパルスを立てた時の第2のインパルス応答との第1の相関値を、第1のパルス位置と第2のパルス位置の全ての組み合わせについて計算する相関値算出ステップと、複数のパルス位置の内の1つのパルス位置にインパルスを立てた時のインパルス応答と適応音源に基づく合成音との間の第2の相関値を計算し、第2の相関値を用いて、第1の相関値を補正する相関値補正ステップと、補正された第1の相関値を用いて符号化歪に関する評価値を計算し、該評価値を用いて駆動音源の所定数のパルス位置を探索する探索ステップとを備え、相関値補正ステップは、適応音源に基づく合成音のパワーと第2の相関値の積とを用いて補正を行うことにより、探索ステップにおける処理量を増やさずに、符号化対象信号を適応音源に対して直交化することができ、これにより符号化特性を改善でき、高品質の音声符号化方法を提供できるという効果がある。

According to the present invention, when the impulse is set at the first pulse position among the plurality of pulse positions, and when the impulse is set at the second pulse position among the plurality of pulse positions. A correlation value calculating step for calculating a first correlation value with the second impulse response for all combinations of the first pulse position and the second pulse position, and one pulse position of the plurality of pulse positions A correlation value correction step of calculating a second correlation value between the impulse response when the impulse is raised and the synthesized sound based on the adaptive sound source, and correcting the first correlation value using the second correlation value And a search step for calculating an evaluation value related to coding distortion using the corrected first correlation value and searching for a predetermined number of pulse positions of the driving sound source using the evaluation value, and a correlation value correction step Is based on adaptive sound source By performing correction using the power and the product of the second correlation value of the synthesized sound, without increasing the amount of processing in the search step, can be orthogonalized with respect to the adaptive excitation encoding target signal, which Thus, the encoding characteristics can be improved, and a high-quality speech encoding method can be provided.

以下、この発明の実施の一形態について説明する。
実施の形態1.
図1はこの発明の実施の形態1による音声符号化装置における駆動音源符号化手段5の構成を示すブロック図である。音声符号化装置の全体構成は図14と同様である。図において、23は周期予備選択手段、27は駆動音源符号化手段、28は周期符号化手段であり、周期予備選択手段23は、定数テーブル24,比較手段25,予備選択手段26により構成されている。
Hereinafter, an embodiment of the present invention will be described.
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a configuration of driving excitation encoding means 5 in the speech encoding apparatus according to Embodiment 1 of the present invention. The overall configuration of the speech encoding apparatus is the same as that shown in FIG. In the figure, reference numeral 23 is a period preliminary selection means, 27 is a driving excitation encoding means, 28 is a period encoding means, and the period preliminary selection means 23 comprises a constant table 24, a comparison means 25, and a preliminary selection means 26. Yes.

なお、駆動音源符号化手段27が、従来の駆動音源符号化手段5と同様の動作をする手段であるが、駆動音源符号化手段27の前後に、周期予備選択手段23と周期符号化手段28が新規に追加されたものを、図14における駆動音源符号化手段5の部分としたものが、この実施の形態1による音声符号化装置である。   The driving excitation encoding unit 27 is a unit that operates in the same manner as the conventional driving excitation encoding unit 5. However, the period preliminary selection unit 23 and the period encoding unit 28 are provided before and after the driving excitation encoding unit 27. What is newly added as a part of the drive excitation encoding means 5 in FIG. 14 is the speech encoding apparatus according to the first embodiment.

図2はこの発明の実施の形態1による音声復号化装置における駆動音源復号化手段12の構成を示すブロック図である。音声復号化装置の全体構成は図15と同様である。図2において、29は周期復号化手段、30は駆動音源復号化手段である。   FIG. 2 is a block diagram showing a configuration of driving excitation decoding means 12 in the speech decoding apparatus according to Embodiment 1 of the present invention. The overall configuration of the speech decoding apparatus is the same as that shown in FIG. In FIG. 2, 29 is a cyclic decoding means, and 30 is a driving excitation decoding means.

なお、駆動音源復号化手段30が、従来の駆動音源復号化手段12と同様の動作をする手段であるが、駆動音源復号化手段30の前に周期予備選択手段23と周期復号化手段29が新規に挿入されたものを、図15における駆動音源復号化手段12の部分としたものが、この実施の形態1による音声復号化装置である。   The driving excitation decoding unit 30 is a unit that operates in the same manner as the conventional driving excitation decoding unit 12, but the periodic preliminary selection unit 23 and the periodic decoding unit 29 are provided before the driving excitation decoding unit 30. What is newly inserted is a part of the driving excitation decoding means 12 in FIG. 15 is the speech decoding apparatus according to the first embodiment.

次に動作について説明する。
まず、音声符号化装置の動作について図1を用いて説明する。図14に示す適応音源符号化手段4から、適応音源符号を変換して得られた適応音源の繰り返し周期が周期予備選択手段23に入力される。また、適応音源符号化手段4からの符号化対象信号と、線形予測係数符号化手段3からの量子化された線形予測係数とが、駆動音源符号化手段27に入力される。
Next, the operation will be described.
First, the operation of the speech encoding apparatus will be described with reference to FIG. The adaptive excitation repetition period obtained by converting the adaptive excitation code is input from the adaptive excitation encoding means 4 shown in FIG. The encoding target signal from the adaptive excitation encoding unit 4 and the quantized linear prediction coefficient from the linear prediction coefficient encoding unit 3 are input to the driving excitation encoding unit 27.

周期予備選択手段23内の定数テーブル24には、1/2,1,2という3つの定数が格納されており、各定数が入力された適応音源の繰り返し周期に乗じられ、得られた3つの繰り返し周期が、駆動音源の繰り返し周期候補として予備選択手段26に出力される。比較手段25は、入力された適応音源の繰り返し周期を予め与えておいた所定の閾値と比較して、その比較結果を予備選択手段26に出力する。なお、この所定の閾値としては、平均的なピッチ周期に相当する40程度を用いる。   The constant table 24 in the period preliminary selection means 23 stores three constants 1/2, 1, and 2. Each constant is multiplied by the repetition period of the input adaptive sound source, and the obtained three constants. The repetition period is output to the preliminary selection means 26 as a repetition period candidate of the driving sound source. The comparison unit 25 compares the repetition period of the input adaptive sound source with a predetermined threshold value that is given in advance, and outputs the comparison result to the preliminary selection unit 26. As the predetermined threshold, about 40 corresponding to an average pitch period is used.

予備選択手段26は、比較手段25からの比較結果が、所定の閾値を上回る結果であった時には、入力された適応音源の繰り返し周期に1/2,1を乗じた2つの駆動音源の繰り返し周期候補を予備選択し、比較結果が所定の閾値以下の結果であった時には、入力された適応音源の繰り返し周期に1,2を乗じた2つの駆動音源の繰り返し周期候補を予備選択し、得られた2つの駆動音源の繰り返し周期候補を駆動音源符号化手段27に順次出力する。   When the comparison result from the comparison unit 25 exceeds the predetermined threshold, the preliminary selection unit 26 repeats the repetition cycle of two driving sound sources by multiplying the repetition cycle of the input adaptive sound source by 1/2 or 1. When a candidate is preliminarily selected and the comparison result is a result equal to or less than a predetermined threshold value, two repetition periods candidates of driving sound sources obtained by multiplying the input adaptive sound source repetition period by 1, 2 are preliminarily selected and obtained. The repetition period candidates of the two driving excitations are sequentially output to the driving excitation encoding means 27.

駆動音源符号化手段27は、図17に示した従来の駆動音源符号化手段5と同様に、入力された2つの駆動音源の繰り返し周期候補(図17と異なるのは、この繰り返し周期が適応音源の定数倍となっている点である)、量子化された線形予測係数、符号化対象信号を用いて、代数的音源の符号化処理を行い、2つの駆動音源の繰り返し周期候補毎に、符号化歪を最も小さくする音源位置、極性及びその時の符号化歪に関する上記(1)式における評価値Dを出力する。   Similarly to the conventional driving excitation encoding means 5 shown in FIG. 17, the driving excitation encoding means 27 is a repetition period candidate of two input driving excitations (the difference from FIG. 17 is that this repetition period is an adaptive excitation excitation). Is a constant multiple of), and the quantized linear prediction coefficient and the encoding target signal are used to perform encoding processing of the algebraic excitation, and for each repetition period candidate of the two driving excitations, The evaluation value D in the above equation (1) relating to the sound source position, polarity and coding distortion at that time that minimizes the distortion is output.

周期符号化手段28は、駆動音源符号化手段27が出力した各駆動音源の繰り返し周期候補に対する評価値Dを比較して、1つの評価値と残りの評価値の間の差が所定の閾値以上である(つまり1つのものだけが符号化歪みが小さい)場合には、その評価値を与えた駆動音源の繰り返し周期候補を選択し、評価値間の差異が所定の閾値未満の場合には、別途分析しておいたピッチ周期(本来のピッチ周期の推定結果)に最も近い駆動音源の繰り返し周期候補を選択して、この選択結果を1ビットで符号化した選択情報と、その時の音源位置を表す音源位置符号と極性とを、駆動音源符号として図14に示す多重化手段7に出力すると共に、この駆動音源符号に対応する時系列ベクトルを、駆動音源として図14に示すゲイン符号化手段6に出力する。   The period encoding unit 28 compares the evaluation values D for the repetition period candidates of each driving excitation output from the driving excitation encoding unit 27, and the difference between one evaluation value and the remaining evaluation values is equal to or greater than a predetermined threshold value. (That is, only one of them has a small encoding distortion), the repetition period candidate of the driving excitation that gave the evaluation value is selected, and when the difference between the evaluation values is less than a predetermined threshold, Select the repetition period candidate of the driving sound source closest to the pitch period (original pitch period estimation result) that has been analyzed separately, and select information obtained by encoding this selection result with 1 bit, and the sound source position at that time The sound source position code and polarity to be expressed are output to the multiplexing means 7 shown in FIG. 14 as a drive sound source code, and the time-series vector corresponding to this drive sound source code is used as the drive sound source and the gain encoding means 6 shown in FIG. Out To.

次に、音声復号化装置の動作について図2を用いて説明する。図15に示す音声復号化装置において、従来と同様に、分離手段9は、音声符号化装置から出力された音声符号8を分離して、線形予測係数の符号を線形予測係数復号化手段10に出力し、適応音源符号を適応音源復号化手段11に出力し、駆動音源符号を駆動音源復号化手段12に出力し、ゲイン符号をゲイン復号化手段13に出力するが、この実施の形態では、図15に示す適応音源復号化手段11から、適応音源符号を変換して得られる適応音源の繰り返し周期が、駆動音源復号化手段12に入力される。すなわち、図2において、適応音源復号化手段11から適応音源の繰り返し周期が周期予備選択手段23に入力される。また、分離手段9が分離した駆動音源符号内の選択情報が周期復号化手段29に入力され、駆動音源符号内の音源位置符号と極性が駆動音源復号化手段30に入力される。   Next, the operation of the speech decoding apparatus will be described with reference to FIG. In the speech decoding apparatus shown in FIG. 15, the separation unit 9 separates the speech code 8 output from the speech encoding apparatus and converts the code of the linear prediction coefficient to the linear prediction coefficient decoding unit 10 as in the conventional case. Output, the adaptive excitation code is output to the adaptive excitation decoding means 11, the driving excitation code is output to the driving excitation decoding means 12, and the gain code is output to the gain decoding means 13. In this embodiment, The adaptive excitation repetition period obtained by converting the adaptive excitation code is input to the driving excitation decoding means 12 from the adaptive excitation decoding means 11 shown in FIG. That is, in FIG. 2, the adaptive excitation repetition period is input from the adaptive excitation decoding means 11 to the period preliminary selection means 23. The selection information in the driving excitation code separated by the separating means 9 is input to the periodic decoding means 29, and the excitation position code and polarity in the driving excitation code are input to the driving excitation decoding means 30.

周期予備選択手段23は、音声符号化装置内の図1に示す周期予備選択手段23と同じ構成を持ち、予備選択手段26は、入力した適応音源の繰り返し周期を定数倍した複数の駆動音源の繰り返し周期候補の中から、比較手段25の比較結果に基づき、2つの予備選択された駆動音源の繰り返し周期候補を選択して周期復号化手段29に出力する。   The period preliminary selection means 23 has the same configuration as the period preliminary selection means 23 shown in FIG. 1 in the speech coding apparatus, and the preliminary selection means 26 includes a plurality of drive excitation sources obtained by multiplying the repetition period of the input adaptive excitation by a constant. Based on the comparison result of the comparison means 25, the repetition period candidates of the two preselected driving excitations are selected from the repetition period candidates and output to the period decoding means 29.

周期復号化手段29は、入力した選択情報に従って、予備選択手段26から出力された2つの予備選択された駆動音源の繰り返し周期候補の一方を選択して、これを駆動音源の繰り返し周期として駆動音源復号化手段30に出力する。駆動音源復号化手段30は、従来の駆動音源復号化手段12と同様にして、音源位置符号に対応した各位置に固定波形を配置し、繰り返し周期に基づくピッチ周期化を行い、駆動音源符号に対応した時系列ベクトルを駆動音源として出力する。   The period decoding means 29 selects one of the two repetition periods of the drive sound source selected from the preliminary selection means 26 output from the preliminary selection means 26 according to the input selection information, and uses this as the drive sound source repetition period. The data is output to the decryption means 30. Similarly to the conventional drive excitation decoding unit 12, the drive excitation decoding unit 30 arranges a fixed waveform at each position corresponding to the excitation position code, performs a pitch period based on the repetition period, and generates a drive excitation code. The corresponding time series vector is output as a driving sound source.

図3及び図4は、実施の形態1による音声符号化装置及び音声復号化装置における符号化対象信号と周期化された駆動音源の音源位置の関係を説明する図である。なお、符号化対象信号は図18及び図19と同じものであり、図3が適応音源の繰り返し周期が本来のピッチ周期の約2倍になった場合で、図4が約1/2倍になった場合である。   3 and 4 are diagrams for explaining the relationship between the encoding target signal and the sound source position of the periodic drive sound source in the speech coding apparatus and speech decoding apparatus according to Embodiment 1. FIG. The encoding target signal is the same as that shown in FIGS. 18 and 19, and FIG. 3 shows a case where the repetition period of the adaptive excitation is about twice the original pitch period, and FIG. This is the case.

図3の場合、本来のピッチ周期が20以上であれば、適応音源の繰り返し周期は40以上となるので、予備選択手段26では、ほとんどの場合に適応音源の繰り返し周期の1/2倍と1倍の値が予備選択される。この2つの繰り返し周期を用いた時の符号化時の評価値Dの差異が小さければ、別途求めてある本来のピッチ周期の推定値(適応音源の繰り返し周期よりは正解率は高い)に近い1/2倍が選択されて、図のように理想的に周期化された音源位置が得られる。   In the case of FIG. 3, if the original pitch period is 20 or more, the adaptive sound source repetition period is 40 or more. Therefore, in the preliminary selection means 26, in most cases, 1/2 times the repetition period of the adaptive sound source and 1 A double value is preselected. If the difference in the evaluation value D at the time of encoding when using these two repetition periods is small, it is close to the estimated value of the original pitch period (the accuracy rate is higher than the repetition period of the adaptive excitation) that is separately obtained. / 2 times is selected, and ideally periodic sound source positions are obtained as shown in the figure.

図4の場合、本来のピッチ周期が80未満であれば、適応音源の繰り返し周期は40未満となるので、予備選択手段26では、高い確率で適応音源の1倍と2倍の値が予備選択される。この2つの繰り返し周期を用いた時の符号化時の評価値Dの差異が小さければ、別途求めてある本来のピッチ周期に近い2倍が選択されて、図のように理想的に周期化された音源位置が得られる。   In the case of FIG. 4, if the original pitch period is less than 80, the repetition period of the adaptive sound source is less than 40. Therefore, the preliminary selection means 26 preliminarily selects values of 1 and 2 times that of the adaptive sound source with high probability. Is done. If the difference between the evaluation values D at the time of encoding when using these two repetition periods is small, a value close to the original pitch period that is separately obtained is selected, and ideally periodic as shown in the figure. Sound source position is obtained.

なお、上記実施の形態では、駆動音源の符号化と復号化に、数本のパルスの各位置と極性のみで表現した代数的音源を使用しているが、この発明は代数的音源構成に限定されるものではなく、その他の学習音源符号帳やランダム音源符号帳等を用いるCELP系音声符号化装置及び音声復号化装置においても適用可能である。   In the above embodiment, the algebraic sound source expressed only by the positions and polarities of several pulses is used for encoding and decoding of the drive sound source. However, the present invention is limited to the algebraic sound source configuration. However, the present invention can also be applied to CELP speech encoding apparatuses and speech decoding apparatuses that use other learning excitation codebooks, random excitation codebooks, and the like.

また、上記実施の形態では、別途ピッチ周期を求めて周期符号化手段28での選択に用いているが、これを用いずに符号化歪を最小にする、すなわち、評価値Dを最大にする繰り返し周期を選択する構成も可能である。また、ピッチ周期ではなくて、過去の数フレームの適応音源の繰り返し周期を平均した値を参照値として用いても構わない。   In the above embodiment, the pitch period is separately obtained and used for selection by the period encoding means 28. However, the encoding distortion is minimized without using this, that is, the evaluation value D is maximized. A configuration in which the repetition period is selected is also possible. Further, instead of the pitch period, a value obtained by averaging the repetition periods of the adaptive sound sources in the past several frames may be used as the reference value.

さらに、上記実施の形態では、スペクトルパラメータとして線形予測係数を用いて説明したが、一般に多く使用されるLSP(Line Spectrum Pair:線スペクトル対)等、他のスペクトルパラメータを用いる構成でも構わない。   Further, in the above-described embodiment, the linear prediction coefficient is used as the spectral parameter. However, a configuration using other spectral parameters such as LSP (Line Spectrum Pair) generally used may be used.

さらに、上記実施の形態では、定数テーブル24内の全ての定数を適応音源の繰り返し周期に乗じているが、予備選択手段26で定数テーブル24内から2つの定数を選択して、その後に適応音源の繰り返し周期に乗じるようにしても同様である。   Furthermore, in the above embodiment, all constants in the constant table 24 are multiplied by the repetition period of the adaptive sound source. However, the preliminary selection means 26 selects two constants from the constant table 24, and then the adaptive sound source. The same applies if the repetition period is multiplied.

さらに、定数テーブル内から1を削除し、代わりに適応音源の繰り返し周期を直接予備選択手段26に入力するようにしても同じ結果が得られる。   Further, the same result can be obtained by deleting 1 from the constant table and inputting the repetition period of the adaptive sound source directly to the preliminary selection means 26 instead.

さらに、特性改善効果は減少するが、定数テーブル中の値を1/2と1のみとして、比較手段25と予備選択手段26をなくした構成も可能である。   Furthermore, although the characteristic improvement effect is reduced, a configuration in which the comparison unit 25 and the preliminary selection unit 26 are eliminated by setting the values in the constant table to only 1/2 and 1 is possible.

以上のように、この実施の形態1によれば、適応音源の繰り返し周期に複数の定数を乗じて複数の駆動音源の繰り返し周期候補を求め、この複数の駆動音源の繰り返し周期候補の中から所定個を予備選択し、予備選択された駆動音源の各繰り返し周期候補毎に符号化歪を最も小さくする駆動音源符号を探索し、駆動音源の各繰り返し周期毎の符号化歪を比較した結果に基づいて、駆動音源の繰り返し周期候補を選択するようにしたので、本来のピッチ周期と適応音源の繰り返し周期が異なる場合でも、高い確率で本来のピッチ周期に近い繰り返し周期を用いた駆動音源の周期化が選択されることにより、合成音の不安定な印象の発生を抑制でき、高品質の音声符号化装置を提供できるという効果が得られる。   As described above, according to the first embodiment, a repetition cycle candidate of a plurality of driving sound sources is obtained by multiplying a repetition cycle of the adaptive sound source by a plurality of constants, and a predetermined repetition cycle candidate of the plurality of driving sound sources is determined. Based on the result of searching for a driving excitation code that minimizes the encoding distortion for each repetition period candidate of the preselected driving excitation and comparing the encoding distortion for each repetition period of the driving excitation. Therefore, even if the original pitch period and the adaptive sound source repetition period are different, the drive sound source is cycled using a repetition period close to the original pitch period with a high probability. Is selected, it is possible to suppress the generation of an unstable impression of the synthesized sound and to obtain an effect that a high-quality speech encoding apparatus can be provided.

また、周期予備選択における予備選択個数を2とし、駆動音源の繰り返し周期の選択情報を1ビットで符号化するようにしたので、最小限の情報量の追加で高品質の音声符号化装置を提供できるという効果が得られる。   In addition, since the number of preliminary selections in the period preliminary selection is set to 2 and the selection information of the repetition period of the driving sound source is encoded with 1 bit, a high-quality speech encoding apparatus is provided by adding a minimum amount of information. The effect that it can be obtained.

さらに、周期予備選択において、適応音源の繰り返し周期と所定の閾値を比較して、この比較結果に基づいて所定個の駆動音源の繰り返し周期候補を選択するようにしたので、本来のピッチ周期である確率が低い駆動音源の繰り返し周期候補を排除でき、評価の必要のない駆動音源の繰り返し周期候補に対する駆動音源符号化処理と選択情報の配分が不要になり、最小限の演算量と情報量の追加で高品質の音声符号化装置を提供できるという効果が得られる。   Furthermore, in the cycle preliminary selection, the repetition cycle of the adaptive sound source is compared with a predetermined threshold value, and a predetermined number of drive sound source repetition cycle candidates are selected based on the comparison result. Low-probability driving excitation repetition period candidates can be eliminated, driving excitation encoding processing and allocation of selection information for driving excitation repetition period candidates that do not need to be evaluated become unnecessary, and a minimum amount of computation and information are added Thus, it is possible to provide a high-quality speech encoding apparatus.

さらに、周期予備選択における適応音源の繰り返し周期に乗じる定数として、少なくとも1/2,1を含むようにしたので、少ない選択肢ながら高い確率で、本来のピッチ周期を含む駆動音源の繰り返し周期候補を選択することができ、最小限の演算量と情報量の追加で高品質の音声符号化装置を提供できるという効果が得られる。   Furthermore, since the constants to multiply the repetition period of the adaptive sound source in the period preselection are included at least 1/2, 1, the repetition period candidate of the driving sound source including the original pitch period is selected with a high probability with few options. Thus, an effect that a high-quality speech encoding apparatus can be provided with the addition of the minimum amount of calculation and the amount of information can be obtained.

さらに、この実施の形態1によれば、適応音源の繰り返し周期に複数の定数を乗じて複数の駆動音源の繰り返し周期候補を求め、この複数の駆動音源の繰り返し周期候補の中から所定個を予備選択し、音声符号中の駆動音源の繰り返し周期の選択情報に基づいて、予備選択された駆動音源の繰り返し周期候補の中から1つを駆動音源の繰り返し周期として選択し、この駆動音源の繰り返し周期を用いて駆動音源を復号化するようにしたので、本来のピッチ周期と適応音源の繰り返し周期が異なる場合でも、高い確率で本来のピッチ周期に近い繰り返し周期を用いた駆動音源の周期化がなされ、合成音の不安定な印象の発生を抑制でき、高品質の音声復号化装置を提供できるという効果が得られる。   Furthermore, according to the first embodiment, a repetition period candidate for a plurality of driving sound sources is obtained by multiplying the repetition period of the adaptive sound source by a plurality of constants, and a predetermined number is reserved among the repetition period candidates for the plurality of driving sound sources. Based on the selection information of the repetition period of the driving sound source in the voice code, one of the repetition period candidates of the pre-selected driving sound source is selected as the repetition period of the driving sound source, and the repetition period of this driving sound source Therefore, even if the original pitch period and the repetition period of the adaptive sound source are different, the drive sound source is periodicized using a repetition period close to the original pitch period with high probability. Thus, it is possible to suppress the generation of an unstable impression of the synthesized sound, and to obtain an effect that a high-quality speech decoding apparatus can be provided.

さらに、周期予備選択における予備選択個数を2とし、1ビットで符号化された駆動音源の繰り返し周期の選択情報を復号化するようにしたので、最小限の情報量の追加で高品質の音声復号化装置を提供できるという効果が得られる。   Furthermore, since the number of preliminary selections in the periodical preliminary selection is 2, and the selection information of the repetition period of the driving sound source encoded with 1 bit is decoded, high-quality speech decoding can be performed with the addition of a minimum amount of information. The effect that the control apparatus can be provided is obtained.

さらに、周期予備選択において、適応音源の繰り返し周期と所定の閾値を比較して、この比較結果に基づいて所定個の駆動音源の繰り返し周期候補を選択するようにしたので、本来のピッチ周期である確率が低い駆動音源の繰り返し周期候補を排除でき、必要のない駆動音源の繰り返し周期候補に対する選択情報の配分が不要になり、最小限の情報量の追加で高品質の音声復号化装置を提供できるという効果が得られる。   Furthermore, in the cycle preliminary selection, the repetition cycle of the adaptive sound source is compared with a predetermined threshold value, and a predetermined number of drive sound source repetition cycle candidates are selected based on the comparison result. Low-probability driving sound source repetition period candidates can be eliminated, selection information is not distributed to unnecessary driving sound source repetition period candidates, and a high-quality speech decoding apparatus can be provided by adding a minimum amount of information. The effect is obtained.

さらに、周期予備選択における適応音源の繰り返し周期に乗じる定数として、少なくとも1/2,1を含むようにしたので、少ない選択肢ながら高い確率で、本来のピッチ周期を含む駆動音源の繰り返し周期候補を選択することができ、最小限の情報量の追加で高品質の音声復号化装置を提供できるという効果が得られる。   Furthermore, since the constants to multiply the repetition period of the adaptive sound source in the period preselection are included at least 1/2, 1, the repetition period candidate of the driving sound source including the original pitch period is selected with a high probability with few options. Thus, an effect that a high-quality speech decoding apparatus can be provided with the addition of a minimum amount of information can be obtained.

実施の形態2.
図5はこの発明の実施の形態2による音声符号化装置における駆動音源符号化手段5の構成を示すブロック図である。音声符号化装置の全体構成は、実施の形態1,すなわち図14と同様である。図5において、31は周期予備選択手段、33は適応音源符号化手段4内に格納されている適応音源符号帳であり、周期予備選択手段31は、定数テーブル32、適応音源生成手段34、距離計算手段35、予備選択手段36によって構成されている。
Embodiment 2. FIG.
FIG. 5 is a block diagram showing a configuration of driving excitation encoding means 5 in the speech encoding apparatus according to Embodiment 2 of the present invention. The overall configuration of the speech encoding apparatus is the same as that of the first embodiment, that is, FIG. In FIG. 5, 31 is a periodic preliminary selection means, 33 is an adaptive excitation codebook stored in the adaptive excitation encoding means 4, and the periodic preliminary selection means 31 includes a constant table 32, an adaptive excitation generation means 34, a distance. The calculation means 35 and the preliminary selection means 36 are configured.

なお、駆動音源符号化手段27が、従来の駆動音源符号化手段5と同様の動作をする手段であるが、駆動音源符号化手段27の前後に周期予備選択手段31と周期符号化手段28が新規に挿入されたものを、図14における駆動音源符号化手段5の部分としたものが、この実施の形態2による音声符号化装置である。   The driving excitation encoding unit 27 is a unit that operates in the same manner as the conventional driving excitation encoding unit 5, but the period preliminary selection unit 31 and the period encoding unit 28 are provided before and after the driving excitation encoding unit 27. What is newly inserted is a part of the drive excitation encoding means 5 in FIG. 14 is the speech encoding apparatus according to the second embodiment.

図6はこの発明の実施の形態2による音声復号化装置における駆動音源復号化手段12の構成を示すブロック図である。音声復号化装置の全体構成は、実施の形態1,すなわち図15と同様である。図6において、33は適応音源復号化手段11内に格納されている適応音源符号帳である。   FIG. 6 is a block diagram showing the configuration of the driving excitation decoding means 12 in the speech decoding apparatus according to Embodiment 2 of the present invention. The overall configuration of the speech decoding apparatus is the same as that of Embodiment 1, that is, FIG. In FIG. 6, reference numeral 33 denotes an adaptive excitation codebook stored in the adaptive excitation decoding means 11.

なお、駆動音源復号化手段30が、従来の駆動音源復号化手段12と同様の動作をする手段であるが、駆動音源復号化手段30の前に周期予備選択手段31と周期復号化手段29が新規に挿入されたものを、図15における駆動音源復号化手段12の部分としたものが、この実施の形態2による音声復号化装置である。   The driving excitation decoding unit 30 is a unit that operates in the same manner as the conventional driving excitation decoding unit 12. However, the periodic preliminary selection unit 31 and the periodic decoding unit 29 are provided before the driving excitation decoding unit 30. What is newly inserted is a part of the drive excitation decoding means 12 in FIG. 15 is the speech decoding apparatus according to the second embodiment.

次に動作について説明する。
まず、音声符号化装置の動作について図5を用いて説明する。実施の形態1と同様に、適応音源符号化手段4が出力した適応音源の繰り返し周期が周期予備選択手段31に入力され、適応音源符号化手段4からの符号化対象信号、及び線形予測係数符号化手段3からの量子化された線形予測係数が駆動音源符号化手段27に入力される。
Next, the operation will be described.
First, the operation of the speech encoding apparatus will be described with reference to FIG. Similar to the first embodiment, the repetition period of the adaptive excitation output from the adaptive excitation encoding unit 4 is input to the period preliminary selection unit 31, and the encoding target signal and the linear prediction coefficient code from the adaptive excitation encoding unit 4 are input. The quantized linear prediction coefficient from the encoding unit 3 is input to the driving excitation encoding unit 27.

周期予備選択手段31内の定数テーブル32には、1/3,1/2,1,2という4つの定数が格納されており、各定数が入力された適応音源の繰り返し周期に乗じられ、得られた4つの駆動音源の繰り返し周期候補が、適応音源生成手段34と予備選択手段36に出力される。   Four constants 1/3, 1/2, 1, and 2 are stored in the constant table 32 in the period preliminary selection means 31, and each constant is multiplied by the repetition period of the input adaptive sound source. The four drive sound source repetition period candidates thus output are output to the adaptive sound source generation means 34 and the preliminary selection means 36.

適応音源生成手段34は、適応音源符号帳33内に格納されている過去の音源を用いて、上記4つの駆動音源の繰り返し周期候補の各々を繰り返し周期とした時の適応音源を生成して、生成した4つの適応音源を距離計算手段35に出力する。なお、適応音源の繰り返し周期の1倍の値に対しては、適応音源符号化手段4が既に同一の適応音源を生成しているので、適応音源生成手段34での生成を省略することができる。   The adaptive excitation generator 34 generates an adaptive excitation using the past excitations stored in the adaptive excitation codebook 33, with each of the four drive excitation repetition period candidates as a repetition period, The generated four adaptive sound sources are output to the distance calculation means 35. It should be noted that, for a value that is one time the repetition period of the adaptive excitation, the adaptive excitation encoding means 4 has already generated the same adaptive excitation, and therefore generation by the adaptive excitation generation means 34 can be omitted. .

また、4つの駆動音源の繰り返し周期候補の一部が、大きすぎたり又は小さすぎたりして、ピッチ周期として不適切な値となっている場合には、適応音源符号帳33が対応できないことも起こり得るので、適応音源生成手段34は、その駆動音源繰り返し周期候補に対する適応音源として、0信号を出力する等して、その後の予備選択時に選択されないようにする。   In addition, when some of the repetition period candidates of the four driving excitations are too large or too small to have an inappropriate value as the pitch period, the adaptive excitation codebook 33 may not be able to cope with it. Since this may occur, the adaptive sound source generation means 34 outputs a 0 signal as an adaptive sound source for the drive sound source repetition period candidate so that it is not selected during the subsequent preliminary selection.

距離計算手段35は、適応音源の繰り返し周期の1倍の値を繰り返し周期とした時の適応音源(つまり適応音源符号化手段4が出力した適応音源)と、他の1/3倍、1/2倍、2倍の値を繰り返し周期とした時の適応音源との間の距離を計算して、得られた各距離を予備選択手段36に出力する。   The distance calculation means 35 is an adaptive excitation (that is, the adaptive excitation output from the adaptive excitation encoding means 4) when the repetition period is set to a value that is one time the repetition period of the adaptive excitation, the other 1/3 times, 1 / The distance between the adaptive sound source when the double and double values are used as the repetition period is calculated, and each obtained distance is output to the preliminary selection means 36.

予備選択手段36は、まず1/3倍の時と1/2倍の時の距離を比較して、小さい方を選択する。そして、この選択された距離を適応音源の平均振幅に所定の定数を乗じた値を比較し、前者が小さいときには、その距離を与えた繰り返し周期(適応音源の繰り返し周期の1/3倍又は1/2倍)と適応音源の繰り返し周期の1倍の値を、予備選択された駆動音源の繰り返し周期候補として出力する。前者が後者以上の時には、次にその距離と適応音源の繰り返し周期の2倍の時の距離を比較し、小さい方の距離を与えた繰り返し周期と適応音源の繰り返し周期の1倍の値を、予備選択された駆動音源の繰り返し周期候補として出力する。なお、所定の定数としては、1未満の正の値で0.1程度の小さい値を用いると良い。   The preliminary selection means 36 first compares the distances at 1/3 times and 1/2 times and selects the smaller one. Then, the selected distance is compared with a value obtained by multiplying the average amplitude of the adaptive sound source by a predetermined constant, and when the former is small, the repetition period (1/3 times or 1 times the repetition period of the adaptive sound source) is given. / 2) and a value one times the repetition period of the adaptive sound source are output as the repetition period candidates of the preselected drive sound source. When the former is greater than or equal to the latter, the distance is then compared with the distance at twice the repetition period of the adaptive sound source, and the repetition period giving the smaller distance and the value of one time of the repetition period of the adaptive sound source, Output as a repetition cycle candidate of the pre-selected drive sound source. The predetermined constant may be a positive value less than 1 and a small value of about 0.1.

駆動音源符号化手段27は、図17に示した従来の駆動音源符号化手段5と同様に、入力された各予備選択された駆動音源の繰り返し周期候補(図17と異なるのは、この予備選択された駆動音源の繰り返し周期候補が適応音源の定数倍となっている点である)、量子化された線形予測係数、符号化対象信号を用いて、代数的音源の符号化処理を行い、各繰り返し候補毎に符号化歪を最も小さくする駆動音源符号を探索し、得られた複数の音源位置と極性と、その時の符号化歪みに関する上記(1)式の評価値Dを出力する。   Similarly to the conventional driving excitation encoding means 5 shown in FIG. 17, the driving excitation encoding means 27 is a repetition period candidate for each inputted preselected driving excitation (the difference from FIG. 17 is this preliminary selection). The repetition period candidate of the generated driving sound source is a constant multiple of the adaptive sound source), the quantized linear prediction coefficient, and the encoding target signal are used to perform algebraic sound source encoding processing, A drive excitation code that minimizes the coding distortion is searched for each repetition candidate, and the obtained plurality of sound source positions and polarities and the evaluation value D of the above equation (1) relating to the coding distortion at that time are output.

周期符号化手段28は、駆動音源符号化手段27が出力した駆動音源の各繰り返し周期候補に対する評価値を比較して、1つの評価値と残りの評価値の間の差が閾値以上である(つまり1つのものだけが符号化歪が小さい)場合には、その評価値を与えた駆動音源の繰り返し周期候補を選択し、評価値間の差異が閾値未満の場合には、別途分析しておいたピッチ周期(本来のピッチ周期の推定結果)に最も近い駆動音源の繰り返し周期候補を選択し、この選択結果を1ビットで符号化した選択情報と、その時の音源位置を表す音源位置符号と極性とを駆動音源符号として出力する。   The period encoding means 28 compares the evaluation values for the repetition period candidates of the driving excitation output from the driving excitation encoding means 27, and the difference between one evaluation value and the remaining evaluation values is equal to or greater than the threshold value ( In other words, if only one of them has a small coding distortion), the repetition period candidate of the driving sound source to which the evaluation value is given is selected, and if the difference between the evaluation values is less than the threshold value, it is analyzed separately. Select the repetition period candidate of the driving sound source closest to the pitch period (the original pitch period estimation result), select information obtained by encoding this selection result with 1 bit, and the sound source position code and polarity indicating the sound source position at that time Are output as drive excitation codes.

次に音声復号化装置の動作について図6を用いて説明する。実施の形態1と同様に、適応音源復号化手段11が出力した適応音源の繰り返し周期が周期予備選択手段31に入力され、分離手段9が分離した駆動音源符号内の選択情報が周期復号化手段29に入力され、駆動音源符号内の音源位置符号と極性が駆動音源復号化手段30に入力される。   Next, the operation of the speech decoding apparatus will be described with reference to FIG. As in the first embodiment, the repetition period of the adaptive excitation output from the adaptive excitation decoding means 11 is input to the periodic preliminary selection means 31, and the selection information in the driving excitation code separated by the separation means 9 is the period decoding means. 29, and the excitation position code and polarity in the driving excitation code are input to the driving excitation decoding means 30.

周期予備選択手段31は音声符号化装置内の図5に示す周期予備選択手段31と同じ構成を持ち、入力した適応音源の繰り返し周期を定数倍した駆動音源の繰り返し周期候補の中から2つの予備選択された駆動音源の繰り返し周期候補を選択し、周期復号化手段29に出力する。周期復号化手段29は、入力した駆動音源の選択情報に従って、上記2つの駆動音源の繰り返し周期候補の一方を選択して、これを駆動音源の繰り返し周期として駆動音源復号化手段30に出力する。駆動音源復号化手段30は、従来の駆動音源復号化手段12と同様に、音源位置符号に対応した各位置に固定波形を配置し、繰り返し周期に基づくピッチ周期化を行って、駆動音源符号に対する時系列ベクトルを駆動音源として出力する。   The period preliminary selection means 31 has the same configuration as the period preliminary selection means 31 shown in FIG. 5 in the speech coding apparatus, and two preliminary period candidates for driving excitation repetition periods obtained by multiplying the repetition period of the input adaptive excitation by a constant number. A repetition cycle candidate of the selected driving sound source is selected and output to the cyclic decoding means 29. Periodic decoding means 29 selects one of the two driving excitation repetition period candidates according to the inputted driving excitation selection information, and outputs this to driving excitation decoding means 30 as the repetition period of the driving excitation. Similarly to the conventional drive excitation decoding unit 12, the drive excitation decoding unit 30 arranges a fixed waveform at each position corresponding to the excitation position code, performs pitch cycle based on the repetition period, A time series vector is output as a driving sound source.

図7,図8,図9は、実施の形態2による音声符号化装置及び音声復号化装置における適応音源生成手段34で生成される適応音源を説明する図であり、図7は適応音源の繰り返し周期が本来のピッチ周期と一致している場合を示し、図8は適応音源の繰り返し周期が本来のピッチ周期の2倍である場合を示し、図9は適応音源の繰り返し周期が本来のピッチ周期の3倍である場合を示している。   7, 8, and 9 are diagrams for explaining the adaptive excitation generated by the adaptive excitation generation means 34 in the speech encoding apparatus and speech decoding apparatus according to Embodiment 2, and FIG. FIG. 8 shows the case where the repetition period of the adaptive sound source is twice the original pitch period, and FIG. 9 shows the case where the repetition period of the adaptive sound source is the original pitch period. This is a case of 3 times.

図7を見ると、適応音源の繰り返し周期が本来のピッチ周期と一致している場合には、適応音源の繰り返し周期の1/3倍及び1/2倍を繰り返し周期として生成した適応音源と本来の適応音源(図中の最も上のもの)との距離が大きく、2倍と1倍が予備選択されやすいことが分かる。   Referring to FIG. 7, when the repetition cycle of the adaptive sound source matches the original pitch cycle, the adaptive sound source generated by using 1/3 times and 1/2 times the repetition cycle of the adaptive sound source as the repetition cycle It can be seen that the distance from the adaptive sound source (the uppermost one in the figure) is large and 2 and 1 times are likely to be pre-selected.

図8を見ると、適応音源の繰り返し周期が本来のピッチ周期の2倍である場合には、適応音源の繰り返し周期の1/2倍を繰返し周期として生成した適応音源と本来の適応音源(図中の最も上のもの)との距離が小さく、1/2倍と1倍が予備選択されやすいことが分かる。   Referring to FIG. 8, when the repetition period of the adaptive sound source is twice the original pitch period, the adaptive sound source generated with a repetition period of ½ times the repetition period of the adaptive sound source and the original adaptive sound source (see FIG. It can be seen that the distance from the uppermost one is small, and 1/2 and 1 times are likely to be preliminarily selected.

図9を見ると、適応音源の繰り返し周期が本来のピッチ周期の3倍である場合には、適応音源の繰り返し周期の1/3倍を繰り返し周期として生成した適応音源と本来の適応音源(図中の最も上のもの)との距離が小さく、1/3倍と1倍が予備選択されやすいことが分かる。   Referring to FIG. 9, when the repetition cycle of the adaptive sound source is three times the original pitch cycle, the adaptive sound source generated by using 1/3 times the repetition cycle of the adaptive sound source as the repetition cycle and the original adaptive sound source (see FIG. 9). It can be seen that the distance to the topmost one is small, and 1/3 and 1 times are likely to be preselected.

なお、上記実施の形態では、駆動音源の符号化と復号化に代数的音源を使用しているが、この発明は代数的音源構成に限定されるものではなく、その他の学習音源符号帳やランダム音源符号帳等を用いるCELP系音声符号化装置及び音声復号化装置においても適用可能である。   In the above embodiment, an algebraic excitation is used for encoding and decoding of the driving excitation, but the present invention is not limited to the algebraic excitation configuration, and other learning excitation codebooks and random The present invention can also be applied to a CELP speech encoding apparatus and speech decoding apparatus that use a sound source codebook or the like.

また、上記実施の形態では、別途ピッチ周期を求めて周期符号化手段28での選択に用いているが、これを用いずに符号化歪を最小にする、すなわち評価値Dを最大にする駆動音源の繰り返し周期候補を選択する構成も可能である。またピッチ周期ではなくて、過去の数フレームの適応音源の繰り返し周期を平均した値を参照値として用いても構わない。   In the above-described embodiment, the pitch period is separately obtained and used for selection by the period encoding means 28. However, without using this, the encoding distortion is minimized, that is, the evaluation value D is maximized. A configuration for selecting a repetition period candidate of a sound source is also possible. Instead of the pitch period, a value obtained by averaging the repetition periods of the adaptive sound sources of the past several frames may be used as the reference value.

さらに、上記実施の形態では、スペクトルパラメータとして線形予測係数を用いて説明したが、一般に多く使用されるLSP等、他のスペクトルパラメータを用いる構成でも構わない。   Furthermore, in the above-described embodiment, the linear prediction coefficient is used as the spectrum parameter. However, a configuration using other spectrum parameters such as LSP that is generally used may be used.

さらに、定数テーブル内から1を削除し、代わりに適応音源の繰り返し周期を直接予備選択手段36に入力するようにしても同じ結果が得られる。   Furthermore, the same result can be obtained by deleting 1 from the constant table and inputting the repetition period of the adaptive sound source directly to the preliminary selection means 36 instead.

さらに、特性改善効果は減少するが、定数テーブル中の値を1/2,1,2のみとする構成も可能である。   Furthermore, although the characteristic improvement effect is reduced, a configuration in which the values in the constant table are only 1/2, 1, 2 is possible.

以上のように、この実施の形態2によれば、適応音源の繰り返し周期に複数の定数を乗じて複数の駆動音源の繰り返し周期候補を求め、この複数の駆動音源の繰り返し周期候補を、そのまま適応音源の繰り返し周期とした時の適応音源を各々生成し、生成された適応音源間の距離値に基づいて、所定個の駆動音源の繰り返し周期候補を選択するようにしたので、本来のピッチ周期と適応音源の繰り返し周期が異なる場合でも、高い確率で本来のピッチ周期に近い繰り返し周期を用いた駆動音源の周期化が選択され、合成音の不安定な印象の発生を抑制でき、高品質の音声符号化装置を提供できるという効果が得られる。   As described above, according to the second embodiment, a repetition cycle candidate for a plurality of driving sound sources is obtained by multiplying a repetition cycle of the adaptive sound source by a plurality of constants, and the repetition cycle candidates for the plurality of driving sound sources are applied as they are. Each adaptive sound source is generated when the repetition period of the sound source is set, and a repetition period candidate of a predetermined number of driving sound sources is selected based on the distance value between the generated adaptive sound sources. Even when the repetition period of the adaptive sound source is different, the drive sound source periodicity is selected with a repetition period close to the original pitch period with high probability, and the generation of unstable impressions of the synthesized sound can be suppressed, resulting in high-quality sound. The effect that an encoding device can be provided is obtained.

さらに、周期予備選択における予備選択個数を2とし、駆動音源の繰り返し周期の選択情報を1ビットで符号化するようにしたので、最小限の情報量の追加で高品質の音声符号化装置を提供できるという効果が得られる。   Furthermore, since the number of preliminary selections in the period preliminary selection is set to 2, and the selection information of the repetition period of the driving sound source is encoded with 1 bit, a high-quality speech encoding apparatus can be provided by adding a minimum amount of information. The effect that it can be obtained.

さらに、複数の駆動音源の繰り返し周期候補を、そのまま適応音源の繰り返し周期とした時の適応音源を各々生成し、生成された適応音源間の距離値に基づいて、所定個の駆動音源の繰り返し周期候補を選択するようにしたので、本来のピッチ周期である確率が低い駆動音源の繰り返し周期候補を排除でき、評価の必要のない駆動音源の繰り返し周期候補に対する駆動音源符号化処理と選択情報の配分が不要になり、最小限の演算量と情報量の追加で高品質の音声符号化装置を提供できるという効果が得られる。   Further, each of the adaptive sound sources is generated when the repetition period candidates of the plurality of driving sound sources are directly used as the repetition period of the adaptive sound source, and based on the generated distance value between the adaptive sound sources, the repetition period of the predetermined number of driving sound sources Since the candidate is selected, it is possible to eliminate the repetition period candidate of the driving excitation with a low probability that it is the original pitch period, and the driving excitation encoding process and the distribution of the selection information for the repetition period candidate of the driving excitation that does not need to be evaluated Is not required, and an effect that a high-quality speech coding apparatus can be provided by adding a minimum amount of calculation and an amount of information can be obtained.

さらに、周期予備選択における適応音源の繰り返し周期に乗じる定数として、少なくとも1/2,1を含むようにしたので、少ない選択肢ながら高い確率で、本来のピッチ周期を含む駆動音源の繰り返し周期候補を生成することができ、最小限の演算量と情報量の追加で高品質の音声符号化装置を提供できるという効果が得られる。   In addition, since the constant to multiply the repetition period of the adaptive sound source in the period preselection is included at least 1/2, 1, the repetition period candidate of the driving sound source including the original pitch period is generated with high probability with few options. Thus, an effect that a high-quality speech encoding apparatus can be provided with the addition of the minimum amount of calculation and the amount of information can be obtained.

さらに、この実施の形態2によれば、適応音源の繰り返し周期に複数の定数を乗じて複数の駆動音源の繰り返し周期候補を求め、この複数の駆動音源の繰り返し周期候補の中から所定個の予備選択された駆動音源の繰り返し周期候補を選択し、音声符号中の駆動音源の繰り返し周期の選択情報に基づいて、予備選択された駆動音源の繰り返し周期候補の中から1つを駆動音源の繰り返し周期として選択し、この繰り返し周期を用いて駆動音源を復号化するようにしたので、本来のピッチ周期と適応音源の繰り返し周期が異なる場合でも、高い確率で本来のピッチ周期に近い繰り返し周期を用いた駆動音源の周期化がなされ、合成音の不安定な印象の発生を抑制でき、高品質の音声復号化装置を提供できるという効果が得られる。   Further, according to the second embodiment, a repetition cycle candidate of a plurality of driving sound sources is obtained by multiplying a repetition cycle of the adaptive sound source by a plurality of constants, and a predetermined number of spares are selected from the repetition cycle candidates of the plurality of driving sound sources. A repetition period candidate of the selected driving sound source is selected, and one of the repetition period candidates of the pre-selected driving sound source is selected based on the selection information of the repetition period of the driving sound source in the speech code. Since the driving sound source is decoded using this repetition period, even when the original pitch period and the repetition period of the adaptive sound source are different, the repetition period close to the original pitch period is used with a high probability. The driving sound source is periodicized, the generation of an unstable impression of the synthesized sound can be suppressed, and an effect that a high-quality speech decoding apparatus can be provided can be obtained.

さらに、周期予備選択における予備選択個数を2とし、1ビットで符号化された駆動音源の繰り返し周期の選択情報を復号化するようにしたので、最小限の情報量の追加で高品質の音声復号化装置を提供できるという効果が得られる。   Furthermore, since the number of preliminary selections in the periodical preliminary selection is 2, and the selection information of the repetition period of the driving sound source encoded with 1 bit is decoded, high-quality speech decoding can be performed with the addition of a minimum amount of information. The effect that the control apparatus can be provided is obtained.

さらに、周期予備選択において、複数の駆動音源の繰り返し周期候補を、そのまま適応音源の繰り返し周期とした時の適応音源を各々生成し、生成された適応音源間の距離値に基づいて、所定個の駆動音源の繰り返し周期候補を選択するようにしたので、本来のピッチ周期である確率が低い駆動音源の繰り返し周期候補を排除でき、必要のない繰り返し駆動音源の繰り返し周期候補に対する選択情報の配分が不要になり、最小限の情報量の追加で高品質の音声復号化装置を提供できるという効果が得られる。   Further, in the period preselection, each of the adaptive sound sources when the repetition period candidates of the plurality of driving sound sources are directly used as the repetition period of the adaptive sound source is generated, and based on the distance value between the generated adaptive sound sources, a predetermined number of Since the repetition period candidate of the driving sound source is selected, it is possible to eliminate the repetition period candidate of the driving sound source that has a low probability of being the original pitch period, and it is not necessary to distribute selection information to the repetition period candidate of the unnecessary repeated driving sound source Thus, an effect that a high-quality speech decoding apparatus can be provided with the addition of a minimum amount of information can be obtained.

さらに、周期予備選択における適応音源の繰り返し周期に乗じる定数として、少なくとも1/2,1を含むようにしたので、少ない選択肢ながら高い確率で、本来のピッチ周期を含む駆動音源の繰り返し周期候補を選択することができ、最小限の情報量の追加で高品質の音声復号化装置を提供できるという効果が得られる。   Furthermore, since the constants to multiply the repetition period of the adaptive sound source in the period preselection are included at least 1/2, 1, the repetition period candidate of the driving sound source including the original pitch period is selected with a high probability with few options. Thus, an effect that a high-quality speech decoding apparatus can be provided with the addition of a minimum amount of information can be obtained.

実施の形態3.
図10はこの発明の実施の形態3による音声符号化装置における駆動音源符号化手段5と新たに追加した聴覚重み付け制御手段37の構成を示すブロック図である。音声符号化装置の全体構成は、図14において、聴覚重み付け制御手段37が駆動音源符号化手段5に付随して追加されたものとなる。聴覚重み付け制御手段37は、比較手段38,強度制御手段39によって構成される。駆動音源符号化手段5内の構成は、図17で説明した従来のものと同様であり、唯一、聴覚重み付けフィルタ係数算出手段16が聴覚重み付け制御手段37により制御されている点のみが変更されている。
Embodiment 3 FIG.
FIG. 10 is a block diagram showing the configuration of the drive excitation encoding means 5 and the newly added auditory weighting control means 37 in the speech encoding apparatus according to Embodiment 3 of the present invention. The overall configuration of the speech encoding apparatus is the same as that shown in FIG. 14 except that an auditory weighting control unit 37 is added to the driving excitation encoding unit 5. The auditory weighting control unit 37 includes a comparison unit 38 and an intensity control unit 39. The configuration in the driving excitation encoding means 5 is the same as that of the conventional one explained in FIG. 17, and only the point that the auditory weighting filter coefficient calculating means 16 is controlled by the auditory weighting control means 37 is changed. Yes.

次に動作について説明する。
まず、音声符号化装置内の図14に示す線形予測係数符号化手段3から、駆動音源符号化手段5内の聴覚重み付けフィルタ係数算出手段16と基礎応答生成手段18に、量子化された線形予測係数が入力される。また、適応音源符号化手段4から、駆動音源符号化手段5内の基礎応答生成手段18と聴覚重み付け制御手段37内の比較手段38に、適応音源符号を変換して得られる適応音源の繰り返し周期が入力される。さらに、適応音源符号化手段4から、駆動音源符号化手段5内の聴覚重み付けフィルタ17に、入力音声1又は入力音声1から適応音源による合成音を差し引いた信号が、符号化対象信号として入力される。
Next, the operation will be described.
First, quantized linear prediction is performed from the linear prediction coefficient coding unit 3 shown in FIG. 14 in the speech coding apparatus to the perceptual weighting filter coefficient calculation unit 16 and the basic response generation unit 18 in the drive excitation coding unit 5. A coefficient is entered. The adaptive excitation repetition period obtained by converting the adaptive excitation code from the adaptive excitation encoding means 4 to the basic response generating means 18 in the driving excitation encoding means 5 and the comparison means 38 in the auditory weighting control means 37. Is entered. Further, the input signal 1 or a signal obtained by subtracting the synthesized sound from the adaptive sound source from the input sound 1 is input from the adaptive excitation encoding unit 4 to the auditory weighting filter 17 in the driving excitation encoding unit 5 as an encoding target signal. The

聴覚重み付け制御手段37内の比較手段38は、入力された繰り返し周期を所定の閾値と比較して、比較結果を強度制御手段39に出力する。所定の閾値としては、男声と女声のピッチ周期の分布をほぼ分離する40程度の値とする。   The comparison means 38 in the auditory weighting control means 37 compares the inputted repetition period with a predetermined threshold value and outputs the comparison result to the intensity control means 39. The predetermined threshold is a value of about 40 that substantially separates the distribution of the pitch period of the male voice and female voice.

強度制御手段39は、上記比較結果に基づいて、聴覚重み付けフィルタにおける強調強度を制御する強度係数を決定して、決定した強度係数を駆動音源符号化手段5内の聴覚重み付けフィルタ係数算出手段16に出力する。比較手段38の比較結果において、適応音源の繰り返し周期が所定の閾値以上である場合は、男声である可能性が高いので、聴覚重み付けの強度が弱めになるように強度係数を決定する。逆の比較結果において、適応音源の繰り返し周期が所定の閾値未満である場合には、女声である可能性が高いので、聴覚重み付けの強度が強めになるように強度係数を決定する。強度係数としては、聴覚重み付けフィルタ係数の算出に用いる線形予測係数への乗算値等である。   The intensity control means 39 determines an intensity coefficient for controlling the enhancement intensity in the perceptual weighting filter based on the comparison result, and the determined intensity coefficient is supplied to the perceptual weighting filter coefficient calculation means 16 in the drive excitation encoding means 5. Output. In the comparison result of the comparison means 38, when the repetition period of the adaptive sound source is equal to or greater than a predetermined threshold, since the possibility of male voice is high, the intensity coefficient is determined so that the intensity of auditory weighting is weakened. If the repetition period of the adaptive sound source is less than the predetermined threshold in the opposite comparison result, the possibility of being a female voice is high, and the intensity coefficient is determined so that the intensity of auditory weighting is increased. The intensity coefficient is a multiplication value of the linear prediction coefficient used for calculation of the auditory weighting filter coefficient.

聴覚重み付けフィルタ係数算出手段16は、上記量子化された線形予測係数と上記強度係数を用いて聴覚重み付けフィルタ係数を算出し、算出した聴覚重み付けフィルタ係数を、聴覚重み付けフィルタ17と聴覚重み付けフィルタ19のフィルタ係数として設定する。   The perceptual weighting filter coefficient calculating means 16 calculates perceptual weighting filter coefficients using the quantized linear prediction coefficient and the intensity coefficient, and the perceptual weighting filter coefficients are calculated by the perceptual weighting filter 17 and perceptual weighting filter 19. Set as a filter coefficient.

以降の聴覚重み付けフィルタ17,基礎応答生成手段18,聴覚重み付けフィルタ19,プリテーブル算出手段20,探索手段21,音源位置テーブル22の構成と動作は、従来と同じであるので説明を省略する。   The subsequent configurations and operations of the perceptual weighting filter 17, basic response generation means 18, perceptual weighting filter 19, pre-table calculation means 20, search means 21, and sound source position table 22 are the same as those in the prior art and will not be described.

なお、上記実施の形態では、聴覚重み付け制御手段37が所定の閾値以上か未満かに基づいて強度係数を決定したが、2つ以上の所定の閾値を使用してより細かく制御したり、閾値との差の大きさ等に基づいて連続的に制御することも可能である。   In the above embodiment, the intensity coefficient is determined based on whether the auditory weighting control means 37 is greater than or less than a predetermined threshold value. However, the intensity coefficient is more finely controlled using two or more predetermined threshold values, It is also possible to control continuously based on the magnitude of the difference.

また、上記実施の形態では、駆動音源の符号化に代数的音源を使用しているが、この発明は代数的音源構成に限定されるものではなく、その他の学習音源符号帳やランダム音源符号帳等を用いるCELP系音声符号化装置においても適用可能である。   In the above embodiment, an algebraic excitation is used for encoding the driving excitation. However, the present invention is not limited to the algebraic excitation configuration, and other learning excitation codebooks and random excitation codebooks. The present invention can also be applied to a CELP speech coding apparatus using the above.

さらに、上記実施の形態では、スペクトルパラメータとして線形予測係数を用いて説明したが、一般に多く使用されるLSP等、他のスペクトルパラメータを用いる構成でも構わない。   Furthermore, in the above-described embodiment, the linear prediction coefficient is used as the spectrum parameter. However, a configuration using other spectrum parameters such as LSP that is generally used may be used.

以上のように、この実施の形態3によれば、適応音源の繰り返し周期の値に基づいて、聴覚重み付けの強度係数を制御し、この強度係数を用いて聴覚重み付けのためのフィルタ係数を算出し、このフィルタ係数を用いて、駆動音源の符号化を行う符号化対象信号に対する聴覚重み付けを行うようにしたので、男声と女声の両方に最適に調整した聴覚重み付けが可能となり、高品質の音声符号化装置を提供できるという効果が得られる。   As described above, according to the third embodiment, the intensity coefficient of auditory weighting is controlled based on the value of the repetition period of the adaptive sound source, and the filter coefficient for auditory weighting is calculated using this intensity coefficient. Since this filter coefficient is used to perform auditory weighting on the signal to be encoded that encodes the driving sound source, it is possible to perform auditory weighting that is optimally adjusted for both male and female voices. The effect that the control apparatus can be provided is obtained.

実施の形態4.
図11はこの発明の実施の形態4による音声符号化装置における駆動音源符号化手段5と新たに追加した聴覚重み付け制御手段40の構成を示すブロック図である。音声符号化装置の全体構成は、図14において、聴覚重み付け制御手段40が駆動音源符号化手段5に付随して追加されたものとなる。聴覚重み付け制御手段40は、比較手段38,強度制御手段39,平均値更新手段41によって構成される。駆動音源符号化手段5内の構成は、図17で説明した従来のものと同様であり、唯一、聴覚重み付けフィルタ係数算出手段16が聴覚重み付け制御手段40によって制御されている点のみが変更されている。
Embodiment 4 FIG.
FIG. 11 is a block diagram showing the configuration of driving excitation encoding means 5 and newly added auditory weighting control means 40 in the speech encoding apparatus according to Embodiment 4 of the present invention. The overall configuration of the speech encoding apparatus is the same as that shown in FIG. 14 except that an auditory weighting control unit 40 is added to the driving excitation encoding unit 5. The auditory weighting control means 40 includes a comparison means 38, an intensity control means 39, and an average value update means 41. The configuration in the driving excitation encoding means 5 is the same as that of the conventional one explained in FIG. 17, and only the point that the auditory weighting filter coefficient calculating means 16 is controlled by the auditory weighting control means 40 is changed. Yes.

次に動作について説明する。
この実施の形態4は、上期実施の形態3の聴覚重み付け制御手段37内に平均値更新手段41を追加した構成となっているので、この新しい部分の動作を中心に説明する。適応音源符号化手段4から、駆動音源符号化手段5内の基礎応答生成手段18と聴覚重み付け制御手段40内の平均値更新手段41に、適応音源符号を変換して得られる適応音源の繰り返し周期が入力される。
Next, the operation will be described.
Since the fourth embodiment has a configuration in which the average value updating means 41 is added to the auditory weighting control means 37 of the first embodiment, the operation of this new part will be mainly described. The adaptive excitation repetition period obtained by converting the adaptive excitation code from the adaptive excitation coding means 4 to the basic response generation means 18 in the driving excitation coding means 5 and the average value updating means 41 in the auditory weighting control means 40. Is entered.

聴覚重み付け制御手段40内の平均値更新手段41は、入力された適応音源の繰り返し周期を用いて、内部に格納してある適応音源の繰り返し周期の平均値を更新し、更新した平均値を比較手段38に対して出力する。最も簡単に平均値を更新する方法としては、そのフレームの繰り返し周期に1より小さい定数αを乗じたものと、それまでの平均値に1−αを乗じたものを加算する方法がある。平均値を求める目的は、男声であるか女声であるかを安定に判定することにあるので、適応音源ゲインが大きいフレームに更新を限定する等した上で、更新することが望ましい。   The average value updating unit 41 in the auditory weighting control unit 40 updates the average value of the repetition period of the adaptive sound source stored therein by using the input repetition period of the adaptive sound source, and compares the updated average value. Output to the means 38. The simplest method for updating the average value includes a method in which the repetition period of the frame is multiplied by a constant α smaller than 1 and a method in which the average value so far is multiplied by 1-α. The purpose of obtaining the average value is to stably determine whether the voice is male or female. Therefore, it is desirable to update after limiting the update to a frame having a large adaptive sound source gain.

そして、比較手段38は、上記更新された平均値を所定の閾値と比較して、比較結果を強度制御手段39に出力する。強度制御手段39は、上記比較結果に基づいて、聴覚重み付けフィルタにおける強調強度を制御する強度係数を決定し、決定した強度係数を駆動音源符号化手段5内の聴覚重み付けフィルタ係数算出手段16に出力する。比較手段38の比較結果において、平均値が所定の閾値以上である場合は、男声である可能性が高いので、聴覚重み付けの強度が弱めになるように強度係数を決定する。逆の比較結果において、平均値が所定の閾値未満である場合には、女声である可能性が高いので、聴覚重み付けの強度が強めになるように強度係数を決定する。   Then, the comparison unit 38 compares the updated average value with a predetermined threshold value and outputs the comparison result to the intensity control unit 39. The intensity control means 39 determines an intensity coefficient for controlling the enhancement intensity in the perceptual weighting filter based on the comparison result, and outputs the determined intensity coefficient to the perceptual weighting filter coefficient calculation means 16 in the drive excitation encoding means 5. To do. In the comparison result of the comparison means 38, when the average value is equal to or greater than a predetermined threshold value, there is a high possibility that the voice is male voice. In the opposite comparison result, when the average value is less than the predetermined threshold value, there is a high possibility that the voice is a female voice. Therefore, the intensity coefficient is determined so that the intensity of auditory weighting is increased.

以降の聴覚重み付けフィルタ係数算出手段16,聴覚重み付けフィルタ17,基礎応答生成手段18,聴覚重み付けフィルタ19,プリテーブル算出手段20,探索手段21,音源位置テーブル22の構成と動作は、従来と同じであるので説明を省略する。   The configuration and operation of the subsequent auditory weighting filter coefficient calculating means 16, auditory weighting filter 17, basic response generating means 18, auditory weighting filter 19, pre-table calculating means 20, search means 21, and sound source position table 22 are the same as in the prior art. Since there is, description is abbreviate | omitted.

なお、上記実施の形態では、聴覚重み付け制御手段40が所定の閾値以上か未満かに基づいて強度係数を決定したが、2つ以上の所定の閾値を使用してより細かく制御したり、所定の閾値との差の大きさ等に基づいて連続的に制御することも可能である。   In the above embodiment, the intensity coefficient is determined based on whether the auditory weighting control means 40 is greater than or less than a predetermined threshold. However, the intensity coefficient is more finely controlled using two or more predetermined thresholds, It is also possible to control continuously based on the magnitude of the difference from the threshold.

また、上記実施の形態では、駆動音源の符号化に代数的音源を使用しているが、この発明は代数的音源構成に限定されるものではなく、その他の学習音源符号帳やランダム音源符号帳等を用いるCELP系音声符号化装置においても適用可能である。   In the above embodiment, an algebraic excitation is used for encoding the driving excitation. However, the present invention is not limited to the algebraic excitation configuration, and other learning excitation codebooks and random excitation codebooks. The present invention can also be applied to a CELP speech coding apparatus using the above.

さらに、上記実施の形態では、スペクトルパラメータとして線形予測係数を用いて説明したが、一般に多く使用されるLSP等、他のスペクトルパラメータを用いる構成でも構わない。   Furthermore, in the above-described embodiment, the linear prediction coefficient is used as the spectrum parameter. However, a configuration using other spectrum parameters such as LSP that is generally used may be used.

以上のように、この実施の形態4によれば、適応音源の繰り返し周期の過去の平均値に基づいて、聴覚重み付けの強度係数を制御し、この強度係数を用いて聴覚重み付けのためのフィルタ係数を算出し、このフィルタ係数を用いて、駆動音源の符号化を行う符号化対象信号に対する聴覚重み付けを行うようにしたので、男声と女声の両方に最適に調整した聴覚重み付けが可能となり、高品質の音声符号化装置を提供できるという効果が得られる。   As described above, according to the fourth embodiment, the intensity coefficient of auditory weighting is controlled based on the past average value of the repetition period of the adaptive sound source, and the filter coefficient for auditory weighting is used using this intensity coefficient. This filter coefficient is used to perform auditory weighting on the signal to be encoded that encodes the driving sound source, so that auditory weighting that is optimally adjusted for both male and female voices is possible, resulting in high quality. The effect of providing a speech encoding apparatus can be obtained.

また、特に適応音源の繰り返し周期の過去の平均値を使用することで、聴覚重み付けの強度が頻繁に変更されて不安定な印象を発生することを抑制できるという効果が得られる。   In particular, by using the past average value of the repetition cycle of the adaptive sound source, it is possible to suppress the occurrence of an unstable impression due to frequent changes in the intensity of auditory weighting.

実施の形態5.
図12はこの発明の実施の形態5による音声符号化装置における駆動音源符号化手段5及び音声復号化装置における駆動音源復号化手段12で使用する音源位置テーブル22を示す図である。図16に示した従来の音源位置テーブルに対して、音源番号毎に固定振幅が追加されたものとなっている。
Embodiment 5. FIG.
FIG. 12 is a diagram showing the excitation position table 22 used in the driving excitation encoding means 5 in the speech encoding apparatus and the driving excitation decoding means 12 in the speech decoding apparatus according to Embodiment 5 of the present invention. In the conventional sound source position table shown in FIG. 16, a fixed amplitude is added for each sound source number.

この固定振幅の振幅値は、同一テーブル内であれば、各音源番号毎の音源位置候補数に応じて与えられる。図12の場合には、音源番号1から音源番号3は音源位置候補数が8であり、同一の振幅値1.0が与えられている。音源番号4は音源位置候補数が16と多いので、他のものより大きい振幅値1.2が与えられている。このように音源位置候補数が多いほど大きい振幅値が与えられる。   The amplitude value of this fixed amplitude is given according to the number of sound source position candidates for each sound source number, if within the same table. In the case of FIG. 12, the number of sound source position candidates from sound source number 1 to sound source number 3 is 8, and the same amplitude value 1.0 is given. Since the sound source number 4 has as many as 16 sound source position candidates, an amplitude value 1.2 larger than the others is given. Thus, the larger the number of sound source position candidates, the larger the amplitude value is given.

この振幅を付与した音源位置テーブルを用いた音源位置探索は、やはり上記(1)式に基づいて行うことができる。但し、

Figure 0004660496
d”(mk )=ak d’(mk ) (10)
φ”(mk ,mi )=aki φ’(mk ,mi ) (11)
とする。ここで、ak はk番目のパルスの振幅(図12の振幅)である。パルス位置の全組合せに対する評価値Dの計算を始める前に、d”とφ”の計算を行っておくことにより、後は(8)式と(9)式の単純加算という少ない演算量で評価値Dが算出できる。 The sound source position search using the sound source position table to which the amplitude is given can also be performed based on the above equation (1). However,
Figure 0004660496
d ″ (m k ) = a k d ′ (m k ) (10)
φ ″ (m k , m i ) = a k a i φ ′ (m k , m i ) (11)
And Here, a k is the amplitude of the kth pulse (the amplitude in FIG. 12). By calculating d ″ and φ ″ before starting the calculation of the evaluation value D for all combinations of pulse positions, the subsequent evaluation is performed with a small amount of calculation, which is a simple addition of the equations (8) and (9). A value D can be calculated.

駆動音源の復号化は、音源位置符号に基づいて、図12の音源位置テーブル中の各音源番号毎に1つずつの音源位置を選択して、その音源位置に各音源番号毎に与えられた固定振幅を乗じた音源を配置することで行う。音源がパルスでなかったり周期化を行う場合には、配置される音源の成分が重複するので、重複する部分は全て加算すれば良い。つまり、従来の代数的音源の復号化処理において、音源番号毎に与えられた固定振幅を乗じる処理を追加したものとなっている。   The driving sound source is decoded based on the sound source position code by selecting one sound source position for each sound source number in the sound source position table of FIG. 12 and giving the sound source position for each sound source number. This is done by placing a sound source multiplied by a fixed amplitude. When the sound source is not a pulse or is periodic, the components of the sound source to be arranged overlap, so all the overlapping portions may be added. That is, in the conventional algebraic excitation decoding process, a process of multiplying the fixed amplitude given for each excitation number is added.

なお、従来の技術で、音源番号毎に固定波形を用意するものがあったが、その場合には、基礎応答を音源番号毎に算出しなければならなかった。この実施の形態では、上記の通りプリテーブルの補正が追加されるだけである。また従来の技術では、音源番号による位置情報量(候補数)の違いに対応させて振幅値を与えることはしていない。   In the prior art, a fixed waveform is prepared for each sound source number, but in that case, a basic response has to be calculated for each sound source number. In this embodiment, only the correction of the pre-table is added as described above. In the conventional technique, the amplitude value is not given in accordance with the difference in the amount of position information (number of candidates) depending on the sound source number.

以上のように、この実施の形態5によれば、各音源位置の選択可能な候補数に基づいて予め固定振幅を与えておき、駆動音源符号化手段5が、該音源位置に配置される音源にこの固定振幅を乗じつつ、全音源の加算を行って駆動音源を生成した時に、入力音声との符号化歪が最も小さい駆動音源を与える音源位置を表す符号と極性を探索して出力するようにしたので、簡単な構成で、処理量の増加もほとんどなしに、音源毎の振幅に関する無駄が減少し、高品質の音声符号化装置を提供できるという効果が得られる。   As described above, according to the fifth embodiment, a fixed amplitude is given in advance based on the number of selectable candidates for each sound source position, and the drive sound source encoding means 5 is a sound source arranged at the sound source position. When the drive sound source is generated by adding all the sound sources while multiplying by the fixed amplitude, the code and polarity representing the sound source position that gives the drive sound source with the least coding distortion with the input sound are searched and output. As a result, it is possible to obtain a high-quality speech coding apparatus with a simple configuration, with little increase in processing amount, and reduced waste regarding amplitude for each sound source.

また、音声符号中の各音源位置に対し、各音源位置の選択可能な候補数に基づいて予め固定振幅を与えておき、該音源位置に配置される音源にこの固定振幅を乗じつつ、全音源の加算を行って駆動音源を生成するようにしたので、簡単な構成で、音源毎の振幅に関する無駄が減少し、高品質の音声復号化装置を提供できるという効果が得られる。   Further, a fixed amplitude is given in advance to each sound source position in the speech code based on the number of selectable candidates for each sound source position, and the sound sources arranged at the sound source positions are multiplied by this fixed amplitude, Since the driving sound source is generated by performing the above addition, the waste of the amplitude for each sound source is reduced with a simple configuration, and an effect that a high-quality speech decoding apparatus can be provided is obtained.

実施の形態6.
図13はこの発明の実施の形態5による音声符号化装置における駆動音源符号化手段5の構成を示すブロック図である。音声符号化装置の全体構成は図14と同様である。図13において、42はプリテーブル補正手段である。この実施の形態では、このプリテーブル補正手段42のみの追加によって、聴覚重み付けされた符号化対象信号を適応音源に対して直交化する。
Embodiment 6 FIG.
FIG. 13 is a block diagram showing the configuration of the drive excitation encoding means 5 in the speech encoding apparatus according to Embodiment 5 of the present invention. The overall configuration of the speech encoding apparatus is the same as that shown in FIG. In FIG. 13, reference numeral 42 denotes pre-table correction means. In this embodiment, by adding only the pre-table correction means 42, the perceptually weighted encoding target signal is orthogonalized with respect to the adaptive sound source.

次に動作について説明する。
まず、音声符号化装置内の線形予測係数符号化手段3から、駆動音源符号化手段5内の聴覚重み付けフィルタ係数算出手段16と基礎応答生成手段18に、量子化された線形予測係数が入力される。また、適応音源符号化手段4から、駆動音源符号化手段5内の基礎応答生成手段18に、適応音源符号を変換して得られる適応音源の繰り返し周期が入力される。また、適応音源符号化手段4から、駆動音源符号化手段5内の聴覚重み付けフィルタ17に、入力音声1又は入力音声1から適応音源による合成音を差し引いた信号が符号化対象信号として入力される。そして、適応音源符号化手段4から、駆動音源符号化手段5内のプリテーブル補正手段42に、適応音源が入力される。
Next, the operation will be described.
First, a quantized linear prediction coefficient is input from the linear prediction coefficient coding means 3 in the speech coding apparatus to the auditory weighting filter coefficient calculation means 16 and the basic response generation means 18 in the driving excitation coding means 5. The The adaptive excitation repetition period obtained by converting the adaptive excitation code is input from the adaptive excitation encoding means 4 to the basic response generation means 18 in the driving excitation encoding means 5. In addition, the adaptive excitation encoding unit 4 inputs to the auditory weighting filter 17 in the driving excitation encoding unit 5 the input sound 1 or a signal obtained by subtracting the synthesized sound of the adaptive excitation from the input sound 1 as an encoding target signal. . The adaptive excitation is input from the adaptive excitation encoding unit 4 to the pre-table correction unit 42 in the driving excitation encoding unit 5.

聴覚重み付けフィルタ係数算出手段16は、上記量子化された線形予測係数を用いて聴覚重み付けフィルタ係数を算出し、算出した聴覚重み付けフィルタ係数を聴覚重み付けフィルタ17と聴覚重み付けフィルタ19のフィルタ係数として設定する。聴覚重み付けフィルタ17は、聴覚重み付けフィルタ係数算出手段16によって設定されたフィルタ係数により、入力された符号化対象信号に対してフィルタ処理を行う。   The perceptual weighting filter coefficient calculating means 16 calculates perceptual weighting filter coefficients using the quantized linear prediction coefficients, and sets the perceptual weighting filter coefficients as the perceptual weighting filter 17 and perceptual weighting filter 19 filter coefficients. . The perceptual weighting filter 17 performs a filtering process on the input encoding target signal with the filter coefficient set by the perceptual weighting filter coefficient calculation means 16.

基礎応答生成手段18は、単位インパルス又は固定波形に対して、入力された適応音源の繰返し周期を用いた周期化処理を行い、得られた信号を音源として、上記量子化された線形予測係数を用いて構成した合成フィルタによる合成音を生成し、これを基礎応答として出力する。聴覚重み付けフィルタ19は、聴覚重み付けフィルタ係数算出手段16によって設定されたフィルタ係数により、入力された基礎応答に対してフィルタ処理を行う。   The basic response generation means 18 performs a periodic process using the repetition period of the input adaptive sound source on the unit impulse or the fixed waveform, and uses the obtained signal as a sound source to obtain the quantized linear prediction coefficient. A synthesized sound is generated by a synthesis filter configured by using it, and this is output as a basic response. The auditory weighting filter 19 performs a filtering process on the input basic response with the filter coefficient set by the auditory weighting filter coefficient calculation means 16.

プリテーブル算出手段20は、1つの音源位置に所定の音源を配置した信号を仮駆動音源とし、上記聴覚重み付けされた符号化対象信号と聴覚重み付けされた基礎応答の相関値、すなわち、聴覚重み付けされた符号化対象信号と聴覚重み付けされた全ての音源位置候補に対応する仮駆動音源に基づく合成音の相関値を計算してd(x)とし、聴覚重み付けされた基礎応答の相互相関値、すなわち、全ての候補の組み合わせに対応した仮駆動音源に基づく合成音間の相互相関値を計算してφ(x,y)とする。そして、これらのd(x)とφ(x,y)をプリテーブルとして記憶する。   The pre-table calculation means 20 uses a signal with a predetermined sound source arranged at one sound source position as a temporary drive sound source, and correlates the perceptually weighted encoding target signal with the perceptually weighted basic response, that is, perceptually weighted. The correlation value of the synthesized sound based on the temporary driving sound source corresponding to all the sound source position candidates weighted to be encoded and the perceptually weighted sound source is calculated as d (x), and the cross correlation value of the perceptually weighted basic response, that is, Then, the cross-correlation value between the synthesized sounds based on the temporary drive sound source corresponding to all candidate combinations is calculated as φ (x, y). These d (x) and φ (x, y) are stored as a pre-table.

プリテーブル補正手段42は、適応音源とプリテーブル算出手段20が記憶しているプリテーブルを入力し、以下の(12)式及び(13)式に基づく補正処理を行い、得られた結果に対して、(14)式と(15)式により、音源位置毎のd’(x)とφ’(x,y)を求めて、これらを新たにプリテーブルとして記憶する。   The pre-table correction means 42 inputs the adaptive sound source and the pre-table stored in the pre-table calculation means 20, performs correction processing based on the following equations (12) and (13), and the obtained result is Thus, d ′ (x) and φ ′ (x, y) for each sound source position are obtained by the equations (14) and (15), and these are newly stored as a pre-table.

Figure 0004660496
Figure 0004660496

但し、
tgt は聴覚重み付けされた符号化対象信号と聴覚重み付けされた適応音源応答(合成音)の相関値、すなわち、聴覚重み付けされた符号化対象信号と聴覚重み付けされた適応音源に基づく合成音との間の相関値であり、
x は聴覚重み付けされた基礎応答を音源位置xに配置した信号と聴覚重み付けされた適応音源応答(合成音)の相関値、すなわち、全ての音源位置候補に対応する仮駆動音源に基づく合成音と適応音源に基づく合成音との間の相関値であり、
acb は聴覚重み付けされた適応音源応答(合成音)のパワーである。
However,
c tgt is a correlation value between the perceptually weighted encoding target signal and perceptually weighted adaptive sound source response (synthesized sound), that is, perceptually weighted encoding target signal and perceptually weighted synthetic sound based on the adaptive sound source. Correlation value between
c x is a correlation value between a signal in which an auditory weighted basic response is arranged at the sound source position x and an auditory weighted adaptive sound source response (synthesized sound), that is, a synthesized sound based on temporary drive sound sources corresponding to all sound source position candidates. And the correlation value between the synthesized sound based on the adaptive sound source,
p acb is the power of the adaptive sound source response (synthetic sound) weighted perceptually.

最後に、探索手段21は、音源位置テーブル22から音源位置候補を順次読み出して、各音源位置の組み合わせに対する評価値Dを、(1)式、(4)式、(5)式に基づいて、プリテーブル補正手段42が記憶しているプリテーブル、すなわち、音源位置毎のd’(x)とφ’(x,y)を使用して計算する。そして、評価値Dを最大にする音源位置の組み合わせを探索し、得られた複数の音源位置を表す音源位置符号(音源位置テーブルにおけるインデックス)と極性を、駆動音源符号として出力すると共に、この駆動音源符号に対応する時系列ベクトルを駆動音源として出力する。   Finally, the search means 21 sequentially reads out the sound source position candidates from the sound source position table 22, and calculates the evaluation value D for each combination of the sound source positions based on the expressions (1), (4), and (5). Calculation is performed using the pre-table stored by the pre-table correction means 42, that is, d ′ (x) and φ ′ (x, y) for each sound source position. Then, a combination of sound source positions that maximizes the evaluation value D is searched, and the obtained sound source position codes (indexes in the sound source position table) and polarities representing the plurality of sound source positions are output as drive sound source codes and this driving is performed. A time series vector corresponding to the excitation code is output as a driving excitation.

以上のように、この実施の形態6によれば、符号化対象信号と適応音源に基づく合成音との間の相関値ctgt 、全ての音源位置候補に対応する仮駆動音源に基づく合成音と適応音源に基づく合成音との間の相関値cx を求めて、これらの値を用いてプリテーブルを補正するようにしたので、探索手段21における処理量を増やさずに、聴覚重み付けされた符号化対象信号を適応音源に対して直交化することができ、これにより符号化特性を改善でき、高品質の音声符号化装置を提供できるという効果が得られる。 As described above, according to the sixth embodiment, the correlation value c tgt between the encoding target signal and the synthesized sound based on the adaptive sound source, the synthesized sound based on the temporary driving sound source corresponding to all sound source position candidates, and Since the correlation value c x with the synthesized sound based on the adaptive sound source is obtained and the pre-table is corrected using these values, the auditory weighted code is obtained without increasing the processing amount in the search means 21. The signal to be encoded can be orthogonalized with respect to the adaptive sound source, thereby improving the encoding characteristics and providing an effect of providing a high-quality speech encoding apparatus.

この発明の実施の形態1による音声符号化装置における駆動音源符号化手段の構成を示すブロック図である。It is a block diagram which shows the structure of the drive excitation encoding means in the audio | voice coding apparatus by Embodiment 1 of this invention. この発明の実施の形態1による音声復号化装置における駆動音源復号化手段の構成を示すブロック図である。It is a block diagram which shows the structure of the drive excitation decoding means in the audio | voice decoding apparatus by Embodiment 1 of this invention. この発明の実施の形態1による符号化対象信号と周期化された駆動音源の音源位置の関係を説明する図である。It is a figure explaining the relationship between the encoding object signal by Embodiment 1 of this invention, and the sound source position of the periodic drive sound source. この発明の実施の形態1による符号化対象信号と周期化された駆動音源の音源位置の関係を説明する図である。It is a figure explaining the relationship between the encoding object signal by Embodiment 1 of this invention, and the sound source position of the periodic drive sound source. この発明の実施の形態2による音声符号化装置における駆動音源符号化手段の構成を示すブロック図である。It is a block diagram which shows the structure of the drive excitation encoding means in the audio | voice coding apparatus by Embodiment 2 of this invention. この発明の実施の形態2による音声復号化装置における駆動音源復号化手段の構成を示すブロック図である。It is a block diagram which shows the structure of the drive excitation decoding means in the audio | voice decoding apparatus by Embodiment 2 of this invention. この発明の実施の形態2による適応音源生成手段で生成される適応音源を説明する図である。It is a figure explaining the adaptive sound source produced | generated by the adaptive sound source production | generation means by Embodiment 2 of this invention. この発明の実施の形態2による適応音源生成手段で生成される適応音源を説明する図である。It is a figure explaining the adaptive sound source produced | generated by the adaptive sound source production | generation means by Embodiment 2 of this invention. この発明の実施の形態2による適応音源生成手段で生成される適応音源を説明する図である。It is a figure explaining the adaptive sound source produced | generated by the adaptive sound source production | generation means by Embodiment 2 of this invention. この発明の実施の形態3による音声符号化装置における駆動音源符号化手段と聴覚重み付け制御手段の構成を示すブロック図である。It is a block diagram which shows the structure of the drive excitation encoding means and the perceptual weighting control means in the audio | voice coding apparatus by Embodiment 3 of this invention. この発明の実施の形態4による音声符号化装置における駆動音源符号化手段と聴覚重み付け制御手段の構成を示すブロック図である。It is a block diagram which shows the structure of the drive excitation encoding means and the perceptual weighting control means in the audio | voice coding apparatus by Embodiment 4 of this invention. この発明の実施の形態5による音源位置テーブルを示す図である。It is a figure which shows the sound source position table by Embodiment 5 of this invention. この発明の実施の形態6による音声符号化装置における駆動音源符号化手段の構成を示すブロック図である。It is a block diagram which shows the structure of the drive excitation encoding means in the audio | voice coding apparatus by Embodiment 6 of this invention. 従来のCELP系音声符号化装置の構成を示すブロック図である。It is a block diagram which shows the structure of the conventional CELP type | system | group audio | voice coding apparatus. 従来のCELP系音声復号化装置の構成を示すブロック図である。It is a block diagram which shows the structure of the conventional CELP type | system | group audio | voice decoding apparatus. 従来のパルス音源の位置候補を示す図である。It is a figure which shows the position candidate of the conventional pulse sound source. 従来のCELP系音声符号化装置における駆動音源符号化手段の構成を示すブロック図である。It is a block diagram which shows the structure of the drive excitation encoding means in the conventional CELP type | system | group audio | voice encoding apparatus. 従来の符号化対象信号と周期化された駆動音源の音源位置の関係を説明する図である。It is a figure explaining the relationship between the conventional encoding object signal and the sound source position of the periodic drive sound source. 従来の符号化対象信号と周期化された駆動音源の音源位置の関係を説明する図である。It is a figure explaining the relationship between the conventional encoding object signal and the sound source position of the periodic drive sound source.

符号の説明Explanation of symbols

1 入力音声、2 線形予測分析手段、3 線形予測係数符号化手段、4 適応音源符号化手段、5 駆動音源符号化手段、6 ゲイン符号化手段、7 多重化手段、8 音声符号、9 分離手段、10 線形予測係数復号化手段、11 適応音源復号化手段、12 駆動音源復号化手段、13 ゲイン復号化手段、14 合成フィルタ、15 出力音声、16 聴覚重み付けフィルタ係数算出手段、17,19 聴覚重み付けフィルタ、18 基礎応答生成手段、20 プリテーブル算出手段、21 探索手段、22 音源位置テーブル、23 周期予備選択手段、24 定数テーブル、25 比較手段、26 予備選択手段、27 駆動音源符号化手段、28 周期符号化手段、29 周期復号化手段、30 駆動音源復号化手段、31 周期予備選択手段、32 定数テーブル、33 適応音源符号帳、34 適応音源生成手段、35 距離計算手段、36 予備選択手段、37 聴覚重み付け制御手段、38 比較手段、39 強度制御手段、40 聴覚重み付け制御手段、41 平均値更新手段、42 プリテーブル補正手段。   1 input speech, 2 linear prediction analysis means, 3 linear prediction coefficient coding means, 4 adaptive excitation coding means, 5 driving excitation coding means, 6 gain coding means, 7 multiplexing means, 8 speech codes, 9 separation means 10 linear prediction coefficient decoding means, 11 adaptive excitation decoding means, 12 driving excitation decoding means, 13 gain decoding means, 14 synthesis filter, 15 output speech, 16 perceptual weighting filter coefficient calculation means, 17, 19 perceptual weighting Filter, 18 Basic response generation means, 20 Pre-table calculation means, 21 Search means, 22 Sound source position table, 23 Period preliminary selection means, 24 Constant table, 25 Comparison means, 26 Pre-selection means, 27 Drive excitation coding means, 28 Period encoding means, 29 period decoding means, 30 drive excitation decoding means, 31 period preliminary selection means, 2 constant table, 33 adaptive excitation codebook, 34 adaptive excitation generation means, 35 distance calculation means, 36 preliminary selection means, 37 auditory weighting control means, 38 comparison means, 39 intensity control means, 40 auditory weighting control means, 41 average value Update means, 42 Pre-table correction means.

Claims (2)

過去の音源より生成した適応音源と、所定数のパルス位置と該パルス位置に対応した極性で構成された駆動音源とを用いて、入力音声をフレーム単位に符号化して音声符号を出力する音声符号化装置において、
複数のパルス位置の内の第1のパルス位置にインパルスを立てた時の第1のインパルス応答と、上記複数のパルス位置の内の第2のパルス位置にインパルスを立てた時の第2のインパルス応答との第1の相関値を、上記第1のパルス位置と上記第2のパルス位置の全ての組み合わせについて計算する相関値算出手段と、
上記複数のパルス位置の内の1つのパルス位置にインパルスを立てた時のインパルス応答と上記適応音源に基づく合成音との間の第2の相関値を計算し、上記第2の相関値を用いて、上記第1の相関値を補正する相関値補正手段と、
上記補正された第1の相関値を用いて符号化歪に関する評価値を計算し、該評価値を用いて上記駆動音源の上記所定数のパルス位置を探索する探索手段とを備え、
上記相関値補正手段は、上記適応音源に基づく合成音のパワーと上記第2の相関値の積とを用いて補正を行うことを特徴とする音声符号化装置。
A speech code that encodes input speech frame by frame and outputs a speech code using an adaptive sound source generated from a past sound source and a driving sound source configured with a predetermined number of pulse positions and a polarity corresponding to the pulse positions. In the conversion device,
A first impulse response when an impulse is set at a first pulse position among a plurality of pulse positions, and a second impulse when an impulse is set at a second pulse position among the plurality of pulse positions Correlation value calculating means for calculating a first correlation value with a response for all combinations of the first pulse position and the second pulse position;
A second correlation value between an impulse response when an impulse is raised at one of the plurality of pulse positions and a synthesized sound based on the adaptive sound source is calculated, and the second correlation value is used. Correlation value correcting means for correcting the first correlation value;
Search means for calculating an evaluation value related to coding distortion using the corrected first correlation value and searching for the predetermined number of pulse positions of the driving sound source using the evaluation value;
The speech coding apparatus according to claim 1, wherein the correlation value correcting means performs correction using a product of the power of the synthesized sound based on the adaptive sound source and the second correlation value.
過去の音源より生成した適応音源と、所定数のパルス位置と該パルス位置に対応した極性で構成された駆動音源とを用いて、入力音声をフレーム単位に符号化して音声符号を出力する音声符号化方法において、
複数のパルス位置の内の第1のパルス位置にインパルスを立てた時の第1のインパルス応答と、上記複数のパルス位置の内の第2のパルス位置にインパルスを立てた時の第2のインパルス応答との第1の相関値を、上記第1のパルス位置と上記第2のパルス位置の全ての組み合わせについて計算する相関値算出ステップと、
上記複数のパルス位置の内の1つのパルス位置にインパルスを立てた時のインパルス応答と上記適応音源に基づく合成音との間の第2の相関値を計算し、上記第2の相関値を用いて、上記第1の相関値を補正する相関値補正ステップと、
上記補正された第1の相関値を用いて符号化歪に関する評価値を計算し、該評価値を用いて上記駆動音源の上記所定数のパルス位置を探索する探索ステップとを備え、
上記相関値補正ステップは、上記適応音源に基づく合成音のパワーと上記第2の相関値の積とを用いて補正を行うことを特徴とする音声符号化方法。
A speech code that encodes input speech frame by frame and outputs a speech code using an adaptive sound source generated from a past sound source and a driving sound source configured with a predetermined number of pulse positions and a polarity corresponding to the pulse positions. In the process
A first impulse response when an impulse is set at a first pulse position among a plurality of pulse positions, and a second impulse when an impulse is set at a second pulse position among the plurality of pulse positions A correlation value calculating step of calculating a first correlation value with a response for all combinations of the first pulse position and the second pulse position;
A second correlation value between an impulse response when an impulse is raised at one of the plurality of pulse positions and a synthesized sound based on the adaptive sound source is calculated, and the second correlation value is used. A correlation value correcting step for correcting the first correlation value;
A search step of calculating an evaluation value related to encoding distortion using the corrected first correlation value, and searching for the predetermined number of pulse positions of the driving sound source using the evaluation value;
In the speech coding method, the correlation value correcting step performs correction using a product of the power of the synthesized sound based on the adaptive sound source and the second correlation value.
JP2007044048A 2007-02-23 2007-02-23 Speech coding apparatus and speech coding method Expired - Lifetime JP4660496B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007044048A JP4660496B2 (en) 2007-02-23 2007-02-23 Speech coding apparatus and speech coding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007044048A JP4660496B2 (en) 2007-02-23 2007-02-23 Speech coding apparatus and speech coding method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2004203597A Division JP3954050B2 (en) 2004-07-09 2004-07-09 Speech coding apparatus and speech coding method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2009018494A Division JP4907677B2 (en) 2009-01-29 2009-01-29 Speech coding apparatus and speech coding method

Publications (3)

Publication Number Publication Date
JP2007179071A JP2007179071A (en) 2007-07-12
JP2007179071A5 JP2007179071A5 (en) 2009-02-12
JP4660496B2 true JP4660496B2 (en) 2011-03-30

Family

ID=38304242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007044048A Expired - Lifetime JP4660496B2 (en) 2007-02-23 2007-02-23 Speech coding apparatus and speech coding method

Country Status (1)

Country Link
JP (1) JP4660496B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH028900A (en) * 1988-06-28 1990-01-12 Nec Corp Voice encoding and decoding method, voice encoding device, and voice decoding device
JPH02310600A (en) * 1989-05-26 1990-12-26 Nec Corp Multipulse voice coding method
JPH1069297A (en) * 1996-08-26 1998-03-10 Nec Corp Voice coding device
JPH1097294A (en) * 1996-02-21 1998-04-14 Matsushita Electric Ind Co Ltd Voice coding device
JPH10232696A (en) * 1997-02-19 1998-09-02 Matsushita Electric Ind Co Ltd Voice source vector generating device and voice coding/ decoding device
WO1998040877A1 (en) * 1997-03-12 1998-09-17 Mitsubishi Denki Kabushiki Kaisha Voice encoder, voice decoder, voice encoder/decoder, voice encoding method, voice decoding method and voice encoding/decoding method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH028900A (en) * 1988-06-28 1990-01-12 Nec Corp Voice encoding and decoding method, voice encoding device, and voice decoding device
JPH02310600A (en) * 1989-05-26 1990-12-26 Nec Corp Multipulse voice coding method
JPH1097294A (en) * 1996-02-21 1998-04-14 Matsushita Electric Ind Co Ltd Voice coding device
JPH1069297A (en) * 1996-08-26 1998-03-10 Nec Corp Voice coding device
JPH10232696A (en) * 1997-02-19 1998-09-02 Matsushita Electric Ind Co Ltd Voice source vector generating device and voice coding/ decoding device
WO1998040877A1 (en) * 1997-03-12 1998-09-17 Mitsubishi Denki Kabushiki Kaisha Voice encoder, voice decoder, voice encoder/decoder, voice encoding method, voice decoding method and voice encoding/decoding method

Also Published As

Publication number Publication date
JP2007179071A (en) 2007-07-12

Similar Documents

Publication Publication Date Title
USRE43190E1 (en) Speech coding apparatus and speech decoding apparatus
US6385576B2 (en) Speech encoding/decoding method using reduced subframe pulse positions having density related to pitch
KR100350340B1 (en) Voice encoder, voice decoder, voice encoder/decoder, voice encoding method, voice decoding method and voice encoding/decoding method
US7792679B2 (en) Optimized multiple coding method
JP3404024B2 (en) Audio encoding method and audio encoding device
JP2002202799A (en) Voice code conversion apparatus
WO1998006091A1 (en) Voice encoder, voice decoder, recording medium on which program for realizing voice encoding/decoding is recorded and mobile communication apparatus
JP3426207B2 (en) Voice coding method and apparatus
JP2001075600A (en) Voice encoding device and voice decoding device
JP3954050B2 (en) Speech coding apparatus and speech coding method
JP4660496B2 (en) Speech coding apparatus and speech coding method
KR100736504B1 (en) Method for encoding sound source of probabilistic code book
JP4087429B2 (en) Speech coding apparatus and speech coding method
JP4907677B2 (en) Speech coding apparatus and speech coding method
JP3579276B2 (en) Audio encoding / decoding method
JP3578933B2 (en) Method of creating weight codebook, method of setting initial value of MA prediction coefficient during learning at the time of codebook design, method of encoding audio signal, method of decoding the same, and computer-readable storage medium storing encoding program And computer-readable storage medium storing decryption program
USRE43209E1 (en) Speech coding apparatus and speech decoding apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070704

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070913

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101228

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4660496

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term