JP2007279754A - Speech encoding device - Google Patents

Speech encoding device Download PDF

Info

Publication number
JP2007279754A
JP2007279754A JP2007121223A JP2007121223A JP2007279754A JP 2007279754 A JP2007279754 A JP 2007279754A JP 2007121223 A JP2007121223 A JP 2007121223A JP 2007121223 A JP2007121223 A JP 2007121223A JP 2007279754 A JP2007279754 A JP 2007279754A
Authority
JP
Japan
Prior art keywords
sound source
speech
adaptive
pitch
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007121223A
Other languages
Japanese (ja)
Other versions
JP4734286B2 (en
Inventor
Toshiyuki Morii
利幸 森井
Kazutoshi Yasunaga
和敏 安永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2007121223A priority Critical patent/JP4734286B2/en
Publication of JP2007279754A publication Critical patent/JP2007279754A/en
Application granted granted Critical
Publication of JP4734286B2 publication Critical patent/JP4734286B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To encode a speech without causing any local allophone. <P>SOLUTION: A speech encoding device comprises a weighting LPC synthesis unit 306 which obtains a synthesized sound by filtering an adaptive sound source and a probabilistic sound by using an LPC coefficient found from an input speech 301, a gain arithmetic unit 308 which finds gains of the adaptive sound source and probabilistic sound source, a parameter encoding unit 309 which performs vector quantization of the adaptive sound source, probabilistic sound source, and gains found by using encoding distortion between the input speech 301 and synthesized speech, a pitch analyzing unit 310 which finds a correlation value by analyzing pitches of a plurality of subframes before an adaptive code book is searched for a starting subframe of a frame, and calculates the representative pitch closest to a pitch period by using the correlation value, and a search range setting unit 311 which sets a search range of lags of a plurality of subframes based upon the correlation value and representative pitch period, thereby making an adaptive code book search within the search range of lags. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、ディジタル通信システムにおいて使用される音声符号化装置に関する。   The present invention relates to a speech coding apparatus used in a digital communication system.

携帯電話などのディジタル移動通信の分野では、加入者の増加に対処するために低ビットレートの音声の圧縮符号化法が求められており、各研究機関において研究開発が進んでいる。   In the field of digital mobile communications such as cellular phones, low bit rate speech compression and coding methods are required to cope with the increase in subscribers, and research and development are progressing in each research institution.

日本国内においては、モトローラ社が開発したビットレート11.2kbpsのVSELPという符号化法がディジタル携帯電話用の標準符号化方式として採用され、同方式を搭載したディジタル携帯電話は1994年秋から国内において発売されている。   In Japan, the VSELP encoding method developed by Motorola with a bit rate of 11.2 kbps was adopted as the standard encoding method for digital mobile phones, and digital mobile phones equipped with this method were released in Japan in the fall of 1994. Has been.

また、NTT移動通信網株式会社の開発したビットレート5.6kbpsのPSI−CELPという符号化方式が現在製品化されている。これらの方式はいずれもCELP(Code Exited Linear Prediction: M.R.Schroeder”High Quality Speech at Low Bit Rates” Proc.ICASSP'85 pp.937-940に記載されている)という方式を改良したものである。   In addition, an encoding method called PSI-CELP having a bit rate of 5.6 kbps developed by NTT Mobile Communication Network Corporation has been commercialized. Each of these systems is an improvement on the system called CELP (Code Exited Linear Prediction: M.R.Schroeder "High Quality Speech at Low Bit Rates" Proc.ICASSP '85 pp.937-940).

このCELP方式は、音声を音源情報と声道情報とに分離し、音源情報については符号帳に格納された複数の音源サンプルのインデクスによって符号化し、声道情報についてはLPC(線形予測係数)を符号化するということ及び音源情報符号化の際に声道情報を加味して入力音声とを比較することを行う方法(A−b−S:Analysis by Synthesis)を採用していることに特徴がある。   This CELP method separates speech into sound source information and vocal tract information, encodes the sound source information by an index of a plurality of sound source samples stored in the codebook, and uses LPC (Linear Prediction Coefficient) for the vocal tract information. It is characterized by adopting a method of encoding and comparing with input speech in consideration of vocal tract information at the time of sound source information encoding (ABS). is there.

このCELP方式においては、まず、入力された音声データ(入力音声)に対して自己相関分析とLPC分析を行ってLPC係数を得て、得られたLPC係数の符号化を行ってLPC符号を得る。さらに、得られたLPC符号を復号化して復号化LPC係数を得る。一方、入力音声は、LPC係数を用いた聴感重み付けフィルタを用いて聴感重み付けされる。   In this CELP method, first, autocorrelation analysis and LPC analysis are performed on input speech data (input speech) to obtain LPC coefficients, and the obtained LPC coefficients are encoded to obtain LPC codes. . Further, the obtained LPC code is decoded to obtain a decoded LPC coefficient. On the other hand, the input voice is perceptually weighted using a perceptual weighting filter using LPC coefficients.

適応符号帳と確率的符号帳に格納された音源サンプル(それぞれ適応コードベクトル(又は適応音源)、確率的コードベクトル(又は、確率的音源)と呼ぶ)のそれぞれのコードベクトルに対して、得られた復号化LPC係数によってフィルタリングを行い、2つの合成音を得る。   Obtained for each code vector of the sound source samples (referred to as the adaptive code vector (or adaptive sound source) and the stochastic code vector (or probabilistic sound source)) stored in the adaptive code book and the stochastic code book, respectively. Filtering is performed using the decoded LPC coefficients to obtain two synthesized sounds.

そして、得られた2つの合成音と、聴感重み付けされた入力音声との関係を分析し、2つの合成音の最適値(最適ゲイン)を求め、求められた最適ゲインによって合成音をパワー調整し、それぞれの合成音を加算して総合合成音を得る。その後、得られた総合合成音と入力音声との間の符号化歪みを求める。このようにして、全ての音源サンプルに対して総合合成音と入力音声との間の符号化歪みを求め、符号化歪みが最も小さいときの音源サンプルのインデクスを求める。   Then, the relationship between the obtained two synthesized sounds and the auditory weighted input sound is analyzed, the optimum value (optimum gain) of the two synthesized sounds is obtained, and the synthesized sound is power-adjusted with the obtained optimum gain. Then, the synthesized sounds are added to obtain a synthesized synthesized sound. Thereafter, a coding distortion between the obtained synthetic speech and the input speech is obtained. In this way, the coding distortion between the total synthesized sound and the input speech is obtained for all sound source samples, and the index of the sound source sample when the coding distortion is the smallest is obtained.

このようにして得られたゲイン及び音源サンプルのインデクスを符号化し、これらの符号化されたゲイン及び音源サンプルをLPC符号と共に伝送路に送る。また、ゲイン符号と音源サンプルのインデクスに対応する2つの音源から実際の音源信号を作成し、それを適応符号帳に格納すると同時に古い音源サンプルを破棄する。   The gain and the index of the sound source sample thus obtained are encoded, and the encoded gain and the sound source sample are sent to the transmission path together with the LPC code. In addition, an actual sound source signal is created from two sound sources corresponding to the gain code and the index of the sound source sample, stored in the adaptive codebook, and at the same time, the old sound source sample is discarded.

なお、一般的には、適応符号帳と確率的符号帳に対する音源探索は、分析区間をさらに細かく分けた区間(サブフレームと呼ばれる)で行われる。   In general, the sound source search for the adaptive codebook and the stochastic codebook is performed in a section (called a subframe) obtained by further dividing the analysis section.

ゲインの符号化(ゲイン量子化)は、音源サンプルのインデクスに対応する2つの合成音を用いてゲインの量子化歪を評価するベクトル量子化(VQ)によって行われる。   The gain coding (gain quantization) is performed by vector quantization (VQ) that evaluates gain quantization distortion using two synthesized sounds corresponding to the index of the sound source sample.

このアルゴリズムにおいては、予めパラメータベクトルの代表的サンプル(コードベクトル)が複数格納されたベクトル符号帳を作成しておく。次いで、聴感重み付けした入力音声と、適応音源及び確率的音源を聴感重み付けLPC合成したものとに対して、ベクトル符号帳に格納されたゲインコードベクトルを用いて符号化歪を下記式1により計算する。   In this algorithm, a vector codebook in which a plurality of representative samples (code vectors) of parameter vectors are stored in advance is created. Next, for the perceptually weighted input speech and the perceptually weighted LPC composite of the adaptive sound source and the stochastic sound source, the encoding distortion is calculated by the following equation 1 using the gain code vector stored in the vector codebook. .

Figure 2007279754
式1
ここで、
n:n番のゲインコードベクトルを用いたときの符号化歪み
i:聴感重み付け音声
i:聴感重み付けLPC合成済み適応音源
i:聴感重み付けLPC合成済み確率的音源
n:コードベクトルの要素(適応音源側のゲイン)
n:コードベクトルの要素(確率的音源側のゲイン)
n :コードベクトルの番号
i :音源データのインデクス
I :サブフレーム長(入力音声の符号化単位)
Figure 2007279754
Formula 1
here,
E n : Coding distortion when using the nth gain code vector X i : Auditory weighted speech A i : Auditory weighted LPC synthesized adaptive sound source S i : Auditory weighted LPC synthesized stochastic sound source g n : Code vector Element (Gain on the adaptive sound source side)
h n : Code vector element (stochastic source side gain)
n: code vector number i: index of sound source data I: subframe length (coding unit of input speech)

次いで、ベクトル符号帳を制御することによって各コードベクトルを用いたときの歪Enを比較し、最も歪の小さいコードベクトルの番号をベクトルの符号とする。また、ベクトル符号帳に格納された全てのコードベクトルの中で最も歪みが小さくなるコードベクトルの番号を求め、これをベクトルの符号とする。 Then, by comparing the distortion E n when using each code vector by controlling the vector codebook, a number of the most strained small code vector and the code vector. Also, the code vector number with the smallest distortion among all the code vectors stored in the vector codebook is obtained, and this is used as the code of the vector.

上記式1は一見して各n毎に多くの計算を必要とするように見えるが、予めiについての積和を計算しておけばよいので、少ない計算量でnの探索を行うことができる。   Although the equation 1 seems to require a lot of calculation for each n at a glance, it is only necessary to calculate the sum of products for i in advance, so that n can be searched with a small amount of calculation. .

一方、音声復号化装置(デコーダ)では、伝送されてきたベクトルの符号に基づいてコードベクトルを求めることによって符号化されたデータを復号化してコードベクトルを得る。   On the other hand, the speech decoding apparatus (decoder) obtains a code vector by decoding the encoded data by obtaining a code vector based on the code of the transmitted vector.

また、上記アルゴリズムを基本として、従来よりさらなる改良がなされてきた。例えば、人間の音圧の聴覚特性が対数であることを利用し、パワを対数化して量子化し、そのパワで正規化した2つのゲインをVQする。この方法は、日本国PDCハーフレートコーデックの標準方式で用いられている方法である。また、ゲインパラメータのフレーム間相関を利用して符号化する方法(予測符号化)がある。この方法は、ITU−T国際標準G.729で用いられている方法である。しかしながら、これらの改良によっても十分な性能を得ることができていない。   Further, further improvements have been made on the basis of the above algorithm. For example, using the fact that the auditory characteristic of human sound pressure is logarithm, the power is logarithmized and quantized, and two gains normalized by the power are VQed. This method is used in the standard system of the Japanese PDC half rate codec. In addition, there is a method (predictive coding) in which the gain parameter is used for interframe correlation. This method is described in ITU-T International Standard G.264. 729. However, even with these improvements, sufficient performance cannot be obtained.

これまで人間の聴覚特性やフレーム間相関を利用したゲイン情報符号化法が開発され、ある程度効率の良いゲイン情報の符号化が可能になった。特に、予測量子化によって性能は大きく向上したが、その従来法では、状態としての値として以前のサブフレームの値をそのまま用いて予測量子化を行っていた。しかしながら、状態として格納される値の中には、極端に大きな(小さな)値をとるものがあり、その値を次のサブフレームに用いると、次のサブフレームの量子化がうまくいかず、局所的異音になる場合がある。   So far, gain information coding methods using human auditory characteristics and inter-frame correlation have been developed, and gain information can be coded with some efficiency. In particular, although the performance is greatly improved by predictive quantization, in the conventional method, predictive quantization is performed using the value of the previous subframe as it is as the state value. However, some of the values stored as states take extremely large (small) values. If these values are used for the next subframe, the quantization of the next subframe does not work, and the local May be an unusual noise.

本発明はかかる点に鑑みてなされたものであり、局所的異音を生じることなく音声符号化を行うことができるCELP型音声符号化装置を提供することを目的とする。   The present invention has been made in view of this point, and an object of the present invention is to provide a CELP speech coding apparatus that can perform speech coding without causing local abnormal noise.

本発明は、1つのフレームを複数のサブフレームに分解して符号化を行うCELP型音声符号化装置であって、適応符号帳及び確率的符号帳に格納された適応音源及び確率的音源に対して、入力音声から求めたLPC係数を用いてフィルタリングすることにより、合成音を得るLPC合成手段と、前記適応音源及び前記確率的音源のゲインを求めるゲイン演算手段と、前記入力音声と前記合成音との間の符号化歪みを用いて求められた適応音源及び確率的音源、並びに前記ゲインのベクトル量子化を行うパラメータ符号化手段と、フレームの最初のサブフレームの適応符号帳探索を行う前に、前記複数のサブフレームのピッチ分析を行って相関値を求め、前記相関値を用いて最もピッチ周期に近似する値を代表ピッチとして算出するピッチ分析手段と、前記相関値及び前記代表ピッチ周期に基づいて前記複数のサブフレームのラグの探索範囲を設定する探索範囲設定手段と、を備え、前記適応符号帳探索は、前記ラグの探索範囲に対して行われる構成を採る。   The present invention is a CELP speech coding apparatus that performs coding by decomposing one frame into a plurality of subframes, and for adaptive and stochastic sound sources stored in the adaptive code book and stochastic code book. Then, LPC synthesis means for obtaining a synthesized sound by filtering using an LPC coefficient obtained from the input voice, gain calculating means for obtaining gains of the adaptive sound source and the stochastic sound source, the input sound and the synthesized sound Before performing the adaptive codebook search of the first subframe of the frame, and the adaptive coding and stochastic excitation obtained using the coding distortion between and the parameter coding means for vector quantization of the gain , Calculating a correlation value by performing a pitch analysis of the plurality of subframes, and calculating a representative pitch value that is the closest to the pitch period using the correlation value. And a search range setting means for setting a search range of lags of the plurality of subframes based on the correlation value and the representative pitch period, and the adaptive codebook search is performed with respect to the search range of the lags. The configuration that is performed is adopted.

本発明によれば、第2サブフレームの探索の時に第2サブフレームの仮ピッチ付近を探索できるので、フレームの後半から音声が始まる場合などの非定常なフレームでも、第1,第2サブフレームにおいて適当なラグ探索が可能になり、局所的異音を生じることなく音声符号化を行うことができる。   According to the present invention, since the vicinity of the provisional pitch of the second subframe can be searched when searching for the second subframe, the first and second subframes can be obtained even in a non-stationary frame such as when speech starts from the second half of the frame. In this case, an appropriate lag search can be performed, and speech coding can be performed without causing local abnormal noise.

以下、本発明の実施の形態について、添付図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

(実施の形態1)
図1は、本発明の実施の形態1,2に係る音声符号化装置を備えた無線通信装置の構成を示すブロック図である。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of a wireless communication apparatus provided with a speech encoding apparatus according to Embodiments 1 and 2 of the present invention.

この無線通信装置において、送信側で音声がマイクなどの音声入力装置11によって電気的アナログ信号に変換され、A/D変換器12に出力される。アナログ音声信号は、A/D変換器12によってディジタル音声信号に変換され、音声符号化部13に出力される。音声符号化部13は、ディジタル音声信号に対して音声符号化処理を行い、符号化した情報を変復調部14に出力する。変復調部14は、符号化された音声信号をディジタル変調して、無線送信部15に送る。無線送信部15では、変調後の信号に所定の無線送信処理を施す。この信号は、アンテナ16を介して送信される。なお、プロセッサ21は、適宜RAM22及びROM23に格納されたデータを用いて処理を行う。   In this wireless communication device, the voice is converted into an electrical analog signal by the voice input device 11 such as a microphone on the transmission side, and is output to the A / D converter 12. The analog audio signal is converted into a digital audio signal by the A / D converter 12 and output to the audio encoding unit 13. The speech encoding unit 13 performs speech encoding processing on the digital speech signal and outputs the encoded information to the modem unit 14. The modem unit 14 digitally modulates the encoded audio signal and sends it to the wireless transmission unit 15. The wireless transmission unit 15 performs predetermined wireless transmission processing on the modulated signal. This signal is transmitted via the antenna 16. The processor 21 performs processing using data stored in the RAM 22 and ROM 23 as appropriate.

一方、無線通信装置の受信側では、アンテナ16で受信した受信信号は、無線受信部17で所定の無線受信処理が施され、変復調部14に送られる。変復調部14では、受信信号に対して復調処理を行い、復調後の信号を音声復号化部18に出力する。音声復号化部18は、復調後の信号に復号処理を行ってディジタル復号音声信号を得て、そのディジタル復号音声信号をD/A変換器19へ出力する。D/A変換器19は、音声復号化部18から出力されたディジタル復号音声信号をアナログ復号音声信号に変換してスピーカなどの音声出力装置20に出力する。最後に音声出力装置20が電気的アナログ復号音声信号を復号音声に変換して出力する。   On the other hand, on the reception side of the wireless communication apparatus, the reception signal received by the antenna 16 is subjected to predetermined wireless reception processing by the wireless reception unit 17 and is sent to the modulation / demodulation unit 14. The modem unit 14 performs demodulation processing on the received signal and outputs the demodulated signal to the speech decoding unit 18. The audio decoding unit 18 performs a decoding process on the demodulated signal to obtain a digital decoded audio signal, and outputs the digital decoded audio signal to the D / A converter 19. The D / A converter 19 converts the digital decoded audio signal output from the audio decoding unit 18 into an analog decoded audio signal and outputs the analog decoded audio signal to an audio output device 20 such as a speaker. Finally, the audio output device 20 converts the electrical analog decoded audio signal into decoded audio and outputs it.

ここで、音声符号化部13及び音声復号化部18は、RAM22及びROM23に格納された符号帳を用いてDSPなどのプロセッサ21により動作する。また、これらの動作プログラムは、ROM23に格納されている。   Here, the speech encoding unit 13 and the speech decoding unit 18 are operated by a processor 21 such as a DSP using a code book stored in the RAM 22 and the ROM 23. These operation programs are stored in the ROM 23.

図2は、本発明の実施の形態1に係るCELP型音声符号化装置の構成を示すブロック図である。この音声符号化装置は、図1に示す音声符号化部13に含まれている。なお、図2に示す適応符号帳103は図1に示すRAM22に格納されており、図2に示す確率的符号帳104は図1に示すROM23に格納されている。   FIG. 2 is a block diagram showing the configuration of the CELP speech coding apparatus according to Embodiment 1 of the present invention. This speech encoding apparatus is included in speech encoding unit 13 shown in FIG. The adaptive codebook 103 shown in FIG. 2 is stored in the RAM 22 shown in FIG. 1, and the probabilistic codebook 104 shown in FIG. 2 is stored in the ROM 23 shown in FIG.

図2に示す音声符号化装置においては、LPC分析部102において、入力された音声データ(入力音声)101に対して自己相関分析及びLPC分析を行ってLPC係数を得る。また、LPC分析部102では、得られたLPC係数の符号化を行ってLPC符号を得る。さらに、LPC分析部102では、得られたLPC符号を復号化して復号化LPC係数を得る。入力された音声データ101は、聴感重み付け部107に送られ、そこで上記LPC係数を用いた聴感重み付けフィルタを用いて聴感重み付けされる。   In the speech encoding apparatus shown in FIG. 2, the LPC analysis unit 102 performs autocorrelation analysis and LPC analysis on the input speech data (input speech) 101 to obtain LPC coefficients. Also, the LPC analysis unit 102 encodes the obtained LPC coefficient to obtain an LPC code. Further, the LPC analysis unit 102 decodes the obtained LPC code to obtain decoded LPC coefficients. The input audio data 101 is sent to the perceptual weighting unit 107 where the perceptual weighting is performed using the perceptual weighting filter using the LPC coefficient.

次に、音源作成部105において、適応符号帳103に格納された音源サンプル(適応コードベクトル又は適応音源)と確率的符号帳104に格納された音源サンプル(確率的コードベクトル又は、確率的音源)を取り出し、それぞれのコードベクトルを聴感重みLPC合成部106へ送る。さらに、聴感重みLPC合成部106において、音源作成部105で得られた2つの音源に対して、LPC分析部102で得られた復号化LPC係数によってフィルタリングを行い、2つの合成音を得る。   Next, in the sound source creation unit 105, a sound source sample (adaptive code vector or adaptive sound source) stored in the adaptive codebook 103 and a sound source sample (stochastic code vector or stochastic sound source) stored in the probabilistic codebook 104 Are sent to the audible weight LPC synthesis unit 106. Further, the audible weight LPC synthesis unit 106 filters the two sound sources obtained by the sound source creation unit 105 with the decoded LPC coefficient obtained by the LPC analysis unit 102 to obtain two synthesized sounds.

なお、聴感重みLPC合成部106においては、LPC係数や高域強調フィルタや長期予測係数(入力音声の長期予測分析を行うことによって得られる)を用いた聴感重み付けフィルターを併用してそれぞれの合成音に対して聴感重み付けLPC合成を行う。   Note that the perceptual weight LPC synthesis unit 106 uses a perceptual weighting filter using an LPC coefficient, a high-frequency emphasis filter, and a long-term prediction coefficient (obtained by performing long-term prediction analysis of the input speech) and uses each synthesized sound. Is subjected to auditory weighting LPC synthesis.

聴感重みLPC合成部106は、2つの合成音をゲイン演算部108に出力する。ゲイン演算部108は、図3に示す構成を有する。ゲイン演算部108においては、聴感重みLPC合成部106で得られた2つの合成音及びを聴感重み付けされた入力音声を分析部1081に送り、そこで2つの合成音と入力音声との関係を分析し、2つの合成音の最適値(最適ゲイン)を求める。この最適ゲインは、パワ調整部1082に出力される。   The audible weight LPC synthesis unit 106 outputs two synthesized sounds to the gain calculation unit 108. The gain calculation unit 108 has the configuration shown in FIG. In the gain calculation unit 108, the two synthesized sounds obtained by the perceptual weight LPC synthesis unit 106 and the perceptually weighted input speech are sent to the analysis unit 1081, where the relationship between the two synthesized sounds and the input speech is analyzed. The optimum value (optimum gain) of the two synthesized sounds is obtained. This optimum gain is output to the power adjustment unit 1082.

パワ調整部1082では、求められた最適ゲインによって2つの合成音をパワ調整する。パワ調整された合成音は、合成部1083に出力されて、そこで加算されて総合合成音となる。この総合合成音は、符号化歪算出部1084に出力される。符号化歪算出部1084では、得られた総合合成音と入力音声との間の符号化歪みを求める。   The power adjustment unit 1082 adjusts the power of the two synthesized sounds with the obtained optimum gain. The power-adjusted synthesized sound is output to the synthesizing unit 1083, where it is added to become a total synthesized sound. This total synthesized sound is output to the coding distortion calculation unit 1084. The coding distortion calculation unit 1084 obtains coding distortion between the obtained synthetic speech and input speech.

符号化歪算出部1084は、音源作成部105を制御して、適応符号帳103及び確率的符号帳104の全ての音源サンプルを出力させ、全ての音源サンプルに対して総合合成音と入力音声との間の符号化歪みを求め、符号化歪みが最も小さいときの音源サンプルのインデクスを求める。   The encoding distortion calculation unit 1084 controls the sound source creation unit 105 to output all the sound source samples of the adaptive codebook 103 and the stochastic codebook 104, and for all the sound source samples, the total synthesized sound, the input speech, And the index of the sound source sample when the coding distortion is the smallest.

次に、分析部1081は、音源サンプルのインデクス、そのインデクスに対応する2つの聴感重み付けLPC合成された音源、及び入力音声をパラメータ符号化部109に送る。   Next, the analysis unit 1081 sends the index of the sound source sample, two perceptually weighted LPC synthesized sound sources corresponding to the index, and the input speech to the parameter encoding unit 109.

パラメータ符号化部109では、ゲインの符号化を行うことによってゲイン符号を得、LPC符号、音源サンプルのインデクスをまとめて伝送路へ送る。また、ゲイン符号とインデクスに対応する2つの音源から実際の音源信号を作成し、それを適応符号帳103に格納すると同時に古い音源サンプルを破棄する。なお、一般的には、適応符号帳と確率的符号帳に対する音源探索は、分析区間をさらに細かく分けた区間(サブフレームと呼ばれる)で行われる。   The parameter encoding unit 109 obtains a gain code by performing gain encoding, and collectively sends the LPC code and the index of the sound source sample to the transmission path. Further, an actual sound source signal is created from two sound sources corresponding to the gain code and the index, and stored in the adaptive codebook 103, and at the same time, the old sound source sample is discarded. In general, the sound source search for the adaptive codebook and the stochastic codebook is performed in a section (called a subframe) obtained by further dividing the analysis section.

ここで、上記構成を有する音声符号化装置のパラメータ符号化部109のゲイン符号化の動作について説明する。図4は、本発明の音声符号化装置のパラメータ符号化部の構成を示すブロック図である。   Here, the operation of gain encoding of parameter encoding section 109 of the speech encoding apparatus having the above configuration will be described. FIG. 4 is a block diagram showing the configuration of the parameter encoding unit of the speech encoding apparatus of the present invention.

図4において、聴感重み付け入力音声(Xi)、聴感重み付けLPC合成済み適応音源(Ai)、及び聴感重み付けLPC合成済み確率的音源(Si)がパラメータ計算部1091に送られる。パラメータ計算部1091では、符号化歪計算に必要なパラメータを計算する。パラメータ計算部1091で計算されたパラメータは、符号化歪計算部1092に出力され、そこで符号化歪が計算される。この符号化歪は、比較部1093に出力される。比較部1093では、符号化歪計算部1092及びベクトル符号帳1094を制御して、得られた符号化歪から最も適当とされる符号(復号化ベクトル)を求め、この符号を基にベクトル符号帳1094から得られるコードベクトルを復号化ベクトル格納部1096に出力し、復号化ベクトル格納部1096を更新する。 In FIG. 4, the perceptually weighted input sound (X i ), perceptual weighted LPC synthesized adaptive sound source (A i ), and perceptually weighted LPC synthesized stochastic sound source (S i ) are sent to the parameter calculator 1091. The parameter calculation unit 1091 calculates parameters necessary for encoding distortion calculation. The parameter calculated by the parameter calculation unit 1091 is output to the coding distortion calculation unit 1092 where the coding distortion is calculated. The encoding distortion is output to the comparison unit 1093. The comparison unit 1093 controls the coding distortion calculation unit 1092 and the vector codebook 1094 to obtain the most appropriate code (decoded vector) from the obtained coding distortion, and based on this code, the vector codebook The code vector obtained from 1094 is output to the decoded vector storage unit 1096, and the decoded vector storage unit 1096 is updated.

予測係数格納部1095は、予測符号化に用いる予測係数を格納する。この予測係数はパラメータ計算及び符号化歪計算に用いられるために、パラメータ計算部1091及び符号化歪計算部1092に出力される。復号化ベクトル格納部1096は、予測符号化のために状態を格納する。この状態は、パラメータ計算に用いられるため、パラメータ計算部1091に出力される。ベクトル符号帳1094は、コードベクトルを格納する。   The prediction coefficient storage unit 1095 stores prediction coefficients used for predictive coding. Since this prediction coefficient is used for parameter calculation and coding distortion calculation, it is output to the parameter calculation section 1091 and coding distortion calculation section 1092. The decoded vector storage unit 1096 stores a state for predictive encoding. Since this state is used for parameter calculation, it is output to the parameter calculation unit 1091. The vector codebook 1094 stores code vectors.

次に、本発明に係るゲイン符号化方法のアルゴリズムについて説明する。
予め、量子化対象ベクトルの代表的サンプル(コードベクトル)が複数格納されたベクトル符号帳1094を作成しておく。各ベクトルは、ACゲイン、SCゲインの対数値に対応する値、及びSCの予測係数の調整係数の3つの要素からなる。
Next, an algorithm of the gain encoding method according to the present invention will be described.
A vector codebook 1094 in which a plurality of representative samples (code vectors) of quantization target vectors are stored in advance is created. Each vector includes three elements: an AC gain, a value corresponding to a logarithmic value of the SC gain, and an adjustment coefficient of the SC prediction coefficient.

この調整係数は、以前のサブフレームの状態に応じて予測係数を調整する係数である。具体的には、この調整係数は、以前のサブフレームの状態が極端に大きな値又は極端に小さな値である場合に、その影響を小さくするように設定される。この調整係数は、多数のベクトルサンプルを用いた本発明者らが開発した学習アルゴリズムにより求めることが可能である。ここでは、この学習アルゴリズムについての説明は省略する。   This adjustment coefficient is a coefficient that adjusts the prediction coefficient in accordance with the state of the previous subframe. Specifically, this adjustment coefficient is set to reduce the influence when the state of the previous subframe is an extremely large value or an extremely small value. This adjustment coefficient can be obtained by a learning algorithm developed by the present inventors using a large number of vector samples. Here, description of this learning algorithm is omitted.

例えば、有声音に多くの頻度で用いるコードベクトルは調整係数を大きく設定する。すなわち、同じ波形が並んでいる場合には、以前のサブフレームの状態の信頼性が高いので調整係数を大きくして、以前のサブフレームの予測係数をそのまま利用できるようにする。これにより、より効率的な予測を行うことができる。   For example, a large adjustment coefficient is set for a code vector frequently used for voiced sound. That is, when the same waveform is arranged, since the reliability of the state of the previous subframe is high, the adjustment coefficient is increased so that the prediction coefficient of the previous subframe can be used as it is. Thereby, more efficient prediction can be performed.

一方、語頭などに使用するあまり使用頻度の少ないコードベクトルは調整係数を小さくする。すなわち、前の波形と全然違う場合には、以前のサブフレームの状態の信頼性が低い(適応符号帳が機能しないと考えられる)ので、調整係数を小さくして、以前のサブフレームの予測係数の影響を小さくする。これにより、次の予測の弊害を防いで良好な予測符号化を実現することができる。   On the other hand, an adjustment coefficient is made small for a code vector that is used infrequently and used less frequently. In other words, if the previous waveform is completely different, the reliability of the previous subframe state is low (the adaptive codebook is considered not to function), so the adjustment coefficient is reduced and the prediction coefficient of the previous subframe is reduced. Reduce the impact of As a result, it is possible to prevent the adverse effect of the next prediction and realize good predictive coding.

このように、各コードベクトル(状態)に応じて予測係数を制御することにより、これまでの予測符号化の性能をさらに向上させることができる。   In this way, by controlling the prediction coefficient according to each code vector (state), it is possible to further improve the performance of the prediction encoding so far.

また、予測係数格納部1095には、予測符号化を行うための予測係数を格納しておく。この予測係数はMA(moving average)の予測係数でACとSCの2種類を予測次数分格納する。これらの予測係数値は、一般に、予め多くのデータを用いた学習により求めておく。また、復号化ベクトル格納部1096には、初期値として無音状態を示す値を格納しておく。   The prediction coefficient storage unit 1095 stores a prediction coefficient for performing predictive coding. This prediction coefficient is an MA (moving average) prediction coefficient, and stores two types of AC and SC corresponding to the prediction order. These prediction coefficient values are generally obtained in advance by learning using a large amount of data. The decoded vector storage unit 1096 stores a value indicating a silent state as an initial value.

次に、符号化方法について詳細に説明する。まず、パラメータ計算部1091に聴感重み付け入力音声(Xi)、聴感重み付けLPC合成済み適応音源(Ai)、聴感重み付けLPC合成済み確率的音源(Si)を送り、さらに復号化ベクトル格納部1096に格納された復号化ベクトル(AC、SC、調整係数)、予測係数格納部1095に格納された予測係数(AC、SC)を送る。これらを用いて符号化歪計算に必要なパラメータを計算する。 Next, the encoding method will be described in detail. First, the perceptual weighting input speech (X i ), perceptual weighting LPC synthesized adaptive sound source (A i ), perceptual weighting LPC synthesized stochastic sound source (S i ) are sent to the parameter calculation unit 1091, and the decoded vector storage unit 1096. The decoding vector (AC, SC, adjustment coefficient) stored in the prediction coefficient storage unit 1095 and the prediction coefficient (AC, SC) stored in the prediction coefficient storage unit 1095 are sent. These parameters are used to calculate parameters necessary for coding distortion calculation.

符号化歪計算部1092における符号化歪計算は、下記式2にしたがって行う。   The encoding distortion calculation in the encoding distortion calculation unit 1092 is performed according to the following equation 2.

Figure 2007279754
式2
ここで、
an,Gsn:復号化ゲイン
n:n番のゲインコードベクトルを用いたときの符号化歪み
i:聴感重み付け音声
i:聴感重み付けLPC合成済み適応音源
i:聴感重み付けLPC合成済み確率的音源
n :コードベクトルの番号
i :音源ベクトルのインデクス
I :サブフレーム長(入力音声の符号化単位)
Figure 2007279754
Formula 2
here,
G an, G sn: decoding gain E n: coding distortion when using the gain code vector of n-th X i: perceptual weighting speech A i: perceptual weighting LPC precomposed adaptive excitation S i: perceptual weighting LPC precomposed Probabilistic sound source n: Code vector number i: Sound source vector index I: Subframe length (coding unit of input speech)

この場合、演算量を少なくするために、パラメータ計算部1091では、コードベクトルの番号に依存しない部分の計算を行う。計算しておくものは、上記予測ベクトルと3つの合成音(Xi,Ai,Si)間の相関、パワである。この計算は、下記式3にしたがって行う。 In this case, in order to reduce the amount of calculation, the parameter calculation unit 1091 calculates a portion that does not depend on the code vector number. What is calculated is the correlation and power between the prediction vector and the three synthesized sounds (X i , A i , S i ). This calculation is performed according to the following equation 3.

Figure 2007279754
式3
xx,Dxa,Dxs,Daa,Das,Dss:合成音間の相関値、パワ
i:聴感重み付け音声
i:聴感重み付けLPC合成済み適応音源
i:聴感重み付けLPC合成済み確率的音源
n :コードベクトルの番号
i :音源ベクトルのインデクス
I :サブフレーム長(入力音声の符号化単位)
Figure 2007279754
Formula 3
D xx , D xa , D xs , D aa , D as , D ss : correlation value between synthesized sounds, power X i : perceptually weighted speech A i : perceptually weighted LPC synthesized adaptive sound source S i : perceptually weighted LPC synthesized Probabilistic sound source n: Code vector number i: Sound source vector index I: Subframe length (coding unit of input speech)

また、パラメータ計算部1091では、復号化ベクトル格納部1096に格納された過去のコードベクトルと、予測係数格納部1095に格納された予測係数を用いて下記式4に示す3つの予測値を計算しておく。   Further, the parameter calculation unit 1091 calculates three prediction values shown in the following equation 4 using the past code vector stored in the decoded vector storage unit 1096 and the prediction coefficient stored in the prediction coefficient storage unit 1095. Keep it.

Figure 2007279754
式4
ここで、
ra:予測値(ACゲイン)
rs:予測値(SCゲイン)
sc:予測値(予測係数)
αm:予測係数(ACゲイン、固定値)
βm:予測係数(SCゲイン、固定値)
am:状態(過去のコードベクトルの要素、ACゲイン)
sm:状態(過去のコードベクトルの要素、SCゲイン)
cm:状態(過去のコードベクトルの要素、SC予測係数調整係数)
m:予測インデクス
M:予測次数
Figure 2007279754
Formula 4
here,
P ra : Predicted value (AC gain)
P rs : Predicted value (SC gain)
P sc : Prediction value (prediction coefficient)
α m : Prediction coefficient (AC gain, fixed value)
β m : Prediction coefficient (SC gain, fixed value)
S am : State (element of past code vector, AC gain)
S sm : State (element of past code vector, SC gain)
S cm : State (element of past code vector, SC prediction coefficient adjustment coefficient)
m: Predicted index M: Predicted order

上記式4から分かるように、Prs、Pscについては、従来と異なり調整係数が乗算されている。したがって、SCゲインの予測値及び予測係数については、調整係数により、以前のサブフレームにおける状態の値が極端に大きいか小さい場合に、それを緩和する(影響を小さくする)ことができる。すなわち、状態に応じて適応的にSCゲインの予測値及び予測係数を変化させることが可能となる。 As can be seen from Equation 4, P rs and P sc are multiplied by an adjustment coefficient unlike the conventional case. Therefore, with respect to the prediction value and prediction coefficient of the SC gain, when the value of the state in the previous subframe is extremely large or small, it can be mitigated (the influence is reduced) by the adjustment coefficient. That is, it is possible to adaptively change the SC gain prediction value and the prediction coefficient according to the state.

次に、符号化歪計算部1092において、パラメータ計算部1091で計算した各パラメータ、予測係数格納部1095に格納された予測係数、及びベクトル符号帳1094に格納されたコードベクトルを用いて、下記式5にしたがって符号化歪を算出する。   Next, the encoding distortion calculation unit 1092 uses the parameters calculated by the parameter calculation unit 1091, the prediction coefficients stored in the prediction coefficient storage unit 1095, and the code vector stored in the vector codebook 1094, and The coding distortion is calculated according to 5.

Figure 2007279754
式5
ここで、
n:n番のゲインコードベクトルを用いたときの符号化歪み
xx,Dxa,Dxs,Daa,Das,Dss:合成音間の相関値、パワ
an,Gsn:復号化ゲイン
ra:予測値(ACゲイン)
rs:予測値(SCゲイン)
ac:予測係数の和(固定値)
sc:予測係数の和(上記式4で算出)
an,Csn,Ccn:コードベクトル、Ccnは予測係数調整係数であるがここでは使用しない
n:コードベクトルの番号
なお、実際にはDxxはコードベクトルの番号nに依存しないので、その加算を省略することができる。
Figure 2007279754
Formula 5
here,
E n : Coding distortion when using the nth gain code vector D xx , D xa , D xs , D aa , D as , D ss : Correlation value between synthesized sounds, Power G an , G sn : Decoding Gain P ra : Predicted value (AC gain)
P rs : Predicted value (SC gain)
P ac : Sum of prediction coefficients (fixed value)
P sc : sum of prediction coefficients (calculated by the above equation 4)
C an , C sn , C cn : code vector, C cn is a prediction coefficient adjustment coefficient, but is not used here n: code vector number Note that D xx does not actually depend on the code vector number n. The addition can be omitted.

次いで、比較部1093は、ベクトル符号帳1094と符号化歪計算部1092を制御し、ベクトル符号帳1094に格納された複数のコードベクトルの中で符号化歪計算部1092にて算出された符号化歪みの最も小さくなるコードベクトルの番号を求め、これをゲインの符号とする。また、得られたゲインの符号を用いて復号化ベクトル格納部1096の内容を更新する。更新は、下記式6にしたがって行う。   Next, the comparison unit 1093 controls the vector codebook 1094 and the encoding distortion calculation unit 1092, and the encoding calculated by the encoding distortion calculation unit 1092 among the plurality of code vectors stored in the vector codebook 1094 is performed. The code vector number with the smallest distortion is obtained, and this is used as the sign of the gain. Also, the content of decoded vector storage section 1096 is updated using the gain code obtained. The update is performed according to the following formula 6.

Figure 2007279754
式6
ここで、
am,Ssm,Scm:状態ベクトル(AC、SC、予測係数調整係数)
m:予測インデクス
M:予測次数
J:比較部で求められた符号
Figure 2007279754
Equation 6
here,
S am , S sm , S cm : State vector (AC, SC, prediction coefficient adjustment coefficient)
m: Prediction index M: Prediction order J: Code obtained by the comparison unit

式4から式6までで分かるように、本実施の形態では、復号化ベクトル格納部1096で状態ベクトルScmを格納しておいて、この予測係数調整係数を用いて予測係数を適応的に制御している。 As can be seen from Expression 4 to Expression 6, in this embodiment, the state vector S cm is stored in the decoded vector storage unit 1096, and the prediction coefficient is adaptively controlled using this prediction coefficient adjustment coefficient. is doing.

図5は、本発明の実施の形態の音声復号化装置の構成を示すブロック図である。この音声復号化装置は、図1に示す音声復号化部18に含まれている。なお、図5に示す適応符号帳202は図1に示すRAM22に格納されており、図5に示す確率的符号帳203は図1に示すROM23に格納されている。   FIG. 5 is a block diagram showing a configuration of the speech decoding apparatus according to the embodiment of the present invention. This speech decoding apparatus is included in the speech decoding unit 18 shown in FIG. The adaptive codebook 202 shown in FIG. 5 is stored in the RAM 22 shown in FIG. 1, and the probabilistic codebook 203 shown in FIG. 5 is stored in the ROM 23 shown in FIG.

図5に示す音声復号化装置において、パラメータ復号化部201は、伝送路から、符号化された音声信号を得ると共に、各音源符号帳(適応符号帳202、確率的符号帳203)の音源サンプルの符号、LPC符号、及びゲイン符号を得る。そして、LPC符号から復号化されたLPC係数を得て、ゲイン符号から復号化されたゲインを得る。   In the speech decoding apparatus shown in FIG. 5, parameter decoding section 201 obtains an encoded speech signal from the transmission path, and excitation samples of each excitation codebook (adaptive codebook 202 and probabilistic codebook 203). , LPC code, and gain code. Then, an LPC coefficient decoded from the LPC code is obtained, and a decoded gain is obtained from the gain code.

そして、音源作成部204は、それぞれの音源サンプルに復号化されたゲインを乗じて加算することによって復号化された音源信号を得る。この際、得られた復号化された音源信号を、音源サンプルとして適応符号帳204へ格納し、同時に古い音源サンプルを破棄する。そして、LPC合成部205では、復号化された音源信号に復号化されたLPC係数によるフィルタリングを行うことによって、合成音を得る。   Then, the sound source creation unit 204 obtains a decoded sound source signal by multiplying each sound source sample by the decoded gain and adding the result. At this time, the obtained decoded excitation signal is stored in the adaptive codebook 204 as an excitation sample, and the old excitation sample is discarded at the same time. Then, the LPC synthesis unit 205 obtains a synthesized sound by performing filtering on the decoded sound source signal using the decoded LPC coefficient.

また、2つの音源符号帳は、図2に示す音声符号化装置に含まれるもの(図2の参照符号103,104)と同様のものであり、音源サンプルを取り出すためのサンプル番号(適応符号帳への符号と確率的符号帳への符号)は、いずれもパラメータ復号化部201から供給される。   The two excitation codebooks are the same as those included in the speech encoding apparatus shown in FIG. 2 (reference numerals 103 and 104 in FIG. 2), and sample numbers for extracting excitation samples (adaptive codebooks). Both the code to and the code to the stochastic codebook are supplied from the parameter decoding unit 201.

このように、本実施の形態の音声符号化装置では、各コードベクトルに応じて予測係数を制御することが可能になり、音声の局所的特徴により適応したより効率的な予測や、非定常部における予測の弊害を防ぐことが可能になり、従来得られなかった格別の効果を得ることができる。   As described above, in the speech coding apparatus according to the present embodiment, the prediction coefficient can be controlled according to each code vector, and more efficient prediction adapted to local features of speech and unsteady part This makes it possible to prevent the adverse effects of predictions and to obtain exceptional effects that have not been obtained in the past.

(実施の形態2)
音声符号化装置において、上述したように、ゲイン演算部では、音源作成部から得られた適応符号帳、確率的符号帳の全ての音源について合成音と入力音声との間の比較を行う。このとき、演算量の都合上、通常は2つの音源(適応符号帳と確率的符号帳)はオープンループに探索される。以下、図2を参照して説明する。
(Embodiment 2)
In the speech coding apparatus, as described above, the gain calculation unit compares the synthesized sound and the input speech for all the sound sources of the adaptive codebook and the stochastic codebook obtained from the sound source creation unit. At this time, normally, two sound sources (adaptive codebook and probabilistic codebook) are searched in an open loop for the convenience of computation. Hereinafter, a description will be given with reference to FIG.

このオープンループ探索においては、まず、音源作成部105は適応符号帳103からのみ音源候補を次々に選び、聴感重みLPC合成部106を機能させて合成音を得て、ゲイン演算部108へ送り、合成音と入力音声との間の比較を行って最適な適応符号帳103の符号を選択する。   In this open loop search, first, the sound source creation unit 105 selects sound source candidates one after another only from the adaptive codebook 103, obtains a synthesized sound by causing the perceptual weight LPC synthesis unit 106 to function, and sends it to the gain calculation unit 108. A comparison between the synthesized speech and the input speech is performed to select an optimum code of the adaptive codebook 103.

次いで、上記適応符号帳103の符号を固定して、適応符号帳103からは同じ音源を選択し、確率的符号帳104からはゲイン演算部108の符号に対応した音源を次々に選択して聴感重みLPC合成部106へ伝送する。ゲイン演算部108で両合成音の和と入力音声との間の比較を行って確率的符号帳104の符号を決定する。   Next, the code of the adaptive codebook 103 is fixed, the same sound source is selected from the adaptive codebook 103, and the sound source corresponding to the code of the gain calculation unit 108 is selected one after another from the probabilistic codebook 104. The data is transmitted to the weight LPC synthesis unit 106. The gain calculator 108 compares the sum of both synthesized sounds and the input speech to determine the code of the stochastic codebook 104.

このアルゴリズムを用いた場合、全ての符号帳の符号をそれぞれに対して全て探索するよりは符号化性能は若干劣化するが、計算量は大幅に削減される。このため一般にはこのオープンループ探索が用いられる。   When this algorithm is used, the coding performance is slightly deteriorated compared to searching all codes of all codebooks, but the calculation amount is greatly reduced. For this reason, this open loop search is generally used.

ここで、従来のオープンループの音源探索の中で代表的なアルゴリズムについて説明する。ここでは、1つの分析区間(フレーム)に対して2つのサブフレームで構成する場合の音源探索手順について説明する。   Here, a typical algorithm in the conventional open loop sound source search will be described. Here, a sound source search procedure in the case where a single analysis section (frame) is composed of two subframes will be described.

まず、ゲイン演算部108の指示を受けて、音源作成部105は適応符号帳103から音源を引出して聴感重みLPC合成部106へ送る。ゲイン演算部108において、合成された音源と第1サブフレームの入力音声との間の比較を繰り返して最適な符号を求める。ここで、適応符号帳の特徴を示す。適応符号帳は過去において合成に使用した音源である。そして、符号は、図6に示すようにタイムラグに対応している。   First, upon receiving an instruction from the gain calculation unit 108, the sound source creation unit 105 extracts a sound source from the adaptive codebook 103 and sends it to the audible weight LPC synthesis unit 106. In gain calculation section 108, the comparison between the synthesized sound source and the input speech of the first subframe is repeated to obtain the optimum code. Here, features of the adaptive codebook are shown. The adaptive codebook is a sound source used for synthesis in the past. And the code | symbol respond | corresponds to a time lag as shown in FIG.

次に、適応符号帳103の符号が決まった後に、確率的符号帳の探索を行う。音源作成部105は適応符号帳103の探索で得られた符号の音源とゲイン演算部108で指定された確率的符号帳104の音源とを取り出して聴感重みLPC合成部106へ送る。そして、ゲイン演算部108において、聴感重み付け済みの合成音と聴感重み付け済みの入力音声との間の符号化歪みを計算し、最も適当な(二乗誤差が最小となるもの)確率的音源104の符号を決める。1つの分析区間(サブフレームが2の場合)での音源符号探索の手順を以下に示す。   Next, after the codes of the adaptive codebook 103 are determined, the probabilistic codebook is searched. The sound source creation unit 105 extracts the sound source of the code obtained by the search of the adaptive code book 103 and the sound source of the probabilistic code book 104 specified by the gain calculation unit 108 and sends them to the audible weight LPC synthesis unit 106. Then, gain calculation section 108 calculates coding distortion between the perceptually weighted synthesized sound and perceptually weighted input speech, and the most appropriate (the one with the least square error) code of stochastic sound source 104. Decide. The excitation code search procedure in one analysis section (when the subframe is 2) is shown below.

1)第1サブフレームの適応符号帳の符号を決定
2)第1サブフレームの確率的符号帳の符号を決定
3)パラメータ符号化部109でゲインを符号化し、復号化ゲインで第1サブフレームの音源を作成し、適応符号帳103を更新する。
4)第2サブフレームの適応符号帳の符号を決定
5)第2サブフレームの確率的符号帳の符号を決定
6)パラメータ符号化部109でゲインを符号化し、復号化ゲインで第2サブフレームの音源を作成し、適応符号帳103を更新する。
1) Determine the code of the adaptive codebook of the first subframe 2) Determine the code of the stochastic codebook of the first subframe 3) The gain is encoded by the parameter encoding unit 109, and the first subframe is determined by the decoding gain. And the adaptive codebook 103 is updated.
4) Determine the code of the adaptive codebook of the second subframe 5) Determine the code of the stochastic codebook of the second subframe 6) The gain is encoded by the parameter encoding unit 109, and the second subframe is determined by the decoding gain. And the adaptive codebook 103 is updated.

上記アルゴリズムによって効率よく音源の符号化を行うことができる。しかしながら、最近では、さらなる低ビットレート化を目指し、音源のビット数を節約する工夫が行われている。特に注目されているのは、適応符号帳のラグに大きな相関があることを利用して、第1サブフレームの符号はそのままで、第2サブフレームの探索範囲を第1サブフレームのラグの近くに狭めて(エントリ数を減らして)ビット数を少なくするというアルゴリズムである。   The sound source can be efficiently encoded by the above algorithm. Recently, however, efforts have been made to save the number of bits of a sound source in order to further reduce the bit rate. Of particular interest is the fact that there is a large correlation in the lag of the adaptive codebook, so that the code of the first subframe remains unchanged and the search range of the second subframe is close to the lag of the first subframe. The number of bits is reduced (by reducing the number of entries).

このアルゴリズムでは、分析区間(フレーム)の途中から音声が変化する場合や、2つのサブフレームの様子が大きく異なる場合には局所的劣化を引き起こすことが考えられる。   In this algorithm, it is conceivable that local degradation is caused when the voice changes from the middle of the analysis section (frame) or when the states of the two subframes are greatly different.

本実施の形態では、符号化の前に2つのサブフレーム両方についてピッチ分析を行って相関値を算出し、得られた相関値に基づいて2つのサブフレームのラグの探索範囲を決定する探索方法を実現する音声符号化装置を提供する。   In the present embodiment, a search method for calculating a correlation value by performing pitch analysis for both two subframes before encoding and determining a search range of lags of the two subframes based on the obtained correlation value A speech encoding device that achieves the above is provided.

具体的には、本実施の形態の音声符号化装置は、1つのフレームを複数のサブフレームに分解してそれぞれを符号化するCELP型符号化装置において、最初のサブフレームの適応符号帳探索の前に、フレームを構成する複数のサブフレームのピッチ分析を行って相関値を算出するピッチ分析部と、上記ピッチ分析部がフレームを構成する複数のサブフレームの相関値を算出すると共に、その相関値の大小から各サブフレームで最もピッチ周期らしい値(代表ピッチと呼ぶ)を求め、ピッチ分析部にて得られた相関値と代表ピッチとに基づいて複数のサブフレームのラグの探索範囲を決定する探索範囲設定部と、を備えることを特徴としている。   Specifically, the speech coding apparatus according to the present embodiment is a CELP type coding apparatus that decomposes one frame into a plurality of subframes and codes each of them, and performs adaptive codebook search for the first subframe. Before, a pitch analysis unit that calculates a correlation value by performing a pitch analysis of a plurality of subframes constituting a frame, and the pitch analysis unit calculates a correlation value of a plurality of subframes that constitute a frame, and the correlation The value that is most likely to be the pitch period in each subframe (called the representative pitch) is obtained from the magnitude of the value, and the lag search range for multiple subframes is determined based on the correlation value obtained by the pitch analyzer and the representative pitch And a search range setting unit.

そして、この音声符号化装置では、探索範囲設定部において、ピッチ分析部で得た複数のサブフレームの代表ピッチと相関値を利用して探索範囲の中心となる仮のピッチ(仮ピッチと呼ぶ)を求め、探索範囲設定部において、求めた仮ピッチの周りの指定の範囲にラグの探索区間を設定し、ラグの探索区間を設定するときに、仮ピッチの前後に探索範囲を設定する。また、その際に、ラグの短い部分の候補を少なくし、ラグのより長い範囲を広く設定し、適応符号帳探索の際に上記探索範囲設定部で設定された範囲でラグの探索を行う。   In this speech encoding apparatus, the search range setting unit uses a representative pitch and a correlation value of a plurality of subframes obtained by the pitch analysis unit to use a temporary pitch that is the center of the search range (referred to as a temporary pitch). In the search range setting unit, the search range of the lag is set in a specified range around the calculated temporary pitch, and the search range is set before and after the temporary pitch when the search interval of the lag is set. At that time, candidates for short lag portions are reduced, a longer lag range is set wider, and lag search is performed within the range set by the search range setting unit during adaptive codebook search.

以下、本実施の形態に係る音声符号化装置について添付図面を用いて詳細に説明する。ここでは、1フレームは2サブフレームに分割されているものとする。3サブフレーム以上の場合でも同様の手順で符号化を行うことができる。   Hereinafter, the speech coding apparatus according to the present embodiment will be described in detail with reference to the accompanying drawings. Here, it is assumed that one frame is divided into two subframes. Even in the case of three or more subframes, encoding can be performed in the same procedure.

この音声符号化装置においては、いわゆるデルタラグ方式によるピッチ探索において、分割されたサブフレームについてすべてピッチを求め、ピッチ間でどの程度の相関があるかどうかを求めて、その相関結果に応じて探索範囲を決定する。   In this speech coding apparatus, in the pitch search by the so-called delta lag method, the pitch is obtained for all the divided subframes, the degree of correlation between the pitches is obtained, and the search range is determined according to the correlation result. To decide.

図7は、本発明の実施の形態2に係る音声符号化装置の構成を示すブロック図である。まず、LPC分析部302において、入力された音声データ(入力音声)301に対して自己相関分析とLPC分析を行うことによってLPC係数を得る。また、LPC分析部302において、得られたLPC係数の符号化を行ってLPC符号を得る。さらに、LPC分析部302において、得られたLPC符号を復号化して復号化LPC係数を得る。   FIG. 7 is a block diagram showing the configuration of the speech coding apparatus according to Embodiment 2 of the present invention. First, the LPC analysis unit 302 obtains LPC coefficients by performing autocorrelation analysis and LPC analysis on the input voice data (input voice) 301. The LPC analysis unit 302 encodes the obtained LPC coefficient to obtain an LPC code. Further, the LPC analysis unit 302 decodes the obtained LPC code to obtain decoded LPC coefficients.

次いで、ピッチ分析部310において、2サブフレーム分の入力音声のピッチ分析を行い、ピッチ候補とパラメータを求める。1サブフレームに対するアルゴリズムを以下に示す。相関係数は、下記式7により、2つ求められる。なおこの時、CppはPminについてまず求め、あとのPmin+1、Pmin+2については、フレーム端の値の足し引きで効率的に計算できる。 Next, the pitch analysis unit 310 performs pitch analysis of input speech for two subframes to obtain pitch candidates and parameters. The algorithm for one subframe is shown below. Two correlation coefficients are obtained by the following equation (7). Note In this, C pp is determined first for P min, for P min + 1, P min + 2 after, can be efficiently computed by pulling adding the value of the frame end.

Figure 2007279754
式7
ここで、
i,Xi-P:入力音声
p:自己相関関数
pp:パワ成分
i:入力音声のサンプル番号
L:サブフレームの長さ
P:ピッチ
min,Pmax:ピッチの探索を行う最小値と最大値
Figure 2007279754
Equation 7
here,
X i , X iP : Input speech V p : Autocorrelation function C pp : Power component i: Sample number of input speech L: Length of subframe P: Pitch P min , P max : Minimum value for searching for pitch Maximum value

そして、上記式7で求めた自己相関関数とパワ成分はメモリに蓄えておき、次の手順で代表ピッチP1を求める。これはVpが正でVp×Vp/Cppを最大にするピッチPを求める処理となっている。ただし、割り算は一般的に計算量がかかるので、分子と分母を2つとも格納し、掛け算に直して効率化を図っている。 Then, the autocorrelation function and the power component obtained by the above equation 7 are stored in the memory, and the representative pitch P 1 is obtained by the following procedure. This is a process for obtaining the pitch P that maximizes V p × V p / C pp when V p is positive. However, since division generally requires a calculation amount, both the numerator and the denominator are stored, and the efficiency is improved by multiplying them.

ここでは、入力音声と入力音声からピッチ分過去の適応音源との差分の二乗和が最も小さくなるようなピッチを探す。この処理はVp×Vp/Cppを最大にするピッチPを求める処理と等価となる。具体的な処理は以下のようになる。 Here, a search is made for a pitch that minimizes the sum of squares of the difference between the input sound and the input sound from the adaptive sound source that is past the pitch. This process is equivalent to the process for obtaining the pitch P that maximizes V p × V p / C pp . Specific processing is as follows.

1)初期化(P=Pmin、VV=C=0、P1=Pmin
2)もし(Vp×Vp×C<VV×Cpp)又は(Vp<0)ならば4)へ。それ以外なら3)へ。
3)VV=Vp×Vp、C=Cpp、P1=Pとして4)へ
4)P=P+1とする。この時P>Pmaxであれば終了、それ以外の場合には2)へ。
1) Initialization (P = P min, VV = C = 0, P 1 = P min)
2) If the (V p × V p × C <VV × C pp) or (V p <0) if 4). Otherwise go to 3).
3) VV = V p × V p, C = C pp, 4 as P 1 = P 4) to) and P = P + 1. At this time, if P> P max , the process ends. Otherwise, go to 2).

上記作業を2サブフレームのそれぞれについて行い、代表ピッチP1、P2と自己相関係数V1p、V2p、パワー成分C1pp、C2pp(Pmin<p<Pmax)を求める。 The above operation is performed for each of the two subframes to obtain representative pitches P 1 and P 2 , autocorrelation coefficients V 1p and V 2p , and power components C 1pp and C 2pp (P min <p <P max ).

次に、探索範囲設定部311で適応符号帳のラグの探索範囲を設定する。まず、その探索範囲の軸となる仮ピッチを求める。仮ピッチはピッチ分析部310で求めた代表ピッチとパラメータを用いて行う。   Next, the search range setting unit 311 sets the search range of the lag of the adaptive codebook. First, a temporary pitch that is the axis of the search range is obtained. The provisional pitch is determined using the representative pitch and parameters obtained by the pitch analysis unit 310.

仮ピッチQ1、Q2は以下の手順で求める。なお、以下の説明においてラグの範囲として定数Th(具体的には6程度が適当である)を用いる。また、相関値は上記式7で求めたものを用いる。 The temporary pitches Q 1 and Q 2 are obtained by the following procedure. In the following description, a constant Th (specifically, about 6 is appropriate) is used as the range of the lag. Further, the correlation value obtained by Equation 7 is used.

まず、P1を固定した状態でP1の付近(±Th)で相関の最も大きい仮ピッチ(Q2)を見つける。 First, a temporary pitch (Q 2 ) having the largest correlation is found near P 1 (± Th) with P 1 fixed.

1)初期化(p=P1−Th、Cmax=0、Q1=P1、Q2=P1
2)もし(V1p1×V1p1/C1p1p1+V2p×V2p/C2pp<Cmax)または(V2p<0)ならば4)へ。それ以外なら3)へ。
3)Cmax=V1p1×V1p1/C1p1p1+V2p×V2p/C2pp、Q2=pとして4)へ
4)p=p+1として2)へ。ただし、この時p>P1+Thであれば5)へ。
1) Initialization (p = P 1 −Th, C max = 0, Q 1 = P 1 , Q 2 = P 1 )
2) If (V 1p1 × V 1p1 / C 1p1p1 + V 2p × V 2p / C 2pp <C max ) or (V 2p <0), go to 4). Otherwise go to 3).
3) C max = V 1p1 × V 1p1 / C 1p1p1 + V 2p × V 2p / C 2pp, Q 2 = p as 4) to 4) p = p + 1 as a 2) to. However, if p> P 1 + Th at this time, go to 5).

このようにして2)〜4)の処理をP1−Th〜P1+Thまで行って、相関の最も大きいものCmaxと仮ピッチQ2を求める。 In this way, the processing of 2) to 4) is performed from P 1 −Th to P 1 + Th, and the maximum correlation C max and provisional pitch Q 2 are obtained.

次に、P2を固定した状態でP2の付近(±Th)で相関の最も大きい仮ピッチ(Q1)を求める。この場合、Cmaxは初期化しない。Q2を求めた際のCmaxを含めて相関が最大となるQ1を求めることにより、第1,第2サブフレーム間で最大の相関を持つQ1,Q2を求めることが可能となる。 Next, a temporary pitch (Q 1 ) having the largest correlation is obtained in the vicinity of P 2 (± Th) with P 2 fixed. In this case, C max is not initialized. By obtaining Q 1 that maximizes the correlation including C max when Q 2 is obtained, it is possible to obtain Q 1 and Q 2 having the maximum correlation between the first and second subframes. .

5)初期化(p=P2−Th)
6)もし(V1p×V1p/C1pp+V2p2×V2p2/C2p2p2<Cmax)又は(V1p<0)ならば8)へ。それ以外は7)へ。
7)Cmax=V1p×V1p/C1pp+V2p2×V2p2/C2p2p2、Q1=p、Q2=P2として8)へ。
8)p=p+1として6)へ。ただし、この時p>P2+Thであれば9)へ。
9)終了。
5) Initialization (p = P 2 −Th)
6) If (V 1p × V 1p / C 1pp + V 2p2 × V 2p2 / C 2p2p2 <C max ) or (V 1p <0) then go to 8). Otherwise go to 7).
7) C max = V 1p × V 1p / C 1pp + V 2p2 × V 2p2 / C 2p2p2, Q 1 = p, Q 2 = P 2 as 8) to.
8) Go to 6) with p = p + 1. However, if p> P 2 + Th at this time, go to 9).
9) End.

このようにして6)〜8)の処理をP2−Th〜P2+Thまで行って、相関の最も大きいものCmaxと仮ピッチQ1、Q2を求める。この時のQ1、Q2が第1サブフレームと第2サブフレームの仮ピッチである。 Thus the to 6) to 8) of the processing performed up to P 2 -Th~P 2 + Th, finding the largest one C max and provisional pitch Q 1, Q 2 of the correlation. Q 1 and Q 2 at this time are provisional pitches of the first subframe and the second subframe.

上記アルゴリズムにより、2つのサブフレームの相関を同時に評価しながら大きさに比較的差のない(差の最大はThである)仮ピッチを2つ選択することができる。この仮ピッチを用いることにより、第2サブフレームの適応符号帳探索の際に、探索の範囲を狭く設定しても符号化性能を大きく劣化させることを防止できる。例えば、第2サブフレームから音質が急に変化した場合などで、第2サブフレームの相関が強い場合は、第2サブフレームの相関を反映したQ1を用いることで第2サブフレームの劣化を回避出来る。 With the above algorithm, it is possible to select two provisional pitches that have relatively little difference in size (the maximum difference is Th) while simultaneously evaluating the correlation between two subframes. By using this provisional pitch, it is possible to prevent the coding performance from being greatly deteriorated even when the search range is set narrow during the adaptive codebook search of the second subframe. For example, when the sound quality suddenly changes from the second subframe and the correlation of the second subframe is strong, the deterioration of the second subframe is reduced by using Q 1 reflecting the correlation of the second subframe. Can be avoided.

さらに、探索範囲設定部311は、求めた仮ピッチQ1を用いて適応符号帳の探索を行う範囲(L_ST〜L_EN)を下記式8のようにして設定する。 Furthermore, search range setting section 311 sets the range of searching the adaptive codebook using provisional pitch Q 1 which was determined (L_ ST ~L_ EN) as the following equation 8.

Figure 2007279754
式8
ここで、
L_ST:探索範囲の始点
L_EN:探索範囲の終点
min:ラグの最小値(例:20)
max:ラグの最大値(例:143)
1:第1サブフレームの適応符号帳ラグ
Figure 2007279754
Equation 8
here,
L_ ST: starting point of search range L_ EN: search range end point L min: minimum value of lag (e.g. 20)
L max : Maximum value of lag (example: 143)
T 1 : Adaptive codebook lag of the first subframe

上記設定において、第1サブフレームは探索範囲を狭める必要はない。しかしながら、本発明者らは、入力音声のピッチに基づいた値の付近を探索区間とした方が性能が良いことを実験により確認しており、本実施の形態では26サンプルに狭めて探索するアルゴリズムを使用している。   In the above setting, it is not necessary to narrow the search range for the first subframe. However, the present inventors have confirmed through experiments that the performance is better when the vicinity of the value based on the pitch of the input speech is set as the search interval. In the present embodiment, the algorithm is searched by narrowing to 26 samples. Is used.

また、第2サブフレームは第1サブフレームで求められたラグT1を中心にその付近に探索範囲を設定している。したがって、合計32エントリで、第2サブフレームの適応符号帳のラグを5ビットで符号化できることになる。また、本発明者らは、この時もラグの小さい候補を少なく、ラグの大きい候補を多く設定することにより、より良い性能が得られることを実験により確認している。ただし、これまでの説明でわかるように、本実施の形態においては、仮ピッチQ2は使用しない。 In the second subframe, a search range is set around the lag T 1 obtained in the first subframe. Therefore, the lag of the adaptive codebook of the second subframe can be encoded with 5 bits with a total of 32 entries. In addition, the present inventors have confirmed by experiments that a better performance can be obtained by setting a small number of candidates with a small lag and a large number of candidates with a large lag. However, as can be seen from the above description, the temporary pitch Q 2 is not used in the present embodiment.

ここで、本実施の形態における効果について説明する。探索範囲設定部311によって得られた第1サブフレームの仮ピッチの近くには、第2サブフレームの仮ピッチも存在している(定数Thで制限したため)。また、第1サブフレームにおいて探索範囲を絞って探索しているので、探索の結果得られるラグは第1サブフレームの仮ピッチから離れない。   Here, the effect in this Embodiment is demonstrated. The temporary pitch of the second subframe also exists near the temporary pitch of the first subframe obtained by the search range setting unit 311 (because it is limited by the constant Th). In addition, since the search is performed by narrowing the search range in the first subframe, the lag obtained as a result of the search does not deviate from the temporary pitch of the first subframe.

したがって、第2サブフレームの探索の時には、第2サブフレームの仮ピッチから近い範囲を探索できることになり、第1,第2サブフレームの両方において適当なラグが探索できることになる。   Therefore, when searching for the second subframe, a range close to the provisional pitch of the second subframe can be searched, and an appropriate lag can be searched for in both the first and second subframes.

例として、第1サブフレームが無音で、第2サブフレームから音声が立ち上がった場合を考える。従来法では、探索範囲を狭めることで第2サブフレームのピッチが探索区間に含まれなくなると、音質は大きく劣化してしまう。本実施の形態に係る方法においては、ピッチ分析部の仮ピッチの分析において、代表ピッチP2の相関は強く出る。したがって、第1サブフレームの仮ピッチはP2付近の値になる。このため、デルタラグによる探索の際に、音声が立ち上がった部分に近い部分を仮ピッチとすることができる。すなわち、第2サブフレームの適応符号帳の探索の時には、P2付近の値を探索できることになり、途中で音声の立ち上がり生じても劣化なくデルダラグにより第2サブフレームの適応符号帳探索を行うことができる。 As an example, let us consider a case where the first subframe is silent and the voice rises from the second subframe. In the conventional method, if the pitch of the second subframe is not included in the search section by narrowing the search range, the sound quality is greatly deteriorated. In the method according to the present embodiment, the correlation of the representative pitch P 2 is strong in the temporary pitch analysis of the pitch analysis unit. Therefore, the provisional pitch of the first subframe is a value close to P 2. For this reason, in the search by the delta lag, a portion close to the portion where the voice rises can be set as the temporary pitch. That is, when the search of the adaptive codebook of the second subframe will be to explore the value close P 2, to perform an adaptive codebook search of the second subframe by the way without deterioration even if the rising of the voice Derudaragu Can do.

次に、音源作成部305において、適応符号帳303に格納された音源サンプル(適応コードベクトル又は適応音源)と確率的符号帳304に格納された音源サンプル(確率的コードベクトル又は確率的音源)を取り出し、それぞれを聴感重みLPC合成部306へ送る。さらに、聴感重みLPC合成部306において、音源作成部305で得られた2つの音源に対して、LPC分析部302で得られた復号化LPC係数によってフィルタリングを行って2つの合成音を得る。   Next, in the sound source creation unit 305, the sound source sample (adaptive code vector or adaptive sound source) stored in the adaptive codebook 303 and the sound source sample (stochastic code vector or stochastic sound source) stored in the probabilistic codebook 304 are used. Each is taken out and sent to the auditory weight LPC synthesis unit 306. Further, the audible weight LPC synthesis unit 306 performs filtering on the two sound sources obtained by the sound source creation unit 305 with the decoded LPC coefficients obtained by the LPC analysis unit 302 to obtain two synthesized sounds.

さらに、ゲイン演算部308においては、聴感重みLPC合成部306で得られた2つの合成音と聴感重み付け部307で聴感重み付けされた入力音声との関係を分析し、2つの合成音の最適値(最適ゲイン)を求める。また、ゲイン演算部308においては、その最適ゲインによってパワ調整したそれぞれの合成音を加算して総合合成音を得る。そして、ゲイン演算部308は、その総合合成音と入力音声の符号化歪みの計算を行う。また、ゲイン演算部308においては、適応符号帳303と確率的符号帳304の全ての音源サンプルに対して音源作成部305、聴感重みLPC合成部306を機能させることによって得られる多くの合成音と入力音声との間の符号化歪みを行い、その結果得られる符号化歪みの中で最も小さいときの音源サンプルのインデクスを求める。   Further, the gain calculation unit 308 analyzes the relationship between the two synthesized sounds obtained by the perceptual weight LPC synthesis unit 306 and the input speech weighted by the perceptual weighting unit 307, and determines the optimum value ( Find the optimal gain. Further, gain calculation section 308 adds the synthesized sounds adjusted for power by the optimum gain to obtain a total synthesized sound. Then, the gain calculation unit 308 calculates the coding distortion of the total synthesized sound and the input speech. In the gain calculation unit 308, many synthesized sounds obtained by causing the sound source creation unit 305 and the auditory weight LPC synthesis unit 306 to function on all the sound source samples of the adaptive codebook 303 and the stochastic codebook 304 Encoding distortion with the input speech is performed, and the index of the sound source sample when the encoding distortion obtained as a result is the smallest is obtained.

次に、得られた音源サンプルのインデクス、そのインデクスに対応する2つの音源、及び入力音声をパラメータ符号化部309へ送る。パラメータ符号化部309では、ゲインの符号化を行うことによってゲイン符号を得て、LPC符号、音源サンプルのインデクスと共に伝送路へ送る。   Next, the index of the obtained sound source sample, the two sound sources corresponding to the index, and the input speech are sent to the parameter encoding unit 309. The parameter encoding unit 309 obtains a gain code by performing gain encoding, and sends the gain code together with the LPC code and the index of the sound source sample to the transmission line.

また、パラメータ符号化部309は、ゲイン符号と音源サンプルのインデクスに対応する2つの音源から実際の音源信号を作成し、それを適応符号帳303に格納すると同時に古い音源サンプルを破棄する。   The parameter encoding unit 309 creates an actual sound source signal from two sound sources corresponding to the gain code and the index of the sound source sample, stores it in the adaptive codebook 303, and simultaneously discards the old sound source sample.

なお、聴感重みLPC合成部306においては、LPC係数や高域強調フィルタや長期予測係数(入力音声の長期予測分析を行うことによって得られる)を用いた聴感重み付けフィルタを用いる。   Note that the perceptual weight LPC synthesis unit 306 uses a perceptual weighting filter that uses an LPC coefficient, a high-frequency emphasis filter, and a long-term prediction coefficient (obtained by performing long-term prediction analysis of input speech).

上記ゲイン演算部308は、音源作成部305から得られた適応符号帳303、確率的符号帳304の全ての音源について入力音声との間の比較を行うが、計算量削減のため、2つの音源(適応符号帳303と確率的符号帳304)については上述したようにしてオープンループにより探索する。   The gain calculation unit 308 performs comparison between the input speech for all sound sources of the adaptive codebook 303 and the probabilistic codebook 304 obtained from the sound source creation unit 305. (Adaptive codebook 303 and probabilistic codebook 304) are searched by open loop as described above.

このように、本実施の形態におけるピッチ探索方法により、最初のサブフレームの適応符号帳探索の前に、フレームを構成する複数のサブフレームのピッチ分析を行って相関値を算出することにより、フレーム内の全サブフレームの相関値を同時に把握することができる。   As described above, the pitch search method in the present embodiment calculates the correlation value by performing the pitch analysis of the plurality of subframes constituting the frame before the adaptive codebook search of the first subframe. The correlation values of all the subframes can be grasped simultaneously.

そして、各サブフレームの相関値を算出すると共に、その相関値の大小から各サブフレームで最もピッチ周期らしい値(代表ピッチと呼ぶ)を求め、ピッチ分析で得られた相関値と代表ピッチに基づいて複数のサブフレームのラグの探索範囲を設定する。この探索範囲の設定においては、ピッチ分析で得た複数のサブフレームの代表ピッチと相関値を利用して探索範囲の中心となる差の少ない適当な仮のピッチ(仮ピッチと呼ぶ)を求める。   Then, the correlation value of each subframe is calculated, and a value (referred to as a representative pitch) that is most likely to be a pitch period in each subframe is obtained from the magnitude of the correlation value. To set the lag search range of multiple subframes. In setting the search range, an appropriate temporary pitch (referred to as a temporary pitch) having a small difference at the center of the search range is obtained using the representative pitches and correlation values of a plurality of subframes obtained by pitch analysis.

さらに、上記探索範囲の設定で求めた仮ピッチの前後の指定の範囲にラグの探索区間を限定するので、適応符号帳の効率の良い探索を可能にする。その際、ラグの短い部分の候補を少なくし、ラグのより長い範囲を広く設定するので、良好な性能が得られる適当な探索範囲を設定することができる。また、適応符号帳探索の際に上記探索範囲の設定で設定された範囲でラグの探索を行うので、良好な復号化音を得ることができる符号化が可能になる。   Furthermore, since the lag search section is limited to a designated range before and after the provisional pitch obtained by setting the search range, an efficient search of the adaptive codebook is enabled. At that time, candidates for a short part of the lag are reduced, and a longer range of the lag is set wider, so that an appropriate search range in which good performance can be obtained can be set. Further, since the lag is searched in the range set by the setting of the search range during the adaptive codebook search, it is possible to perform encoding that can obtain a good decoded sound.

このように、本実施の形態によれば、探索範囲設定部311によって得られた第1サブフレームの仮ピッチの近くには第2サブフレームの仮ピッチも存在しており、第1サブフレームにおいて探索範囲を絞っているので、探索の結果得られるラグは仮ピッチから離れて行かない。したがって、第2サブフレームの探索の時には第2サブフレームの仮ピッチ付近を探索できることになり、フレームの後半から音声が始まる場合などの非定常なフレームでも、第1,第2サブフレームにおいて適当なラグ探索が可能になり、局所的異音を生じることなく音声符号化を行うことができる。   Thus, according to the present embodiment, the temporary pitch of the second subframe is also present near the temporary pitch of the first subframe obtained by search range setting section 311. In the first subframe, Since the search range is narrowed down, the lag obtained as a result of the search does not go away from the temporary pitch. Therefore, when searching for the second subframe, the vicinity of the provisional pitch of the second subframe can be searched, and even in a non-stationary frame such as a case where speech starts from the second half of the frame, the first and second subframes are suitable. Lag search is possible, and speech coding can be performed without producing local noise.

上記実施の形態1,2に係る音声符号化/復号化は、音声符号化装置/音声復号化装置として説明しているが、これらの音声符号化/復号化をソフトウェアとして構成しても良い。例えば、上記音声符号化/復号化のプログラムをROMに格納し、そのプログラムにしたがってCPUの指示により動作させるように構成しても良い。また、プログラム,適応符号帳,及び確率的符号帳(パルス拡散符号帳)をコンピュータで読み取り可能な記憶媒体に格納し、この記憶媒体のプログラム,適応符号帳,及び確率的符号帳(パルス拡散符号帳)をコンピュータのRAMに記録して、プログラムにしたがって動作させるようにしても良い。このような場合においても、上記実施の形態1,2と同様の作用、効果を呈する。さらに、実施の形態1〜3におけるプログラムを通信端末でダウンロードし、その通信端末でプログラムを動作させるようにしても良い。   The speech encoding / decoding according to Embodiments 1 and 2 has been described as a speech encoding device / speech decoding device, but these speech encoding / decoding may be configured as software. For example, the speech encoding / decoding program may be stored in a ROM and operated according to instructions from the CPU according to the program. Further, the program, the adaptive codebook, and the stochastic codebook (pulse spreading codebook) are stored in a computer-readable storage medium, and the program, adaptive codebook, and stochastic codebook (pulse spreading code) of this storage medium are stored. (Book) may be recorded in the RAM of the computer and operated according to the program. Even in such a case, the same operations and effects as in the first and second embodiments are exhibited. Furthermore, the program in Embodiments 1 to 3 may be downloaded by a communication terminal and the program may be operated by the communication terminal.

なお、上記実施の形態1,2については、個々に実施しても良く、組み合わせて実施しても良い。   The first and second embodiments may be implemented individually or in combination.

本発明の音声符号化装置を備えた無線通信装置の構成を示すブロック図The block diagram which shows the structure of the radio | wireless communication apparatus provided with the audio | voice coding apparatus of this invention. 本発明の実施の形態1に係る音声符号化装置の構成を示すブロック図The block diagram which shows the structure of the audio | voice coding apparatus which concerns on Embodiment 1 of this invention. 図2に示す音声符号化装置におけるゲイン演算部の構成を示すブロック図The block diagram which shows the structure of the gain calculating part in the audio | voice coding apparatus shown in FIG. 図2に示す音声符号化装置におけるパラメータ符号化部の構成を示すブロック図The block diagram which shows the structure of the parameter encoding part in the audio | voice encoding apparatus shown in FIG. 本発明の実施の形態1に係る音声符号化装置で符号化された音声データを復号する音声復号化装置の構成を示すブロック図1 is a block diagram showing a configuration of a speech decoding apparatus that decodes speech data encoded by a speech encoding apparatus according to Embodiment 1 of the present invention. 適応符号帳探索を説明するための図Diagram for explaining adaptive codebook search 本発明の実施の形態2に係る音声符号化装置の構成を示すブロック図FIG. 3 is a block diagram showing the configuration of a speech encoding apparatus according to Embodiment 2 of the present invention.

符号の説明Explanation of symbols

102,302 LPC分析部
103,303 適応符号帳
104,304 確率的符号帳
105,305 音源作成部
106,306 聴感重みLPC合成部
107,307 聴感重み付け部
108,308 ゲイン演算部
109,309 パラメータ符号化部
310 ピッチ分析部
311 探索範囲設定部
1091 パラメータ計算部
1092 符号化歪計算部
1093 比較部
1094 ベクトル符号帳
1095 予測係数格納部
1096 復号化ベクトル格納部
102, 302 LPC analysis unit 103, 303 Adaptive codebook 104, 304 Probabilistic codebook 105, 305 Sound source creation unit 106, 306 Auditory weight LPC synthesis unit 107, 307 Audible weighting unit 108, 308 Gain calculation unit 109, 309 Parameter code Conversion unit 310 Pitch analysis unit 311 Search range setting unit 1091 Parameter calculation unit 1092 Encoding distortion calculation unit 1093 Comparison unit 1094 Vector codebook 1095 Prediction coefficient storage unit 1096 Decoded vector storage unit

Claims (4)

1つのフレームを複数のサブフレームに分解して符号化を行うCELP型音声符号化装置であって、
適応符号帳及び確率的符号帳に格納された適応音源及び確率的音源に対して、入力音声から求めたLPC係数を用いてフィルタリングすることにより、合成音を得るLPC合成手段と、
前記適応音源及び前記確率的音源のゲインを求めるゲイン演算手段と、
前記入力音声と前記合成音との間の符号化歪みを用いて求められた適応音源及び確率的音源、並びに前記ゲインのベクトル量子化を行うパラメータ符号化手段と、
フレームの最初のサブフレームの適応符号帳探索を行う前に、前記複数のサブフレームのピッチ分析を行って相関値を求め、前記相関値を用いて最もピッチ周期に近似する値を代表ピッチとして算出するピッチ分析手段と、
前記相関値及び前記代表ピッチ周期に基づいて前記複数のサブフレームのラグの探索範囲を設定する探索範囲設定手段と、
を備え、
前記適応符号帳探索は、
前記ラグの探索範囲に対して行われる、
ことを特徴とする音声符号化装置。
A CELP speech coding apparatus that performs coding by decomposing one frame into a plurality of subframes,
LPC synthesis means for obtaining a synthesized sound by filtering the adaptive sound source and the stochastic sound source stored in the adaptive code book and the stochastic code book using the LPC coefficient obtained from the input speech;
Gain calculation means for obtaining gains of the adaptive sound source and the stochastic sound source,
Adaptive encoding and stochastic excitation obtained using encoding distortion between the input speech and the synthesized speech, and parameter encoding means for performing vector quantization of the gain;
Before performing an adaptive codebook search of the first subframe of a frame, a correlation value is obtained by performing a pitch analysis of the plurality of subframes, and a value closest to the pitch period is calculated as a representative pitch using the correlation value Pitch analysis means to
Search range setting means for setting a search range of lags of the plurality of subframes based on the correlation value and the representative pitch period;
With
The adaptive codebook search is:
Performed on the search range of the lag,
A speech encoding apparatus characterized by that.
前記探索範囲設定手段は、
前記相関値及び前記代表ピッチ周期を用いて、前記ラグの探索範囲の中心となる仮ピッチを求め、前記仮ピッチの前後の指定の範囲を前記ラグの探索範囲として設定する、
ことを特徴とする請求項1記載の音声符号化装置。
The search range setting means includes
Using the correlation value and the representative pitch period, obtain a provisional pitch that is the center of the lag search range, and set a designated range before and after the provisional pitch as the lag search range.
The speech encoding apparatus according to claim 1.
前記探索範囲設定手段は、
前記仮ピッチに対してラグが短い側の候補が、ラグが長い側の候補よりも少なくなるように、前記仮ピッチの前後の指定の範囲を設定する、
ことを特徴とする請求項2記載の音声符号化装置。
The search range setting means includes
Set a designated range before and after the provisional pitch so that candidates with a short lag with respect to the provisional pitch are fewer than candidates with a long lag.
The speech coding apparatus according to claim 2.
1つのフレームを複数のサブフレームに分解して符号化を行うCELP型の音声符号化プログラム;過去に合成した音源信号が格納された適応符号帳;複数の音源ベクトルを格納した確率的符号帳;を格納した、コンピュータにより読み取り可能な記録媒体であって、
前記音声符号化プログラムは、
フレームの最初のサブフレームの適応符号帳探索を行う前に、前記複数のサブフレームのピッチ分析を行って相関値を求め、前記相関値を用いて最もピッチ周期に近似する値を代表ピッチとして算出する手順と、
前記相関値及び前記代表ピッチ周期に基づいて前記複数のサブフレームのラグの探索範囲を設定する手順と、
前記ラグの探索範囲に対して前記適応符号帳探索を行う手順と、
前記適応符号帳探索により求めた適応音源及び前記確率的符号帳に格納された確率的音源に対して、入力音声から求めたLPC係数を用いてフィルタリングすることにより、合成音を得る手順と、
前記適応音源及び前記確率的音源のゲインを求める手順と、
前記入力音声と前記合成音との間の符号化歪みを用いて求められた適応音源及び確率的音源、並びに前記ゲインのベクトル量子化を行う手順と、
を含む、
ことを特徴とする記録媒体。
CELP-type speech coding program that decomposes one frame into a plurality of subframes and performs coding; an adaptive codebook in which previously synthesized excitation signals are stored; a stochastic codebook in which multiple excitation vectors are stored; Is a computer-readable recording medium storing
The speech encoding program is
Before performing an adaptive codebook search of the first subframe of a frame, a correlation value is obtained by performing a pitch analysis of the plurality of subframes, and a value closest to the pitch period is calculated as a representative pitch using the correlation value And the steps to
A procedure for setting a search range of lags of the plurality of subframes based on the correlation value and the representative pitch period;
A procedure for performing the adaptive codebook search for the search range of the lag;
A procedure for obtaining a synthesized sound by filtering the adaptive sound source obtained by the adaptive code book search and the stochastic sound source stored in the stochastic code book using the LPC coefficient obtained from the input speech;
A procedure for obtaining gains of the adaptive sound source and the stochastic sound source;
Adaptive and stochastic sound sources determined using coding distortion between the input speech and the synthesized sound, and a procedure for performing vector quantization of the gain;
including,
A recording medium characterized by the above.
JP2007121223A 1999-08-23 2007-05-01 Speech encoding device Expired - Fee Related JP4734286B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007121223A JP4734286B2 (en) 1999-08-23 2007-05-01 Speech encoding device

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP1999235050 1999-08-23
JP23505099 1999-08-23
JP1999248363 1999-09-02
JP24836399 1999-09-02
JP2007121223A JP4734286B2 (en) 1999-08-23 2007-05-01 Speech encoding device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000252349A Division JP4034929B2 (en) 1999-08-23 2000-08-23 Speech encoding device

Publications (2)

Publication Number Publication Date
JP2007279754A true JP2007279754A (en) 2007-10-25
JP4734286B2 JP4734286B2 (en) 2011-07-27

Family

ID=38681178

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007121223A Expired - Fee Related JP4734286B2 (en) 1999-08-23 2007-05-01 Speech encoding device

Country Status (1)

Country Link
JP (1) JP4734286B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2466669A (en) * 2009-01-06 2010-07-07 Skype Ltd Encoding speech for transmission over a transmission medium taking into account pitch lag
US8396706B2 (en) 2009-01-06 2013-03-12 Skype Speech coding
US8433563B2 (en) 2009-01-06 2013-04-30 Skype Predictive speech signal coding
US8452606B2 (en) 2009-09-29 2013-05-28 Skype Speech encoding using multiple bit rates
US8463604B2 (en) 2009-01-06 2013-06-11 Skype Speech encoding utilizing independent manipulation of signal and noise spectrum
US8655653B2 (en) 2009-01-06 2014-02-18 Skype Speech coding by quantizing with random-noise signal
US8670981B2 (en) 2009-01-06 2014-03-11 Skype Speech encoding and decoding utilizing line spectral frequency interpolation
US9530423B2 (en) 2009-01-06 2016-12-27 Skype Speech encoding by determining a quantization gain based on inverse of a pitch correlation

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03123113A (en) * 1989-10-05 1991-05-24 Fujitsu Ltd Pitch period retrieving system
JPH06130996A (en) * 1992-10-16 1994-05-13 Oki Electric Ind Co Ltd Code excitation linear predictive encoding and decoding device
JPH07271393A (en) * 1994-03-28 1995-10-20 Sony Corp Audio pitch extracting device and audio processing device
JPH1055199A (en) * 1996-05-25 1998-02-24 Samsung Electron Co Ltd Voice coding and decoding method and its device
JPH10240295A (en) * 1997-03-03 1998-09-11 Oki Electric Ind Co Ltd Voice synthesizing method and voice synthesizer
JPH113098A (en) * 1997-06-12 1999-01-06 Toshiba Corp Method and device of encoding speech

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03123113A (en) * 1989-10-05 1991-05-24 Fujitsu Ltd Pitch period retrieving system
JPH06130996A (en) * 1992-10-16 1994-05-13 Oki Electric Ind Co Ltd Code excitation linear predictive encoding and decoding device
JPH07271393A (en) * 1994-03-28 1995-10-20 Sony Corp Audio pitch extracting device and audio processing device
JPH1055199A (en) * 1996-05-25 1998-02-24 Samsung Electron Co Ltd Voice coding and decoding method and its device
JPH10240295A (en) * 1997-03-03 1998-09-11 Oki Electric Ind Co Ltd Voice synthesizing method and voice synthesizer
JPH113098A (en) * 1997-06-12 1999-01-06 Toshiba Corp Method and device of encoding speech

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8463604B2 (en) 2009-01-06 2013-06-11 Skype Speech encoding utilizing independent manipulation of signal and noise spectrum
GB2466669A (en) * 2009-01-06 2010-07-07 Skype Ltd Encoding speech for transmission over a transmission medium taking into account pitch lag
GB2466669B (en) * 2009-01-06 2013-03-06 Skype Speech coding
US8396706B2 (en) 2009-01-06 2013-03-12 Skype Speech coding
US8433563B2 (en) 2009-01-06 2013-04-30 Skype Predictive speech signal coding
US10026411B2 (en) 2009-01-06 2018-07-17 Skype Speech encoding utilizing independent manipulation of signal and noise spectrum
US8392178B2 (en) 2009-01-06 2013-03-05 Skype Pitch lag vectors for speech encoding
US8639504B2 (en) 2009-01-06 2014-01-28 Skype Speech encoding utilizing independent manipulation of signal and noise spectrum
US8849658B2 (en) 2009-01-06 2014-09-30 Skype Speech encoding utilizing independent manipulation of signal and noise spectrum
US8670981B2 (en) 2009-01-06 2014-03-11 Skype Speech encoding and decoding utilizing line spectral frequency interpolation
US8655653B2 (en) 2009-01-06 2014-02-18 Skype Speech coding by quantizing with random-noise signal
US9263051B2 (en) 2009-01-06 2016-02-16 Skype Speech coding by quantizing with random-noise signal
US9530423B2 (en) 2009-01-06 2016-12-27 Skype Speech encoding by determining a quantization gain based on inverse of a pitch correlation
US8452606B2 (en) 2009-09-29 2013-05-28 Skype Speech encoding using multiple bit rates

Also Published As

Publication number Publication date
JP4734286B2 (en) 2011-07-27

Similar Documents

Publication Publication Date Title
US7383176B2 (en) Apparatus and method for speech coding
JP4870313B2 (en) Frame Erasure Compensation Method for Variable Rate Speech Encoder
JP4734286B2 (en) Speech encoding device
US7693711B2 (en) Speech signal decoding method and apparatus
EP3537438A1 (en) Quantizing method, and quantizing apparatus
WO2001052241A1 (en) Multi-mode voice encoding device and decoding device
US7110943B1 (en) Speech coding apparatus and speech decoding apparatus
JPH09127991A (en) Voice coding method, device therefor, voice decoding method, and device therefor
JPH1097296A (en) Method and device for voice coding, and method and device for voice decoding
EP1619666A1 (en) Speech decoder, speech decoding method, program, recording medium
EP1187337B1 (en) Speech coding processor and speech coding method
JP4034929B2 (en) Speech encoding device
EP1397655A1 (en) Method and device for coding speech in analysis-by-synthesis speech coders
JP3175667B2 (en) Vector quantization method
JP3700310B2 (en) Vector quantization apparatus and vector quantization method
JP2000089797A (en) Speech encoding apparatus
CA2513842C (en) Apparatus and method for speech coding
JPH09269798A (en) Voice coding method and voice decoding method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110405

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110425

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140428

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4734286

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees