KR19980031885A - An Adaptive Codebook Search Method Based on a Correlation Function in Code-Excited Linear Predictive Coding - Google Patents

An Adaptive Codebook Search Method Based on a Correlation Function in Code-Excited Linear Predictive Coding Download PDF

Info

Publication number
KR19980031885A
KR19980031885A KR1019960051450A KR19960051450A KR19980031885A KR 19980031885 A KR19980031885 A KR 19980031885A KR 1019960051450 A KR1019960051450 A KR 1019960051450A KR 19960051450 A KR19960051450 A KR 19960051450A KR 19980031885 A KR19980031885 A KR 19980031885A
Authority
KR
South Korea
Prior art keywords
adaptive codebook
quot
search method
gain
codebook search
Prior art date
Application number
KR1019960051450A
Other languages
Korean (ko)
Other versions
KR100366700B1 (en
Inventor
김홍국
조용덕
김상룡
Original Assignee
김광호
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김광호, 삼성전자 주식회사 filed Critical 김광호
Priority to KR1019960051450A priority Critical patent/KR100366700B1/en
Publication of KR19980031885A publication Critical patent/KR19980031885A/en
Application granted granted Critical
Publication of KR100366700B1 publication Critical patent/KR100366700B1/en

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • G10L19/125Pitch excitation, e.g. pitch synchronous innovation CELP [PSI-CELP]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

본 발명은 코드여기 선형 예측 (Code-Excited Linear Prediction) 부호화에 있어서의 적응 코드북 탐색 방법에 관한 것으로서 더욱 상세하게는 과거의 여기 신호로부터 이득 벡터를 추정하고, 이 추정된 값으로부터 3차의 이득 벡터를 스칼라로 표현할 수 있게하는 적응 코드북 탐색 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an adaptive codebook search method in code-excited linear prediction, and more particularly, to a method and apparatus for estimating a gain vector from a past excitation signal, To an adaptive codebook search method that can be expressed as a scalar.

본 발명에 따른 적응 코드북 탐색 방법은 여기 신호의 상관을 이용하여 multi-gain을 single-gain으로 모델링할 수 있다. 따라서, 본 발명에 따른 적응 코드북 탐색 방법을 통하여 CELP구조에서의 Multi-tap Multi-gain Adaptive Codebook(MMAC) 방식이 갖는 부호화 성능을 가지면서 부프레임당 2bits의 절감 효과를 가져올 수 있다.The adaptive codebook search method according to the present invention can model a multi-gain with a single gain using the correlation of excitation signals. Therefore, through the adaptive codebook search method according to the present invention, the encoding performance of the Multi-tap Multi-gain Adaptive Codebook (MMAC) scheme in the CELP structure can be reduced and a saving effect of 2 bits per subframe can be obtained.

Description

코드여기 선형 예측 부호화에 있어서 상관함수에 기초한 적응 코드북 탐색 방법An Adaptive Codebook Search Method Based on a Correlation Function in Code-Excited Linear Predictive Coding

본 발명은 코드여기 선형 예측 (Code-Excited Linear Prediction) 부호화에 있어서의 적응 코드북 탐색 방법에 관한 것으로서 더욱 상세하게는 과거의 여기 신호로부터 이득 벡터를 추정하고, 이 추정된 값으로부터 3차의 이득 벡터를 스칼라로 표현할 수 있게 하는 적응 코드북 탐색 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an adaptive codebook search method in code-excited linear prediction, and more particularly, to a method and apparatus for estimating a gain vector from a past excitation signal, To an adaptive codebook search method that can be expressed as a scalar.

코드여기 선형 예측 (이하 CELP라 함) 부호화기는 크게 피치 필터(pitch filter)와 잡음 코드북으로 구성되어있다. 피치 필터는 음성의 주기성을 모델링하기 위해 사용되며 이를 구현하는 하나의 방법으로 적응 코드북(adaptive codebook)이라는 구조를 사용하는 것이 일반적이다.The code excitation linear prediction (hereinafter referred to as CELP) coder consists mainly of a pitch filter and a noise codebook. The pitch filter is used to model the periodicity of speech, and it is common to use a structure called an adaptive codebook as a method of implementing the pitch periodicity.

적응 코드북 탐색은 과거의 여기 신호를 가지고 현재 분석하고자 하는 음성에 가장 적당한 주기와 이득 값을 구하는 것이다. 음성의 피치를 샘플 간격으로 표시할 경우 적응 코드북은 피치 간격이 정확히 정수 값인 분석 음성에 대해서는 우수한 성능을 보인다. 반면 피치 간격이 샘플 간격의 정수배가 아닌 경우 적응 코드북은 급격히 떨어지는 성능을 보인다. 이러한 경우 성능을 유지하기 위하여 fractional pitch 방식과 multi-tap adaptive codebook 방식이 제안되어 왔다.The adaptive codebook search is to obtain the most suitable period and gain value for the speech to be analyzed with the past excitation signal. When the pitch of the speech is represented by the sample interval, the adaptive codebook shows excellent performance for the analysis speech in which the pitch interval is an integer value exactly. On the other hand, if the pitch interval is not an integral multiple of the sample interval, the adaptive codebook exhibits a sharp fall performance. In this case, a fractional pitch method and a multi-tap adaptive codebook method have been proposed to maintain the performance.

Fractional pitch(이하 FP라 함) 방식은 분석 음성의 피치를 정수가 아닌 소수로 가정한다. 일반적으로 부호화기의 전송 용량을 고려하여 0.25단위의 소수만을 피치로 가정한다. 우선 분석 음성으로부터 0.25단위의 분해능을 얻기 위해 음성을 오버샘플링(oversampling)한다. 또한 과거 여기 신호도 4배의 오버샘플링을 행한 후 상기에서 설명한 바와 같이 적응 코드북 탐색을 통해 주기와 이득 값을 구한다.Fractional pitch (hereinafter referred to as FP) assumes that the pitch of the analysis speech is a prime rather than an integer. Generally, considering a transmission capacity of an encoder, only a fraction of 0.25 units is assumed as a pitch. First, the speech is oversampled to obtain a resolution of 0.25 units from the analyzed speech. Also, the oversampling of the past excitation signal is performed four times, and the period and the gain value are obtained through the adaptive codebook search as described above.

이러한 FP 방식은 피치의 변화가 정수가 아닌 경우에도 적응 코드북의 성능을 그대로 유지할 수 있는 반면 오버샘플링을 위한 계산 및 분석 음성과의 비교를 위한 임펄스 응답 필터링(impulse response filtering) 등을 위해 4배 이상의 계산이 요구된다. 이와 함께 FP를 전송하기 위한 부가 비트가 요구된다. 예를 들면 0.25단위의 FP방식을 위해서는 2bits가 추가되어야 한다.This FP method can maintain the performance of the adaptive codebook even if the pitch change is not an integer, while it can maintain the performance of the adaptive codebook for the oversampling and the impulse response filtering for comparison with the analyzed speech. Calculation is required. In addition, an additional bit for transmitting FP is required. For example, for FP method of 0.25 unit, 2 bits should be added.

정수형 적응 코드북은 지연과 이득 값이 각각 한 개로 구성되므로 Single-tap Single-gain Adaptive Codebook(이하 SSAC라 함)이라 할 수 있다. 적응 코드북은 임의의 수로 구성된 지연과 이득을 갖는 Multi-tap Multi-gain Adaptive Codebook(이하 MMAC라 함) 구조로 일반화될 수 있다. Multi-tap 구조는 전송 용량의 한계 때문에 tap-delay는 기준값(피치 지연)의 근처에 존재한다. 다시 말해서 피치 지연을 T, tap수를 (2M+1)이라 하면 tap-delay는 (T-M, T-M+1,,,,T-1,T,T+1,,,,T+M)으로 표현된다. 이때 이득 값은의 벡터가 된다.The integer type adaptive codebook can be called a single-tap single-gain adaptive codebook (hereinafter referred to as SSAC) since the delay and the gain are each configured to be one. The adaptive codebook can be generalized to a Multi-tap Multi-gain Adaptive Codebook (hereinafter referred to as MMAC) structure having an arbitrary number of delays and gains. Because of the limit of the transmission capacity, the tap-delay exists near the reference value (pitch delay) in the multi-tap structure. In other words, when the pitch delay is T and the tap number is (2M + 1), the tap delay is (TM, T-M + 1 ,,,, T-1, T, T + 1, . At this time, .

FP방식이 FP를 위해 비트 증가가 필요한 반면 MMAC 방식은 SSAC 방식에 비해 이득 벡터에 추가 비트를 할당해야 한다는 문제점이 있다.The FP scheme requires a bit increase for FP, whereas the MMAC scheme requires an additional bit in the gain vector compared to the SSAC scheme.

본 발명은 상기의 문제점을 해결하기 위하여 안출된 것으로서 SSAC 방식이 갖는 저전송률의 이점과 MMAC 방식에서의 성능 향상을 동시에 고려한 새로운 적응 코드북 탐색 방법을 제공하는 것을 그 목적으로 한다.It is an object of the present invention to provide a new adaptive codebook search method that simultaneously takes advantage of the low transmission rate of the SSAC scheme and the performance improvement of the MMAC scheme.

도 1은 종래의 CELP부호화 과정을 보이는 과정도이다.1 is a flowchart illustrating a conventional CELP encoding process.

도 2는 종래의 적응 코드북 탐색 과정을 보이는 과정도이다.FIG. 2 is a flowchart illustrating a conventional adaptive codebook search process.

도 3은 종래의 잡음 코드북 탐색 과정을 보이는 과정도이다.3 is a flowchart illustrating a conventional noise codebook search process.

도 4는 MMAC 방식에서의 피치의 소수 부분 변화에 따른 이득값의 범위를 보이는 그래프이다.4 is a graph showing the range of gain values according to the change of the decimal part of the pitch in the MMAC system.

도 5는 본 발명에 따른 적응 코드북 탐색 방법을 보이는 과정도이다.5 is a flowchart illustrating an adaptive codebook search method according to the present invention.

상기의 목적을 달성하는 본 발명에 따른 적응 코드북 탐색 방법은According to another aspect of the present invention, there is provided an adaptive codebook search method,

과거의 여기 신호를 하기의 식과 같이 이차 smoothing filter로 모델링하는 과정;Past excitation signal Modeling with a secondary smoothing filter as follows:

상기의 오차 신호의 제곱의 합을 최소화하는 계수,를 하기의 식에 의해 구하는 과정;remind A coefficient that minimizes the sum of the square of the error signal of , By the following equation;

상기 계수,를 이용하여 하기의 식으로 보여지는 여기 신호를 얻는 과정;The coefficient , To obtain an excitation signal represented by the following equation;

상기로부터 하기의 식을 만족하는 피치 지연 T, 그리고 이득 값 α를 구하는remind A pitch delay T satisfying the following expression, and a gain value?

여기서,는 각각 적응 코드북 여기 신호 및 필터를 통과한 후의 신호로서here, Wow As the signal after passing through the adaptive codebook excitation signal and the filter respectively

임. being.

과정을 포함함을 특징으로 한다.The method comprising the steps of:

본 발명에 따른 적응 코드북 탐색 방법은 여기 신호의 상관을 이용하여 multi-gain을 single-gain으로 모델링할 수 있다. 따라서, 본 발명에 따른 적응 코드북 탐색 방법을 통하여 CELP구조에서의 MMAC 방식이 갖는 부호화 성능을 가지면서 부프레임당 2bits의 절감 효과를 가져올 수 있다.The adaptive codebook search method according to the present invention can model a multi-gain with a single gain using the correlation of excitation signals. Therefore, through the adaptive codebook search method according to the present invention, the coding performance of the MMAC scheme in the CELP structure can be reduced and a saving effect of 2 bits per subframe can be obtained.

이하 첨부된 도면을 참조하여 본 발명을 상세히 설명한다.BRIEF DESCRIPTION OF THE DRAWINGS FIG.

도 1은 종래의 CELP 부호화기의 부호화 과정을 보이는 과정도이다.FIG. 1 is a flowchart illustrating a coding process of a conventional CELP encoder.

도 1에 도시된 과정도에 있어서 제101단계에서는 분석하고자 하는 음성의 일정 구간(프레임)을 샘플링한다. 일반적으로 1프레임은 20-30ms 즉, 8KHz 샘플링의 경우 160-240개의 샘플 값에 해당한다.In the process shown in FIG. 1, in step 101, a certain period (frame) of a voice to be analyzed is sampled. Generally, one frame corresponds to 20 to 30 ms, that is, 160 to 240 sample values for 8 KHz sampling.

제102단계에서는 샘플링된 1프레임의 음성 데이터에 대해 직류 성분을 제거하기 위한 고역 여파 처리(high pass filtering)를 행한다.In operation 102, high-pass filtering is performed on the sampled audio data of one frame to remove direct current components.

제103단계에서는 선형 예측 기법을 사용하여 음성의 특징 파라메터를 구한다. 이들 특징 파라메터(이하 LPC계수라 함)는 수학식 1과 같이 창함수(window function)로 가중된 음성신호에 대해 이를 p차의 선형 다항식으로 근사화시키는 경우에 있어서 구해지는 다항식의 계수에 해당한다.In operation 103, the feature parameters of the speech . These feature parameters (hereinafter referred to as LPC coefficients) correspond to the coefficients of a polynomial obtained when a speech signal weighted by a window function is approximated to a linear polynomial of a p-th order as shown in Equation (1).

[수학식 1][Equation 1]

여기서,이고, 수학식 2의 값을 최소화하는 계수에 해당한다.here, And corresponds to a coefficient that minimizes the value of Equation (2).

[수학식 2]&Quot; (2) "

여기서,이다.here, to be.

이렇게 얻어진 LPC계수는 양자화되어 전송되기에 앞서 제104단계에서 전송 시 효율을 좋게 하고 부프레임 보간(subframe interpolation)특성이 좋은 선스펙트럼쌍(Line Spectrum Pairs; 이하 LSP)계수로 변환된다.The LPC coefficients thus obtained are converted into Line Spectrum Pairs (LSP) coefficients having better subframe interpolation characteristics in step 104 before being quantized and transmitted.

이 LSP계수는 제105단계에서 양자화된다.The LSP coefficients are quantized in operation 105.

제106단계에서는 부호화기와 복호화기의 동기를 맞추기 위해 LSP계수를 역양자화시킨다.In operation 106, the LSP coefficient is inversely quantized to synchronize the encoder and the decoder.

이렇게 분석된 음성 파라메터로부터 음성의 주기성을 제거하고, 잡응 코드북으로 모델링하기 위해 음성 구간을 4개의 부프레임으로 자세히 나눈다. 즉, 각 부프레임의 음성 구간 길이는가 된다.The speech periodicity is removed from the analyzed speech parameters, and the speech interval is divided into four subframes in detail to model it as the adaptive codebook. That is, the lengths of the voice segments of each subframe are .

s번째 부프레임에 대한 i번째 음성에 대한 LSP계수는 다음의 수학식 3과 같이 얻을 수 있다.The LSP coefficient for the i < th > Can be obtained by the following equation (3).

[수학식 3]&Quot; (3) "

여기서,는 각각 바로 전 프레임과 현재 프레임의 i번째 LSP계수를 나타낸다.here, Wow Represents the i-th LSP coefficient of the immediately preceding frame and the current frame, respectively.

제108단계에서는 LSP계수를 LPC계수로 변환시킨다. 그리고 제109단계, 제110단계, 제111단계에서는 부프레임 LPC계수로부터 음성 합성 필터와 오차 가중 필터를 구성한다.In operation 108, the LSP coefficients are converted into LPC coefficients. In steps 109, 110, and 111, a speech synthesis filter and an error weighting filter are constructed from the sub-frame LPC coefficients.

음성합성 필터와 오차 가중 필터는 다음의 수학식 4 및 수학식 5로 나타내어진다.Speech synthesis filter And error weighting filter Is expressed by the following equations (4) and (5).

[수학식 4]&Quot; (4) "

[수학식 5]&Quot; (5) "

여기서,는 LSP계수로부터 변환된 LPC계수이다.here, LSP coefficient Lt; / RTI >

제109단계는 바로 전 부프레임의 합성 필터의 영향을 제거해 준다. Zero-Input-Response(ZIR),는 다음의 수학식 6과 같이 구할 수 있다.Step 109 removes the influence of the synthesis filter of the previous subframe. Zero-Input-Response (ZIR), Can be obtained by the following Equation (6).

[수학식 6]&Quot; (6) "

여기서,는 바로 전 프레임에서의 합성 신호를 의미한다.here, Indicates a synthesized signal in the immediately preceding frame.

이 ZIR의 결과를 원 음성신호 S(n)에서 뺀다. 이를라 한다.The result of this ZIR is subtracted from the original speech signal S (n). This .

제113단계와 제114단계는 각각 적응 코드북과 잡음 코드북 중에서에 가장 근사한 코드북을 찾는 과정에 해당한다.Step 113 and Step 114 are respectively the adaptive codebook and the noise codebook Which is the closest to the codebook search.

도 2는 종래의 적응 코드북의 탐색 과정을 보이는 과정도이다. 수학식 5에 해당하는 오차 가중 필터는 신호과 음성합성 필터에 각각 적용된다.에 오차 가중 필터를 적용한 신호를라 한다. 먼저 SSAC 방식의 경우에 대해 기술한다.2 is a flowchart illustrating a conventional search process of an adaptive codebook. The error weight filter corresponding to Equation (5) The signal And a speech synthesis filter, respectively. A signal to which an error weighting filter is applied . First, the case of the SSAC scheme will be described.

적응 코드북을 이용하여 L의 지연을 갖고 만들어지는 값을이라 하면 제202단계에서 필터링된 신호는이고 두 신호의 차를 최소화하는을 제203단계에서 다음의 수학식 7 내지 수학식 9에 의해 찾는다.Using the adaptive codebook, the value produced with a delay of L The signal filtered in operation 202 is And minimizes the difference between the two signals Wow Is found by the following Equation (7) to Equation (9) in Step 203.

[수학식 7]&Quot; (7) "

[수학식 8]&Quot; (8) "

[수학식 9]&Quot; (9) "

이렇게 구해진로부터 구해진 오차 신호를이라 한다. 이 값은 수학식 10과 같다.The Wow The error signal Quot; This value is expressed by Equation (10).

[수학식 10]&Quot; (10) "

그러므로 SSAC 방식의 탐색 결과는 수학식 8과 수학식 9의이 된다.Therefore, the search result of the SSAC scheme is expressed by Equations 8 and 9 .

MMAC 방식의 탐색은 SSAC 방식과 유사하다. 여기서는, MMAC 방식의 multi-tap의 수가 3인 경우 즉, M=1인 경우에 한정하여 기술하기로 한다. L의 지연을 가지고 만들어지는 여기 신호를이라 하면 MMAC를 위한 여기 신호는,, 그리고의 세 가지가 사용된다.The MMAC scheme is similar to the SSAC scheme. Here, description will be made only when the number of multi-tap in the MMAC scheme is 3, that is, when M = 1. The excitation signal generated with a delay of L The excitation signal for MMAC is , , And Are used.

제202단계의 필터를 통과한 후의 신호를 각각,, 그리고으로 표현된다. 따라서 target 신호와의 차는 다음의 수학식 11과 같이 표현된다.The signals after passing through the filter of step 202 are , , And . Therefore, the difference from the target signal is expressed by Equation (11).

[수학식 11]&Quot; (11) "

수학식 11의 제곱의 합을 최소화하는,는 다음의 수학식 12 및 수학식 13과 같이 주어진다.Minimizing the sum of the squares of Equation (11) , Is given by the following equations (12) and (13).

[수학식 12]&Quot; (12) "

[수학식 14]&Quot; (14) "

오차 신호은 다음 수학식 14와 같다.Error signal Is expressed by the following equation (14).

[수학식 13]&Quot; (13) "

MMAC 방식이 SSAC 방식에 비해 우수한 성능을 보이는 반면 이득 값이 벡터로 주어지므로 스칼라 양자화기보다 2bits이상이 요구되는 벡터 양자화기로 양자화하여야 한다.Since the MMAC scheme performs better than the SSAC scheme, but the gain is given as a vector, it must be quantized by a vector quantizer that requires more than 2 bits over the scalar quantizer.

도 3은 종래의 잡음 코드북의 탐색 과정을 보이는 과정도이다. M개로 구성된 잡음 코드북 중의 i번째 코드어를라 하면 제301단계에서 필터링된 신호는이 된다. 최적의 코드어와 코드북 이득은 다음의 수학식 15 내지 수학식 17과 같다.3 is a flowchart illustrating a conventional noise codebook search process. The i-th code word of the M codebook The signal filtered in operation 301 is . The optimal code word and codebook gain are expressed by the following equations (15) to (17).

[수학식 15]&Quot; (15) "

[수학식 16]&Quot; (16) "

[수학식 17]&Quot; (17) "

최종적으로 얻어지는 음성 필터의 여기 신호는 SSAC방식의 경우 수학식 18과 같이 나타내어지고,The finally obtained excitation signal of the voice filter is expressed by Equation (18) for the SSAC scheme,

[수학식 18]&Quot; (18) "

MMAC방식의 경우 수학식 19와 같이 나타내어진다.In the case of the MMAC scheme, Equation 19 is used.

[수학식 19]&Quot; (19) "

수학식 19의 결과는 다음 부프레임의 분석을 위한 적응 코드북을 갱신하는 데 이용된다.The result of Equation 19 is used to update the adaptive codebook for analysis of the next subframe.

도 4는 MMAC 방식에서의 정수 피치 T와 소수 피치 P에 따른 이득 값의 분포를 보이는 그래프이다. 우선 음성의 스펙트럼 특성이 피치간격의 변화에 관계없이 일정하다고 가정한다.4 is a graph showing the distribution of gain values according to the integer pitch T and the decimal pitch P in the MMAC system. First, it is assumed that the spectral characteristics of speech are constant regardless of the change in the pitch interval.

예를 들어, T=30, P=30.25인 경우는는 0.0에서 1.0사이의 값을 갖는다. 또한,은 0.0이 된다. 반대로, T=30, P=29.75인 경우는이 0.0이 되고,은 0.0에서 1.0사이의 값을 갖는다. 그리고, T=P인 경우에는이 되고,로 FP방식과 MMAC 방식, 그리고 SSAC 방식이 동일하게 된다.For example, if T = 30 and P = 30.25 Has a value between 0.0 and 1.0. Also, 0.0 > Conversely, when T = 30 and P = 29.75 0.0 < / RTI > Has a value between 0.0 and 1.0. If T = P Lt; / RTI & The FP method, the MMAC method, and the SSAC method are the same.

본 발명에서는 과거의 여기 신호로부터 이득 벡터를 추정한다. 이 추정된 값으로부터 3차의 이득 벡터를 스칼라로 표현할 수 있게 된다. 결국 multi-tap의 구조를 가지면서 scalar gain으로 적응 코드북을 설계할 수 있다.In the present invention, a gain vector is estimated from past excitation signals. From this estimated value, the third order gain vector can be represented by scalar. As a result, an adaptive codebook can be designed with a scalar gain while having a multi-tap structure.

다음은 본 발명을 통하여 안출된 MSAC 방식의 동작을 기술한다.The following describes the operation of the MSAC scheme that is devised through the present invention.

적응 코드북의 여기 신호는 도 4와 전술한 바와 같이 다음의 수학식 20과 같이 변형될 수 있다.The excitation signal of the adaptive codebook can be modified as shown in FIG. 4 and the following equation (20).

[수학식 20]&Quot; (20) "

즉, MMAC 방식의 이득 값들은 다음의 수학식 21로 보여지는 조건을 만족한다.That is, the gain values of the MMAC scheme satisfy the condition shown in the following Equation (21).

[수학식 21]&Quot; (21) "

세 가지 이득 값간의 관계는 수학식 22와 같다.The relationship between the three gain values is shown in Equation (22).

[수학식 22]&Quot; (22) "

도 5는 본 발명에 따른 MSAC의 탐색 과정을 보이는 과정도이다.5 is a flowchart illustrating a search process of the MSAC according to the present invention.

본 발명에서는,,대신에,를 과거 여기 신호로 추정하고 적응 코드북 탐색 과정에서는 전체 이득 α만을 계산해 낸다.In the present invention, , , Instead of , Is estimated as an excitation signal in the past and only the entire gain? Is calculated in the adaptive codebook search process.

여기서,,는 과거 여기 신호에 대해 다음의 수학식 23과 같이 이차 smoothing filter의 계수로 모델링할 수 있다.here, , Past excitation signal Can be modeled as a coefficient of a secondary smoothing filter as shown in the following Equation (23).

[수학식 23]&Quot; (23) "

수학식 23의 오차 신호의 제곱의 합을 최소화하는 계수,는 다음의 수학식 24와 같이 구할 수 있다.A coefficient that minimizes the sum of squares of the error signal of Equation (23) , Can be obtained by the following equation (24).

[수학식 24]&Quot; (24) "

수학식 24로부터 얻은 계수,를 수학식 20에 대합하고 SSAC와 같이 피치 지연 T, 그리고 이득 값 α를 다음의 수학식 25와 같이 구한다.The coefficient obtained from equation (24) , The pitch delay T, and the gain value? As shown in Equation (25) as in Equation (20).

[수학식 25]&Quot; (25) "

여기서,는 각각 수학식 20의 적응 코드북 여기 신호 및 제 202단계의 필터를 통과한 후의 신호에 해당하며 수학식 26과 같이 표현된다.here, Wow Corresponds to the adaptive codebook excitation signal of Equation (20) and the signal after passing through the filter of Step 202 and is expressed as Equation (26).

[수학식 26]&Quot; (26) "

최종적인 오차 신호은 다음의 수학식 26과 같이 되며, 제403단계에서 구해진다.The final error signal Is calculated by the following equation (26), and obtained in step 403.

[수학식 27]&Quot; (27) "

상술한 바와 같이 본 발명에 따른 적응 코드북의 탐색 방법은 과거의 여기 신호로부터 이득 벡터를 추정하고, 이 추정된 값으로부터 3차의 이득 벡터를 스칼라로 표현할 수 있게 하여 multi-tap 의 구조를 가지면서 scalar gain으로 적응 코드북을 설계할 수 있게 하는 효과를 갖는다.As described above, the adaptive codebook search method according to the present invention has a multi-tap structure by estimating a gain vector from a past excitation signal and expressing a third-order gain vector from the estimated value in scalar it is possible to design an adaptive codebook with a scalar gain.

Claims (1)

코드여기 선형 예측 (Code-Excited Linear Prediction) 부호화의 적응 코드북 탐색 방법에 있어서,1. An adaptive codebook search method of code-excited linear prediction coding, 과거의 여기 신호를 하기의 식과 같이 이차 smoothing filter로 모델링하는 과정;Past excitation signal Modeling with a secondary smoothing filter as follows: 상기의 오차 신호의 제곱의 합을 최소화하는 계수,를 하기의 식에 의해 구하는 과정;remind A coefficient that minimizes the sum of the square of the error signal of , By the following equation; 상기 계수,를 이용하여 하기의 식으로 보여지는 여기 신호를 얻는 과정; 및The coefficient , To obtain an excitation signal represented by the following equation; And 상기로부터 하기의 식을 만족하는 피치 지연 T, 그리고 이득 값 α를 구하는 과정remind A pitch delay T satisfying the following expression, and a process of obtaining a gain value? (여기서,는 각각 적응 코드북 여기 신호 및 필터를 통과한 후의 신호로서(here, Wow As the signal after passing through the adaptive codebook excitation signal and the filter respectively 임) being) 을 포함하는 적응 코드북 탐색 방법./ RTI >
KR1019960051450A 1996-10-31 1996-10-31 Adaptive codebook searching method based on correlation function in code-excited linear prediction coding KR100366700B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019960051450A KR100366700B1 (en) 1996-10-31 1996-10-31 Adaptive codebook searching method based on correlation function in code-excited linear prediction coding

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019960051450A KR100366700B1 (en) 1996-10-31 1996-10-31 Adaptive codebook searching method based on correlation function in code-excited linear prediction coding

Publications (2)

Publication Number Publication Date
KR19980031885A true KR19980031885A (en) 1998-07-25
KR100366700B1 KR100366700B1 (en) 2003-02-19

Family

ID=37491132

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019960051450A KR100366700B1 (en) 1996-10-31 1996-10-31 Adaptive codebook searching method based on correlation function in code-excited linear prediction coding

Country Status (1)

Country Link
KR (1) KR100366700B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9336790B2 (en) 2006-12-26 2016-05-10 Huawei Technologies Co., Ltd Packet loss concealment for speech coding

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5195137A (en) * 1991-01-28 1993-03-16 At&T Bell Laboratories Method of and apparatus for generating auxiliary information for expediting sparse codebook search
JP3254687B2 (en) * 1991-02-26 2002-02-12 日本電気株式会社 Audio coding method
US5265190A (en) * 1991-05-31 1993-11-23 Motorola, Inc. CELP vocoder with efficient adaptive codebook search
US5187745A (en) * 1991-06-27 1993-02-16 Motorola, Inc. Efficient codebook search for CELP vocoders
JPH06186998A (en) * 1992-12-15 1994-07-08 Nec Corp Code book search system of speech encoding device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9336790B2 (en) 2006-12-26 2016-05-10 Huawei Technologies Co., Ltd Packet loss concealment for speech coding
US10083698B2 (en) 2006-12-26 2018-09-25 Huawei Technologies Co., Ltd. Packet loss concealment for speech coding

Also Published As

Publication number Publication date
KR100366700B1 (en) 2003-02-19

Similar Documents

Publication Publication Date Title
EP0409239B1 (en) Speech coding/decoding method
JP3392412B2 (en) Voice coding apparatus and voice encoding method
EP1338002B1 (en) Method and apparatus for one-stage and two-stage noise feedback coding of speech and audio signals
KR100304682B1 (en) Fast Excitation Coding for Speech Coders
EP0698877A2 (en) Postfilter and method of postfiltering
RU2005137320A (en) METHOD AND DEVICE FOR QUANTIZATION OF AMPLIFICATION IN WIDE-BAND SPEECH CODING WITH VARIABLE BIT TRANSMISSION SPEED
KR100389895B1 (en) Method for encoding and decoding audio, and apparatus therefor
KR100748381B1 (en) Method and apparatus for speech coding
US5598504A (en) Speech coding system to reduce distortion through signal overlap
EP0819303B1 (en) Predictive split-matrix quantization of spectral parameters for efficient coding of speech
US6101464A (en) Coding and decoding system for speech and musical sound
JPH0341500A (en) Low-delay low bit-rate voice coder
JP2002268686A (en) Voice coder and voice decoder
EP1114415B1 (en) Linear predictive analysis-by-synthesis encoding method and encoder
KR100366700B1 (en) Adaptive codebook searching method based on correlation function in code-excited linear prediction coding
JP2968109B2 (en) Code-excited linear prediction encoder and decoder
US5826223A (en) Method for generating random code book of code-excited linear predictive coding
CA2118986C (en) Speech coding system
KR100389898B1 (en) Method for quantizing linear spectrum pair coefficient in coding voice
JP3229784B2 (en) Audio encoding / decoding device and audio decoding device
JP3274451B2 (en) Adaptive postfilter and adaptive postfiltering method
JP2000305597A (en) Coding for speech compression
JP3144244B2 (en) Audio coding device
JPH06222796A (en) Audio encoding system
JPH0473699A (en) Sound encoding system

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20081127

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee